eBooks

Empirische Sozialforschung

Modelle und Methoden der standardisierten Datenerhebung und Datenauswertung mit Annotationen aus qualitativ-interpretativer Perspektive

1010
2016
978-3-8385-8681-6
978-3-8252-8681-1
UTB 
Helmut Kromrey
Jochen Roose
Jörg Strübing

Diese Einführung in die standardisierte empirische Sozialforschung mit Annotationen aus qualitativ-interpretativer Perspektive erscheint nun grundlegend überarbeitet und didaktisch aufbereitet in der 13. Auflage. Ausgehend von wissenschaftstheoretischen Fragen werden die Schritte des realen Forschungsprozesses detailliert und anwendungsnah behandelt. Sozialwissenschaftliche Beispiele veranschaulichen die Darstellung. Annotationen zu jedem Abschnitt erläutern Ähnlichkeiten und Unterschiede zur qualitativ-interpretativen Perspektive. Zur Vertiefung und für praktische Detailfragen gibt es zahlreiche Verweise auf weiterführende Literatur. Das Buch setzt keine Vorkenntnisse voraus. Es eignet sich für den Neueinstieg, aber auch für das tiefergehende Verständnis vorliegender Sozialforschung und zum Einstieg in eine eigene Erhebung und Analyse.

<?page no="1"?> www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 2 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 3 Prof. i. R. Dr. Helmut Kromrey, bis 2004 Inhaber des Lehrstuhls für Soziologie und Methodenlehre an der Freien Universität Berlin; Arbeits- und Forschungsschwerpunkte: Bildung und Beruf, Medien, Stadt, Wissenschaftstheorie und empirische Forschung, Evaluation. Prof. Dr. Jochen Roose ist Professor für Sozialwissenschaften am Willy Brandt Zentrum für Deutschland- und Europastudien der Universität Wrocław, Polen. Seine Forschungsthemen sind Partizipation, Europäisierung und Methoden der empirischen Sozialforschung. Prof. Dr. Jörg Strübing forscht und lehrt zu qualitativ-interpretativen Methoden der empirischen Sozialforschung an der Eberhard Karls Universität Tübingen. <?page no="2"?> www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 3 Helmut Kromrey, Jochen Roose, Jörg Strübing Empirische Sozialforschung Modelle und Methoden der standardisierten Datenerhebung und Datenauswertung mit Annotationen aus qualitativ-interpretativer Perspektive 13., völlig überarbeitete Auflage UVK Verlagsgesellschaft mbH · Konstanz mit UVK/ Lucius · München <?page no="3"?> www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 4 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 5 Online-Angebote oder elektronische Ausgaben sind erhältlich unter www.utb-shop.de. Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über-<http: / / dnb.ddb.de> abrufbar. Firmennamen und Softwarebezeichnungen, die in diesem Buch veröffentlicht werden, sind fast alle als eingetragene Marken geschützt. Deren Nennung bedeutet nicht, dass sie frei verwendet werden dürfen. Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. 12. Auflage: © Lucius & Lucius Verlagsgesellschaft mbH, Stuttgart 2009 (ISBN 978-3-8252-1040-3; ISBN 978-3-8282-0484-3) 13. Auflage: © UVK Verlagsgesellschaft, Konstanz und München 2016 © UVK Verlagsgesellschaft mbH, Konstanz und München 2016 Einbandgestaltung: Atelier Reichert, Stuttgart Lektorat: Marit Borcherding, München Druck: Pustet, Regensburg UVK Verlagsgesellschaft mbH Schützenstr. 24 · D-78462 Konstanz Tel.: 07531-9053-0 · Fax 07531-9053-98 www.uvk.de UTB-Band Nr. 8681 ISBN 978-3-8252-8681-1 (Print) ISBN 978-3-8463-8681-1 (EPUB) <?page no="4"?> 5 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 5 Inhalt Vorbemerkungen: Wozu „Methoden empirischer Sozialforschung“? 11 1 Empirische Sozialforschung und empirische Theorie 15 1.1 Zur Situation empirischer Sozialwissenschaft 15 1.1.1 Funktion von Wissenschaft in der Gesellschaft 15 1.1.2 Zum Verhältnis von Wissenschaft und Praxis 17 1.1.3 Zum Verhältnis von Grundlagenforschung und anwendungsorientierter Forschung 19 1.1.4 Zum Verhältnis von „wissenschaftlicher Erfahrung“ und Alltagserfahrung 21 1.2 Grundpositionen der Erfahrungswissenschaft 24 1.2.1 Annahme der Existenz einer „tatsächlichen Welt“ 24 1.2.2 Ordnung, Struktur, Gesetzmäßigkeiten 25 1.2.3 Empirische Erfahrung als Grundlage des Wissens 28 1.2.4 Ein Missverständnis: standardisiert =-quantitativ 31 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ 34 1.3.1 Begriffsklärung 34 1.3.2 Einige Prinzipien der empirischen Forschungsmethode in der Version des „Kritischen Rationalismus“ 35 1.3.3 Probleme und Dilemmata bei der Suche nach empirischen-„Gesetzen“ 40 1.3.4 Hypothesen und Theorien 46 1.3.5 Empirische Theorie und Realität 49 1.3.6 Hypothesentest und Theorieentwicklung im Wechselspiel von-Theorie-Empirie-Theorie. Ein Beispiel 52 1.4 Empirische Verfahren und alternative Wissenschaftspositionen 55 1.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 58 1.5.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 64 2 Forschungsfragen, Forschungsdesign, Forschungsprozess 65 2.1 Fragestellungen und Forschungsansätze: Einige Beispiele 65 2.2 Der Forschungsprozess als eine Reihe ineinander verzahnter Entscheidungen 69 2.3 Entdeckungs-, Begründungs- und Verwertungszusammenhang: Das-Problem der Wertungen in der empirischen Forschung 73 2.4 Forschungsplanung und Forschungsdesign 77 <?page no="5"?> 6 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 6 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 7 Inhalt 2.4.1 Das Modell wissenschaftlicher Erklärung von Hempel und Oppenheim 78 2.4.2 Das Design hypothesen- und theorietestender Forschung 80 2.4.3 Experiment und Quasi-Experimente 85 2.4.4 Das Evaluationsdesign der Programmforschung 91 2.4.5 Das deskriptive Survey-Modell: Querschnittserhebung nicht-experimenteller Daten 96 2.4.6 Spezielle Untersuchungsanordnungen 99 2.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 107 2.5.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 111 3 Die empirische „Übersetzung“ des-Forschungsproblems 113 3.1 Problempräzisierung und Strukturierung des Untersuchungsgegenstandes: dimensionale und semantische Analyse 113 3.2 Dimensionale Analyse 119 3.2.1 Vorgehen bei einer dimensionalen Analyse 119 3.2.2 Beispiel einer dimensionalen Analyse: Berufserfolg- und-soziale-Herkunft 122 3.3 Semantische Analyse 131 3.3.1 Vorgehen bei einer semantischen Analyse 131 3.3.2 Drei Beispiele für semantische Analysen 134 3.4 Zusammenfassung: Semantische Analyse und dimensionale Analyse im Vergleich 141 3.5 Begriffe und Definitionen 144 3.5.1 Nominaldefinition 1: Voraussetzungen 148 3.5.2 Begriffe und Begriffsarten: Funktionen, theoretischer und-empirischer Bezug von Begriffen 149 3.5.3 Nominaldefinition 2: Eigenschaften 153 3.5.4 Realdefinitionen 157 3.6 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 160 3.6.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 162 4 Strategien der Operationalisierung und Indikatorenauswahl 163 4.1 Indikatoren 163 4.2 Indexbildung 170 4.3 Operationalisierung 176 4.3.1 Der Vorgang der Operationalisierung von Begriffen und-von-Aussagen 177 4.3.2 Gültigkeit-- ein „Gütekriterium“ für die Operationalisierung 185 <?page no="6"?> 7 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 7 Inhalt 4.4 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 191 4.4.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 192 5 Messung und Datenerhebung in-den-Sozialwissenschaften 193 5.1 Die Informationsgewinnung im Prozess der-empirischen- Forschung 193 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen 195 5.2.1 Statistik als Modelldenken 195 5.2.2 Ist Soziales „quantifizierbar“? 198 5.2.3 Statistik und Individualität 200 5.3 Variablenbildung-- Messen-- Datenmatrix 202 5.3.1 Grundlagen: Messen als strukturtreue Abbildung und Messniveaus 202 5.3.2 Variablenkonstruktion 208 5.3.3 Die Datenmatrix; Prinzipien der Datensammlung 211 5.4 Vertiefung: Die axiomatische Messtheorie 219 5.4.1 Grundbegriffe 219 5.4.2 Die Messskala 222 5.4.3 Messniveaus/ Skalentypen 225 5.4.4 Skalentypen und zulässige Aussagen; empirisch sinnvolle/ sinnlose Statistik 228 5.5 Messen durch Indizes (Indexmessung) 230 5.6 Der sozialwissenschaftliche Spezialfall: Messen durch Befragung 240 5.7 Zuverlässigkeit (Reliabilität) der Messung 242 5.8 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 246 5.8.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 251 6 Auswahlverfahren 253 6.1 Zentrale Begriffe: Grundgesamtheit, Auswahl-, Erhebungsund-Untersuchungseinheiten 255 6.2 Anforderungen an die Stichprobenkonstruktion 263 6.3 Typen von Auswahlverfahren (Überblick) 265 6.4 Nicht zufallsgesteuerte Auswahlverfahren 266 6.4.1 Willkürliche Auswahl 266 6.4.2 Bewusste Auswahlen 268 6.4.3 Quoten-Auswahl (quota-sample) 271 6.5 Zufallsgesteuerte Auswahlverfahren 278 6.5.1 Verfahren zur Erstellung einfacher Zufallsauswahlen 281 6.5.2 Verfahren zur Erstellung komplexer Zufallsauswahlen 286 6.5.3 Random-Route-Verfahren (Zufallsweg) 291 <?page no="7"?> 8 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 8 Inhalt 6.6 Zusammenfassung: Vor- und Nachteile der-verschiedenen Auswahlverfahren 294 6.7 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 297 6.7.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 299 7 Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung 301 7.1 Empirische Inhaltsanalyse 302 7.1.1 Das (vereinfachte) Modell sozialer Kommunikation 306 7.1.2 Die Entwicklung des inhaltsanalytischen Kategoriensystems 309 7.1.3 Anforderungen an das Kategoriensystem 315 7.1.4 Phasen der Inhaltsanalyse 317 7.1.5 Verschiedene inhaltsanalytische Ansätze 322 7.2 Beobachtung 325 7.2.1 Arten der Beobachtung 327 7.2.2 Anwendungsprobleme bei der systematischen Beobachtung 329 7.3 Befragung 335 7.3.1 Eigenschaften der Interview-Situation 338 7.3.2 Nochmals: Das Modell sozialer Kommunikation (erweitert) 340 7.3.3 Die Lehre von der Frage und vom Fragebogen 346 7.3.4 Befragung als Messvorgang 367 7.3.5 Beispiel für einen Fragebogen (mündliches Einzelinterview) 369 7.4 Vergleich der Erhebungsverfahren Inhaltsanalyse, Beobachtung, Befragung 371 7.4.1 Besonderheiten und Ähnlichkeiten: Die Inhaltsanalyse als-Basismodell 371 7.4.2 Zuverlässigkeit, Gültigkeit, Repräsentativität 375 7.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 383 7.5.1 Interviews 384 7.5.2 Ethnografie und Beobachtung 386 7.5.3 Inhaltsanalyse 389 7.5.4 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 389 8 Methoden und Modelle der deskriptiven Statistik 391 8.1 Einige zentrale Begriffe 394 8.2 Univariate Statistik 399 8.2.1 Häufigkeitsverteilungen 399 8.2.2 Die Darstellung von Häufigkeitsverteilungen 404 <?page no="8"?> 9 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 8 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 9 Inhalt 8.2.3 Maße der zentralen Tendenz einer Verteilung (Mittelwerte) 408 8.2.4 Streuungsmaße 417 8.2.5 Messung der Konzentration einer Verteilung 424 8.3 Bivariate Statistik 436 8.3.1 Modelle zur Messung der „statistischen Beziehung“ zwischen-Variablen 440 8.3.2 Tabellenanalyse 447 8.3.3 Lineare Einfachregression 463 8.3.4 Korrelationsrechnung 471 8.4 Weiterführende Analyseverfahren und Software 483 8.4.1 Weitere Analyseverfahren im kurzen Überblick 483 8.4.2 Analysesoftware 486 8.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 488 9 Typische Forschungsstile qualitativ-interpretativer Sozialforschung-- Eine Übersicht 491 9.1 Grounded Theory 491 9.1.1 Vorgehen der Grounded Theory 494 9.1.2 Literatur zur Grounded Theory 498 9.2 Objektive Hermeneutik 498 9.2.1 Vorgehen der objektiven Hermeneutik 500 9.2.2 Literatur zur objektiven Hermeneutik 502 9.3 Dokumentarische Methode 502 9.3.1 Vorgehen der dokumentarischen Methode 506 9.3.2 Literatur zur dokumentarischen Methode 509 9.4 Ethnomethodologische Konversationsanalyse 509 9.4.1 Vorgehen der ethnomethodologischen Konversationsanalyse 512 9.4.2 Literatur zur ethnomethodologischen Konversationsanalyse 514 9.5 Narrationsanalyse und Biografieforschung 515 9.5.1 Vorgehen der Narrationsanalyse und Biografieforschung 517 9.5.2 Literatur zur Narrationsanalyse und Biografieforschung 519 9.6 Diskursanalyse 519 9.6.1 Vorgehen der Diskursanalyse 521 9.6.2 Literatur zur Diskursanalyse 524 Literaturverzeichnis 525 Sachregister 553 <?page no="9"?> www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 10 <?page no="10"?> 11 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 11 Vorbemerkungen: Wozu „Methoden empirischer Sozialforschung“? Ergebnisse empirischer Sozialforschung prägen unseren Alltag. Wir begegnen ihnen tagtäglich: in der Presse, in Rundfunk und Fernsehen-- sowohl direkt (vor und nach Wahlen, als Werte aus demoskopischen Umfragen wie dem „Politbarometer“) als auch indirekt (etwa als Resultate von Marktforschungen). Auch die Politik ist nicht unerheblich von der Demoskopie abhängig: Keine Partei, kein Politiker, kein Parlament wird über politische Streitfragen entscheiden, ohne zuvor die Meinungen „seiner“ Wählerschaft erkunden zu lassen. Und wer selbst politisch oder sozial aktiv ist- - in Vereinen, Verbänden oder Parteien, als Mitglied eines kommunalen Ausschusses oder Beirats, als Betroffene in einer Bürgerinitiative--, hat sich des Öfteren mit Gutachten und mit Informationen aus empirischen Erhebungen auseinanderzusetzen. Wer sich dabei nicht lediglich auf seinen Glauben verlassen will, tut gut daran, sich einen Überblick darüber zu verschaffen, was empirische Sozialforschung leisten kann-- aber auch: wo ihre Grenzen liegen. Das gilt erst recht für Studierende der Sozialwissenschaften. Alle Sozialwissenschaften verstehen sich als empirische Disziplinen; sie verfahren bei der Gewinnung ihrer Aussagen im Wesentlichen nach der gleichen Forschungslogik und bedienen sich der Instrumente aus dem gleichen Werkzeugkasten. Wie dies geschieht und wie die Geltung der gewonnenen wissenschaftlichen Aussagen begründet und geprüft wird, das gehört zu den selbstverständlichen Basiskenntnissen, die sich jede und jeder Studierende anzueignen hat, wenn sie oder er das gewählte Fach als Wissenschaft erleben und nicht lediglich als Glaubenslehre konsumieren will. Dabei gilt es allerdings, zunächst ein leider weit verbreitetes Vorurteil zu überwinden, das sich für den Neuling als größtes Lernhemmnis erweisen kann: dass nämlich der damit angesprochene Wissensbereich schwierig und unangenehm, trocken und langweilig sei. Dem sei hier entgegengestellt: Für ein eigenständiges Studieren ist es nicht nur unabdingbar, sich mit den Grundlagen des Gewinnens wissenschaftlicher Erkenntnis, mit den Ansätzen und Strategien zur Erforschung der sozialen Wirklichkeit, mit den Regeln empirisch fundierter Argumentation und rationaler Kritik, mit den jeweils unterschiedlichen Möglichkeiten und Reichweiten, aber auch Fallstricken der verfügbaren Methoden der Informationsgewinnung zu befassen. Mehr noch: Es kann auch außerordentlich faszinierend sein! Das vorliegende Lehrbuch will Grundlagenkenntnisse über die verbreiteten Strategien und Methoden empirischer Datenbeschaffung und Datenauswertung vermitteln, die in den verschiedensten Feldern beruflicher Praxis ebenso wie in unterschiedlichsten Studiengängen an Fachhochschulen, Pädagogischen Hochschulen, Akademien und Universitäten gefragt sind. Rein fachwissenschaftlich aufgebaute Überblickswerke bieten insbesondere der und dem mit erfahrungswissenschaftli- <?page no="11"?> 12 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 12 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 13 Vorbemerkungen: Wozu „Methoden empirischer Sozialforschung“? chem Denken wenig Vertrauten häufig nur schwer Zugang zum Stoff. Das Voraussetzen von Vorkenntnissen erweist sich dabei ebenso als hinderlich wie eine von der Forschungspraxis losgelöste Darstellung oder die vorherrschende konzeptionelle Trennung in Grundlagen der Erkenntnistheorie, Verfahren der Datenerhebung (Methodenlehre) und Verfahren der Auswertung (Statistik und Datenverarbeitung). Der vorliegende Text setzt hingegen keine Vorkenntnisse voraus. Er ist vor allem für einen Personenkreis geschrieben, der sich in den Problemkreis neu einarbeiten will, also etwa für Studierende am Anfang eines Studiums der Sozialwissenschaften, für Teilnehmer projektorientierter Studiengänge sowie für Personen außerhalb der Hochschulen, die sich einen Überblick über Vorgehensweisen und Probleme empirischer Wissenschaft verschaffen möchten. Wegen seiner Orientierung an ebendiesem Personenkreis knüpft der Text so weit wie möglich zunächst am alltäglichen Sprachgebrauch an, bevor dann schrittweise die Fachterminologie eingeführt wird. Eine gewisse Redundanz ist dabei nicht zu vermeiden, ist sogar im Interesse des leichteren „Hineinfindens“ durchaus gewollt. Aus didaktischen Erwägungen ist das Gliederungsprinzip nicht eine methodologisch-wissenschaftliche Systematik, sondern der Ablauf eines realen Forschungsprozesses. Aufbauend auf Erfahrungen mit unterschiedlichen Lehrveranstaltungsformen und aus Forschungsarbeiten wird angestrebt, im Text in zweifacher Hinsicht Inhalte miteinander zu verbinden, die man ansonsten meist getrennt dargeboten findet: Zum einen handelt das Buch grundlegende wissenschaftstheoretische und methodologische Aussagen gemeinsam mit Problemen der Forschungspraxis ab. Zum anderen werden Techniken der Datenerhebung in Verknüpfung mit Methoden der Datenauswertung dargestellt. Allerdings bleibt das Feld der Auswertung und Analyse, um den Umfang in Grenzen zu halten, auf Prinzipien der Datenaufbereitung und auf Modelle der deskriptiven Statistik beschränkt. Die Darstellung legt Wert darauf, nicht auf abstraktem Niveau stehen zu bleiben, sondern jeweils praktische Beispiele einzubeziehen. Obwohl methodologische und mathematisch-statistische Vorkenntnisse nicht vorausgesetzt werden, und obwohl der zur Verfügung stehende Platz angesichts der Fülle des abzuhandelnden Stoffs sehr eng ist, versuchen die Autoren, Verständlichkeit nicht um den Preis der Oberflächlichkeit zu erzielen. So findet der interessierte Leser in den Fußnoten zahlreiche weiterführende Hinweise zum vertiefenden Studium. Obwohl durchgängig an der Zielgruppe „Anfängerin und Anfänger“ orientiert, ist das Lehrbuch dadurch auch für „Fortgeschrittene“ von Nutzen. Trotz aller von Auflage zu Auflage eingefügten Ergänzungen verbleibt als nicht ausräumbarer „Mangel“ die Selektivität des dargestellten Stoffes, die notwendige Beschränkung auf ausgewählte Modelle und Verfahren. Um nicht eine-- gerade für Anfänger verwirrende und undurchschaubare-- Fülle sich teilweise widersprechender methodologischer Positionen darstellen und gegeneinander abgrenzen zu müssen, werden jeweils nur einige Ansätze exemplarisch abgehandelt. Dies gilt insbesondere für die Ausrichtung an der wissenschaftstheoretischen Position des Kritischen Rationalismus. Dies ist weniger eine programmatische als eine didaktische Entscheidung: Die gängigen Methoden empirischer, standardisiert verfahrender Sozialforschung <?page no="12"?> 13 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 13 Vorbemerkungen: Wozu „Methoden empirischer Sozialforschung“? sowie deren theoretische Begründungen und Anwendungsregeln sind von Vertretern dieser Richtung der Erfahrungswissenschaft entwickelt worden. Ein Verständnis der konkreteren Vorgehensweisen und eine Einschätzung ihrer Gültigkeit und Reichweite sind erst mit einigen grundlegenden Kenntnissen dieser Wissenschaftstheorie möglich. Eine Einschätzung der Qualität sozialwissenschaftlicher Forschung und die vielfältigen Ermessensentscheidungen bei ihrer Durchführung lassen sich ohne eine wissenschaftstheoretische Fundierung nicht kompetent leisten. Obwohl bisher ohne weitere Differenzierung von „der empirischen Sozialforschung“ die Rede war, geht damit keinesfalls der Anspruch einher, in diesem Buch die empirische Sozialforschung in ihrer Gesamtheit darzustellen. Vielmehr konzentriert sich der Text auf das Vorgehen der standardisiert verfahrenden-- häufig irreführend als „quantitativ“ bezeichneten 1 - - Sozialforschung. Dem möglichen Eindruck, es handle sich dabei um die einzige oder gar die einzig „richtige“ Vorgehensweise, wollen wir nicht nur in dieser Vorbemerkung entgegenwirken. Auch wenn ein methodenintegriertes Lehrbuch, das alle Richtungen umfasst, zu kompliziert (und zu dick) würde, will das Buch die alternativen Sichtweisen und Argumente der qualitativ-interpretativen Richtung mitführen. Deshalb ist jedes Kapitel um teils kurze, teils ausführlichere Kommentare („Annotationen“) ergänzt, die das jeweilige Thema aus qualitativ-interpretativer Perspektive skizzieren. In diesen Kommentaren werden einerseits die wichtigsten Unterschiede zu der im Haupttext dominierenden Perspektive einer kritisch-rationalistisch orientierten, standardisierten Sozialforschung markiert, zugleich aber auch Berührungspunkte zwischen den verschiedenen Perspektiven deutlich gemacht. Da „qualitativ-interpretativ“ in der Geschichte methodenwissenschaftlicher Diskurse eher als eine Residualkategorie (vgl. Hollstein &-Ullrich 2003) aller nicht standardisiert verfahrenden und im Wesentlichen auf Quantifizierungen verzichtenden Sozialforschung entstanden ist, verwundert es wenig, dass sich unter diesem Label eine Vielzahl von Verfahren wiederfindet. Diese unterscheiden sich zum Teil deutlich voneinander, nicht nur in den methodischen Vorgehensweisen, sondern-- wichtiger noch-- in den grundlegenden erkenntnis- und wissenschaftstheoretischen, aber auch in den sozialtheoretischen Orientierungen. Diese Differenzierungen werden in den Annotationen aus qualitativ-interpretativer Sicht markiert, wenn sie auch im Rahmen dieser kurzen Textabschnitte nicht im Detail präsentiert werden können. Das abschließende Kapitel 9 gibt dann einen Überblick über die Vorgehensweise verschiedener qualitativ-interpretativer Forschungsperspektiven. Mit diesen Anmerkungen möchten wir deutlich machen, dass „die eine“ richtige Methode der Erkenntnisgewinnung nicht existiert. So einfach ist es (leider) nicht, und ein kompetenter Umgang mit sozialwissenschaftlicher Forschung-- in der Lektüre oder in eigener Forschung-- erfordert ein stetes Abwägen von Voraussetzungen und möglichen Alternativen. Universell einsetzbare Patentrezepte kann und will dieses Lehrbuch nicht bieten. Stattdessen will es Sie in eine spannende Welt methodi- 1 Dazu mehr im Abschnitt 1.2.4. <?page no="13"?> 14 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 14 Vorbemerkungen: Wozu „Methoden empirischer Sozialforschung“? scher und methodologischer Gedanken und Überlegungen einladen, die unsere Sicht auf die Welt nachhaltig mit prägen. In seiner 13. Auflage erscheint das Lehrbuch in neuem Gewand. Der Verlagswechsel zu UVK geht mit zwei größeren Änderungen einher. Zum einen haben wir das Erscheinungsbild des Buches geändert. Das etwas größere Format und die erweiterten Möglichkeiten der Drucktechnik erlauben ein ansprechenderes Schriftbild. Zum anderen bearbeiten nun drei Autoren dieses Buch. Geblieben ist der Versuch einer Darstellung sozialwissenschaftlicher empirischer Methoden, die den Zugang so einfach wie möglich macht, aber dennoch nicht in unangemessene Vereinfachungen verfällt. Berlin / Wrocław / Tübingen, im September 2016 Helmut Kromrey / Jochen Roose / Jörg Strübing <?page no="14"?> 15 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 15 1 Empirische Sozialforschung und empirische Theorie 1.1 Zur Situation empirischer Sozialwissenschaft 1.1.1 Funktion von Wissenschaft in der Gesellschaft Während des überwiegenden Teils der Menschheitsgeschichte bis weit in die neuere Geschichte hinein existierte das, was wir heute im Alltag unter „Wissenschaft“ verstehen, noch überhaupt nicht. Allenfalls gab es im Bereich des Handwerklichen, des Ackerbaus, der Schifffahrt und vor allem der Waffentechnik Erfahrungen, die im praktischen Umgang mit der Welt gewonnen und die dann von Generation zu Generation als Handlungswissen (teilweise als Geheimwissen) weitergegeben wurden. Eine ausdrückliche Definition von „Sozial“wissenschaft gar kennen wir erst seit kurzem. „Wissenschaft“ war quasi selbstverständlich Naturwissenschaft. Der Umgang mit dem Wort dagegen war eine „Lehre“; und denjenigen, der sich damit beschäftigte, nannte man einen „Gelehrten“. Der Begriff Soziologie geht auf den französischen Philosophen Auguste Comte (1798-1857) zurück. Ursprünglich hatte er von physique sociale gesprochen. Sie sollte nach dem Vorbild der positiven-- d. h. empirische Fakten feststellenden und erklärenden-- Naturwissenschaften die gesellschaftlichen Erscheinungen studieren und ihre Gesetze aufzeigen. Mit dem Schwinden der Bedeutung verbindlicher Zielvorgaben, wie sie bis dahin Religion und Tradition bereitstellten, waren auch zentrale Orientierungs- und Legitimationsgrundlagen für menschliches Handeln verloren gegangen. Die entstehende Lücke sollte nun- - nach der Vorstellung von Auguste Comte- - die Wissenschaft ausfüllen. Als konzeptuelle Basis dafür bot er (ohne Selbstbescheidung) seine Hauptwerke Cours de philosophie positive und Système de politique positive an. 2 Auguste Comte postulierte für die Entwicklung jeder historischen Gesellschaft wie auch für die gesamte Menschheitsgeschichte ein sogenanntes Dreistadiengesetz. Danach durchlaufen sowohl die individuellen Erkenntnisfähigkeiten als auch die Wissenschaften und die Zivilisation „notwendigerweise und unumkehrbar drei Entwicklungsstadien zunehmender Aussonderung und Konkretisierung“ (Lexikon zur Soziologie, 1978, 169; s. auch zusammenfassend Abels 2004, 365 ff.), und zwar ein theologisch-fiktives, ein metaphysisch-abstraktes und ein positiv-reales Stadium: - Im theologisch-fiktiven Stadium deuten- - so meinte Comte- - die Menschen die Natur durch die Annahme der Existenz willensbegabter Wesen (Geister, Götter), welche die rätselhaften Naturvorgänge von innen her bewirken. In einer solchen 2 Eine interessante Skizze des Lebens dieser schillernden Persönlichkeit findet sich bei Lepenies (1998). Entstehung der-Soziologie <?page no="15"?> 16 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 16 Gesellschaft bekleiden dementsprechend Priester und Theologen die Machtpositionen. - In der mittleren Epoche, dem metaphysisch-abstrakten Stadium, wird die Naturerklärung mittels personenähnlicher Wesen durch abstrakte „Wesensbegriffe“ wie Substanz, Äther ersetzt. Die Theologen müssen ihre gesellschaftlich führende Stellung an die Vertreter einer metaphysisch-abstrakten Philosophie abgeben. Auch die wirtschaftlichen und politischen Beziehungen unterliegen zunehmend abstrakten Regeln. - Im positiv-realen Stadium schließlich wird die Natur durch die Aufdeckung gesetzmäßiger Zusammenhänge auf der Grundlage empirischer Forschungen wissenschaftlich erklärt. Abstrakt-willkürliche Regelungen der wirtschaftlichen und gesellschaftlichen Beziehungen sollen durch eine auf Fachwissen und Berufserfahrung beruhende Lenkung der politischen, ökonomischen und gesellschaftlichen Zusammenhänge ersetzt werden. Alle Entscheidungen sollen aus dem Bereich des Willkürlichen herausgenommen und auf der Basis wissenschaftlicher Erkenntnisse getroffen werden. Die Aufgabe einer „positiven“ Wissenschaft ist es dann (nach Comte), den Maßstab für die Erkenntnis zu liefern, was gut und was richtig ist. Diese Zukunftsperspektive aus dem vorigen Jahrhundert und die damit verbundene Aufgabenzuschreibung an die Wissenschaft (genauer: an eine empirisch fundierte, nicht-subjektivistische, „positive“, kurz: eine „Erfahrungswissenschaft“) haben bis in die jüngste Zeit nachgewirkt. Die Ausweitung des Zuständigkeitsbereichs der Wissenschaften---vor allem des Feldes der Sozialwissenschaften-- in den letzten Jahrzehnten des 20.-Jahrhunderts ist zumindest teilweise so zu erklären. 3 Man erhoffte sich von ihr sowohl Hilfen zur Orientierung bei politischen Entscheidungen (wissenschaftliche Beratung der Politik, sozialwissenschaftliche Begleitung und empirische Evaluation politischer Programme) als auch eine sichere Basis zur Rechtfertigung gesellschaftlichen Handelns. Die Wissenschaft sollte auf der Grundlage empirischer Daten unbestreitbare, handlungsleitende Erkenntnisse bereitstellen, sollte den Prozess politischer Entscheidungen aus dem Zwielicht undurchschaubarer Mehrheits- und Machtkonstellationen herausführen und zur Entscheidungsfindung auf der Basis „objektiver“ Daten beitragen. 4 Die Wissenschaft sollte aber nicht nur „objektive Daten“ liefern, also nicht nur herausfinden, was ist, sondern auch, was sein soll. Der Streit um Werte und ihre wissenschaftliche Begründbarkeit 5 ist zwar mittlerweile abgeklungen, nicht aber mit einem eindeutigen Ergebnis zu den wissenschaftsgeschichtlichen Akten gelegt worden. 3 Zur Geschichte der Sozialforschung vgl. Weischer (2004). 4 So lautete eine gängige Begründung für Forderungen nach Schaffung von Systemen sozialer Indikatoren und Entwicklung von wissenschaftlich begründeten Planungs- und Entscheidungssystemen in der Phase der Planungseuphorie in den 1970er-Jahren (vgl. Werner 1975). 5 Vgl. die Dokumentation der Auseinandersetzung insbesondere zwischen Kritischem Rationalismus und der dialektisch-kritischen Richtung der Frankfurter Schule (Adorno 1969 sowie Albert/ Topitsch 1971). Erwartung an Sozialwissenschaften <?page no="16"?> 17 1.1 Zur Situation empirischer Sozialwissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 17 Die mit den oben skizzierten großen Hoffnungen einhergehende Wissenschaftsgläubigkeit ist zumindest im Bereich der Sozialwissenschaften-- aber auch im naturwissenschaftlichen Bereich- - zunehmend einer Ernüchterung gewichen. Wissenschaft wird weitgehend nicht mehr als die Institution gesehen, die letzte, endgültige Wahrheiten bereitstellt. Eine solche skeptische Haltung wird von der diesem Buch zugrunde gelegten wissenschaftstheoretischen Position des Kritischen Rationalismus nicht nur hingenommen, sondern steht ausdrücklich im Einklang mit ihrer Grundauffassung. Danach ist es gerade ein wesentliches Merkmal wissenschaftlichen Wissens, dass es sich immer wieder aufs Neue zu bewähren hat, dass es immer wieder in Zweifel gezogen, immer wieder erneut getestet und in neuen Zusammenhängen überprüft werden muss. Empirische Wissenschaft soll nicht „Glaubenssicherheit“ vermitteln, sondern die Welt-- so wie sie ist-- beschreiben und erklären, soll die Augen für den kritischen Blick auf die Realität öffnen. 1.1.2 Zum Verhältnis von Wissenschaft und Praxis Die Beschränkung der empirischen Wissenschaft auf beschreibende und erklärende Aussagen sowie der Verzicht auf den Versuch, wertende Handlungsanweisungen wissenschaftlich zu begründen, muss jedoch kein Nachteil sein. Wenn eine Erfahrungswissenschaft auch nicht begründen kann, was sein soll, so besteht doch in komplexen Industriegesellschaften ein zunehmender Bedarf an wissenschaftlich abgesicherten beschreibenden und erklärenden Aussagen darüber, was ist, wie die Dinge zusammenhängen, welche Folgen bestimmte Handlungen und politische Programme haben können. Bedarf an sozialwissenschaftlichen Daten besteht in vielfältigen gesellschaftlichen Bereichen, die hier nur mit einigen Stichworten angedeutet seien: Ursachen sozialer Ungleichheit, psychosoziale Folgen von Langzeitarbeitslosigkeit, Integration von Migranten, Prozesse gesellschaftlichen Wandels, Technikfolgenabschätzung etc. Zunehmend wird das technologisch Machbare nicht mehr als etwas angesehen, das notwendigerweise realisiert werden muss; zunehmend wird gefordert, das Machbare zunächst an psychischen, sozialen und gesellschaftlichen Erfordernissen und Konsequenzen zu messen. Hierbei aber ist wieder die Sozialwissenschaft gefragt, und zwar nicht als Begründer von Zielen, sondern als Produzent praxisrelevanter sozialwissenschaftlicher Forschungsresultate. Doch auch in dieser eingeschränkten Funktion hat die Sozialwissenschaft Schwierigkeiten, mit der sozialen Praxis zusammenzukommen. So wird immer wieder neu diskutiert, wie denn praxisrelevante, d. h. anwendungsorientierte Sozialforschung auszusehen habe. Der Vorwurf von Praktikern an die Sozialwissenschaft lautet häufig, sie produziere entweder Banalitäten, die jeder Praktiker ohnehin schon lange wisse, oder die Ergebnisse seien völlig praxisfern. In dieser Hinsicht haben es die Sozialwissenschaften im Vergleich zu den Naturwissenschaften heute besonders schwer. Eine Wissenschaft, die sich mit dem Erleben und dem Verhalten von Menschen beschäftigt, betritt ja kein Neuland; sie tritt in Zweifel und Kritik in-der Wissenschaft Bedarf an wissenschaftlichem Wissen <?page no="17"?> 18 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 18 Konkurrenz zu vorhandenem Alltagswissen, zu bereits vorhandener Alltagserfahrung. Das in der Menschheitsgeschichte in Jahrtausenden angesammelte Wissen ebenso wie das in der Entwicklungsgeschichte jedes Individuums-- in seinem ganzen bisherigen Leben- - kumulierte Alltagswissen zeichnen sich gerade durch einen hohen Grad an praktischer Bewährung im Alltag aus: Was sich da an Wissen und Erfahrung angesammelt hat, muss zwar nicht unbedingt richtig sein (im Sinne von exakter Übereinstimmung mit der Realität), aber es „funktioniert“, d. h. es hat sich in der Bewältigung von Alltagsaufgaben als hilfreich erwiesen. Sofern nun die Sozialwissenschaft Ergebnisse liefert, die mit diesem „funktionierenden“ Alltagswissen übereinstimmen, lautet die verständliche Reaktion: „Das ist doch trivial; das wissen wir schon längst. Wozu muss man mit großem Aufwand Daten erheben und auswerten, wenn schließlich nur Selbstverständliches herauskommt? “ Sobald dagegen die Sozialwissenschaft Ergebnisse produziert, die besagen, dass das bisher bewährte Alltagswissen eigentlich nicht stimmt, dass seine Anwendung nur unter ganz bestimmten Bedingungen „funktioniert“, herrscht große Skepsis, wenn nicht gar Ablehnung gegenüber solchen Forschungsergebnissen. Im ersten Fall-- Alltagswissen und wissenschaftliche Erkenntnisse stimmen überein-- werden die Forschungsbefunde allenfalls dann begrüßt, wenn bereits getroffene Entscheidungen auf diese Weise zusätzlich legitimiert und „wissenschaftlich abgesichert“ werden können. Im zweiten Fall-- Alltagswissen und wissenschaftliche Erkenntnisse stimmen nicht überein-- haben die Forschungsbefunde vor allem dann eine Chance, akzeptiert zu werden (ja, sie werden sogar dringend gefordert), wenn bisher bewährtes Alltagswissen unter geänderten Rahmenbedingungen nicht mehr „funktioniert“, wenn die bisherige gesellschaftliche Praxis in eine Krise geraten ist. Schließlich kann noch ein dritter Fall eintreten: Wissenschaftliche Befunde werden zu einem Bereich vorgelegt, über den bisher noch kein oder nur wenig Alltagswissen existiert. Falls sich solche Forschungsergebnisse dennoch auf einen-- im Sinne der Alltagserfahrung-- wichtigen Gegenstandsbereich beziehen, trifft das gleiche zu wie im zweiten Fall: Die Befunde werden gern aufgegriffen, soweit sie nicht mit wesentlichen Wertvorstellungen des Adressaten in Widerspruch stehen. Betreffen sie dagegen einen-- im Sinne der Alltagserfahrung-- unwichtigen Gegenstandsbereich, werden sie als unnütze Forschung (als „Wissenschaft im Elfenbeinturm“) abgetan. Wer also sozialwissenschaftliche Forschung in der Hoffnung betreibt, allein durch die Resultate einiges in Bewegung zu bringen, wird mit großer Wahrscheinlichkeit enttäuscht werden. Nach dem oben Geschilderten ist es denn auch kein Zufall, wenn es für die Themen sozialwissenschaftlicher Forschung ähnliche „Konjunkturen“ gibt wie in der politischen Auseinandersetzung. Vor allem Forschung über Sachverhalte, die im politischen Raum als „problematisch“, d. h. als lösungsbedürftig angesehen werden, hat eine unmittelbare Chance sowohl auf die Bewilligung von Forschungsgeldern als auch darauf, dass ihre Ergebnisse zur Kenntnis genommen werden. Verständlicherweise greifen daher Sozialwissenschaftler mit Vorliebe solche Sachverhalte auf, für die sie erstens eine Chance sehen, Forschungsmittel bewilligt zu bekommen, Konkurrenz zu Alltagswissen Akzeptanz von wissenschaftlichen Ergebnissen Konjunkturen von wissenschaftlichem Interesse <?page no="18"?> 19 1.1 Zur Situation empirischer Sozialwissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 19 und bei denen sie zweitens nicht die enttäuschende Erfahrung machen, dass die Ergebnisse ihrer Arbeit auf wenig Akzeptanz treffen. Die geschilderte Problemlage unterscheidet die Sozialwissenschaften von der gegenwärtigen Situation der Naturwissenschaften: Bezüglich der zu behandelnden sozialwissenschaftlichen Fragen und Probleme liegt Alltagswissen vor. Zu Fragen (beispielsweise) der Erziehung von Kindern, der Zugangsmöglichkeiten zu weiterführender Bildung, zum innerbetrieblichen Arbeitsklima, zu den sozialpolitischen Konsequenzen von Arbeitslosigkeit oder ungleicher Einkommensverteilung etc. hat jeder von uns seine eigene Anschauung. Das Vorliegen solchen Alltagswissens ist häufig sogar die Voraussetzung dafür, dass ein Problem als sozialwissenschaftlich relevant beurteilt wird. Die Forschungsfelder der Naturwissenschaften dagegen entfernen sich zunehmend von den Möglichkeiten alltäglicher Anschauung: Neue Ergebnisse etwa über die Entdeckung eines bisher unbekannten Bestandteils des Atomkerns oder der Supraleitfähigkeit von Materialien entziehen sich der alltäglichen Lebenserfahrung. Sie können beim naturwissenschaftlichen Laien nicht in Konkurrenz zum bisher Erlebten treten. Zwar wird in jüngerer Zeit auch im technologischen Bereich Kritik laut, etwa an der Energiegewinnung mittels Kernspaltung (Atomkraftwerke), am Gefährdungspotenzial chemischer Produkte, an der Gentechnik. Hierbei handelt es sich jedoch um Kritik, die sich nicht gegen die Richtigkeit oder die vermutete Trivialität der wissenschaftlichen Aussagen wendet, sondern gegen die beobachteten oder befürchteten Konsequenzen der praktischen Anwendung besagter wissenschaftlicher Erkenntnisse. In den Sozialwissenschaften setzt die Kritik aber nicht erst bei bestimmten Formen der Anwendung ihrer Befunde ein (etwa bei didaktischen Umsetzungen empirisch gestützter, lerntheoretischer Annahmen in Lernsoftware oder Online-Teaching). Die Kritik richtet sich vielmehr bereits gegen die Aussagen selbst. Dies ist allerdings kein spezifisch sozialwissenschaftliches Schicksal, sondern damit sahen sich in früheren Zeiten auch die Naturwissenschaften konfrontiert. Naturwissenschaftliche Erkenntnisse wie „Die Erde ist eine Kugel“ oder „Die Erde dreht sich um die Sonne“ widersprachen bei ihrer Entdeckung in eklatanter Weise aller bisherigen Alltagswahrnehmung und stießen demgemäß auf erbitterten Widerstand. 6 1.1.3 Zum Verhältnis von Grundlagenforschung und anwendungsorientierter Forschung Die bisherigen Überlegungen zur gesellschaftlichen Einbindung empirischer Sozialwissenschaft führen zur Frage nach dem Zusammenhang und nach dem Unterschied von (theoretischem) Grundlagenwissen versus Praxiswissen bzw. von Grundlagenforschung versus anwendungsorientierter Forschung. Für das hier behandelte Thema 6 Wen solche Streitfälle interessieren, dem sei als spannende und amüsante Lektüre „Zoff im Elfenbeinturm“ empfohlen (Hellman 2000). Reaktionen auf sozialwissenschaftliche Ergebnisse Unterschied zur Naturwissenschaft <?page no="19"?> 20 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 20 „Methoden empirischer Sozialforschung“ ist diese Unterscheidung u. a. deshalb von Bedeutung, weil Forschungslogik und -methodik weitgehend vor dem Hintergrund des Vorgehens in der Grundlagenforschung entwickelt und begründet worden sind, während andererseits der Großteil tatsächlicher empirischer Forschungen durch anwendungsorientierte Fragestellungen initiiert wird. So kommt es, dass faktisches Forscherverhalten häufig darauf hinauslaufen muss, einen Kompromiss zu finden zwischen den Anforderungen, die sich einerseits aus der Methodologie und andererseits aus dem Gegenstand der Untersuchung ergeben. Zwar gehen anwendungsorientierte Projekte ebenso wie Projekte der Grundlagenforschung prinzipiell von der gleichen Methodologie aus; doch führen Unterschiede in der Aufgabenstellung und in den Bedingungen der Projektdurchführung dazu, dass sich die methodologischen Prinzipien nicht in gleichem Maße realisieren lassen. Wenn auch dieser Punkt im vorliegenden Text nicht ausdiskutiert werden kann, seien hier doch zumindest einige Differenzierungsmerkmale skizziert (ausführlicher Kromrey 2003). Sozialwissenschaftliche Grundlagenforschung legt ihr Gewicht auf die Produktion und Vermehrung von möglichst allgemeingültigem Wissen, auf die verallgemeinerbare Beschreibung (Diagnose) und Erklärung sozialer Sachverhalte und Zusammenhänge. Nicht der einzelne Fall, sondern der genau identifizierte, generelle Zusammenhang steht im Vordergrund des Interesses. Im Unterschied dazu soll anwendungsorientierte Forschung Ergebnisse liefern, die beim aktuellen Entscheidungsprozess verwertet werden können. Nicht abstrakte Zusammenhänge („Gesetzmäßigkeiten“) stehen im Vordergrund, sondern die Anwendbarkeit der Befunde auf einen aktuellen Fall oder auf eine Klasse gleichartiger Fälle. Grundlagenforschung begründet die Relevanz der von ihr aufgegriffenen Themen wissenschaftsimmanent aus bestehenden Lücken im bisherigen Wissensbestand bzw. aus Widersprüchen zwischen bisherigen Wissensbestandteilen. Bei anwendungsorientierter Forschung leiten sich die behandelten Fragestellungen aus den Bedürfnissen der Praxis her (z. B. Wirksamkeit eines Unterrichtsprogramms zur Kompensation der Benachteiligungen von Kindern aus Unterschichtfamilien im traditionellen Bildungssystem). In der Grundlagenforschung sind die Fragestellungen der Untersuchung und die Sicherung der Gültigkeit der Resultate Maßstab aller Entscheidungen der Wissenschaftlerin bzw. des Wissenschaftlers. Die Untersuchung wird so konzipiert, dass präzise Aussagen zu dem erforschten Sachverhalt möglich werden. Sie versucht, alle Randbedingungen zu erfassen, die Einfluss auf die Ergebnisse haben können. Im Grenzfall werden unter kontrollierten Bedingungen Experimente im Forschungslabor durchgeführt, selbst wenn dadurch die Reichweite der Aussagen eingeschränkt werden sollte oder die Forschungen einen langen Zeitraum erfordern. Bei anwendungsorientierter Forschung steht nicht das Forschungsprojekt und seine absolut „wissenschaftliche“ Durchführung im Vordergrund, sondern die Anwendungspraxis (z. B. das zu untersuchende Handlungsprogramm). Präzision und Allgemeingültigkeit der Aussagen müssen notfalls zurückstehen, wenn dadurch die Resultate „zu spät“ (z. B. nicht rechtzeitig vor einer anstehenden politischen Entscheidung) zustande kämen Kompromisse bei anwendungsorientierter Forschung Interesse am Generellen / am-konkreten Fall Wissenslücken/ Bedürfnisse der-Praxis Genauigkeit / zeitliche Nähe <?page no="20"?> 21 1.1 Zur Situation empirischer Sozialwissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 21 oder wenn durch die Forschung die Durchführung des zu untersuchenden Programms behindert werden könnte. Ergebnisse von Grundlagenforschungen hat die Wissenschaftlerin bzw. der Wissenschaftler vor den Fachkollegen zu vertreten. Ihnen gegenüber ist das Vorgehen zu rechtfertigen, und zwar durch den Nachweis der Einhaltung der geltenden wissenschaftlichen Standards. Ziel ist der kritische Diskurs mit den Fachkollegen, in welchem die möglicherweise vorhandenen Schwächen des gewählten Ansatzes oder eventuelle Fehlschlüsse bei der Einordnung der Befunde aufgedeckt werden sollen. Es gehört daher zu den selbstverständlichen Normen der empirischen (Grundlagen-)Wissenschaft, die Forschungsergebnisse möglichst aktuell zu veröffentlichen, das methodische Vorgehen zu erläutern und die Befunde auch in ihren Einzelheiten allen Interessierten zugänglich zu machen. Bei anwendungsorientierten Projekten (insbesondere bei Auftragsforschungen) dagegen haben es die Forscher bei der Rechtfertigung ihres Vorgehens nicht in erster Linie mit anderen Wissenschaftlern, sondern mit Praktikern zu tun. Bei ihnen steht als Beurteilungsmaßstab die unmittelbare Brauchbarkeit (Praxisrelevanz) der Ergebnisse für die aktuell von ihnen zu lösenden Probleme im Vordergrund. Ein Forscher, für den die strikte Einhaltung aller wissenschaftlichen Standards oberste Priorität hat, eine Forscherin, die ihr Ansehen gegenüber den Fachkollegen nicht durch möglicherweise „unwissenschaftlich“ erscheinende Forschungen aufs Spiel setzen will, werden daher nicht selten Konflikten zwischen widerstreitenden Anforderungen ausgesetzt sein. Hinzu kommt, dass sie nicht immer selbst darüber entscheiden können, ob, wann und in welcher Weise die von ihnen erzielten Resultate veröffentlicht werden. 1.1.4 Zum Verhältnis von „wissenschaftlicher Erfahrung“ und Alltagserfahrung Empirische Wissenschaft wird üblicherweise Erfahrungswissenschaft genannt. Damit soll zum Ausdruck gebracht werden, dass die mit empirischen Daten begründeten Aussagen auf der „Erfahrung“ beruhen. 7 Diese Begriffswahl ist durchaus gerechtfertigt, denn empirisch-wissenschaftliche Erfahrungen und Alltagserfahrungen sind 7 Empirie ist aus dem Griechischen abgeleitet und bedeutet „Sinneserfahrung“. Darstellung für Wissenschaftler/ innen-- für Anwender/ innen Grundlagenforschung Anwendungsorientierte Forschung Interesse am Generellen Interesse am konkreten Fall Bearbeitung von Wissenslücken in-der-Wissenschaft Lösung praktischer Probleme Entscheidungen im Forschungsprozess nach Gründlichkeit und Genauigkeit Entscheidungen im Forschungsprozess nach zeitlich naher Realisierbarkeit Darstellung für Wissenschaftlerinnen und-Wissenschaftler Darstellung für Praktikerinnen und Praktiker Tabelle 1.1: Vergleich Grundlagenforschung und anwendungsorientierte Forschung <?page no="21"?> 22 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 22 nicht grundsätzlich verschieden. Beide basieren auf Beobachtungen. 8 Die Beobachtungen sind in beiden Fällen theoriegeleitet. Hier wie dort zielt man auf Klassifizierungen der beobachteten Phänomene (Sachverhalte, Ereignisse etc.) und auf Schlussfolgerungen ab, d. h. die Beobachtungen sind nicht Selbstzweck. Wissenschafts- und Alltagserfahrung unterscheiden sich jedoch darin, dass alltägliche Beobachtungen und Schlussfolgerungen stärker auf konkretes Handeln, auf die jeweilige besondere Situation, auf den Einzelfall gerichtet sind: Was habe ich in dieser speziellen Situation beobachtet? Was ist in dieser speziellen Situation zu tun? (Zum Beispiel: Wie entwickelt sich die Bürgerinitiative gegen den Ausbau der Autobahn in X? Wird sie Erfolg haben? Was muss sie tun, um ihre Ziele zu erreichen? ) Die Alltagsbeobachtung versucht dabei, die komplexe Einzelsituation in ihrer individuellen Besonderheit unter bestimmten alltagsrelevanten Gesichtspunkten möglichst umfassend wahrzunehmen, um im Einzelfall möglichst präzise Voraussagen über die Angemessenheit bestimmter Handlungsstrategien machen zu können. Alltagserfahrung ist damit auf die individuelle Ansammlung von handlungsrelevantem Wissen ausgerichtet. Wissenschaftliche Beobachtung ist im Vergleich dazu stärker selektiv-- wobei zugleich die Selektivität in höherem Maße kontrolliert wird-- und stärker verallgemeinernd. Sie versucht, aus einer Vielzahl ähnlicher Situationen das Gemeinsame herauszuarbeiten, um relevante Einflussgrößen isolieren und generalisierende Prognosen formulieren zu können: Was ist den Situationen vom Typ X gemeinsam? Was sind die wichtigen Einflussgrößen in Situationen vom Typ X? (Zum Beispiel: Aus welchen Gründen bilden sich Bürgerinitiativen? Unter welchen Bedingungen können sie erfolgreich auf politische Entscheidungen Einfluss nehmen? ) Empirisches wissenschaftliches Arbeiten verfolgt also (grob zusammengefasst) zwei wichtige Ziele: - die Phänomene der realen Welt (möglichst „objektiv“) zu beschreiben und zu klassifizieren, - die (möglichst allgemeingültigen) Regeln zu finden, durch die die Ereignisse in der realen Welt erklärt und Klassen von Ereignissen vorhergesagt werden können. Alltägliche und wissenschaftliche Erfahrung unterscheiden sich dagegen nicht darin, dass jede Beobachtung (notwendigerweise) theoriegeleitet ist. Diese Behauptung widerspricht gängigen Vorurteilen, in denen häufig übersehen oder sogar ausdrücklich bestritten wird, dass wir (auch) im Alltag ständig auf Theorien-- auf „Alltagstheorien“- - zurückgreifen. Fast genauso häufig führt dieses Vorurteil zu der (ebenfalls irrigen) Meinung, es gebe den Typ einer „rein deskriptiven“ (also ausschließlich beschreibenden) empirischen Forschung mit der Möglichkeit absolut theoriefreien 8 Wenn man genau hinsieht, basieren auch wissenschaftliche Aussagen, die nicht streng empirisch begründet werden, meist auf Beobachtungen. handlungsrelevante Beobachtungen im-Alltag selektive, verallgemeinernde Beobachtungen in der Wissenschaft wichtige Ziele wissenschaftlichen Arbeitens jede Beobachtung ist theoriegeleitet <?page no="22"?> 23 1.1 Zur Situation empirischer Sozialwissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 23 Vorgehens, im Unterschied etwa zur ausdrücklich hypothesen- oder theorietestenden Forschung. Richtig an diesem Vorurteil ist lediglich, dass im ersten Fall (Alltagsbeobachtung, „rein deskriptive“ Forschung) die verwendeten Theorien nur implizit bleiben, also nicht ausdrücklich ausformuliert werden, ja, dass der Beobachter vielleicht sogar gänzlich unbewusst auf sie zurückgreift. Im anderen Fall dagegen (hypothesen- oder theorietestende Forschung) werden die verwendeten Theorien für jeden ersichtlich offen gelegt. Auch der Unterschied zwischen „wissenschaftlichen“ und „alltäglichen“ Theorien ist nicht von prinzipieller, sondern von nur gradueller Art: Wissenschaftliche Theorien sind in ihren Aussagen klarer fassbar und damit (der Möglichkeit nach) besser durchschaubar; sie verwenden im Idealfall präzise definierte Begriffe, geben ihren Geltungsbereich genau an. Dieser Vorzug wird durch eine Reduktion der Gesichtspunkte erkauft, die in die Theorie einbezogen werden: Die Zahl der Aspekte, unter denen man die Realität betrachtet und erklärt, wird möglichst klein gehalten („Reduktion der Komplexität“). Beim Vergleich von alltäglich benutzten gegenüber wissenschaftlichen Theorien stellen sich zwei wichtige Fragen: - Sind wissenschaftliche Theorien durch die in ihnen vorgenommene Reduktion der komplexen Realität auf einige wenige- - nach Auffassung der Theoretiker: zentrale-- Situationsaspekte unmittelbar in alltägliches Handeln umsetzbar? Hier setzt die häufig zu hörende Kritik an: „Ja, in der Theorie ist das zwar so, aber in der Praxis-…“ - Sind Alltagstheorien mit ihrer Orientierung an Einzelfällen und an individuellen Erfahrungen geeignet, generelle Tendenzen, abstraktere, allgemeinere Sachverhalte zu erklären? Es sei an dieser Stelle schon vorwegnehmend darauf hingewiesen, dass in den empirischen Wissenschaften keine einheitliche Auffassung darüber existiert, welche Merkmale Alltagstheorien von wissenschaftlichen Theorien unterscheiden und wie stark der abstrahierende, verallgemeinernde Charakter wissenschaftlicher Theorien sein soll. Je nach dem wissenschaftstheoretischen Standort einer Forscherin/ eines Forschers werden sich die theoretischen Entwürfe entweder stärker am Konzept eines wissenschaftliche und alltägliche Theorien graduell anders wenige Gesichtspunkte betrachten Umsetzbarkeit Verallgemeinerbarkeit Wissenschaftliche Erfahrung Alltagserfahrung Theoriegeleitet Theoriegeleitet Möglichst objektiv beschreiben und klassifizieren Möglichst alles Relevante wahrnehmen Möglichst allgemeingültige Regeln finden Funktionierende Regelmäßigkeiten finden Selektive, verallgemeinernde Beobachtung Individuelle Sammlung handlungsrelevanten Wissens Betrachtung weniger Gesichtspunkte Betrachtung relevanter Situationen in-ihrer-Gesamtheit Tabelle 1.2: Vergleich von wissenschaftlicher Erfahrung und Alltagserfahrung <?page no="23"?> 24 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 24 idealtypisierenden (nur die wesentlichen Merkmale einer Klasse ähnlicher Sachverhalte herausarbeitenden) Vorgehens orientieren, oder sie werden eher am Konzept einer „ganzheitlichen“ (möglichst viele konkrete Situationselemente berücksichtigenden) Anschauung ausgerichtet sein. 1.2 Grundpositionen der Erfahrungswissenschaft 1.2.1 Annahme der Existenz einer „tatsächlichen Welt“ War bisher allgemein von „wissenschaftlicher Erfahrung“ und „alltäglicher Erfahrung“ die Rede, so soll jetzt speziell auf Konzepte empirischer Wissenschaft (bzw. Erfahrungswissenschaft) eingegangen werden. 9 Empirische Wissenschaft verfolgt das Ziel, gesicherte Erkenntnisse über die „Wirklichkeit“ 10 zu gewinnen. Empirische Wissenschaft setzt die Existenz einer realen, einer tatsächlichen, „objektiven“ Welt (Gegenstände, Ereignisse, Beziehungen zwischen Gegenständen oder Ereignissen) unabhängig von ihrer Wahrnehmung durch einen Beobachter voraus. Dieses Axiom (also: diese grundlegende, nicht weiter beweisbare Annahme) wird von Vertretern unterschiedlicher wissenschaftstheoretischer Positionen innerhalb der Erfahrungswissenschaft nicht in Frage gestellt. Solche Einmütigkeit herrscht dagegen nicht mehr bei weiteren Annahmen über Eigenschaften der tatsächlichen Welt (vgl. das folgende Kapitel 1.2.2) sowie hinsichtlich der Möglichkeit der Erkenntnis der „objektiven Realität“. Der erkenntnistheoretische Realismus-- und auf dessen Basis wurde bisher implizit argumentiert (vgl. Kapitel 1.1.4)- - bejaht diese Möglichkeit. Denn nur wenn im Prinzip die Chance besteht, mit den Wahrnehmungssinnen und/ oder mit Hilfe unterstützender Beobachtungs- und Messinstrumente die außerhalb des beobachtenden Subjekts existierende Realität zu erfahren, sind sinnvolle Aussagen über die Realität formulierbar und „empirisch“ in der Realität überprüfbar. Der erkenntnistheoretische Konstruktivismus bestreitet dagegen die Möglichkeit, mit den Wahrnehmungssinnen die Realität so zu erfassen, wie sie wirklich ist. Vertreter des „radikalen Konstruktivismus“ etwa kommen aufgrund von Forschungen in der Physik, Biologie und Kybernetik zu dem Schluss, „dass all unsere Erkenntnisse 9 Unter „Erfahrungswissenschaften“ werden hier diejenigen Wissenschaften verstanden, die Wahrnehmungen über die Realität als Basis für die Geltung ihrer Aussagen heranziehen (etwa Soziologie, Chemie, Medizin). Außer Betracht bleiben damit Wissenschaften, deren Aussagensysteme allein aufgrund formaler, logischer Kalküle (etwa Mathematik), philosophischer oder Glaubensprinzipien (etwa Theologie) Geltung beanspruchen. 10 Mit gleicher Bedeutung werden auch Begriffe wie „real existierende Welt“, „tatsächliche Welt“, „wirkliche Welt“, „Welt der Tatsachen“ benutzt. Existenz der Welt unabhängig von Beobachtung erkenntnistheoretischer Realismus erkenntnistheoretischer Konstruktivismus <?page no="24"?> 25 1.2 Grundpositionen der Erfahrungswissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 25 Erkenntnisse eines sich selbst organisierenden Systems, des Gehirns, sind, gebunden an dessen Erkenntnismöglichkeiten und -grenzen. Diese erlauben grundsätzlich keine Aussagen über die tatsächliche, die ‚wahre‘ Beschaffenheit der Welt; sie zeigen nur, ob eine Erkenntnis mit der Beschaffenheit der Welt vereinbar ist, ob sie ‚passt‘-- nicht aber, dass sie ‚wahr‘ (im Sinne eines ‚einzig richtig‘) ist.“ (Meinefeld 1995, 100). 11 Vereinfacht ausgedrückt: Über die Sinne werden zwar Umweltreize wahrgenommen. Diese formen jedoch im Kopf der wahrnehmenden Person kein „Abbild“ der Umwelt. Vielmehr wird aus den Sinnesreizen durch eigene Interpretationsleistungen ein (subjektives) Bild „konstruiert“. Jeder lebt sozusagen in seiner eigenen „virtuellen Realität“. Solange dieses virtuelle Modell mit der „tatsächlichen“ Welt hinreichend zusammenpasst, ist es möglich, in dieser „tatsächlichen“ Welt zu leben und zu überleben, allerdings ohne erkennen zu können, wie sie unabhängig von der eigenen gedanklichen Realitätskonstruktion „wirklich“ ist. 12 Manche Autoren ziehen die Konsequenz, auch sprachlich zwischen (objektiver) Realität und (subjektiver) Wirklichkeit zu unterscheiden. 1.2.2 Ordnung, Struktur, Gesetzmäßigkeiten Anhänger einer analytisch-nomologischen bzw. deduktiv-nomologischen Wissenschaft (die Darstellung dieser wissenschaftstheoretischen Position folgt in Kapitel 1.3) gehen von einer geordneten, strukturvollen, regelhaften „wirklichen Welt“ (Welt der Tatsachen) aus. D. h. die einzelnen Gegenstände stehen in geordneter Weise miteinander in Beziehung, sie bilden eine Struktur; Ereignisfolgen laufen nach immer gleich bleibenden Regeln („Gesetzen“) ab; für jedes Ereignis muss es eine Ursache oder auch eine komplexe Menge von Ursachen geben (Kausalitätsprinzip). 11 Wer sich über erkenntnistheoretische Positionen einen Überblick verschaffen sowie die Auseinandersetzung mit ihnen nachvollziehen möchte, dem sei dieses sehr anregende Werk von Werner Meinefeld (1995) nachdrücklich empfohlen. − Realismus und Konstruktivismus sind nicht die einzigen konkurrierenden erkenntnistheoretischen Schulen in der gegenwärtigen Sozialwissenschaft. In gewisser Hinsicht zwischen diesen beiden Polen ist der Pragmatismus einzuordnen, der zwar nicht die Erfahrbarkeit der Realität bestreitet, jedoch als Instrument der Überprüfung der Richtigkeit oder „Wahrheit“ empirischer Aussagen nicht Realitätsbeobachtungen, sondern die Konsequenzen der kontrollierten Anwendung theoretischer Behauptungen postuliert (sogenannter methodologischer Pragmatismus). Siehe auch Chalmers (1999) für weitere erkenntnistheoretische Positionen. 12 Man kann sich diesen Gedanken etwa durch Vergleich mit der Situation eines Flugzeugpiloten verdeutlichen, der wegen dichten Nebels gezwungen ist, eine Instrumentenlandung zu unternehmen. Die Anzeigen auf seinen Radarschirmen sind selbstverständlich keine „naturgetreue Abbildung“ der Realität von Luftraum und Boden; sie passen jedoch ausreichend, um einigermaßen gefahrlos auf dem Flugplatz landen zu können. Wäre dieser Pilot immer nur auf seine Radaranzeigen angewiesen, hätte er allerdings keinerlei Chance, die Realität jemals so zu erkennen, wie sie „wirklich“ ist; bzw. korrekter: wie sie unserem Wahrnehmungsorgan Auge erscheint. Realität und Wirklichkeit Annahme: strukturvolle, regelhafte Welt <?page no="25"?> 26 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 26 Unter solchen Gegebenheiten besteht die Aufgabe der Wissenschaft darin, die in der Welt der Tatsachen herrschenden Strukturen und Gesetzmäßigkeiten zu „entdecken“. Je mehr Wissen über Strukturen und Gesetzmäßigkeiten verfügbar ist, desto mehr werden beobachtete Ereignisse erklärbar und künftige Ereignisse prognostizierbar, und desto mehr wird die Welt beherrschbar. Da die prinzipielle Ordnung und Regelhaftigkeit für die gesamte reale Welt unterstellt wird, unterscheiden sich nach dieser Vorstellung die verschiedenen Erfahrungswissenschaften (z. B. Naturwissenschaften wie Physik, Chemie, Biologie oder Sozialwissenschaften wie Ökonomie, Psychologie, Soziologie) lediglich in dem Gegenstand, mit dem sie sich befassen, nicht dagegen in der Art ihres Vorgehens. Zum Auffinden empirischer Gesetzmäßigkeiten können also alle Erfahrungswissenschaften nach der gleichen Verfahrenslogik, nach den gleichen methodischen Prinzipien vorgehen (Postulat der Einheitswissenschaft). Gegen diese Sicht auf die Welt hat sich in den Sozialwissenschaften mit der interaktionistischen, qualitativ-interpretativen Richtung eine prominente Alternative etabliert. 13 Vertreter dieser qualitativ-interpretativen Sozialwissenschaft lassen für den Bereich des Sozialen (für die Gesellschaft sowie für Ereignisse und Beziehungen innerhalb der Gesellschaft) die These einer vorgegebenen Struktur mit grundlegenden und gleich bleibenden Regelhaftigkeiten („sozialen Gesetzen“) nicht gelten. Sie postulieren, dass die Menschen die gesellschaftlichen Strukturen, in denen sie miteinander leben, durch ihr Handeln selbst schaffen und damit auch ständig verändern. Die Art der Beziehungen zwischen Menschen und zwischen Gruppen von Menschen wird-- so die grundlegende These-- auf der Basis des bei jedem Mitglied einer Gesellschaft vorhandenen Alltagswissens in Interaktionen (d. h. durch aufeinander bezogenes Handeln von Personen oder Gruppen) immer wieder neu definiert, wird immer wieder in Auseinandersetzung mit der gegebenen Situation neu entwickelt oder weiterentwickelt (klassisch Blumer 2004, Orig. 1969). Mit anderen Worten: Wenn-- im einfachsten Fall-- zwei Personen miteinander zu tun haben, dann versucht jede der beiden Personen die für ihre Absichten relevanten Merkmale der Situation, in der man zusammentrifft, wahrzunehmen und deren Bedeutung aufgrund des vorhandenen Wissens über frühere ähnliche Situationen zu erfassen. Jede der beiden Personen interpretiert aus ihrer Perspektive die Dinge, die sie sieht, einschließlich des Gegenübers, seines Auftretens, seiner Gesten usw. Erst durch diese Interpretation erhalten die wahrgenommenen Dinge für die Person eine 13 Eine Dokumentation dieser Position findet sich etwa in dem Reader von Strübing und Schnettler (2004). Einen breiten und leicht lesbaren Überblick über das ganze Spektrum qualitativer Sozialforschung bieten die Beiträge in Flick u. a. (2000) sowie Keller (2011a), Przyborski/ Wohlrab-Sahr (2014) und Strübing (2013). Die Annotationen aus der Perspektive qualitativ-interpretativer Methoden am Ende jedes Kapitels vergleichen jeweils die darin behandelten Themen mit der Herangehensweise dieser Richtung. Aktuelle Beiträge finden sich im Internetforum „Qualitative Sozialforschung“ (www.qualitative-research.net/ fqs/ ). Ziel: Gesetzmäßigkeiten entdecken Postulat der Einheitswissenschaft interpretative Richtung: Situationsinterpretation <?page no="26"?> 27 1.2 Grundpositionen der Erfahrungswissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 27 Bedeutung. Des Weiteren stellt jede der beiden Personen Vermutungen darüber an, wie das Gegenüber die Situation interpretiert und welche Absichten und Erwartungen sie mitbringt. Beide Personen werden dann auf der Basis der eigenen Situationsdefinition, der eigenen Ziele und Erwartungen sowie der Vermutungen über die entsprechende Sichtweise des Gegenübers handeln und die Reaktionen des Gegenübers daraufhin prüfen, ob sie mit den eigenen Annahmen in Einklang stehen. So bildet sich in einer Folge von Interaktionen sowie wiederholten, gegebenenfalls revidierten Interpretationen beider Seiten eine spezifische, für diese Situation ausgehandelte Beziehung der Interaktionspartner heraus. Je alltäglicher, je gewohnter die Handlungssituation für die Beteiligten ist und je zutreffender die gegenseitigen Vermutungen über die Perspektive des Gegenübers sind, desto unmerklicher läuft der Interpretations- und Aushandlungsprozess ab. Je neuer, je ungewohnter dagegen die Situation, desto eher wird zunächst ein vorsichtiges gegenseitiges „Abtasten“ notwendig und desto ungewisser wird der Ausgang des Aushandlungsprozesses sein. 14 Was hier für den vereinfachten Fall eines Zweierkontakts in einer abgegrenzten Handlungssituation skizziert wurde, gilt nach den Vorstellungen interpretativer Sozialwissenschaft auch für Gruppenbeziehungen bis hin zur gesellschaftlichen Ebene. Der jeweils gegebene gegenwärtige Zustand wird als Resultat komplexer Abfolgen von Interaktionen begriffen, der in weiteren Interaktionen ständig neu zur Disposition gestellt, ständig neu interpretiert und weiterentwickelt wird. Wenn demnach für den Gegenstand des Sozialen nicht von stabilen Strukturen und von gleich bleibenden Regelmäßigkeiten ausgegangen wird, dann ist es aus dieser Sicht selbstverständlich sinnlos, nach „sozialen Gesetzen“ zu suchen und soziale Ereignisse in der empirischen Welt mit Hilfe von Gesetzmäßigkeiten erklären oder prognostizieren zu wollen; denn dann „passt“ das Axiomensystem des erkenntnistheoretischen Realismus nicht. Die analytisch-nomologische Position der Erfahrungswissenschaft unterstellt dagegen-- wie schon erwähnt-- ausdrücklich auch für den Bereich des Sozialen die Existenz grundlegender Gesetzmäßigkeiten. Diese treten unter veränderten historischen und gesellschaftlichen Bedingungen lediglich in unterschiedlicher Ausprägung in Erscheinung. Aussagen über soziale Regelhaftigkeiten sollen daher im Idealfall „nomologischen“ Charakter haben, d. h. sie sollen in ihrem Geltungsanspruch weder räumlich noch zeitlich relativiert sein. Prinzipiell gilt für ihre Form Folgendes: Immer wenn der Sachverhalt X vorliegt und wenn zugleich die Zusatzbedingungen Y 1 , Y 2 , Y 3 ,-… erfüllt sind, dann wird auch das Ergebnis Z eintreten. Durch deduktiv-logische Ableitung kann diese allgemeine Gesetzesaussage auf beliebige räumlich und zeitlich identifizierbare Situationen übertragen werden; etwa: Der Sachverhalt A am Ort O zum Zeitpunkt t gehört zur Klasse der Sachverhalte X; die Situationsgegebenheiten b 1 , b 2 , b 3 ,-… entsprechen den im nomologischen Gesetz aufgeführten Zusatzbedingungen Y 1 , Y 2 , Y 3 ,-…; daher wird auch hier ein Ergebnis Z eintreten. 14 Großen Einfluss für die deutsche Rezeption hatte die gut verständliche Darstellung dieser Position bei H. Blumer (2004, Orig. 1969, erste Übersetzung 1973). Soziales als Resultat von Interaktionen analytischnomologische Richtung: Gesetzmäßigkeit Ideal: räumlich, zeitlich unbegrenzte Geltung <?page no="27"?> 28 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 28 Auf rein logischem Wege begründete Aussagen nennt man auch „analytische“ Sätze. Daraus folgt die Bezeichnung „analytisch-nomologisch“ für die hier skizzierte wissenschaftstheoretische Position; zum Teil findet sich auch die Formulierung „deduktiv-nomologisch“. 15 1.2.3 Empirische Erfahrung als Grundlage des Wissens Einmütigkeit besteht zwischen den Vertretern unterschiedlicher Positionen innerhalb der Erfahrungswissenschaften darüber, dass empirisches Wissen, d. h. Wissen über die tatsächliche Welt, nur in der Auseinandersetzung mit der Realität gefunden und durch Beobachtung der Realität abgesichert werden kann. „Beobachtung“ ist hierbei in einem sehr weit gefassten Sinne zu verstehen als kontrollierte direkte oder indirekte Wahrnehmung mit Hilfe der menschlichen Wahrnehmungssinne und unterstützt durch zu diesem Zweck konstruierte Beobachtungs- und Messinstrumente (hierher gehören z. B. auch alle Formen der Befragung). Uneinigkeit besteht dagegen zwischen den verschiedenen Positionen über die Art der Auseinandersetzung mit der Realität und über die Regeln der-- im obigen Sinne verstandenen-- kontrollierten Beobachtung. Analytisch-nomologisch orientierte Erfahrungswissenschaftler beginnen damit, dass sie generelle Vermutungen („Hypothesen“) über Eigenschaften der tatsächlichen Welt und über deren Gesetzmäßigkeiten aufstellen. 16 Anschließend werden die Ausschnitte der realen Welt identifiziert, über welche die Hypothesen etwas aussagen und in denen sie sich demnach zu „bewähren“ haben. Für die so abgegrenzten Realitätsausschnitte werden schließlich-- sehr stark vereinfacht skizziert-- auf kontrollierte Weise empirische Daten erhoben, und die Resultate der Datensammlung werden in „Beobachtungsaussagen“ beschrieben. Stehen die Beobachtungsaussagen mit den vorher formulierten Vermutungen im Einklang, dann gelten die Hypothesen als „empirisch bewährt“. Widersprechen dagegen die Beobachtungsaussagen den vorher formulierten Vermutungen, treffen also die Vermutungen in der beobachteten Realität nicht zu, dann gelten die Hypothesen als „falsifiziert“. Sie müssen entweder ganz verworfen oder umformuliert und einer erneuten empirischen Überprüfung unterzogen werden. Damit die erhobenen Daten auch tatsächlich diese Funktion eines „Wahrheits-Entscheidungskriteriums“ beim empirischen Test von Hypothesen erfüllen können, müsste allerdings im Idealfall gewährleistet sein, dass sie die empirischen Gege- 15 Für eine umfassende und detaillierte Darstellung wird verwiesen auf Esser/ Klenovits/ Zehnpfennig (1977), Bd. 1. 16 Wie die Forscherin/ der Forscher an solche Hypothesen kommt, ist nach dieser Auffassung für das weitere wissenschaftliche Vorgehen unerheblich. Die Hypothesen können sich z. B. aus individuellen Alltagserfahrungen herausschälen, oder sie können aus Regelmäßigkeiten in empirischen Daten induktiv gewonnen worden sein. Hypothese als Ausgangspunkt Überprüfung mit-Beobachtungsaussagen Wahrheitsentscheidungskriterium <?page no="28"?> 29 1.2 Grundpositionen der Erfahrungswissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 29 benheiten „objektiv richtig“ abbilden. 17 Dieses Ideal ist aus Gründen, die später (Kapitel 1.3) im Einzelnen beschrieben werden, nicht erreichbar. Um dennoch zumindest sicherzustellen, dass nicht systematische Verzerrungen das empirische Abbild der Realität beeinflussen, gilt als zentrale Norm analytisch-nomologisch orientierter Wissenschaft, dass im Zusammenhang mit der Datenerhebung und auswertung ausschließlich von der Forschungsfragestellung her notwendige und sachlich-methodisch begründete Entscheidungen zu treffen und dass alle Entscheidungen und ihre Begründungen zu dokumentieren sind. Subjektive Werte, Urteile und Vorlieben der Forscher oder der mit der Datenerhebung betrauten Personen dürfen dabei ausdrücklich keine Rolle spielen (Prinzip der Wertneutralität innerhalb des Forschungsprozesses). Der nach empirischen Gesetzmäßigkeiten fahndenden Forscherin und ihren Kollegen ist allerdings nicht mit isolierten Einzelbeobachtungen gedient. Sie wollen aus den Daten Schlussfolgerungen ziehen, die über die Besonderheiten des jeweiligen Einzelfalls hinausgehen. Daher ist Vorsorge zu treffen, dass die Bedingungen der Datenerhebung sich nicht von einem Fall zum anderen unterscheiden, so dass die Resultate der einzelnen Beobachtungen miteinander vergleichbar sind (Prinzip der Standardisierung der Messsituation). Und schließlich noch soll- - wie oben schon angedeutet-- das gesamte Vorgehen so vollständig dokumentiert werden, dass es von anderen Personen (anderen Forschern oder am Thema interessierten Laien) nachvollzogen, beurteilt, gegebenenfalls kritisiert oder sogar durch Wiederholung der Untersuchung nachgeprüft werden kann (Prinzip der intersubjektiven Nachprüfbarkeit). Auf erheblich andere Weise versuchen die am Konzept einer interpretativen Sozialwissenschaft orientierten Forscher, Zugang zu Informationen über die Realität zu finden. Am Beginn stehen nicht möglichst präzise formulierte Hypothesen, die durch Konfrontation mit der Realität überprüft werden sollen. Am Beginn steht vielmehr das Gewinnen möglichst authentischer Erfahrungen im Untersuchungs- „Feld“, also in dem Ausschnitt der tatsächlichen Welt, über den man Erkenntnisse gewinnen möchte. Hierbei soll die Forscherin bzw. der Forscher sich vom „Prinzip der Offenheit“ leiten lassen. Dieses Prinzip besagt, dass sie/ er nicht mit vorgefassten Meinungen in die Datenerhebung eintreten darf; insbesondere dürfen nicht in Hypothesen vorab festgeschriebene Behauptungen und Definitionen zum Maßstab der Datensammlung gemacht werden. Die Aufmerksamkeit soll vielmehr offen sein für die Wahrnehmung der Situationsdefinitionen, wie sie für die im Untersuchungsfeld alltäglich Handelnden gelten. Vorkenntnisse und Vorannahmen über den Untersuchungsgegenstand sollen daher einen bewusst vorläufigen Charakter haben. Sie sollen zwar die Aufmerksamkeit „sensibilisieren“, sollen neugierig machen; sie dürfen aber nicht 17 Dies wird auch als „absolutes Wahrheitskriterium“ bezeichnet oder-- da hier die Übereinstimmung (=-Korrespondenz) des semantischen Gehalts der Aussage mit der faktischen Realität gefordert wird-- als „Korrespondenztheorie der Wahrheit“. Andere erkenntnis- und wissenschaftstheoretische Schulen formulieren andere- - „pragmatische“, nicht „absolute“- - Wahrheitskriterien, beispielsweise entwirft Jürgen Habermas für die „Kritische Theorie“ eine „Konsenstheorie der Wahrheit“. Prinzip der Wertneutralität Vergleichbarkeit durch Standardisierung Dokumentation des-Vorgehens Zugang der interpretativen Sozialwissenschaft Prinzip der Offenheit <?page no="29"?> 30 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 30 (in Form forschungsleitender oder zu überprüfender Hypothesen) zu Voreingenommenheiten bei der Auswahl von Daten und bei deren Charakterisierung als relevant oder irrelevant für die Forschungsfrage verführen. Möglichst präzise formulierte Hypothesen über den Untersuchungsgegenstand stehen also für Anhänger einer interpretativen Sozialwissenschaft nicht am Beginn des Forschungsprozesses; sie können allenfalls das Ergebnis einer empirischen Untersuchung sein. Auch die Forschungsergebnisse haben im Übrigen immer nur vorläufigen Charakter, da ja die soziale Welt als im stetigen-- wenn möglicherweise auch unmerklich langsamen- - Wandel befindlich begriffen wird, nämlich im Zuge der ständig fortlaufenden Interpretationsleistungen der Interagierenden. Ob sozialwissenschaftliche Aussagen als „wahr“ akzeptierbar sind, darüber entscheiden dementsprechend-- anders als nach der analytisch-nomologischen Position-- nicht die Forscher durch Vergleich ihrer Hypothesen mit den Daten über die tatsächliche Welt, sondern darüber entscheiden die in der Alltagsrealität Interagierenden. Wenn für die Auswirkungen der sozialen Umwelt auf das Handeln von Personen, Gruppen oder Organisationen nicht allgemeingültige soziale Gesetzmäßigkeiten verantwortlich sein sollen, wenn vielmehr die Umweltgegebenheiten erst durch die interpretierenden Bedeutungszuschreibungen der Beteiligten wirksam werden, dann müssen die Beobachter neben den Daten über objektive Sachverhalte der sozialen Welt immer auch die subjektiven Deutungen dieser Sachverhalte durch die Akteure mit erfassen, um die erhobenen Daten überhaupt ihrem eigenen Sinn entsprechend verstehen zu können. Mit anderen Worten: Untersuchungsgegenstand ist nicht die „objektive Realität“, sondern die „subjektive Wirklichkeit“ der Handelnden. Die Vergleichbarkeit der Einzeldaten wird von interpretativen Sozialforschern nicht durch Standardisierung der Erhebungssituation herzustellen versucht, sondern dadurch, dass möglichst alle für die untersuchten Sachverhalte bedeutsamen Randbedingungen und Interpretationen mit erhoben werden. Dies verlangt von den verwendeten Beobachtungs- oder Informationsbeschaffungs-Strategien eine möglichst große Flexibilität, so dass zu jedem Zeitpunkt auch unvorhergesehene Aspekte berücksichtigt werden können. Ein methodisches Vorgehen dieser Art-- Prinzip der Offenheit, kommunikative Erhebung von Situationsdeutungen im sozialen Feld im Sinne „kontrollierter Subjektivität“- - bezeichnet man üblicherweise als qualitative oder interpretative Sozialforschung. 18 Dass die Bedeutung objektiver Gegebenheiten für die im sozialen Feld Agierenden von einer Vielzahl von Randbedingungen abhängt und dass die Bedeutung eines Gegenstandes A für dieselbe Person in einer Situation S 1 nicht die gleiche sein muss wie in einer anderen Situation S 2 , wird auch von der analytisch-nomologisch orientierten Wissenschaft nicht bestritten. Sie geht jedoch davon aus, dass auch situationsspezifisch unterschiedliche Bedeutungszuschreibungen nicht beliebig (in immer wieder neuen und jedes Mal vom Ergebnis her offenen Aushandlungsprozessen) erfolgen, 18 Wer sich für die Forschungsmethodik dieser Ausrichtung interessiert, der findet in dem Reader von Flick u. a. (2000) vielfältige Hinweise. Besonders sei aber die Lektüre des immer noch lesenswerten Aufsatzes von Christa Hoffmann-Riem (1980) empfohlen. präzise Hypothesen als Ergebnis verstehen durch subjektive Deutungen Flexibilität bei der-Beobachtung Situationsdeutung in analytischnomologischer Perspektive <?page no="30"?> 31 1.2 Grundpositionen der Erfahrungswissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 31 sondern dass auch die Bedeutungszuschreibungen selbst sozialen Regelmäßigkeiten unterliegen. Erforderlich ist daher aus dieser Sicht entweder die Kontrolle der relevanten Situationsbedingungen (z. B. durch gezielte Auswahl miteinander vergleichbarer Handlungssituationen bzw. durch Beeinflussung der Randbedingungen, etwa im Experiment) oder-- ein Weg, der häufiger gewählt wird-- durch systematische Erhebung von Daten über möglichst alle relevanten Situationsbedingungen. Das macht empirische Sozialforschung zwar erheblich komplizierter als naturwissenschaftliche Forschung, bedeutet jedoch nicht, dass die Sozialwissenschaften für ihre Forschungen eine Methodologie entwickeln müssten, die von anderen Wissenschaften grundsätzlich verschieden wäre. Auch dass die meisten in den Sozialwissenschaften verwendeten Datenerhebungsinstrumente auf die Kommunikation zwischen Forscher (oder Forschungspersonal) und den Forschungsgegenständen (nämlich den Akteuren im sozialen Feld) angewiesen sind, ist kein prinzipielles Hindernis. Es bedeutet lediglich, dass auch die Einflussfaktoren der Forschungskontaktsituation, d. h. der Kommunikationsbeziehung zum Zwecke der Datenerhebung, zu kontrollieren sind. Üblicherweise wird dies von Vertretern der analytisch-nomologischen Wissenschaft dadurch angestrebt, dass man versucht, die Erhebungssituation für alle Einzelfälle identisch zu gestalten (im Falle von Interviews durch Verwendung standardisierter Fragebögen, die den Wortlaut und die Reihenfolge der Fragen exakt festlegen; durch präzise Verhaltensanweisungen an die Interviewer; durch die Forderung, dass jedes Interview mit der Zielperson allein und z. B. jeweils in ihrer häuslichen Umgebung geführt wird usw.). 1.2.4 Ein Missverständnis: standardisiert =-quantitativ Für ein methodisches Vorgehen der oben skizzierten Art-- also möglichst detaillierte Vorstrukturierung des Untersuchungsgegenstands durch Hypothesen sowie Standardisierung der Erhebungssituation mit dem Ziel der Gewinnung präziser, vergleichbarer, intersubjektiv gültiger empirischer Informationen-- haben sich im allgemeinen Sprachgebrauch Bezeichnungen wie quantitative Methoden oder quantitative Sozialforschung eingebürgert. Solche Bezeichnungen sind jedoch irreführend, da die wesentlichen Unterschiede nicht erst in der Phase der Datenauswertung auftreten (quantifizierende Analyse mit Hilfe statistischer Verfahren versus qualitativ-hermeneutische Interpretation des gesammelten Materials), sondern schon im Zuge der Datenerhebung. Die Bezeichnungen richten damit den Fokus auf einen Teilaspekt, der gerade nicht den zentralen Unterschied zwischen der standardisierten und der nicht standardisierten, offenen Forschungsstrategie ausmacht und der sich allenfalls als ideologischer Kampfbegriff („qualitativ“ versus „quantitativ“) eignet. 19 19 Auch die damit häufig übernommene Gleichsetzung von interpretativem Wissenschaftsparadigma mit „qualitativer“ Sozialforschung sowie von analytisch-nomologischer Wissenschaft mit „quantitativer“ Sozialforschung ist nicht zwingend: Prinzipiell können auch Forscher, die sich auf das interpretative Paradigma berufen, quantitative Methoden einsetzen und analy- Kontrolle der relevanten Situationsbedingungen Kontrolle der Befragungssituation verbreitete irreführende Bezeichnung <?page no="31"?> 32 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 32 Zentral ist, dass die in einem standardisierten Vorgehen erhobenen Informationen den Charakter von „Daten“ haben sollen, also von „Messwerten“, die in der Phase der Datenanalyse ohne weitere semantische Deutung unmittelbar statistisch auswertbar sind. Wie dies zu erreichen ist, steht im Detail in den Kapiteln 2 bis 7 dieses Lehrtextes. Will man die Strategie der sogenannten „quantitativen“ Forschung kurz auf den Punkt bringen, dann treffender durch folgende Charakterisierung: ein streng zielorientiertes Vorgehen, das die „Objektivität“ seiner Resultate durch möglichst weitgehende Standardisierung aller Teilschritte anstrebt und das zur Qualitätssicherung die intersubjektive Nachprüfbarkeit des gesamten Prozesses als zentrale Norm postuliert. Ein solches zielorientiertes und auf Standardisierung angelegtes Vorgehen ist allerdings nur realisierbar, wenn zuvor mehrere Voraussetzungen erfüllt sind. Zu Beginn muss die Themenstellung exakt und unter Vermeidung von Leerformeln beschrieben und muss der Informationsbedarf vollständig und präzise angegeben werden (Kapitel 3): Welche Informationen werden in welchem Detaillierungsgrad für welche Zwecke benötigt? In gleicher Genauigkeit ist der „Gegenstand“ zu definieren und abzugrenzen, über den die gewünschten Informationen erhoben werden sollen: Welche Objekte gehören (noch) dazu, und welche Strukturelemente sind relevant? Falls die Formulierung des Themas sowie des Gegenstands der Untersuchung (noch) nicht hinreichend präzise möglich ist, ist auch die Entwicklung eines angemessenen standardisierten Forschungsdesigns nicht möglich; „strukturentdeckende“, auf Offenheit des Vorgehens angelegte Konzepte der sogenannten „qualitativen“ Forschung sind in diesem Fall geeigneter. Bei der Ausarbeitung des Forschungsdesigns (Kapitel 2) und der Planung der einzelnen Schritte zur Informationssammlung (=-Operationalisierung; Kapitel 4) ist die Präzisierung durch Entwicklung eines forschungsleitenden Strukturmodells (einschließlich der Ausformulierung expliziter Zusammenhangshypothesen) und ist die Fokussierung auf den angestrebten Informationsbedarf fortzusetzen. Die Grundgesamtheit aller Objekte, für die die zu gewinnenden Aussagen gelten sollen, ist zu definieren und empirisch abzugrenzen (Kapitel 6). Es ist zu entscheiden, ob eine Vollerhebung angestrebt wird oder eine Stichprobe gezogen werden muss (und falls ja: nach welchem Verfahren). Schließlich ist zu entscheiden, welche Informationsquellen bzw. welche Informanten die benötigten Daten liefern sollen und mit welchen Instrumenten sie in einer für die Untersuchungsfrage geeigneten Weise erhoben werden können (z. B. per Inhaltsanalyse von Dokumenten oder per Interview oder tisch-nomologisch orientierte Wissenschaftler qualitative Verfahren für sich nutzbar machen. Unter dem Titel „Mixed Methods“ werden diese Verbindungen diskutiert und praktiziert (Kuckartz 2011, Small 2011). Schritte des Vorgehens <?page no="32"?> 33 1.2 Grundpositionen der Erfahrungswissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 33 schriftlicher Befragung; Kapitel 7). Alle Entscheidungen sind zu begründen und zu dokumentieren, um die geforderte intersubjektive Kontrollierbarkeit überhaupt zu ermöglichen. Die Designphase ist derjenige Abschnitt des Forschungsprojekts, in dem die Basis für die Qualität der Resultate gelegt wird. Was in dieser Phase übersehen oder falsch entschieden wird, lässt sich später (bei der Datenerhebung und bei der Datenanalyse) nicht mehr korrigieren. Gründliche Recherchen des bereits verfügbaren Erkenntnisstandes, die sorgfältige Entwicklung der einzusetzenden Instrumente und ihr umfassender Pretest sind daher unabdingbare Voraussetzungen, um bei einem standardisierten Verfahren der Informationsgewinnung zu verlässlichen Daten zu kommen. „Standardisierung“ bedeutet in diesem Zusammenhang, dass die Erhebung der Informationen sich in jedem einzelnen Fall in gleicher Weise vollzieht. Rein formal ist das zwar relativ gut realisierbar: durch ein für alle identisches Erhebungsinstrument (z. B. standardisierter Fragebogen), durch Sicherstellung des gleichen Typs von Forschungskontakt bei allen Informanten (z. B. persönliches Einzelinterview in der Wohnung des Befragten), durch überall gleichartiges Verhalten des „Informationssammlers“ (z. B. freundlich-neutrales Auftreten des Interviewers). Das allein sichert jedoch noch nicht die semantische Gleichheit formal identischer Antworten. Diese ist vielmehr erst dann gewährleistet, wenn die gleiche Kategorie im Erhebungsinstrument (z. B. Fragewortlaut plus Antwortvorgaben im Fragebogen) von den Informanten in identischer Weise verstanden und nach den gleichen Kriterien beantwortet wird. 20 Diese Prüfung-- Frageverständnis und Beantwortungsweise beim Informanten- - ist die zentrale (und über die Datenqualität entscheidende) Funktion von Pretests, die leider viel zu häufig vernachlässigt wird. Interviewer können darin geschult werden, sich „standardisiert“ zu verhalten; Informanten werden nicht „geschult“, für sie muss das Erhebungsinstrument „selbsterklärend“ sein. Nur so lässt sich eine Datenbasis gewinnen, in der gleiche Codes auch Gleiches bedeuten. Dass letzteres gewährleistet ist-- ohne weitere Deutung vergleichbare Daten--, ist die meist implizit gelassene Voraussetzung der Einsetzbarkeit statistischer Modelle und Verfahren (Kapitel 7) für die Analyse. Nur unter dieser Voraussetzung können die Codes in der Datenmatrix ausgezählt und dürfen die in den Daten ermittelten Häufigkeiten in empirische Häufigkeiten übertragen werden, nur unter dieser Voraussetzung dürfen statistische Beziehungen zwischen „Variablen“ der Datenmatrix als Zusammenhänge zwischen Merkmalen in der empirischen Realität interpretiert werden. Um auf die zu Beginn problematisierte Bezeichnung „quantitative Methoden“ zurückzukommen: Erst auf der Stufe der Datenanalyse ist sie zutreffend. Bei statistischen Verfahren handelt es sich nun in der Tat um „quantitative Methoden“. Ihr Einsatz setzt „quantifizierbare“ (d. h.: unmittelbar auszählbare, weil jeweils Identisches abbildende), nicht jedoch „quantitative“ (d. h.: Quantitäten abbildende) Daten 20 Die Argumente, die hier am Beispiel „mündliches Interview“ vorgebracht werden, gelten natürlich in analoger Weise für andere Erhebungsmethoden, etwa standardisierte Beobachtung oder Dokumentenanalyse. wichtige Designphase wichtig Pretest quantifizierende Auswertung <?page no="33"?> 34 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 34 voraus (Kapitel 5). Auch „qualitative“ Informationen wie „Geschlecht“ oder „höchster Schulabschluss“ können selbstverständlich Gegenstand statistischer Analysen sein, wenn diese Merkmale in standardisierter Weise erhoben worden sind. 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ Als Hintergrundinformationen für die in den Kapiteln 2 bis 7 darzustellende Methodologie standardisiert verfahrender empirischer Forschung werden im Folgenden einige zentrale wissenschaftstheoretische Postulate einer analytisch-nomologisch orientierten Erfahrungswissenschaft näher erläutert. Der Text lehnt sich dabei an die Position an, die als sogenannter „Kritischer Rationalismus“ ausformuliert wurde und als deren Hauptvertreter Karl R. Popper sowie in Deutschland Hans Albert gelten. Dies geschieht nicht, um den Leser zu dieser wissenschaftstheoretischen Schule zu „bekehren“. Vielmehr sind die gängigen Methoden empirischer Sozialforschung sowie deren theoretische Begründungen und die Regeln ihrer Anwendung (die Methodologie) von Vertretern dieser Richtung der Erfahrungswissenschaft entwickelt worden. Manche der später folgenden methodologischen Argumentationen wären ohne einige wissenschaftstheoretische Grundlagen schwer nachzuvollziehen. 1.3.1 Begriffsklärung Empirische Wissenschaft ist- - wie bereits vorne ausgeführt- - der Teil der Wissenschaften, der auf der Erfahrung durch die menschlichen Sinne (auf Beobachtung in allerweitester Bedeutung) beruht. Empirisches Vorgehen ist das „Ausgehen von Erfahrungstatsachen“. Dass dies nicht gleichbedeutend mit theorielosem Vorgehen ist, vielmehr ohne Rückgriff auf Theorien (explizite oder zumindest Alltagstheorien) gar nicht möglich wäre, wurde ebenfalls schon angemerkt und wird im Folgenden noch weiter zu verdeutlichen sein. Bei der Erfassung von „Erfahrungstatsachen“ bedient man sich bestimmter Strategien wie Beobachtung, Experiment, Befragung usw. Für den Ansatz einer standardisiert-quantitativ vorgehenden empirischen Sozialforschung, deren Methoden in diesem Lehrbuch vorgestellt werden, kann die unter dem Namen „Kritischer Rationalismus“ ausformulierte Variante der Forschungslogik (Albert im Anschluss an Popper) als die vorherrschende Leitmethodologie gelten. Die rigorose Position, wie Albert sie vertritt, ist zwar in der praktischen Sozialforschung selten vollständig durchzuhalten; dennoch ist sie weitgehend die wissenschaftstheoretische Basis standardisierter empirischer Forschung. Wenn wir im Folgenden von der Position des Kritischen empirische Wissenschaft <?page no="34"?> 35 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 35 Rationalismus ausgehen, so bedeutet dies selbstverständlich nicht- - das sei noch einmal ausdrücklich betont- -, dass andere wissenschaftstheoretische „Schulen“ (neben der bereits genannten „interpretativen Soziologie“ auch etwa marxistisch-materialistische oder dialektisch-kritische Positionen) auf empirisches Vorgehen bei der Informationsbeschaffung über die Realität verzichten könnten oder wollten. 21 1.3.2 Einige Prinzipien der empirischen Forschungsmethode in der Version des „Kritischen Rationalismus“ Das Hauptprinzip empirischer Forschungsmethodologie - wie es vom Kritischen Rationalismus vertreten wird-- lautet: Alle Aussagen müssen an der Erfahrung überprüfbar sein, müssen sich in der Konfrontation mit der Realität bewähren. Mit anderen Worten: Alle Aussagen einer empirischen Wissenschaft müssen-- sofern sie unzutreffend sind-- prinzipiell an der Erfahrung scheitern können (vgl. Popper 1971, 15). Das hat drei einschränkende Konsequenzen für den Geltungsbereich so abgegrenzter erfahrungswissenschaftlicher Aussagen: 1) Nur solche Begriffe können in erfahrungswissenschaftlichen Aussagen benutzt werden, die sich auf die erfahrbare Realität beziehen: empirischer Bezug der benutzten Begriffe (positive Beispiele: Tisch, Kernkraftwerk, politische Partei; negative Beispiele: „gute Fee“, Zentaur, Himmelstor). 22 2) Die formulierten Sätze oder Aussagen empirischer Wissenschaft müssen eine Beschreibung von Zusammenhängen oder Sachverhalten bieten, die ebenfalls prinzipiell erfahrbar sind: empirischer Bezug der Gesamtaussage (positives Beispiel: Die CSU siegt bei der nächsten bayerischen Landtagswahl; negatives Beispiel: Das Leben nach dem Tode währt ewig). 21 So unterschied sich etwa das seinerzeit in der DDR weit verbreitete Methodenlehrbuch zur „marxistisch-leninistischen Sozialforschung“ von W. Friedrich und W. Hennig (1975) in großen Teilen nicht grundsätzlich von entsprechenden Lehrbüchern „bürgerlicher“ Sozialforschung. Und auch Adorno als ein Exponent der „kritischen Theorie“ besteht auf dem Selbstverständnis von Soziologie als Erfahrungswissenschaft (z. B. in Horkheimer, M.; Adorno, T. W., 1962: Sociologica, II, Frankfurt/ M.). 22 Die Regel bezieht sich selbstverständlich nur auf die sinntragenden Begriffe einer Aussage, die nicht rein sprachlogische Funktionen erfüllen wie „und“, „oder“, „zwar“, „obwohl“ u. ä. Hauptprinzip empirische Überprüfbarkeit Begriffe mit empirischem Bezug Sätze mit empirischem Bezug <?page no="35"?> 36 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 36 3) Die Sätze müssen so formuliert sein, dass sie prinzipiell 23 widerlegbar sind. Als empirische Aussagen nicht zugelassen sind daher analytisch wahre (d. h. aus logischen Gründen wahre) Aussagen sowie „Es-gibt“-Sätze (Existenzbehauptungen). Über die Wahrheit oder Falschheit analytischer Sätze kann allein schon aufgrund ihrer logischen Struktur entschieden werden. „Analytisch wahre“ Aussagen sind z. B. Tautologien; etwa: „Wenn der Hahn kräht auf dem Mist, ändert sich das Wetter, oder es bleibt, wie es ist.“ Dieser Satz ist aufgrund seiner logischen Struktur immer wahr; er schließt alle Möglichkeiten ein, die jemals eintreten könnten, und kann daher auch niemals an der Erfahrung scheitern. Keine Tautologie, aber trotzdem analytisch wahr wäre z. B.: „Wenn irgendein Gegenstand ein soziales System ist, dann besteht es aus Personen, die miteinander interagieren“ (Opp 1976, 118). Im letzteren Fall ist nämlich der Begriff „soziales System“ u. a. definiert als eine Menge von Personen, die miteinander interagieren; die Aussage ist also per definitionem wahr. Eine Existenzaussage wäre z. B.: „Es gibt weiße Raben“. Diese Aussage ist empirisch nicht widerlegbar, da niemals sämtliche Raben in Gegenwart, Vergangenheit und Zukunft auf die Farbe ihrer Federn überprüft werden können. Der folgende Satz könnte Teil eines empirischen Aussagenzusammenhangs sein: „In neu gebauten Vorortwohnsiedlungen sind die Nachbarschaftskontakte weniger intensiv als in innerstädtischen älteren Wohngebieten.“ Zu 1): Die verwendeten (sinntragenden, nicht sprachlogischen) Begriffe beziehen sich auf die erfahrbare Realität (neu gebaute Vorortsiedlungen; Nachbarschaftskontakte; innerstädtische ältere Wohngebiete). Zu 2): Der zum Ausdruck gebrachte Sachverhalt (Zusammenhang von Alter und Lage der Wohngebiete mit der Intensität von Nachbarschaftskontakten) ist real erfahrbar, ist also empirisch feststellbar. Zu 3): Der Satz ist empirisch prüfbar und gegebenenfalls widerlegbar, sowohl was den zum Ausdruck gebrachten Sachverhalt betrifft, als auch von seiner Formulierung her (keine analytisch wahre Aussage, keine Existenzbehauptung): Man könnte in einer Reihe neuer Vorortwohnsiedlungen und in einer Reihe älterer innerstädtischer Wohngebiete die Intensität von Nachbarschaftskontakten messen (ohne jetzt schon auf die Messproblematik eingehen zu wollen) und dabei finden, dass in mindestens einer neu gebauten Vorortsiedlung die Intensität der Nachbarschaftskontakte nicht weniger intensiv ist als in mindestens einem innerstädtischen älteren Wohngebiet. Dann wäre die Aussage falsch (falsifiziert); denn 23 „Prinzipiell erfahrbar“ bzw. „prinzipiell widerlegbar“ soll heißen, dass Sätze zugelassen sind, die Aussagen über Sachverhalte enthalten, die zwar „im Moment“ nicht erfahrbar (und somit auch nicht widerlegbar) sind-- etwa weil geeignete Instrumente fehlen, um ein Ereignis beobachtbar zu machen, oder weil (noch) nicht präzise genug gemessen werden kann--, die aber „im Prinzip“ erfahrbar sind, z. B. sobald geeignete Beobachtungsinstrumente zur Verfügung stehen (etwa in den Naturwissenschaften durch Entwicklungen wie Elektronenmikroskop oder Teilchenbeschleuniger). Sätze prinzipiell widerlegbar Ausschluss analytisch wahrer-Sätze BEISPIEL <?page no="36"?> 37 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 37 in der Formulierung wie oben hat sie die Form eines „All-Satzes“ (=-Für alle Ereignisse oder alle Fälle der beschriebenen Art gilt, dass-…). Eine Formulierung wie die folgende wäre dagegen prinzipiell nicht widerlegbar: „Es gibt neu gebaute Vorortwohnsiedlungen, in denen die Nachbarschaftskontakte mindestens gleich intensiv sind wie in innerstädtischen älteren Wohngebieten.“ Man könnte tausend und noch mehr Fälle vorweisen, in denen die Aussage nicht zutrifft: es bliebe dennoch die Möglichkeit, dass es irgendwo und irgendwann eine Vorortsiedlung gibt, gegeben hat oder geben wird, für die diese Aussage richtig ist. Sobald man dagegen einen einzigen solchen Fall gefunden hat, ist die Aussage als wahr bewiesen: sie ist verifiziert. Anhand der beiden Aussageformen (All-Sätze bzw. nomologische Aussagen und Es-gibt-Sätze bzw. Existenz-Aussagen) lässt sich die Asymmetrie zwischen Falsifikation und Verifikation feststellen. All-Aussagen sind prinzipiell nicht verifizierbar; aber ein einziger konträrer Fall reicht, um sie zu falsifizieren (als endgültig falsch zu erweisen). In ihrem Geltungsanspruch (räumlich und zeitlich) nicht eingegrenzte Existenz-Aussagen sind demgegenüber prinzipiell nicht falsifizierbar; aber ein einziger übereinstimmender Fall reicht, um sie zu verifizieren (als endgültig wahr zu erweisen). Diese Feststellung hat allerdings einen gewichtigen Haken (worauf noch näher einzugehen sein wird), nämlich: (1) Der „Fall“ muss der Beobachtung zugänglich sein, und (2) die Beobachtung muss korrekt sein, genauer: Die Aussage über die Feststellung eines Sachverhalts, der mit der All-Aussage im Widerspruch (bzw. mit der Existenz-Aussage im Einklang) steht, muss „wahr“, muss unwiderlegbar richtig sein. „Wahr sein“ heißt in diesem Zusammenhang: Sie muss mit den Fakten übereinstimmen. Zunächst aber bleibt festzuhalten: 1) Aussagen der Erfahrungswissenschaften (Hypothesen, Theorien) sollen über die Realität eines Gegenstandsbereichs informieren, für den sie aufgestellt wurden. 2) Sie müssen an eben dieser Realität, für die sie gelten sollen, scheitern können. Dieser Anspruch grenzt empirische Theorien von anderen wissenschaftlichen und sonstigen Aussagesystemen ab. Man nennt dies das Abgrenzungskriterium empirischer Wissenschaft. Erfahrungswissenschaft erhebt somit keinen allumfassenden Geltungsanspruch. Das genannte Abgrenzungskriterium definiert vielmehr „aus dem Bereich möglicher Fragestellungen und möglicher Erkenntnisobjekte (der ,Welt‘ überhaupt) ein Segment-…, das als Bereich dessen, was überhaupt von dieser Wissenschaft untersucht werden soll, gilt und zu dessen Erkenntnis ein Satz bestimmter methodischer Regeln sich als brauchbar erwiesen haben soll“ (Hülst 1975,12). Asymmetrie zwischen Falsifikation und Verifikation Bedingungen für die Falsifikation Aussagen sollen informieren Aussagen müssen scheitern können Abgrenzungskriterium <?page no="37"?> 38 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 38 Wenn nun aber in einer erfahrungswissenschaftlichen Theorie nur widerlegbare Hypothesen zugelassen, nicht widerlegbare Aussagen verboten sind, dann besteht das Problem darin, wie man an „wahre Aussagen“ kommt (genauer: wie man die „Wahrheit“ von Aussagen erkennen kann). Die Hypothesen können noch so oft mit den Beobachtungsergebnissen übereinstimmen, sie können dennoch niemals endgültig bewiesen, d. h. verifiziert werden. Das gilt jedenfalls für die oben vorgestellte sprachlogische Form der All-Aussage. Und gerade solche Aussagen, die Geltung unabhängig von Raum und Zeit beanspruchen (nomologische Hypothesen), soll die empirische Wissenschaft (nach den Forderungen des Kritischen Rationalismus) anstreben. Dass es für die Sozialwissenschaften solche Nomologien streng genommen nicht-- oder jedenfalls kaum- - gibt, ändert nichts an dem geforderten Prinzip der Gewinnung von wissenschaftlicher Erkenntnis mittels nomologischer Aussagen. In diesem Zusammenhang schleicht sich häufig ein sprachliches Missverständnis ein. Es beruht darauf, dass nicht unterschieden wird zwischen den Formulierungen: „Eine Aussage ist wahr (bzw. nicht wahr)“ und „Die Wahrheit der Aussage ist bewiesen (bzw. nicht bewiesen)“. Deshalb sei hier hervorgehoben: Im Sinne der Aussagenlogik hat jede Aussage entweder die Eigenschaft „wahr“ oder die Eigenschaft „nicht wahr“. Dass ein All-Satz nicht (endgültig) verifiziert werden kann, heißt nicht, dass die All-Aussage niemals (endgültig) wahr sein könne. Es heißt lediglich: Die (mögliche) Wahrheit der Aussage kann nicht endgültig bewiesen (=-verifiziert) werden. Um sich angesichts der oben genannten Schwierigkeit dennoch an die- - nicht endgültig beweisbare- - Wahrheit heranzutasten, wird von kritischen Rationalisten als eine Strategie (nach einer frühen Version Poppers) das folgende Vorgehen bei der Überprüfung empirischer Aussagen empfohlen: Hat sich eine Hypothese oder eine Theorie als empirisch falsch erwiesen und war die zur Falsifikation führende Beobachtung korrekt, dann wird diese Hypothese/ Theorie verworfen. Das heißt nicht, dass sie samt und sonders in den Papierkorb wandert; sondern sie darf in der gegenwärtigen Formulierung keine Geltung mehr beanspruchen. Die Konsequenz besteht in zwei Alternativen: - Die falsifizierte Hypothese/ Theorie ist entweder aufgrund der ihr widersprechenden Daten „nicht mehr zu retten“ und daher zu verwerfen; - oder sie kann unter Berücksichtigung der neu gewonnenen Erkenntnisse so umformuliert werden, dass ihr „Falschheitsgehalt“ eliminiert wird. Diese neue Theorie oder Hypothese ist dann wiederum empirischen Tests zu unterwerfen. Wird sie wieder falsifiziert, ist sie gegebenenfalls erneut zu modifizieren und empirisch zu testen usw. Bestätigen dagegen die empirischen Befunde die Hypothese/ Theorie, wird diese als vorläufig bestätigt im Bestand empirischer Theorien/ Hypothesen beibehalten und bei nächster Gelegenheit einer schärferen Überprüfung (einem empirischen Test unter härteren Bedingungen) ausgesetzt. Hypothesen/ Theorien, die wiederholten und verschärften empirischen Tests standgehalten haben, gelten als bewährte Aussagen. Damit aber ist der Prozess des Forschens nicht zu Ende. „Bewährte Aussagen“ werden im Allgemeinen solche sein, deren Geltung durch einschränkende Randbedin- Unterschied: wahr / bewiesen Wahrheitsannäherungsstrategie des Kritischen Rationalismus bewährte Aussagen <?page no="38"?> 39 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 39 gungen oder andere Einschränkungen des Geltungsbereichs relativ eng eingegrenzt worden ist. Sie sind dann keine echten All-Aussagen, sondern Aussagen mit eingeschränkter Reichweite. Die empirische Wissenschaft soll nun versuchen, aus solchen Hypothesen/ Theorien „mittlerer Reichweite“ allgemeinere, umfassendere Hypothesen/ Theorien zu formulieren, deren Geltungsbereich die bewährten Aussagen als Teilmenge enthält, aber zusätzlich noch weitere Phänomene mit erklärt. Solche allgemeineren Hypothesen haben einen höheren Informationsgehalt; 24 aus ihnen können spezifischere Hypothesen unter Angabe bestimmter Randbedingungen deduktiv abgeleitet werden. Bei der Überprüfung dieser allgemeineren Aussagen geht der- - idealtypische-- Erfahrungswissenschaftler wieder so vor, wie eben geschildert: empirischer Test → bei Falsifikation Umformulierung → erneuter Test → bei Bestätigung Verschärfung der Überprüfungsbedingungen →usw. 25 Das heißt also: An „wahre Aussagen“ tastet sich die empirische Wissenschaft durch Versuch und Irrtum, durch Ausscheiden falscher Hypothesen, durch verschärften Test bestätigter, durch Erweiterung bewährter Hypothesen heran. Das „Wahrheits- (entscheidungs)kriterium“ ist somit einzig und allein die Konfrontation mit erfahrbarer Realität. Als Kriterium der Wahrheit (genauer: Kriterium der Entscheidung über die Wahrheit) gilt nicht „höhere Einsicht“, nicht der Hinweis auf „letzte Quellen“ oder auf Autoritäten (etwa die Bibel oder Max Weber oder Karl Marx), sondern einzig und allein der langwierige Weg von Versuch und Irrtum beim Vergleich von theoretischer Aussage und beobachtbarer Realität. 26 24 Unter hohem „Informationsgehalt“ (oder: hohem empirischem Gehalt) einer Aussage wird verstanden: Sie sagt relativ viel über die Realität aus, bzw. sie schließt viele potenzielle Realitätszustände aus. Das Tautologie-Beispiel vom Hahn auf dem Mist hat keinen Informationsgehalt; die Aussage informiert überhaupt nicht über das Wetter; sie schließt keinen potenziellen Wetterzustand aus. Für eine sehr gut verständliche Darstellung des Konzepts „Informationsgehalt“ siehe Prim/ Tilmann,1975, 70 ff. 25 Die Schilderung des Vorgehens bei hypothesentestender und theoriebildender Forschung muss an dieser Stelle noch recht abstrakt bleiben, da eine detailliertere Darstellung auf methodologische Konzepte zuzugreifen hätte, die erst in den Kapiteln 3 und 4 zur Verfügung gestellt werden. Dort wird die hier nur grob angerissene Frage noch einmal aufgegriffen und an einem Beispiel vertieft (vgl. Kap. 4.3.1). 26 Das Entscheidungskriterium „Übereinstimmung der theoretischen Aussage mit den Tatsachen“ oder „Korrespondenz von Theorie und Realität“, wie es hier angesprochen wird, verweist auf die schon angesprochene „Korrespondenztheorie der Wahrheit“ (s. Fußnote 17). D. h.: „Die Wahrheit eines Satzes bemisst sich an der Korrespondenz des Aussageinhaltes mit der wirklichen Welt, wenngleich- … Wahrheitsgewissheit prinzipiell nicht zu erlangen ist.“ (Esser/ Klenovits/ Zehnpfennig, Bd. 1, 1977, 167). Erweiterung des Geltungsbereichs Wahrheits- (entscheidungs)kriterium <?page no="39"?> 40 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 40 1.3.3 Probleme und Dilemmata bei der Suche nach empirischen „Gesetzen“ Nun mag zwar das oben postulierte Vorgehen bei der empirischen Suche nach (und der Annäherung an) „Wahrheit“ logisch einleuchten. Praktisch jedoch stellen zwei gravierende Probleme die empirische Wissenschaft vor grundlegende Schwierigkeiten. Das erste Problem bezieht sich auf das absolute Postulat der endgültigen Zurückweisung einer Aussage, sobald auch nur ein einziger Fall auftaucht, der im Widerspruch zu der Theorie/ Hypothese steht. Dieses Postulat gilt logisch nur für nomologische Aussagen, d. h. für (deterministische) „Gesetzesaussagen“, deren Geltungsanspruch weder räumlich noch zeitlich eingeschränkt ist. Da es solche Aussagen für die Sozialwissenschaften derzeit kaum gibt, würde es auch keine empirischen sozialwissenschaftlichen Gesetzmäßigkeiten vorzuweisen geben. Dies wäre natürlich keine für die Sozialforschung (auch nicht für Wissenschaftstheoretiker) befriedigende Situation, so dass ein Ersatz für nomologische Aussagen gefunden werden muss. Das zweite Dilemma allerdings existiert auch im Falle nomologischer Gesetze. Es entsteht, weil die Entscheidung über die (endgültige) Zurückweisung einer empirischen Hypothese bei konträren Beobachtungen sich bei genauerem Hinsehen als weitaus schwieriger erweist, als dies bisher vereinfachend dargestellt wurde. Denn die Hypothese (=-die auf Vermutungen basierende Aussage) über reale Phänomene kann ja nicht unmittelbar mit der Realität konfrontiert werden, sondern lediglich mit einer auf Beobachtungen fußenden anderen Aussage über die Realität. Und diese Beobachtungsaussage 27 über ein Ereignis kann selbst falsch sein. Sie müsste sich, um als Grundlage für die Entscheidung über die Hypothese dienen zu können, verifizieren lassen (siehe weiter unten: Basissatzproblem). Zu Problem 1: Nomologien, statistische Gesetze oder Aussagen mittlerer Reichweite? Eine der Rettungsmöglichkeiten aus diesem ersten Dilemma wurde schon angedeutet: Pragmatischerweise wird man bei gegebener Sachlage nicht sozialwissenschaftliche Hypothesen/ Theorien mit uneingeschränktem Geltungsanspruch („Gesetzeshypothesen“), sondern zunächst Aussagen eingeschränkter Reichweite formulieren. 28 Man gibt also einschränkende Randbedingungen an; beispielsweise soll ein postulierter Zusammenhang nur für entwickelte Industriegesellschaften westlicher/ kapitalistischer Prägung gelten oder nur für eine bestimmte geschichtliche Epoche oder nur für einen begrenzten geografischen Raum oder-… Im Vergleich zu Nomologien haben Aussagen eingeschränkter Reichweite allerdings einen geringeren Informationsgehalt (bzw. „empirischen Gehalt“ vgl. Fußnote 23). Eine Hypothese „Wenn x, dann y“ gilt 27 Synonyme Bezeichnungen: Protokollaussage, Protokollsatz, (empirischer) Basissatz. 28 Vom amerikanischen Soziologen Robert K. Merton wurde der Begriff „Theorien mittlerer Reichweite“ geprägt. Er bezeichnet theoretische Aussagen, „die mehr sind als nur ad-hoc-Theorien, wie sie dauernd zur Verständigung über einzelne wahrgenommene empirische Regelmäßigkeiten produziert werden, aber weniger als umfassende und komplexe Theorien bzw. integrierte theoretische Zusammenhänge“ (König 1973, 3). Dilemmata des Hypothesentests Falsifikation nur für-nomologische Aussagen Prüfung nur durch Beobachtungsaussagen Theorien mittlerer Reichweite <?page no="40"?> 41 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 41 dann nicht mehr für alle x und y (All-Aussage), sondern ist nur noch anwendbar, wenn zusätzliche Randbedingungen erfüllt sind. Das bedeutet aber, dass aus der allgemein formulierten Hypothese durch Deduktion nur noch Aussagen für eine kleinere Zahl konkreter Situationen (=-potenzielle oder „theorie-implizierte“ Basissätze) ableitbar sind, in denen die Hypothese sich bewähren oder auch scheitern könnte. Der Kritische Rationalist würde formulieren: Die Menge der potenziellen Falsifikatoren ist eingeschränkt worden. Im Extremfall kann der Informationsgehalt durch Formulierung von ceteris-paribus-Klauseln (d. h. Einschränkungen wie „unter ansonsten gleichen Bedingungen“) so weit eingegrenzt werden, dass empirisch überhaupt kein einziger Fall mehr den Bedingungen dieser Aussage gerecht werden kann. Damit aber ist die Aussage/ Theorie nicht mehr empirisch überprüfbar, sie hat keinen empirischen Gehalt mehr und ist dadurch gegen die Erfahrung „immunisiert“ worden. 29 Der Kritische Rationalismus lässt die Formulierung von Hypothesen und Theorien eingeschränkter Reichweite durchaus zu, hält aber an dem Ziel der Erfahrungswissenschaft fest, möglichst „kühne“ Theoriegebäude mit möglichst hoher Erklärungskraft (d. h. auch: mit möglichst hohem empirischem Gehalt) zu entwerfen und durch Konfrontation mit der Realität weiterzuentwickeln. Theorien, die sich bei empirischen Tests teilweise bewähren oder teilweise falsifiziert werden, sind so umzuformulieren, dass ihr „Wahrheitsgehalt“ (weniger anspruchsvoll formuliert: die bewährten Bestandteile der Aussagen) nicht verloren geht und ihr „Falschheitsgehalt“ (die falsifizierten Bestandteile) eliminiert wird. Bewährte Aussagen wiederum sind „gehaltserweiternd“ umzuformulieren und erneut empirisch zu prüfen. Auf diese Weise-- so hofft der überzeugte Kritische Rationalist-- nähert sich die Wissenschaft Schritt für Schritt dem Idealbild empirisch bewährter Nomologien. 30 Die zweite-- in den Sozialwissenschaften am häufigsten gewählte-- Rettungsmöglichkeit ist, nicht deterministische Hypothesen (immer wenn x, dann auch y), sondern statistische oder probabilistische Aussagen zu formulieren. So ist z. B. mit einer Aussage über räumliche Mobilität: „Ältere Leute sind weniger mobil als jüngere Personen“ im Allgemeinen nicht gemeint: „Für alle Personen x und y gilt: Immer wenn Person x älter ist als Person y, dann ist x weniger mobil als y“. Sondern man meint damit entweder: „Für die Gruppe der alten Menschen gilt, dass sie im Durchschnitt weniger mobil ist als die Gruppe der jungen Menschen“. Oder-- auf die Einzelperson 29 Ein Beispiel hierfür ist das statische Marktmodell in der Volkswirtschaftstheorie, das allenfalls noch heuristische Funktionen erfüllen kann (als vorläufige, wenn auch unrealistische Annahme zum Zweck des besseren Verständnisses eines Sachverhalts). 30 Nicht weiter eingegangen wird an dieser Stelle auf die wissenschaftstheoretische Kontroverse, die sich an diesem Modell wissenschaftlichen Fortschritts entzündete und die sich insbesondere mit den Namen Imre Lakatos („Methodologie wissenschaftlicher Forschungsprogramme“; vgl. Lakatos/ Musgrave 1974) sowie Thomas S. Kuhn („Struktur wissenschaftlicher Revolutionen“; vgl. Kuhn 1967) verbindet. In dieser Kontroverse geht es um die „Makro“- Frage, inwieweit das Falsifikationsprinzip ein geeignetes Erklärungskonzept für Wissenschaftsfortschritt bzw. für den Übergang der Wissenschaft von einem Theorie- und Forschungsprogramm zum nachfolgenden darstellen kann. Ihr Nachvollzug ist für das Verständnis des methodischen Vorgehens der Erfahrungswissenschaft im hier behandelten „Mikro“-Bereich des einzelnen Forschungsprojekts entbehrlich. Menge möglicher Falsifikatoren Gehaltserweiterung von Theorien probabilistische Aussagen <?page no="41"?> 42 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 42 gemünzt--: „Die Wahrscheinlichkeit, mobil zu sein, ist für eine ältere Person geringer als für eine jüngere“. Beide Aussagen sind mit der Beobachtung von Fällen vereinbar, in denen die eine oder andere ältere Person dennoch mobiler ist als die eine oder andere jüngere Person. Nur sind solche Fälle eben weniger wahrscheinlich als die umgekehrte Merkmalskombination, so dass sich in den meisten Fällen die formulierte Hypothese bestätigen dürfte. Für die Prüfung statistischer/ probabilistischer Hypothesen reichen Einzelbeobachtungen nicht aus. Erforderlich sind vielmehr Informationen über eine größere Zahl von Fällen, die in ihrer Zusammensetzung „repräsentativ“ für die Gesamtheit der durch x und y bezeichneten Fälle sein müssen. Die Wahrscheinlichkeitsstatistik stellt für die Entscheidung über statistische/ probabilistische Hypothesen geeignete Modelle bereit. Zu Problem 2: Objektivität oder Intersubjektivität? Das Basissatz-Dilemma „Das Ethos der Wissenschaft ist die Suche nach ‚objektiver‘ Wahrheit“, schrieb 1971 der schwedische Sozialwissenschaftler Gunnar Myrdal. „Objektiv“ meint in diesem Zusammenhang, dass für die Wahrheit einer Erkenntnis die Objekte in der Realität entscheidend sind, wie sie außerhalb des erkennenden Subjekts existieren. Dies kommt auch in der Entscheidungsregel des Kritischen Rationalismus zum Ausdruck, wie sie bisher in diesem Text dargestellt wurde: Über die Wahrheit einer empirischen Aussage (Hypothese) entscheidet die Konfrontation mit der Realität. Stimmt der semantische Gehalt (=- die Bedeutung) der Aussage mit den Gegebenheiten in der Realität überein, dann gilt sie als richtig; ist dies nicht der Fall, dann gilt sie als falsch (=-„Korrespondenztheorie der Wahrheit“, vgl. Fußnoten 17 und 26). Nun kann jedoch eine Aussage nicht unmittelbar „mit der Realität konfrontiert“ werden; vielmehr muss die Realitätswahrnehmung eines erkennenden Subjekts zwischengeschaltet werden. Sinneswahrnehmungen bilden somit die Grundlage für jegliche Form von Wissen (vgl. „erkenntnistheoretischer Realismus“, Kapitel 1.2.1). Die „Konfrontation mit der Realität“ geschieht im erkennenden Subjekt; dieses vergleicht den semantischen Gehalt der Aussage (=-die Behauptung über die Realität) mit seinem Wahrnehmungserlebnis (=- mit den durch die Wahrnehmungssinne erkannten Gegebenheiten der Realität). Soll dieses der „Beweis“ für die Richtigkeit oder Falschheit einer (hypothetisch formulierten) Tatsachenbehauptung sein, muss die Möglichkeit einer unverfälschten, die Gegebenheiten der Realität korrekt abbildenden (insofern also „objektiven“) Wahrnehmung unterstellt werden. Diese Möglichkeit wurde in der Tat im frühen Positivismus angenommen. Unterstellt, „objektive“ Wahrnehmung wäre tatsächlich möglich, bleibt immer noch ein Problem bestehen: Das Wahrnehmungserlebnis der beobachtenden Person kann nicht als solches kommuniziert werden; es ist lediglich subjektive Erfahrung. Zum Zwecke der Kommunikation ist es in eine sprachliche Form zu übersetzen: in eine „Beobachtungsaussage“ bzw. einen „Protokollsatz“. Erst diese Beobachtungsaussage lässt sich vom erkennenden Subjekt ablösen und kann damit zur Basis für intersubjektiv geteilte Erfahrung werden. Korrespondenztheorie der Wahrheit Problem wahrgenommener Realität <?page no="42"?> 43 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 43 Doch auch jetzt sind wir noch nicht am Ziel. Ein direkter Vergleich der Beobachtungsaussage (des Protokollsatzes) mit der Realitätsbehauptung der zu prüfenden Hypothese ist noch immer nicht möglich. Die beiden Aussagen gehören nämlich zwei unterschiedlichen „Sprach-Ebenen“ (Carnap) an. Bei der Beobachtungsaussage (empirischer Basissatz) handelt es sich um das „Protokoll“ eines einzelnen, raum-zeitlich fixierten Beobachtungsfalls, um eine „singuläre Aussage“; etwa: „Am 29.8.2005 zwischen 18 und 19 Uhr wurden in der Straße ‚An der Bottmühle‘ im zentrumsnah gelegenen Severinsviertel der Stadt Köln 23 Nachbarschaftskontakte beobachtet.“ Und: „In der Neubausiedlung von Bocklemünd am Stadtrand von Köln wurden am 29.8.2005 zwischen 18 und 19 Uhr am ‚Theodor-Heuß-Ring‘ sechs Nachbarschaftskontakte beobachtet.“ Die Hypothese aus dem weiter oben behandelten Beispiel („In neu gebauten Vorortwohnsiedlungen sind die Nachbarschaftskontakte weniger intensiv als in innerstädtischen älteren Wohngebieten“) ist demgegenüber allgemeiner und ohne räumlich-zeitliche Einschränkungen formuliert. Bevor diese hypothetisch-theoretische Aussage mit den Beobachtungsergebnissen konfrontiert werden kann, ist sie auf eine konkrete empirische Basis zu beziehen. Anders ausgedrückt: Aus der abstrakt und allgemein formulierten Hypothese sind durch logische Deduktion konkrete und beobachtbare Realitätsbehauptungen (theoretische Basissätze) abzuleiten; etwa: „Beim Kölner Severinsviertel handelt es sich um ein älteres innerstädtisches Gebiet; in Bocklemünd am Kölner Stadtrand existiert eine Neubauwohnsiedlung. In den Wohnstraßen des Severinsviertels kommt es zu mehr Nachbarschaftskontakten als in den Wohnstraßen des Neubauteils von Bocklemünd.“ Jetzt erst-- nachdem die Hypothese/ Theorie auf eine konkrete empirische Basis bezogen wurde und nachdem Aussagen über das Ergebnis von Beobachtungen an eben dieser empirischen Basis vorliegen-- ist der Vergleich zwischen Theorie und Empirie möglich: Verglichen werden die (deduktiv aus der Hypothese abgeleiteten) theoretischen bzw. theorie-implizierten (Esser 1984) Basissätze mit den (die Beobachtungen beschreibenden) empirischen Basissätzen. Allerdings ergibt sich bis zu diesem Punkt noch nicht das behauptete „Basissatz-Problem“ oder „Basissatz-Dilemma“. Dieses entsteht vielmehr dadurch, dass es- - im Unterschied zur Annahme des frühen Positivismus- - eine voraussetzungslose Wahrnehmung nicht geben kann, dass vielmehr jede Wahrnehmung „theoriegetränkt“ ist. In Wirklichkeit wird nicht lediglich-- wie oben vereinfachend formuliert-- das Wahrnehmungserlebnis des erkennenden Subjekts in eine sprachliche Form „übersetzt“. Vielmehr wird die Wahrnehmung durch das begriffliche Instrumentarium gelenkt. Kein Beobachter hat es mit irgendeiner neutral wahrnehmbaren Realität zu tun, sondern immer mit einer durch Begriffe bereits vorstrukturierten. „Wir ordnen die Erfahrungswelt durch unsere Begriffe, aber diese Ordnung entspricht nicht unbedingt einer objektiven Wirklichkeitsstruktur“ (Mayntz, Holm, Hübner 1971, 9). empirische Basissätze BEISPIEL theoretische Basissätze BEISPIEL Basissatz-Problem Begriffliche Ordnung der Wahrnehmung <?page no="43"?> 44 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 44 Unter einem Begriff verstehen wir ein sprachliches Zeichen (Wort), das mit einem bestimmten Vorstellungsinhalt fest verbunden ist; und Wahrnehmung besteht darin, diesen durch den Begriff vorgegebenen Vorstellungsinhalt in der Realität wiederzufinden. Für Dinge, für die wir keine Vorstellungsinhalte entwickelt haben und die wir somit nicht „auf den Begriff bringen“ können, sind wir praktisch blind. Diese generelle, in den Beobachtungsbegriffen sich manifestierende „Realitätstheorie“ müssen wir bei jeder-- auch der alltäglichen-- Wahrnehmung anwenden, um Realität überhaupt erkennen zu können. Bei der methodisch kontrollierten wissenschaftlichen Beobachtung sind darüber hinaus weitere Theorien heranzuziehen, um zu den empirischen Beobachtungsbzw. Protokollsätzen (allgemein: zu Daten) zu gelangen. Dass-- auf der sprachlich-logischen Ebene-- die theoretische Sprache der Hypothesen in Beobachtungssprache (deduktiv abgeleitete Realitätsbehauptungen) überführt werden muss, wurde als Aufgabe schon benannt. Auf der empirischen Ebene, also der Ebene der Sachverhalte und Phänomene, ist eine analoge „Übersetzungs“-Aufgabe zu lösen: Für den mit dem theoretischen Begriff gemeinten (nicht direkt beobachtbaren) Sachverhalt müssen andere (und zwar: unmittelbar wahrnehmbare) Sachverhalte bestimmt und über sogenannte „Korrespondenzregeln“ mit dem theoretischen Sachverhalt verknüpft werden, so dass sie in eindeutiger Weise als (beobachtbare) „Indikatoren“ für das eigentlich Gemeinte dienen können. 31 Im obigen Beispiel ist in der Hypothese von der Intensität der Nachbarschaftskontakte die Rede, die Protokollsätze geben dagegen lediglich Auskunft über die Häufigkeit von Kontakten. Die (zählbare) Häufigkeit wird anstelle der nicht ohne Weiteres feststellbaren Intensität beobachtet und protokolliert. Offenbar soll hier folgende Korrespondenzregel gelten: „Je intensiver die Nachbarschaftsbeziehungen ausgeprägt sind, desto häufiger kommt es zu Kontakten zwischen den Nachbarn.“ Sofern diese Annahme stimmt, kann man aus der Häufigkeit auf die Intensität rückschließen. Zur systematischen Feststellung und Protokollierung der zu beobachtenden Sachverhalte müssen sodann Erhebungsbzw. Messinstrumente entwickelt und eingesetzt werden. Zur Auswertung der gewonnenen Informationen sind des Weiteren geeignete Methoden der Informationsverdichtung (statistische Modelle) anzuwenden. Der schließlich zu formulierende empirische Basissatz kommt erst in Abhängigkeit von all diesen Zwischenschritten und den dabei verwendeten theoretischen Vorannahmen zustande, ist also das Resultat von Wahrnehmungs- und Instrumententheorien sowie ihrer praktischen Anwendung. 32 31 Auf die Thematik Indikatoren/ Korrespondenzregeln sowie auf das daraus sich ergebende „Korrespondenzproblem“ wird sowohl in Kapitel 2.4.2 (Design hypothesentestender Forschung) als auch im Kapitel 4 (Operationalisierung) noch ausführlicher eingegangen. 32 Damit eine intersubjektive Nachvollziehbarkeit und Kontrolle möglich ist, sind alle diese Zwischenschritte und die dabei anzuwendenden Verfahren zu begründen und zu dokumentieren. empirische mit theoretischen Sachverhalten verknüpfen BEISPIEL methodenabhängiger empirischer Basissatz <?page no="44"?> 45 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 45 Eine „objektive“ Abbildung der Realität können empirische Basissätze nur in dem Maße sein, in dem diese (Hilfs-)Theorien nicht fehlerhaft sind und in dem bei ihrer Anwendung keine Fehler begangen wurden. Wie unschwer zu erkennen ist, befindet sich der Kritische Rationalismus mit seiner Wahrheits-Entscheidungsregel an dieser Stelle in einem logisch nicht auflösbaren Dilemma: Soll (und kann) tatsächlich eine Protokollaussage über eine Beobachtung, die zu einer nomologischen Hypothese im Gegensatz steht, ausreichen, um diese Hypothese in der vorliegenden Form endgültig zu widerlegen? Kehren wir noch einmal zu der Hypothese über Nachbarschaftskontakte in unterschiedlichen Wohngebieten zurück und nehmen wir an, ein weiteres Paar von Beobachtungen habe zu folgendem Protokollsatz geführt: „In der Vorortsiedlung x sind zum Zeitpunkt t die Nachbarschaftskontakte (gemessen an ihrer Häufigkeit) intensiver gewesen als im innerstädtischen Gebiet y zum gleichen Zeitpunkt t.“ Logisch ergäbe sich überhaupt kein Problem, die Hypothese aufgrund dieses Protokollsatzes zurückzuweisen, sofern dieser als wahr bewiesen (verifiziert) werden könnte. Das aber ist-- wie eben dargelegt-- nicht möglich. Denn das Forschungsprojekt ist ja nicht ohne die implizite Unterstellung der Richtigkeit anderer Hypothesen zu dieser Aussage gekommen, z. B.: Immer, wenn ich die Beobachtungs- oder Befragungsinstrumente A, B, C von geschulten Mitarbeitern auf beliebige Erhebungsobjekte (hier: Wohnsiedlungen) anwenden lasse, werden die Ergebnisse der Erhebung von Eigenschaften der Objekte (hier: Häufigkeit von Nachbarschaftskontakten als Indikator für deren Intensität) zu korrekten Abbildungen der realen Phänomene führen. Aber: Solche Hintergrundhypothesen sind ihrerseits genauso wenig verifizierbar wie andere empirische Hypothesen. Wenn es deshalb so ist, dass der Protokollsatz (der empirische Basissatz) nicht verifiziert werden kann, dann ist er eine unsichere Datenbasis. Die logische Konsequenz ist: Durch einen solchen (nicht beweisbaren) Protokollsatz können wir eigentlich die zu überprüfende Hypothese nicht falsifizieren (als endgültig falsch zurückweisen), selbst wenn er der aus der Hypothese abgeleiteten Realitätsbehauptung (=-dem theorie-implizierten Basissatz) widerspricht. 33 . Die Lösung dieses Dilemmas ist nur konventionalistisch, d. h. durch Vereinbarung der Wissenschaftlergemeinde (des sozialen Systems „Erfahrungswissenschaft“) möglich. Man vereinbart: - Die Forscherin bzw. der Forscher hat den gegenwärtig höchstmöglichen methodischen Standard einzuhalten; und 33 Ihnen wird vielleicht aufgefallen sein, dass bei der geschilderten Hypothesenprüfung eigentlich zwei Problemtypen auftreten: a) der Nachweis der Richtigkeit der Beobachtung und ihrer Beschreibung im Protokollsatz (=-das Basissatzproblem im engeren Sinne) sowie b) der Nachweis der „Gültigkeit“ der Indikatoren als Stellvertreter für den theoretisch gemeinten Sachverhalt, d. h. die Verifikation der Korrespondenzregeln (=-das „Korrespondenzproblem“; hierauf wird im Kapitel 2.4.2 sowie im Kapitel 4 noch näher eingegangen). Basissatzdilemma Forschungsergebnisse basieren auf Annahmen Lösung durch Konvention <?page no="45"?> 46 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 46 - die Forschungsprozesse, die zu den Protokollsätzen (allgemeiner: zur Datenmatrix, vgl. Kapitel 5.3.3) geführt haben, müssen intersubjektiv überprüfbar und nachvollziehbar sein; d. h.: Das ganze Vorgehen muss gut dokumentiert, jede Entscheidung muss explizit gemacht und begründet werden. Wenn andere Forscher an der Richtigkeit der Protokollsätze zweifeln, sollen sie in der Lage sein, den Vorgang genau zu replizieren. Zumindest muss das Vorgehen gedanklich nachvollziehbar sein, um eventuelle Schwachstellen im Forschungskonzept aufdecken zu können. Mit anderen Worten: Das empirische Forschungsprojekt hat sich offen der Kritik anderer Wissenschaftler und der Öffentlichkeit zu stellen (das ist die Bedeutung des Wortes „Kritik“ in der Bezeichnung „Kritischer Rationalismus“). 34 Wenn diese Bedingungen erfüllt sind, dann wird der Protokollsatz (der empirische Basissatz) so lange als richtig anerkannt, wie er nicht durch begründete Methodenkritik ins Wanken gebracht oder durch andere Forschungsergebnisse selbst widerlegt worden ist. Wird also die Datenbasis, die zur Falsifikation einer Hypothese/ Theorie geführt hat, selbst hinsichtlich ihrer Gültigkeit und Zuverlässigkeit (vgl. Kap. 4.3 und 5.6) widerlegt, dann kann die zunächst falsifizierte Hypothese/ Theorie wieder in den Kreis der noch nicht falsifizierten empirischen Aussagen zurückgeholt werden. Nach der Unmöglichkeit der Verifikation empirischer Hypothesen erweist sich auch deren (endgültige) Falsifikation als unmöglich. Das ansonsten nicht lösbare Basissatz-Problem wird nur per Vereinbarung umschifft: Solange das Vorgehen der Forschung dem jeweils besten methodischen Standard entspricht, sollen die empirischen Befunde als brauchbare Annäherung an die realen Phänomene akzeptiert werden. „Die Basissätze werden durch Beschluss, durch Konvention anerkannt, sie sind Festsetzungen“ (Popper 1971, 71). Das Ziel „Objektivität“ muss mangels Einlösbarkeit (wegen der zwischengeschalteten, immer subjektiv bleibenden Wahrnehmungserlebnisse der Beobachter) zurückgenommen und reduziert werden auf das Konzept „kontrollierte Intersubjektivität“. 1.3.4 Hypothesen und Theorien Ein weiteres Stichwort ist bisher schon mehrfach gefallen: empirische Theorie. Beispielsweise wurde es als die zentrale Aufgabe der Wissenschaft erfahrungswissenschaftlicher Richtung bezeichnet, Theorien über die Realität eines Gegenstandes aufzustellen und diese zu überprüfen. Das Ziel empirischer Forschung ist also nicht das Sammeln verstreuter Einzelinformationen-- auch wenn dies angesichts mancher 34 Dieser unbequemen Forderung geht ein großer Teil der Forschungspraxis nur allzu gern aus dem Wege. Nachvollziehbarkeit der Forschung Intersubjektivität statt Objektivität Ziel der Theorieentwicklung <?page no="46"?> 47 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 47 Datenfriedhöfe so aussehen mag--, sondern sie hat (wie jede wissenschaftliche Forschung) die systematische Erfassung von Zusammenhängen zum Ziel. Und solche systematische Beschreibung der Zusammenhänge von Sachverhalten geschieht in der Form von Theorien. Empirisch bewährte Theorien sind nichts anderes als die „Systematisierung des gesammelten Wissens“ (Zetterberg 1973, 103). Unter empirischer Theorie soll im Folgenden verstanden werden: ein System logisch widerspruchsfreier Aussagen (Sätze, Hypothesen) über den jeweiligen Untersuchungsgegenstand mit den zugehörigen Definitionen der verwendeten Begriffe. Unter einer Hypothese versteht man zunächst nicht mehr als eine Vermutung über einen Tatbestand. Im Alltag kann jemand die „Hypothese“ aufstellen, dass der als wenig zuverlässig bekannte Kommilitone Franz wieder einmal die übernommene Aufgabe bis zum nächsten Treffen der studentischen Arbeitsgruppe nicht vollständig erledigt haben wird. Eine „statistische Hypothese“ kann lauten, dass der Mittelwert des Einkommens der untersuchten Stichprobe von Beschäftigten nicht signifikant vom Durchschnitt der erwerbstätigen Bevölkerung abweicht. Im Zusammenhang mit empirischen Theorien hat jedoch der Begriff eine spezifischere Bedeutung. Unter Hypothese wird im Kontext sozialwissenschaftlicher Theorien verstanden: eine Vermutung über einen Zusammenhang zwischen mindestens zwei Sachverhalten. Nach Auffassung des Kritischen Rationalismus ist es für das wissenschaftliche Vorgehen der Bestätigung oder Widerlegung von Hypothesen gleichgültig, wie der Forscher an seine Hypothesen kommt: ob aus seinem Alltagsvorverständnis über den Tatbestand, ob aus Zeitungsberichten, ob durch induktive Herleitung aus beobachteten singulären Ereignissen. 35 Interessant ist einzig und allein, ob sich die Vermutungen empirisch widerlegen oder bestätigen lassen. Zu einer Theorie gehören mehrere Hypothesen, jedoch nicht ungeordnete isolierte Hypothesen über dieses und jenes. Von einer Theorie reden wir erst bei einem System 35 Hier befindet sich der Kritische Rationalismus in deutlichem Gegensatz zu Methodologien, für die auch die Entwicklung von Hypothesen, die „Entdeckung“ einer Theorie ein wichtiges Ziel des methodisch kontrollierten Forschungsprozesses ist. Dies gilt in besonderem Maße für den „Grounded-Theory“-Ansatz (vgl. Strauss 1991, Strübing 2008). Definition: Theorie BEISPIEL Definition: Hypothese <?page no="47"?> 48 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 48 von Hypothesen über einen Gegenstandsbereich, und zwar einem logisch widerspruchsfreien System. D. h.: Die einzelnen Sätze oder Hypothesen müssen sich auf den gleichen Gegenstandsbereich beziehen, und sie dürfen sich nicht logisch ganz oder teilweise gegenseitig ausschließen oder sich widersprechen. Die Hypothese über die Intensität von Nachbarschaftskontakten in alten und neuen Wohngebieten (s. o.) könnte z. B. Bestandteil einer- - hier frei erfundenen- - Mini-Theorie über den Zusammenhang zwischen Wohndauer, räumlicher Nähe und Kontakthäufigkeit sein oder als Ableitung aus ihr folgen. Beispiel: 1) Je näher Personen zusammen wohnen, desto häufiger nehmen sie miteinander Kontakt auf. 2) Je häufiger Personen interagieren, desto intensiver wird die Beziehung zwischen ihnen. 3) Je länger Personen in einem Gebiet wohnen, desto stabiler wird das Interaktionsnetz im Nachbarschaftsbereich. 4) Je älter und zentraler gelegen Wohngebiete sind, desto höher ist ihre Bebauungsdichte. 5) In älteren innerstädtischen Wohngebieten wohnen die Menschen länger als in neu gebauten Vorortwohnsiedlungen. 6) In neu gebauten Vorortwohnsiedlungen sind die Nachbarschaftskontakte weniger intensiv als in innerstädtischen älteren Wohngebieten. Erste Anforderung an empirische Hypothesen war: Sie müssen an der Erfahrung prinzipiell scheitern können (Kriterium der Prüfbarkeit). Alle sechs Aussagen genügen dieser Anforderung. Sie sind so formuliert, dass sie widerlegbar sind; sie enthalten nur Begriffe mit empirischem Bezug; jede Aussage bezieht sich auf einen Sachverhalt, der prinzipiell erfahrbar ist. Die zweite Anforderung- - bezogen auf den Begriff Theorie- - wird auch erfüllt: Die Aussagen stehen in einem erkennbaren Zusammenhang zueinander und beziehen sich auf den gleichen Gegenstandsbereich; es sind nicht ungeordnete Aussagen. Auch die dritte Anforderung ist erfüllt: Die Aussagen sind miteinander logisch verträglich (Kriterium der internen Konsistenz); was in einer Hypothese gesagt wird, steht nicht in Widerspruch zu den jeweils anderen Aussagen. 36 Das Aussagensystem weist in diesem Beispiel sogar noch Merkmale einer axiomatisch formulierten Theorie auf, und zwar ist die sechste Aussage die (deduktive) Ableitung aus vorhergehenden Sätzen. Die Aussagen 1 bis 5 sind Axiome; die Aussage 6 ist eine abgeleitete Hypothese (ein Theorem); sie enthält nicht mehr 36 Logisch unverträglich wäre das Aussagensystem, wenn z. B. Hypothese 3 lautete: „Je länger Personen in einem Gebiet wohnen, desto seltener nehmen sie miteinander Kontakt auf.“ In diesem Fall nämlich führen die Kombinationen (4 und 1) sowie (5 und 3) zu entgegengesetzten abgeleiteten Aussagen. BEISPIEL <?page no="48"?> 49 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 49 Informationen als schon in den Axiomen stecken. Genauer: Sie fasst hier die Informationen der Axiome 1, 2 und 4 zusammen. 37 Was an einer „Theorie“ im oben skizzierten Sinne jetzt noch fehlt, sind die Definitionen der verwendeten Begriffe (beispielsweise „Intensität von Nachbarschaftskontakten“, „Bebauungsdichte“). 1.3.5 Empirische Theorie und Realität Dass empirische Theorien/ Hypothesen überhaupt einen Bezug zur Realität haben müssen, stand oben als eine grundlegende Forderung: Alle Hypothesen müssen an der Erfahrung scheitern können. Daraus folgt, dass die Formulierung von Hypothesen nach Auffassung des Kritischen Rationalismus am Beginn der Forschungstätigkeit stehen muss 38 und dass erst danach über den Einsatz von Methoden und Instrumenten zur Gewinnung der benötigten Informationen entschieden werden kann. Denn wie sollte eine Theorie/ Hypothese an der Erfahrung scheitern können, wäre sie nicht vorher-- vor der gezielten Erfahrung durch Beobachtung-- schon vorhanden gewesen? Es gibt aber einen weiteren, weniger trivialen Grund, weshalb zunächst theoretische Überlegungen angestellt werden sollen und erst im Anschluss daran Forschungsaktivitäten einsetzen können. Und dieser Grund gilt nicht nur für hypothesentestende Untersuchungen, sondern für jede, auch noch so deskriptive Datensammlung. Keine Beschreibung eines realen Tatbestandes kann sozusagen fotografisch die Realität in ihrer ganzen Komplexität abbilden; darauf wurde in anderem Zusammenhang schon im Kapitel 1.3.3 verwiesen. Jede Beschreibung muss sich auf eine bestimmte Perspektive und auf einen relativ kleinen Ausschnitt aus der Wirklichkeit beschränken. Es muss also immer eine gezielte Selektion der Merkmale des Untersuchungsgegenstandes vorgenommen werden, die beobachtet werden sollen. Damit stehen wir vor der schwierigen Frage: Welchen Teil der Realität wollen wir abbilden? Welche Merkmale sollen als besonders relevant behandelt und somit erhoben werden? Welche Merkmale sollen wir als weniger relevant betrachten und bei der Datensammlung außer Acht lassen? Erst wenn wir eine gezielte Wahl getroffen und damit unsere Beobachtungsperspektive festgelegt haben, können wir systematisch beobachten, befragen, Daten erheben. Nur eine systematische Beobachtung eines Objektbereichs kann gewährleisten, „dass regelhafte Beziehungen seiner Struktur oder der Veränderung der Struktur-… erkannt werden. Eine Beobachtung ist prinzipiell theoriegeleitet; d. h. unabhängig von impliziten oder expliziten theoretischen 37 Häufig ermöglicht erst eine solche Ordnung der Hypothesen nach Axiomen und Theoremen (also eine Formalisierung der Theorie) das Aufdecken logischer Widersprüche. 38 Auch mit dieser Auffassung befindet sich der Kritische Rationalismus im Widerspruch zur qualitativen Sozialforschung. Ihr erscheint es (jedenfalls mehrheitlich) geboten, zunächst möglichst „offen“ in das Untersuchungsfeld einzutreten, sich also nicht durch vorab formulierte Hypothesen lenken zu lassen (vgl. etwa Hoffmann-Riem 1980). Hypothesen als-Ausgangspunkt der Forschung Forschung als gezielte Auswahl Vorbereitung systematischer Beobachtung <?page no="49"?> 50 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 50 Vorurteilen, ideellen Vorwegnahmen oder Vorentscheidungen-… kann keine Erfahrung gemacht werden“ (Hülst 1975, 14). 39 Ist eine Theorie oder eine Hypothese empirisch zu testen, dann gibt natürlich die Formulierung der Theorie/ Hypothese bis zu einem gewissen Grad die Beobachtungsperspektive und damit die Auswahl der zu beobachtenden Merkmale vor. Lautet die Aufgabe dagegen, einen nur global abgegrenzten Gegenstandsbereich zu beschreiben, dann muss zunächst aufgrund sorgfältiger Überlegungen (einer gedanklichen Durchdringung des Untersuchungsgegenstandes: „dimensionale Analyse“, vgl. Kap. 3.1) ein untersuchungsleitendes Modell des Gegenstandes konstruiert sowie eine Liste der relevanten Merkmale erstellt werden. Wir benötigen ein-- wie Zetterberg (1973) es genannt hat-- deskriptives Schema, eine Begriffsanordnung, die uns zu den Phänomenen und den Aspekten hinführt, denen wir unsere Aufmerksamkeit zuwenden wollen. Die Erstellung einer solchen Liste relevanter Eigenschaften, eines solchen deskriptiven Schemas, setzt zumindest implizite theoretische Überlegungen über die Eigenschaften des Gegenstandsbereichs und die Beziehungen zwischen diesen Eigenschaften (eben ein „Modell“ des Untersuchungsgegenstandes) voraus. So berichtet Zetterberg davon, dass z. B. die für Meinungserhebungen benutzten „objektiven (sozialstatistischen) Merkmale“ einer Person wie Alter, Geschlecht, Familienstand, Einkommen, Beruf, Konfession sowie Erziehung und andere Indikatoren der sozialen Position in der Gesellschaft von den Meinungsforschern scheinbar zwar durch reines Ausprobieren gewonnen wurden. Tatsächlich aber ist es der Versuch, alle Faktoren zu erfassen, die Meinungen und Einstellungen zu differenzieren scheinen. Also: Im Hintergrund dieser Merkmalsliste- - hierbei handelt es sich um ein solches „deskriptives Schema“- - steht eine Theorie über Zusammenhänge von „objektiven“ (soziodemografischen) Persönlichkeitsmerkmalen mit „subjektiven“ Persönlichkeitsmerkmalen wie Meinungen, Einstellungen (Zetterberg 1973, 118-119). Am Prozess der Entwicklung dieser Liste sozialstatistischer Merkmale von Personen zeigt sich auch die wechselseitige Abhängigkeit von Theorie und Empirie: Je besser die theoretischen Kenntnisse, umso brauchbarer wird das deskriptive Schema, das die Erhebung lenkt. Je besser wiederum das deskriptive Schema, um so theoretisch relevanter werden die erhobenen Daten und umso besser sind die Voraussetzungen für die Fortentwicklung der Theorie. Die theoretischen Kenntnisse oder-- wo solche nicht in gesicherter Weise vorhanden sind- - die Vermutungen/ Hypothesen über bestimmte Sachverhalte und Beziehungen strukturieren für eine beobachtende Person erst den Gegenstandsbereich, lenken ihre Aufmerksamkeit auf bestimmte, als relevant angesehene Aspekte. 39 Noch einmal zur Erinnerung: „Beobachtung“ ist in diesem Zusammenhang in sehr weit gefasstem Sinn zu verstehen als „jede Form sinnlicher Wahrnehmung“. Deskriptives Schema als Ausgangspunkt wechselseitige Abhängigkeit von-Theorie und Empirie <?page no="50"?> 51 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 51 Am Beispiel der Mini-Theorie über den Zusammenhang zwischen Wohndauer, räumlicher Nähe und Kontakthäufigkeit sei dies noch einmal verdeutlicht. Aus den formulierten Aussagen ergibt sich unmittelbar, welche Merkmale von Wohngebieten und welche Merkmale der Bewohner relevant sein (und daher beobachtet werden) sollen, bzw. welche anderen Merkmale im gegebenen Zusammenhang als unbedeutend außer Acht gelassen werden können. Wir hätten also Merkmale zu erheben wie: räumliche Nähe des Zusammenwohnens von Haushalten, Häufigkeit des Kontakts zwischen Mitgliedern verschiedener Haushalte, Intensität der Kontakte, Alter und Lage der Wohngebiete, Bebauungsdichte, Wohndauer der Haushalte. Unberücksichtigt lassen wir nach dieser Theorie dagegen Merkmale wie: Einkommen der Bewohner, Schulbildung, Art der Berufstätigkeit, Alter der Bewohner, Kinderzahl und Alter der Kinder in den Haushalten. Nun könnte es natürlich sein, dass jemand hierbei ein ungutes Gefühl hat und meint, zumindest Einkommen, Bildung, Berufstätigkeit, Alter, Kinderzahl müssten auch noch erhoben werden. Das wäre dann aber ein eindeutiges Zeichen dafür, dass offenbar im Hinterkopf eine umfassendere Theorie vorhanden ist, die lediglich nicht ausformuliert wurde. In dieser impliziten Theorie könnten Hypothesen vorkommen wie: Je höher die Schulbildung, desto reservierter verhält sich eine Person gegenüber ihren Nachbarn. Je älter eine Person, desto stärker ist sie an Nachbarschaftskontakten interessiert. Je höher die Kinderzahl und je jünger die Kinder, desto mehr Anknüpfungsmöglichkeiten und -notwendigkeiten ergeben sich für Familien im Nachbarschaftsbereich (usw.). Eine Strategie, die sich darauf beschränken würde, lediglich diejenigen Beobachtungsmerkmale aufzulisten, die dem Forschungsteam spontan einfallen, wird meist dann Schiffbruch erleiden, wenn nicht auch die im Kopf existierenden Hypothesen mit ausformuliert und zu einem Hypothesensystem (oder zu alternativen Hypothesensystemen) geordnet werden. Die Folge einer solchen Strategie wird häufig sein, dass den Forschern später- - wenn die Daten ausgewertet werden- - aufgeht, dass relevante Merkmale übersehen wurden und dass aufgrund dieser Lücken die gesamte erhobene Datenbasis für die zu bearbeitende Problemstellung möglicherweise nicht viel wert ist. Durch diese wenigen Überlegungen wird bereits deutlich, wie sehr Hypothesenbildung bzw. Theoriekonstruktion, Datenerhebung und Auswertung (d. h. Anwendung von Erhebungstechniken und statistischen Modellen) miteinander verwoben und aufeinander angewiesen sind. Die Forscherin bzw. der Forscher wird bei den theoretischen Formulierungen bereits die Methoden der Datenerhebung und die möglichen statistischen Auswertungsverfahren mit bedenken müssen, ebenso wie später bei der Berechnung statistischer Kennziffern durch den Computer ohne Rückbezug zu den theoretischen Überlegungen nur bedeutungslose Zahlen zu erhalten sind. BEISPIEL <?page no="51"?> 52 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 52 Theorien sind für die Erfahrungswissenschaft die wesentlichen (Denk)„Werkzeuge“, die den Zugang zur Realität ermöglichen. 40 Die Theorie liefert 1) die grundlegende Orientierung; sie definiert den Objektbereich, sie legt fest, welche Aspekte der Realität zum Gegenstand der Forschungstätigkeit gemacht werden sollen. Die Theorie stellt 2) das begriffliche Bezugssystem zur Verfügung; sie erlaubt, die als relevant definierten Aspekte des Objektbereichs systematisch darzustellen, zu klassifizieren und Beziehungen zu postulieren. In Theorien werden 3) empirisch ermittelte Fakten zu Generalisierungen bzw. zu Systemen solcher Generalisierungen zusammengefasst. Je nach dem Grad ihrer Allgemeinheit kann man zwischen Ad-hoc-Theorien, Theorien mittlerer Reichweite und solchen höherer Komplexität („allgemeinen“ Theorien) unterscheiden (vgl. König 1973, 4 ff.). Eine Theorie ermöglicht 4) die Vorhersage zukünftiger Ereignisse. „Wenn eine Zusammenfassung von Beobachtungen in Form von Verallgemeinerungen erstellt worden ist, erwartet man, dass dieselben Strukturen und Beziehungen auch dort gefunden werden, wo noch keine Erfahrungen oder Beobachtungen gemacht werden konnten, und man erwartet die Gültigkeit dieser Beziehungen auch in der Zukunft“ (Hülst 1975, 22). Schließlich gibt sie 5) Hinweise auf vorhandene Wissenslücken. 1.3.6 Hypothesentest und Theorieentwicklung im Wechselspiel von-Theorie-Empirie-Theorie. Ein Beispiel Die analytisch-nomologisch orientierte Sozialwissenschaft tastet sich- - wie in Abschnitt 1.3.2 skizziert- - durch Aufstellen von Hypothesen und ihre empirische Überprüfung schrittweise, in einem Prozess von Versuch und Irrtum, an „wahres“ Wissen über die soziale Realität heran. Am Ende soll dieses Wissen in Form „bestätigter“ Theorien, also einem logisch widerspruchsfreien System von empirisch bewährten Hypothesen, dokumentiert sein. Zur Erinnerung: Die dieser Forschungsrichtung zugrunde liegende Vorgehenslogik kennt zwei parallele Wege zu „wissenschaftlichem Fortschritt“. Erstens: Hypothesen, die sich bei Konfrontation mit der empirischen Wirklichkeit als unzutreffend erweisen, gelten als „falsifiziert“; sie sind-- unter Berücksichtigung der neu gewonnenen Erkenntnisse- - zu korrigieren und erneut empirisch zu testen. Zweitens: Hypothesen, die sich bei Konfrontation mit der empirischen Wirklichkeit als zutreffend erweisen, gelten als „bestätigt“; sie sind entweder „verschärften“ empirischen Tests zu unterwerfen, oder sie sind- - falls sie 40 Der Wechsel von einer vorherrschenden theoretischen Orientierung zu einer alternativen theoretischen Sicht bringt in einer Wissenschaft unter Umständen völlig neue Problemstellungen in den Vordergrund des Interesses.-- Wie stark unterschiedliche theoretische Orientierungen die Wahrnehmung und Interpretation sozialer Sachverhalte und damit die Auswahl der „relevanten“ Untersuchungsmerkmale in alternative Richtungen lenken können, wird am Beispiel individualistischer und struktureller Theorieansätze diskutiert von H. Esser (1979a). Rolle der Theorie Orientierung begriffliches Bezugssystem Generalisierung von Fakten Möglichkeit der-Vorhersage Hinweise auf Wissenslücken <?page no="52"?> 53 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 53 sich bereits wiederholt bewährt haben-- „gehaltserweiternd“ umzuformulieren (also stärker zu verallgemeinern) und danach wiederum empirisch zu überprüfen. Detailliert und unter methodologischen Gesichtspunkten werden die Argumentationslogik und das Design dieser „hypothesentestenden“ Sozialforschung im Kapitel 2.4.2 dargestellt. Vorgreifend soll jedoch schon an dieser Stelle die in der analytisch-nomologischen Wissenschaftstheorie postulierte Wechselbeziehung Theorie-Empirie-Theorie an einem Beispiel veranschaulicht werden. Ausgangspunkt der Überlegungen sei die (generelle, d. h. stark verallgemeinernde) Hypothese: „Das Denken und Urteilen der Menschen wird von ihrer sozialen Umwelt bestimmt.“ Diese Aussage erhebt einen sehr weit gefassten Geltungsanspruch und ist zu unspezifisch, als dass sie durch eine einzige Untersuchung auf ihre empirische Richtigkeit überprüft werden könnte. Wir können jedoch auf logischem Wege (durch deduktiv-analytische Ableitung) zu Hypothesen kommen, die spezifischer sind. Zum Beispiel: „Das Denken und Urteilen der Mitglieder einer Gruppe wird vom Denken und Urteilen der übrigen Gruppenmitglieder bestimmt.“ Durch eine sprachlogische Analyse lässt sich feststellen, dass die Bedeutung des Begriffs „soziale Umwelt“ den sozialen Sachverhalt „Gruppe“ mit umfasst, dass also „Gruppe“ für deren Mitglieder ein Bestandteil von sozialer Umwelt ist. Wenn die zu prüfende Hypothese uneingeschränkt für den Einfluss „sozialer Umwelt“ auf einzelne Menschen gelten soll, dann folgt daraus, dass dies auch für den Einfluss von Gruppen (als eines Bestandteils dieser sozialen Umwelt) zutreffen muss; andernfalls hätte sie einen zu weiten Geltungsanspruch erhoben. Auch die jetzt formulierte zweite Hypothese ist noch recht allgemein gehalten; sie erhebt Anspruch auf Geltung für beliebige Personen als Mitglieder beliebiger Gruppen zu beliebigen Zeitpunkten oder Zeiträumen. Wiederum auf logisch-deduktivem Wege lassen sich jedoch Aussagen ableiten, die nur noch für bestimmte Personen, bestimmte Gruppen und bestimmte Zeitpunkte oder Zeiträume etwas behaupten. Mit anderen Worten: Aus generellen Hypothesen lassen sich singuläre, auf Einzelfälle bezogene Aussagen ableiten. Zum Beispiel: Das Denken und Urteilen der Person P 1 (Egon Müller) als Mitglied der Gruppe G 1 (Computer-Hobbyclub „Fauler Apfel“ in Bochum) wird im Zeitraum t 1 (Mitgliederstammtisch am-…) vom Denken und Urteilen dieser Gruppe G 1 bestimmt. Gleiches gilt für Personen P 2 , P 3 ,-…, für Gruppen G 2 , G 3 ,-… und für Zeiträume t 2 , t 3 ,-… Solche singulären, deduktiv aus generellen Hypothesen gewonnenen Behauptungen lassen sich durch gezielte empirische Beobachtungen daraufhin prüfen, ob sie in der beschriebenen Situation zutreffen. Die bisher skizzierte Ableitung beschränkt sich allein auf die sprachliche Ebene, auf die Umformung von generellen Hypothesen in singuläre Sätze (vgl. in der Überblicksskizze am Ende von Kapitel 2.4.2 den linken Teil). Zur gezielten empirischen Beobachtung ist jetzt auf der methodologischen Seite (in der genannten Skizze der rechte Teil) zusätzlich die Verknüpfung der sprachlichen mit der empirischen Ebene herzustellen. Wenn wir davon ausgehen, dass die Bedeutungsanalyse der Hypothese ergeben hat, dass sowohl die in ihr vorkommenden Begriffe wie auch die Aussage insgesamt empirischen Bezug haben, dann sind geeignete Indikatoren (d. h. beobachtbare Sachverhalte) zu benennen und zu begründen, und dann ist ein geeignetes <?page no="53"?> 54 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 54 Datenerhebungsinstrument zu wählen oder neu zu entwickeln (Operationalisierung). 41 Mit Hilfe dieses Erhebungsinstruments werden die für die Hypothesenprüfung relevanten Daten gesammelt. Am Schluss sind statistische Modelle anzuwenden, um die Daten auszuwerten. Als Resultat werden die empirischen Ergebnisse in „Beobachtungsaussagen“ festgehalten. Wie man sieht, greift der Forscher auf dem Wege von den in der Hypothese verwendeten Begriffen bis zur Gewinnung von Beobachtungsaussagen auf einen ganzen Satz von „Hilfstheorien“ zurück: Korrespondenzhypothesen zur Begründung der Indikatoren; Mess-, Instrumenten- und Beobachtungstheorien bei der Entwicklung und Anwendung der Erhebungsinstrumente; statistische Modelle bei der Datenauswertung. Damit die Beobachtungsaussagen als sichere Basis für die Entscheidung über die Bestätigung oder Zurückweisung der zu testenden Hypothese (als Bestandteil einer Gegenstandstheorie) geeignet sind, müsste auch die Richtigkeit der verwendeten Hilfstheorien gesichert sein. Innerhalb der durchzuführenden Untersuchung können diese Hilfstheorien-- wie schon erwähnt (vgl. Kapitel 1.3.3)-- jedoch nicht empirisch geprüft werden; ihre Richtigkeit muss vielmehr unterstellt werden. Der Inhalt unserer Hypothese war Gegenstand der psychologischen Gruppenforschung. Der amerikanische Psychologe M. Sherif entwarf zum Test des behaupteten Einflusses der Gruppe auf die individuelle Urteilsbildung folgende Versuchsanordnung (Forschungsdesign „Labor-Experiment“, vgl. Kapitel 2.4.3): Einer Gruppe von Personen wird in einem völlig verdunkelten Raum für kurze Zeit ein kleiner, schwacher, nicht bewegter Lichtpunkt dargeboten. Die Personen werden gebeten zu schätzen, um wie viel Zentimeter sich der Lichtpunkt während der Betrachtung bewegt hat; sie sollen ihre Schätzungen nacheinander ausrufen, so dass jeder in der Gruppe sie hören kann. Da die Augenachsen des Menschen niemals ganz ruhig sind, scheint sich tatsächlich für jeden Versuchsteilnehmer der objektiv feste Punkt zu bewegen, jedenfalls dann, wenn- - wie hier durch den völlig verdunkelten Raum- - keinerlei zum Vergleich geeignete Bezugspunkte gegeben sind. Bei Wiederholungen der Versuchsdurchgänge zeigt sich, dass die einzelnen Gruppenmitglieder sich sehr bald in ihren Einzelschätzungen einem gemeinsamen (mittleren) Wert annähern. Die individuelle Annäherung der Schätzungen ist umso stärker, je weiter die Versuchsperson in ihren ersten Schätzungen vom späteren Gruppenwert nach oben oder nach unten abweicht. Sherif hat also aus der genannten generellen Hypothese die Aussage abgeleitet: „Die Urteile der Mitglieder einer Versuchsgruppe werden durch die Urteile dieser Gruppe bestimmt.“ „Urteil“ hat er dabei operationalisiert durch den Indikator: Einschätzung der scheinbaren Bewegung eines nicht bewegten Lichtpunktes im dunklen Raum. Die Ergebnisse seines Experiments (die Beobachtungsaussagen, also die Beschreibung der empirischen Schätzungen in mehreren Versuchsdurchgängen) stimmen mit dieser aus der Hypothese abgeleiteten Aussage überein; die Untersuchung hat die Hypothese „vorläufig bestätigt“. 41 Die Themen „Indikatoren“ und „Operationalisierung“ werden ausführlich in Kapitel 4 behandelt. <?page no="54"?> 55 1.4 Empirische Verfahren und alternative Wissenschaftspositionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 55 Der deutsche Psychologe P. R. Hofstätter entwarf daraufhin einen härteren Test zur Prüfung der gleichen Hypothese. Er behielt im Prinzip das Sherifsche Experimentaldesign bei, führte jedoch zunächst vier Durchgänge von Schätzungen durch, bei denen jede Versuchsperson allein im Untersuchungsraum war, danach drei Versuchsdurchgänge von Schätzungen in der Sherifschen Gruppensituation und abschließend noch einmal vier Durchgänge von Einzelschätzungen. Die Verschärfung der Testsituation bestand darin, dass die Versuchspersonen zunächst die Chance hatten, sich ihre eigenen, individuellen Maßstäbe zu bilden, und dass ihnen nach dem Gruppenexperiment die Möglichkeit geboten wurde, ohne Kontrolle durch die anderen Versuchsteilnehmer vom Gruppenmaßstab wieder abzurücken und zu ihrem ursprünglichen Maßstab zurückzukehren. Die Ergebnisse bestätigten jedoch weiterhin die Hypothese: Zunächst bildete sich in der Tat jede Person in den vier Einzeldurchgängen eine eigene, gegenüber den anderen Teilnehmern unterschiedliche Urteilsskala. Bei den Schätzungen in der Gruppensituation trat dann rasch eine Angleichung an den Gruppenmittelwert ein. Und: Diese Orientierung an der „Gruppennorm“ blieb auch in den abschließenden vier Einzelschätzungen erhalten (Hofstätter 1957, 53 ff.). In weiteren Folgeuntersuchungen führten andere Forscher zusätzliche Verschärfungen für den Test der Hypothese ein, z. B. Variation im Grad der Information über den Urteilsgegenstand, Bereitstellung von Bezugssystemen, Kontrolle vorgefasster individueller Meinungen der Versuchspersonen zum Urteilsgegenstand, komplexere Beurteilungsaufgaben. Dabei erwies es sich, dass die genannte Hypothese zwar im Prinzip Bestand behielt, jedoch nicht unter allen Bedingungen in gleichem Ausmaß. Als Resultat der fortgesetzten Forschungsbemühungen konnte aufgrund zunehmenden empirischen Wissens die Ausgangshypothese präziser und differenzierter formuliert werden; ihr Geltungsbereich wurde damit schrittweise immer genauer abgesteckt. „Wissenschaftlicher Fortschritt“ vollzieht sich nach den Vorstellungen der analytisch-nomologischen Position auf die hier skizzierte Weise. 42 1.4 Empirische Verfahren und alternative Wissenschaftspositionen In den Sozialwissenschaften gibt es die Wissenschaft als ein einheitliches und unbestrittenes System der Erkenntnisgewinnung nicht. Stattdessen existieren eine ganze Reihe unterschiedlicher Wissenschaftspositionen, die sich zum Teil in Details und zum Teil in sehr grundsätzlichen Fragen unterscheiden. Sie lassen sich zur besseren Übersichtlichkeit zu einigen Hauptströmungen zusammenfassen; etwa: - analytisch-nomologische Richtung mit Ausprägungen wie Empirismus, logischer Empirismus, Positivismus, Neo-Positivismus, Kritischer Rationalismus, Falsifikationismus, Fallibilismus; 42 Ein sehr viel ausführlicheres Beispiel steht bei Hunt (1991, Kap. 4). Es thematisiert insbesondere die ethische Problematik des Experimentierens mit Menschen. unterschiedliche Wissenschaftspositionen <?page no="55"?> 56 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 56 - hermeneutisch-dialektische Richtung mit Bezeichnungen wie kritisch-emanzipatorische Richtung, Frankfurter Schule, Kritische Theorie, Historismus, Verstehen-Ansatz, hermeneutischer Ansatz, kritische Diskursanalyse; - dialektisch-materialistische Richtung mit Bezeichnungen wie marxistische, neomarxistische Richtung, marxistisch-leninistische Wissenschaft, Materialismus (vgl. Esser/ Klenovits/ Zehnpfennig 1977/ I, 163 ff.); - qualitative Sozialforschung verschiedener Richtungen wie „interpretatives Paradigma“, symbolischer Interaktionismus, „natural sociology“, Ethnomethodologie, Phänomenologie, rekonstruktive Sozialforschung. Ein systematischer Vergleich dieser Positionen ist hier nicht das Ziel. Andererseits soll diese Vielfalt nicht einfach unter den Tisch fallen. Die prominenteste Alternative zu der hier diskutierten analytisch-nomologischen Richtung ist die qualitativ-interpretative Richtung. Wegen ihrer Bedeutung in den Sozialwissenschaften diskutieren Annotationen am Ende jedes Kapitels die Unterschiede zwischen der analytisch-nomologischen und der qualitativ-interpretativen Richtung. Eine andere, ebenfalls prominente Richtung ist die Kritische Theorie der Frankfurter Schule (Wiggershaus 1986, Albrecht u. a. 1999). Diese Richtung, die insgesamt eine umfassende Gesellschaftstheorie mit methodischen und methodologischen Implikationen ist, kann weder hier noch in den Annotationen im Detail erörtert werden, doch ein Vergleich anhand von zwei Kriterien soll zumindest einen Eindruck der Unterschiede vermitteln. 1. Kriterium: „Kritik“ und Erkenntnisziel Strikt erfahrungswissenschaftliche Soziologie verfolgt das Ziel, soziale Phänomene zu beschreiben und zu erklären. Die angestrebte Theorie ist ein System von empirisch prüfbaren Aussagen. Dabei hat die Empirie eine dominierende Stellung. Die Realität, so wie sie vom Forscher beobachtet werden kann, soll alleinige und letzte Entscheidungsinstanz darüber sein, ob eine Theorie richtig oder falsch ist. Die Entscheidung soll von jedem nachvollzogen werden können: Die theoretischen Aussagen und deren empirische Überprüfung müssen intersubjektiv nachvollziehbar, intersubjektiv überprüfbar und kritisierbar sein. Kritik heißt beim „Kritischen Rationalismus“: Die Forschungsergebnisse und das Vorgehen beim Erzielen der Ergebnisse sind der ständigen kritischen Überprüfung anderer Forscher, der (wissenschaftlichen) Öffentlichkeit, ausgesetzt. Erkenntnisziel der Forschung ist die Aufklärung über das, was wirklich ist, wobei die Annäherung an die Wahrheit- - „was wirklich ist“- - mittels Aussonderung empirisch falsifizierter und härterer Überprüfung bestätigter Theorien versucht wird. Eine Bewertung der Realität gehört nicht zum Gegenstand der Wissenschaft 43 (Wertneutralitätspostulat, da Werte nicht wissenschaftlich-- „intersubjektiv“-- begründbar sind; siehe Kapitel 2.3). 43 Das schließt nicht aus, dass die Forscherin/ der Forscher als Person, in ihrer Eigenschaft als kritisches Mitglied der Gesellschaft eine Bewertung der Realität vornehmen kann und soll. erfahrungswissenschaftliche Soziologie: Ziel: beschreiben und erklären Forschung als Aufklärung <?page no="56"?> 57 1.4 Empirische Verfahren und alternative Wissenschaftspositionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 57 Für den dialektisch-kritischen Ansatz („Kritische Theorie“) ergibt sich eine ganz andere Zieldefinition: Nicht nur die Beschreibung und Erklärung sozialer Phänomene (nomologisches Wissen) ist ihr Gegenstand, sondern vor allem die kritische Beurteilung der sozialen Tatbestände. Kritik heißt hier nicht kritische Überprüfung theoretischer Aussagen an der Realität, sondern kritische Auseinandersetzung mit der Realität. Nicht ein eher technisches-- wie bei der analytisch-nomologischen Richtung--, sondern ein emanzipatorisches Erkenntnisinteresse ist für dialektisch-kritische Ansätze grundlegend. Kritik an der Wirklichkeit als wissenschaftliches Ziel ergibt sich für die dialektische Richtung aus der Tatsache, dass der Mensch als wollendes Subjekt den soziologischen Gegenstand, also die soziale Wirklichkeit, selbst produziert hat, und zwar geleitet von Werten und Bedürfnissen. Eine in diesem Sinne als kritisch verstandene Sozialwissenschaft wird sich also „mit der Analyse ,nomologischen Wissens‘ nicht begnügen; sie bemüht sich darüber hinaus, zu prüfen, wann die theoretischen Aussagen invariante Gesetzmäßigkeiten des sozialen Handelns überhaupt und wann sie ideologisch festgefrorene, im Prinzip aber veränderliche Abhängigkeitsverhältnisse erfassen. ,Emanzipatorisch‘ wird dieses Erkenntnisinteresse deshalb genannt, weil es auf ,Selbstreflexion‘ abzielt (…) Eine so verstandene kritische Soziologie ist natürlich nicht wertfrei. Die gegebenen gesellschaftlichen Verhältnisse werden ja daraufhin befragt, ob das, was ist (z. B. ideologisch festgefrorene Abhängigkeitsverhältnisse), auch dem entspricht, was stattdessen sein könnte und sein sollte (etwa Selbstreflexion, Mündigkeit)“ (Bellebaum 1977, 29 ff., unter Verweis auf Habermas). Auf solche Aussagen, die sich nicht nur auf das beziehen, was ist, sondern auch auf das, was sein sollte, ist das Kriterium empirischer Prüfbarkeit und intersubjektiver Kontrolle nicht mehr anwendbar. Für einen so konzipierten Erkenntnisprozess ist die Funktion empirischer Sozialforschung nicht mehr so zentral wie bei einem strikt erfahrungswissenschaftlichen Ansatz; sie hat aber selbstverständlich auch hier ihren unverzichtbaren Platz. 2. Kriterium: Thematisierung der Wirklichkeit Aus erfahrungswissenschaftlicher Sicht lassen sich die Tatbestände der Realität unter einer Unzahl verschiedener Themen angehen. Der Gegenstand sagt nicht aus sich heraus, wie wir ihn betrachten sollen, sondern wir tragen Fragen an den Gegenstand heran. Der Blickwinkel, unter dem wir einen Tatbestand betrachten, ist prinzipiell beliebig. Beispielsweise können wir Gruppen hinsichtlich ihres Einflusses auf andere Gruppen untersuchen, wir können die Machtstruktur einer Gruppe analysieren, wir können uns auch auf die Rolle von Außenseitern oder von Meinungsführern in Gruppen beschränken. Die Begriffe, die wir aufgrund theoretischer Überlegungen oder Vermutungen definieren, „strukturieren die Wirklichkeit“. 44 Vom dialektisch-kritischen Ansatz dagegen werden die sozialen Tatbestände als Produkt der jeweiligen gesellschaftlichen Verhältnisse begriffen, in denen auch die 44 D. h. sie legen z. B. fest, ob wir regelmäßige Kontakte zwischen Personen als ein Netz von Interaktionen zwischen Individuen oder als ein „soziales System“ (oder Teilsystem) betrachten. dialektischkritischer Ansatz: Kritik an gesellschaftlichen Zuständen Erkundung möglicher Alternativen erfahrungswissenschaftliche Sicht: Vielfalt möglicher Perspektiven dialektischkritischer Ansatz: <?page no="57"?> 58 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 58 Forscher selbst leben und handeln. Forschung kann deshalb nicht losgelöst von der gesellschaftlichen Wirklichkeit einzelne soziale Tatbestände untersuchen. Vielmehr haben die Gegenstände- - als gesellschaftlich geformte- - sozusagen ihre „eigenen Begriffe“: die Gegenstände lenken die Erkenntnis. „Das entscheidende Spezifikum ist dabei die Tatsache, dass die Theorie über die bewusst gestaltete Praxis Einfluss nimmt. Das heißt, der Einfluss der Praxis findet nicht in vager Form, etwa als ,soziologischer Alltag‘ Eingang in den Forschungsprozess, sondern die Ausführung eines soziologischen Forschungsvorhabens ist selbst Teil der bewusst gestalteten gesellschaftlichen Prozesse. Insofern ist die Auffassung des Forschers von der Gesellschaft zwingend vorgegeben-… Indem also die gesellschaftlichen Prozesse gestaltet werden auf der Grundlage der Kenntnis der grundlegenden Bewegungsgesetze der Gesellschaft, kann die Ausführung von soziologischen Forschungsvorhaben auch nichts weiter sein als ein Stück dieser Gestaltung, die direkte Vorarbeit zu praktischen Maßnahmen“ (Koch 1976, 56 f.). Will die Forscherin bzw. der Forscher aus dieser Situation ausbrechen, muss sie/ er die eigene Situation in ihren Abhängigkeiten reflektieren und den Sinn dieses Zusammenhangs sowie dessen Einflüsse auf die Erkenntnis zu durchdringen suchen. 1.5 Annotationen aus der Perspektive qualitativinterpretativer Methoden Das Verhältnis von Empirie, Theorie und Methoden stellt sich für qualitativ-interpretative Ansätze in etwas anderer Weise als für standardisierte Verfahren. Das hat ganz basal mit unterschiedlichen erkenntnis- und wissenschaftstheoretischen Grundannahmen (Axiomen) zu tun, häufig aber auch mit vielfältig variierenden sozialtheoretischen Prämissen. Es hat aber in vielen Feldern der Sozialforschung auch mit unterschiedlichen methodischen Anforderungen zu tun, wie sie aus den Gegenstandsbereichen und Forschungsfragen resultieren. So stellt z. B. die Sozialstrukturanalyse andere Fragen, präferiert andere Arten von Daten und andere Analyseverfahren als etwa die fallrekonstruktive Biografieforschung. 45 Doch bleiben wir zunächst bei erkenntnis- und wissenschaftstheoretischen Grundannahmen (Axiomen). Der in diesem Kapitel bereits vorgestellte Kritische Rationalismus basiert erkenntnistheoretisch auf einer dezidiert „realistischen“ erkenntnistheoretischen Position: Die Handelnden ebenso wie die wissenschaftlichen Beobachter finden eine identische, universelle Realität vor, die damit objektiv gegeben ist. Die handelnden Akteure können diese Realität mehr oder weniger zutreffend wahrnehmen („beobachten“); fallweise unterschiedliche Wahrnehmungen der Realität ändern indes nichts an deren objektivem ‚So-Sein‘. Allerdings steht dem wissenschaftlichen 45 Wobei angesichts der Pluralisierung der Lebensstile auch die Sozialstrukturanalyse mit den aggregierten Daten standardisierter Erhebungen nicht mehr auskommt und gerade für die Lebensstilanalyse und Milieuforschung zunehmend auf qualitativ-interpretative Verfahren der Datengewinnung und -analyse zurückgreift. gesellschaftskritische Haltung der Forschenden unterschiedliche erkenntnistheoretische Grundannahmen universelle, objektiv gegebene Realität? <?page no="58"?> 59 1.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 59 Beobachter kein unmittelbarer Zugang zur Realität zur Verfügung, weil jede Beobachtung immer nur in schon theoriegeladenen „Protokollsätzen“ formuliert werden kann (vgl. Kapitel 1.2.1 und 1.3.2) (Popper 1994, 73). Alternative Positionen finden wir z. B. im Pragmatismus und im Konstruktivismus. Im Pragmatismus, einer in Nordamerika um die vorletzte Jahrhundertwende ausformulierten und für Gesellschaftsentwicklung der USA prägenden Sozialphilosophie, geht man von der Vorstellung aus, dass Realität ausschließlich im Handeln und in den Konsequenzen dieses Handelns existiert. Das heißt nicht, dass wir uns die Welt so machen, wie wir sie gerne hätten, denn weil Handeln nicht ein rein mentaler Prozess, sondern praktisches Umgehen mit der materialen und sozialen Umwelt ist, muss es sich immer mit jener mal diffusen, mal sehr spezifischen Widerständigkeit auseinandersetzen, der die Handelnden ‚in der Welt‘ begegnen. In dieser Perspektive-- die sich insofern deutlich nicht nur vom Realismus, sondern auch vom Idealismus und vom Nominalismus unterscheidet-- konstituieren wir die Wirklichkeit dadurch, dass wir in der Welt ‚da draußen‘ auf Probleme stoßen, d. h. mit unserem Handeln nicht immer in erwarteter Weise fortfahren und ans Ziel kommen können. Aus dieser Handlungshemmung (Mead 1959, Orig. 1932) und dem damit verbundenen Zustand der ‚Ungewissheit‘ heraus setzen Problemlösungsprozesse ein, mit denen wir versuchen, einen Zustand der ‚Gewissheit‘ zu erlangen, also wieder handlungsfähig zu werden. Ob das Problem gelöst und damit der in der Problemlösung unterstellte Zustand der ‚Welt da draußen‘ als gewiss angenommen werden kann, entscheidet sich allein daran, ob unsere Handlungsfähigkeit wieder hergestellt und-- durch die Auseinandersetzung mit dem Problem-- erweitert werden konnte (Dewey 2002, Orig. 1938, 132 ff.). Der Prozess des Problemlösens wird dabei- - gleichviel ob in alltäglichen Handlungsprozessen oder im Forschungshandeln-- nicht als deduktiver Prozess des Erschließens bestimmter Konsequenzen aus gegebenen Bedingungen und Regeln verstanden, sondern als ein tentatives und kreatives Vorgehen: Wir benötigen in der Regel eine neue Idee, ein neues Verständnis der Situation, um eine Lösung zu entwerfen. Dieser Entwurf ist es, der im (auch gedanklichen) Handeln experimentell überprüft wird. 46 Deduktion und Induktion werden hier also um die Abduktion ergänzt, ein nicht formallogisch zwingendes, sondern tentativ-praktisches Schlussverfahren, das kreative neue Problemlösungen generiert, deren Ergebnisse sich allerdings erst in der anschließenden praktischen Bewährung als zutreffend erweisen müssen (vgl. ausführlich Reichertz 2003). In diesem Kapitel ist deutlich geworden, dass axiomatische Setzungen erkenntnistheoretischer Grundaussagen im methodologischen Diskurs vor allem legitimatorische Funktion haben: Wir beziehen die Geltungsbegründung für die jeweiligen Methodenkonzeptionen aus genau diesen Annahmen, die sich aufgrund ihres Status als Letztbegründungen weder empirisch noch logisch-theoretisch beweisen lassen. 46 Zum Pragmatismus vgl. neben den Schriften der Klassiker Charles S. Peirce, William James, John Dewey und George H. Mead insbesondere Ludwig Nagel (1998) und-- für die sozialtheoretischen Konsequenzen-- Hans Joas (1988, 1980). Zur den methodologischen Bedeutung des Pragmatismus vgl. Jörg Strübing (2008a, 2008b, Kapitel 2). Realität als im sozialen Handeln hergestellt Realität als perspektivengebunden legitimatorische Funktion erkenntnistheoretischer Postulate <?page no="59"?> 60 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 60 Auch wenn sich alle für die empirische Sozialforschung relevanten methodologischen Positionen im Kern mit der kritisch-rationalistischen Idee vereinbaren lassen, dass alle „Aussagen einer empirischen Wissenschaft […] prinzipiell an der Erfahrung scheitern können (müssen)“ (Popper 1994, 38): Die hinter diesem Satz liegenden grundsätzlichen Bestimmungen dessen, was wir unter Welt, Realität, Erfahrung etc. verstehen wollen, können nicht in gleicher Weise dem Kriterium des empirischen Scheiterns unterliegen. Auch deshalb formuliert Popper mit Bezug auf das Basissatzproblem: „So ist die empirische Basis der objektiven Wissenschaft nichts ‚Absolutes‘; die Wissenschaft baut nicht auf Felsengrund. Es ist eher ein Sumpfland-…“ (Popper 1994, 35). Auch wenn sie als Geltungsbegründungen im rationalen Diskurs über Methoden und ihre Leistungsversprechen zentral sind: Nicht aus erkenntnis- und wissenschaftstheoretischen Setzungen resultieren unsere empirischen Methoden, sondern aus praktischen Versuchen zur Bewältigung von Forschungsproblemen, also aus unterschiedlichen Anwendungsbezügen-- seien es solche aus den Wissenschaften selbst, oder seien es Problemlösungssuchen aus der Gesellschaft und ihren Institutionen heraus. So wurden wichtige „qualitative“ Studien in der Frühzeit der empirischen Sozialforschung von den sozialen Problemlagen inspiriert, die sich aus den enormen Zuwanderungsströmen im Chicago des frühen 20.-Jahrhunderts ergaben. 47 Lange vor der expliziten Auseinandersetzung mit Fragen einer wissenschaftstheoretischen Fundierung sind empirische Methoden so zunächst meist recht ‚hemdsärmelig‘ entwickelt sowie sukzessive in der Forschungspraxis und dann zunehmend auch unter Bezug auf methodologische Argumente und Diskussionen verfeinert worden. 48 Ähnlich wie standardisierte Verfahren referieren qualitative Methoden nicht allein in ihrem Problembezug auch auf außerwissenschaftliche professionelle oder alltagspraktische Kontexte. Alltägliche Praktiken zur Lösung von Wissensproblemen (epistemische Praktiken) stehen in der Methodenentwicklung Pate für konkrete Verfahren oder Verfahrenskomponenten (so etwa Vergleichsheuristiken und Praktiken der Typenbildung). Damit geht häufig die Vorstellung einher, dass es keine distinkte Unterscheidung von Wissenschafts- und Alltagspraxis gibt. Das heißt nicht, dass der Unterschied negiert wird, er wird vielmehr gradualisiert: Die Perspektive qualitativ-interpretativer wissenschaftlicher Sozialforschung zeichnet sich gegenüber Alltagspraktiken aus durch 47 So befasste sich etwa die klassische Studie „The Polish Peasant in Europe and America“ mit der biografischen und milieubezogenen Neukonfiguration der Lebensverhältnisse polnischer Migranten in Chicago (Thomas/ Znaniecki 1918). Und die von Robert E. Park (1915, vgl. auch Lindner 2007) programmatisch ins Leben gerufene Stadtsoziologie resultierte in einer Vielzahl vorwiegend qualitativ orientierter Studien etwa zu den Lebensverhältnissen von Wanderarbeitern (Anderson 1923) oder zur Rolle junger Frauen in den Tanzlokalen der Armen (Cressey 1932). 48 Die methodische Anlage der Polish Peasant-Studie z. B. löste eine bis in die späten 1930er-Jahre reichende wissenschaftliche Kontroverse aus (Blumer 1939), die Florian Znaniecki schließlich dazu inspirierte, die ‚analytische Induktion‘ als stärker ausformuliertes und verwissenschaftlichtes qualitativ-empirisches Verfahren zu entwickeln (Znaniecki 1934). Methoden als Ergebnis praktischer Forschungsprobleme Verwendung von Alltagsheuristiken <?page no="60"?> 61 1.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 61 - die Positionierung in einer sekundären Beobachterposition, also außerhalb der konkreten Handlungsbezüge im untersuchten Feld; mit der Konsequenz, dass die so gewonnenen Erkenntnisse-- wie es bei Alfred Schütz heißt-- als „Konstruktionen zweiter Ordnung“ anzusehen sind (Schütz 2004, Orig. 1953, 159); 49 - eine explizitere Orientierung auf Theorie als dominantem Wissenstypus im Unterschied zu Handlungswissen, das zwar mit generiert wird, aber oft unter Ableitung aus zunächst erarbeiteten Theorien; - eine entsprechend systematischer angelegte Gewinnung und explizitere Repräsentation wissenschaftlichen Wissens. Ein Punkt, in dem weitgehende Einigkeit unter den Vertreterinnen und Vertretern qualitativ-interpretativer Methoden besteht, ist die Distanz gegenüber der im Kritischen Rationalismus und in der analytischen Wissenschaftstheorie anzutreffenden Vorstellung, das Ziel empirischen Forschens liege in der Erarbeitung und Prüfung nomologischer Aussagen über die soziale Realität. Jedoch zielt auch die qualitativ-empirische Forschung sehr nachhaltig auf Theorie, sie pflegt allerdings ein anderes Theorieverständnis (oder besser: verschiedene andere Theorieverständnisse) und legt den Akzent stärker auf den Aspekt einer empirisch basierten Theoriegenese (vgl. Kalthoff/ Hirschauer/ Lindemann 2008). Damit geht auch die Kritik an einer einheitswissenschaftlichen Position einher. 50 Vor allem Hempel und Oppenheim (1948), aber auch Popper vertreten die Vorstellung, alle wissenschaftlichen Aussagen hätten sich an dem von ersteren formulierten Modell wissenschaftlicher Erklärungen (Hempel-Oppenheim-Schema, Kapitel 2.4.1) zu orientieren. Diese Position wird von vielen Ansätzen qualitativ-interpretativer Sozialforschung entschieden abgelehnt. Reklamiert wird stattdessen- - und mit im Detail durchaus unterschiedlichen Argumenten- - ein gegenüber den Naturwissenschaften anderer Status der Sozial- und Geisteswissenschaften. Geltend gemacht wird dabei unter anderem, dass soziales Handeln im Unterschied zu naturwissenschaftlichen Prozessen immer schon sinnhaftes Handeln ist, beobachtetes manifestes Handeln also immer auch mit subjektivem Sinn der Handlungsträger unterlegt ist. Diesen gilt es im Wege des Verstehens und Deutens interpretativ zu erschließen, um „soziales Handeln“, wie Max Weber (1980, 1) fordert, „ursächlich erklären“ zu können. Gefragt ist also methodisch-kontrolliertes Fremdverstehen. Zugleich wird geltend gemacht, dass der Akt wissenschaftlichen Beobachtens immer ein Handeln in der Welt darstellt und insofern auch allen damit verbundenen Restriktionen unterliegt, also perspektivgebunden und in der Vermittlung des im 49 Auch die Positionierung ist graduell zu verstehen, denn die qualitative Forschung geht nicht von einer strikten Neutralität der Forscher im Feld aus, sondern von einer reflektierten partiellen Involviertheit in die zu erforschenden Handlungsvollzüge (dazu mehr in den Abschnitten zur Datengewinnung in qualitativ-interpretativen Verfahren; Kap. 7.5). 50 Darüber gibt es eine seit über hundert Jahren andauernde, von Wilhelm Windelband mit der Entgegensetzung nomothetischer und idiografischer Methodenorientierungen im ausgehenden 19.-Jahrhundert angestoßene Debatte, die hier nicht im Detail nachvollzogen werden soll (Windelband 1924). empirisch basierte Theoriegenese Kritik des Methodenmonismus <?page no="61"?> 62 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 62 Handeln Erfahrenen auf ‚immer schon‘ theoriehaltige Sprache verwiesen ist. Während aber in der standardisierten Forschung unter Bezug auf ein ursprünglich den Naturwissenschaften entlehntes Objektivitätsideal versucht wird, diese als Störgrößen betrachteten Einflussfaktoren möglichst auszuschalten, kritisieren die verschiedenen Ansätze qualitativer Forschung dieses Vorgehen als unangemessen und betonen stattdessen das Erfordernis, die kreativ-interpretative Leistung der Forschenden und ihre handelnde Involviertheit in die zu erforschende Wirklichkeit als Ressource für den Forschungsprozess nutzbar zu machen. Gleichviel, ob man in der qualitativ-interpretativen Sozialforschung nun einen subjektorientierten, intentionalen Handlungsbegriff à la Max Weber oder Alfred Schütz oder- - wie George Herbert Mead- - ein dezidiert interaktionistisches Verständnis von Sozialität vertritt: Einig sind sich diese Richtungen innerhalb der Soziologie über ein nicht-deterministisches Verständnis menschlichen Handelns. Was auch immer den Handelnden an Bedingungen entgegentritt: Diese wirken nicht wie Faktoren auf die Handelnden ein und bestimmen deren Handeln, sondern die Handelnden müssen sich im Handeln mit diesen Bedingungen auseinandersetzen. Und mehr noch: Die von Thomas/ Thomas (1928, 572) geprägte klassische These von der „Definition der Situation“ besagt, dass die Art und Weise, in der die Menschen eine Situation und die darin enthaltenen Handlungsbedingungen wahrnehmen, realitätsverändernd wirkt. Wir handeln auf der Basis unserer subjektiven Situationsdefinition; und gleichviel, ob diese Definition in einem objektiven Verständnis oder auch nur aus der Perspektive anderer Handelnder richtig oder falsch ist, die Definition hat mit dem auf ihr gründenden Handeln immer reale Konsequenzen. Diese sozialtheoretischen Argumente liegen auch der Distanzierung vom kritisch-rationalistischen Vorschlag einer Hypothesen-testenden, falsifikatorischen Forschungslogik zugrunde. Während bei Popper und der auf seiner Wissenschaftstheorie fußenden nomologisch-deduktiven Sozialforschung ein universell verstandenes Modell wissenschaftlichen Erklärens unter Zuhilfenahme allgemeiner Gesetze vertreten und das Kontingenzproblem menschlichen Handelns (wir wissen erst, wie gehandelt wird, wenn gehandelt wurde) mit der provisorischen Ablösung allgemeiner Gesetze durch induktiv-statistische Wahrscheinlichkeitsannahmen zu heilen versucht wird, ziehen die unterschiedlichen Methodologien qualitativ-interpretativer Sozialforschung aus diesen Ausgangsüberlegungen andere Konsequenzen. Man geht hier davon aus, dass Kausalerklärungen zur Erforschung der Sozialwelt eines deutend-verstehenden Zugangs zur Sinnproblematik menschlichen Handelns bedürfen. Nicht alle in der qualitativ-interpretativen Sozialforschung vertretenen methodologischen Positionen gehen dabei in ihrem Erklärungsanspruch gleich weit. 51 Insgesamt aber verzichten qualitative Verfahren nicht etwa auf den Anspruch, soziales 51 So vertritt etwa Clifford Geertz für die von ihm vertretene Version ethnografischen Forschens den Erkenntnisanspruch einer „dichten Beschreibung“, also einer elaborierten Version deskriptiver Forschungsergebnisse (Geertz 1987) und Adele Clarke gibt das Ziel kausalen Erklärens zugunsten der Analyse der umfassenden Komplexität sozialer Situationen auf (Clarke 2012). Unverzichtbarkeit kreativer Eigenleistungen Handeln als nicht determiniert Kritik falsifikatorischer Forschungslogik <?page no="62"?> 63 1.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 63 Handeln „ursächlich zu erklären“; sie halten nur andere Wege dorthin für erforderlich. 52 Insbesondere ist damit gemeint, dass soziales Handeln als Forschungsgegenstand einen deutenden Nachvollzug, d. h. eine Rekonstruktion der Perspektiven der Handelnden erfordert. Dieser Nachvollzug wird unterschiedlich konzeptualisiert: mal schlicht als Forderung nach Empathie, also danach, sich in die Handenden hineinzuversetzen und ihre Sichtweise temporär zu übernehmen; häufiger aber wird eine mehr oder weniger ausdifferenzierte Form verstehenden Erklärens und ein diffiziles Wechselspiel zwischen theoretischen Sensibilisierungen und empirischen Induktionen in Anspruch genommen. Frühe Anknüpfungspunkte dafür finden sich in der deutschen geisteswissenschaftlichen Hermeneutik, wie sie entscheidend von Dilthey (2004, Orig. 1900) geprägt wurde, aber auch in der von dem deutsch-ungarischen Wissenssoziologen Karl Mannheim entwickelten „dokumentarischen Methode“ (2004, Orig. 1921). Beide haben es-- auf unterschiedliche Art und Weise-- unternommen, den alltäglichen Prozess des Interpretierens zu analysieren und in einer systematisierten Form als wissenschaftliches Verfahren verfügbar zu machen. Das Problem besteht darin, dass für wissenschaftliche Verfahren andere Geltungsbedingungen zugrunde gelegt werden als für Alltagspraktiken. Insbesondere gelungenen Interpretationen schwieriger Zusammenhänge oder Artefakte haftet schnell der Ruf des Künstlerischen an. Kann aber das, was nur besondere Ausnahmekönner- - Künstler eben- - können, Wissenschaft sein, d. h. auch intersubjektiv zuverlässig überprüf- und nachvollziehbar sowie in systematischer Weise erlern- und vermittelbar? Dilthey wie auch Mannheim haben dafür unterschiedliche Gründe ins Feld geführt: etwa den, dass der Interpret durch eine gemeinsame Kulturzugehörigkeit mit dem Produzenten der zu interpretierenden Artefakte in die Lage versetzt wird, den latenten Gehalt in der manifesten Ausdrucksgestalt des Artefaktes zuverlässig zu erschließen (Dilthey). Oder den, dass es einer konsequenten „Einklammerung“ des Ausdruckssinns eines Artefaktes bedarf, um zuverlässig seinen „Dokumentsinn“ bestimmen zu können, also das, wofür ein Artefakt steht oder worauf es verweist (Mannheim). Nichtsdestotrotz ist es offensichtlich zutreffend, dass Verstehen und Interpretation keine Systeme logisch-zwingenden Schließens sind: Wenn also Wissenschaft als in diesem engen Sinne limitiert verstanden würde, hätten qualitativ-interpretative Verfahren gewiss Schwierigkeiten, ihren Platz darin zu behaupten-- und genau um diese Frage drehten sich die wissenschaftstheoretischen Kontroversen des vergangene Jahrhunderts. 53 Wenn es die Wissenschaft allerdings mit empirischen Phänomenen zu tun bekommt, kann sie sich (anders als etwa in der Logik oder in weiten Teilen der Mathematik) ohnehin nicht mehr als geschlossenes System logisch konsistenter Aussagesätze begreifen. Zwar bilden logisch konsistente Schlüsse in jedem Fall ein Ker- 52 Ausführlich hat dies Udo Kelle (1994) unter dem Stichwort der empirisch begründeten Theoriebildung argumentiert. 53 Etwa die Auseinandersetzung von Hempel (1942) mit Dilthey, von Abel (1948) mit Weber oder von Leat (1978, Orig. 1972) wiederum mit Hempel und Abel. Perspektivische Rekonstruktion statt Kausalerklärung Interpretation und-Rekonstruktion als Kunst? <?page no="63"?> 64 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 64 nelement wissenschaftlichen Forschens, doch ebenso zentral ist die-- in wesentlich höherem Maße fehlbare- - kreative Leistung der interpretativen Bestimmung der Bedeutung relevanter empirischer Phänomene. 1.5.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Becker, Howard S., 1996: The Epistemology of Qualitative Research, in: R. Jessor, R.; Colby R.; Shweder, R. A. (Hg.): Ethnography and Human Development. Context and Meaning in Social Inquiry. Chicago, 53-71 Kalthoff, Herbert; Hirschauer, Stefan; Lindemann, Gesa (Hg.) 2008: Theoretische Empirie, Frankfurt a. M. (Der Sammelband diskutiert in Beiträgen unterschiedlicher Herkunft und Orientierung das Verhältnis von Theorie, Empirie und Methoden in der qualitativen Forschung.) Kelle, Udo, 1994: Empirisch begründete Theoriebildung: Zur Logik und Methodologie interpretativer Sozialforschung. Weinheim (Eine umfassende und gründlich argumentierte Darstellung der erkenntnis- und wissenschaftstheoretischen Positionen einer auf Theoriebildung zielenden interpretativen Sozialforschung.) Krotz, Friedrich, 2005: Neue Theorien entwickeln. Eine Einführung in die Grounded Theory, die heuristische Sozialforschung und die Ethnographie anhand von Beispielen aus der Kommunikationsforschung. Köln, hier Kap. 2: Basisannahmen theoriegenerierender Forschung, S. 76-115. Reichertz, Jo, 2003: Die Abduktion in der qualitativen Sozialforschung. Opladen (differenzierte Herleitung der Grundlagen abduktiven Erkenntnisgewinns und seiner Voraussetzungen für die empirische Sozialforschung). Rosenthal, Gabriele, 2005: Interpretative Sozialforschung: eine Einführung. Weinheim (hier: Kap. 2: Grundannahmen und Prinzipien der interpretativen Sozialforschung S. 39-83). (Stellt insbesondere die allen qualitativ-interpretativen Verfahren- - weitestgehend- - gemeinsamen Grundannahmen theoretisch und an empirischen Beispielen dar.) Strübing, Jörg, 2013: Qualitative Sozialforschung. Eine komprimierte Einführung für Studierende, München (hier Kap. 1 und 2, S. 1-52). (Eine grundlegende Einführung in die Denk- und Arbeitsweisen qualitativ-interpretativer Sozialforschung) Wilson, Thomas P., 1981: Theorien der Interaktion und Modelle soziologischer Erklärung. In: Arbeitsgruppe Bielefelder Soziologen (Hg.): Alltagswissen, Interaktion und gesellschaftliche Wirklichkeit, Opladen, S. 54-79. (Ein klassischer Text, in dem die Forschungslogiken einerseits standardisierender und quantifizierender sowie andererseits qualitativ-interpretativer Sozialforschung als „normatives“ bzw. „interpretatives Paradigma“ unterschieden und in der Unterschiedlichkeit ihrer epistemologischen, wissenschafts- und sozialtheoretischen Annahmen kontrastierend dargestellt werden.) <?page no="64"?> 65 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 65 2 Forschungsfragen, Forschungsdesign, Forschungsprozess Empirische Sozialforschung ist im Regelfall dadurch charakterisiert, dass es Patentrezepte, die für alle Fälle gültig sind, nicht gibt. Von einigen Ausnahmen abgesehen (etwa regelmäßig wiederkehrende Routineerhebungen in der Markt- und Meinungsforschung) ist der Forscher gezwungen, in gründlicher Auseinandersetzung mit dem Untersuchungsgegenstand immer wieder neu ein für die jeweilige Fragestellung geeignetes Untersuchungsdesign zu entwerfen, d. h. einen speziellen Untersuchungsplan zu entwickeln. Das Kapitel 2 soll einen ersten Eindruck von der Vielfalt von Fragestellungen und dem breiten Spektrum zu treffender Entscheidungen vermitteln. Ihre detaillierte Behandlung ist den folgenden Kapiteln vorbehalten. 2.1 Fragestellungen und Forschungsansätze: Einige Beispiele Die zu bearbeitenden Fragestellungen können in vielerlei Hinsicht variieren: So kann es darum gehen, in einem relativ neuen Problemfeld, für das bisher nur wenig gesichertes Wissen existiert, empirische Basisdaten zu beschaffen. Der Forscher wird in diesem Fall den interessierenden Themenbereich nur grob abgrenzen, wird den mit empirischen Daten zu beschreibenden Untersuchungsgegenstand vergleichsweise wenig vorstrukturieren können. Er ist daher darauf angewiesen, möglichst „offene“-- d. h. wenig oder gar nicht standardisierte-- Erhebungsinstrumente einzusetzen, etwa Leitfadengespräche, Gruppendiskussionen, freie (wenig systematisierte) Beobachtungen. Seine Untersuchung hat in diesem Fall explorativen (erkundenden) Charakter. Mit Exploration verbindet man im Kontext analytisch-nomologisch orientierter Forschung die Vorstellung einer Vorstudie zur Vorbereitung einer danach folgenden „ernsthaften“ Untersuchung oder von Pretests zur Entwicklung eines anspruchsvollen Erhebungsinstruments: „Explorative Studien wird man durchführen, wenn der soziale Bereich, den es zu erforschen gilt, relativ unbekannt ist und nur recht vage oder gar keine spezifischen Vermutungen über die soziale Struktur und die Regelmäßigkeiten sozialer Handlungen vorliegen“ (Diekmann 1995, 30). Allerdings sollte man nicht vorschnell zu einer Exploration übergehen, wenn eine erste Literaturrecherche nicht das gewünschte Ergebnis bringt. Ähnliche Phänomene in anderen Bereichen oder unter einem anderen Namen können durchaus bereits untersucht worden sein. So ist bei der vorbereitenden Recherche auch Kreativität gefragt. Das Verständnis von Exploration in der qualitativen Sozialforschung ist anders. Hier wird unter Exploration eine methodologische Perspektive innerhalb des Prozesses von Informationssammlung und -analyse verstanden. So bezeichnet im Konzept von Herbert Blumer „Exploration“ das umfassende, in die Tiefe gehende, detektivi- Untersuchungsdesign sorgfältig entwerfen explorative Untersuchung <?page no="65"?> 66 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 66 sche Erkunden des Forschungsfeldes, das Sammeln möglichst vielfältiger und das ganze Spektrum von Sichtweisen repräsentierender Informationen im Unterschied zur „Inspektion“, womit das-- die Exploration begleitende-- Deuten und Analysieren der Informationen gemeint ist (Blumer 2004, 363 ff.). Im Gegensatz zum erkundenden Explorieren kann das Erkenntnisinteresse aber auch darauf gerichtet sein, eine möglichst exakte Beschreibung eines komplexen Sachverhalts zu gewinnen, über den im Prinzip hinreichendes (Rahmen-)Wissen bereits existiert, über den man jedoch für einen bestimmten Zeitpunkt und für einen bestimmten räumlichen Bereich quantitativ präzise Informationen benötigt. Ein Ministerium benötigt aktuelle Daten über die Verbreitung von Arbeitslosigkeit in unterschiedlichen Regionen der Bundesrepublik bei verschiedenen Berufs-, Bildungs- und Altersgruppen; eine Tageszeitung interessiert sich für die Meinungen der wahlberechtigten Bevölkerung über die Arbeit von Regierung und Opposition sowie über die politischen Parteien, um darüber zu berichten. In solchen Fällen kann das Untersuchungsthema genau abgegrenzt und können die relevanten Themenaspekte sowie die zu erhebenden Merkmale im Voraus angegeben werden. Die empirische Erhebung soll lediglich die aktuelle „Diagnose“, z. B. die Angaben über die-- möglicherweise ungleiche-- empirische Verteilung des Problems Arbeitslosigkeit auf unterschiedliche Bevölkerungsgruppen und Regionen liefern. Hierfür wird die Forschung zweckmäßigerweise auf hoch standardisierte Erhebungsinstrumente zurückgreifen. Bei beiden genannten Typen von Fragestellungen kann das Erkenntnisinteresse ein statisches oder ein dynamisches sein; d. h. die Informationen können sich entweder auf den Zustand zu einem bestimmten Zeitpunkt oder aber auf (kurz-, mittel- oder langfristige) Entwicklungen und Veränderungsprozesse beziehen. Im ersten Fall genügt eine einmalige Datenerhebung. Im zweiten Fall müssen die Erhebungen entweder von vornherein längerfristig durchgeführt oder zu verschiedenen Zeitpunkten wiederholt werden. Geschehen die wiederholten Datenerhebungen immer wieder bei den gleichen Untersuchungseinheiten (z. B. den gleichen Personen, Haushalten oder Organisationen), dann spricht man von einer Panel-Analyse. Werden bei jeder der wiederholten Erhebungen die Untersuchungseinheiten neu ausgewählt und bei der Auswertung lediglich die statistischen Merkmalsverteilungen verglichen, handelt es sich um vergleichend-statische (komparativ-statische) Analysen. Eine für die Sozialwissenschaften bedeutsame Panel-Erhebung ist das Sozioökonomische Panel (SOEP). Seit 1984 wird eine große Anzahl von privaten Haushalten in der Bundesrepublik Deutschland regelmäßig einmal jährlich befragt. Ein Schwerpunkt-Thema ist die Entwicklung sozialer Ungleichheit, ein anderer Schwerpunkt sind Menschen mit Migrationshintergrund, die mit besonderen Stichproben berücksichtigt sind. Hinzu kommen immer wieder wechselnde Zusatzthemen. deskriptive Untersuchung, Diagnose BEISPIEL statisches oder dynamisches Interesse Panel-Analyse komparativstatische Analyse BEISPIEL <?page no="66"?> 67 2.1 Fragestellungen und Forschungsansätze: Einige Beispiele www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 67 Die Befragung wird vom Deutschen Institut für Wirtschaftsforschung, Berlin, betreut. Der SOEP-Datensatz kann von universitären Forschungseinrichtungen im In- und Ausland für Forschung und Lehre genutzt werden. Umfangreiches Dokumentationsmaterial steht in deutscher und englischer Sprache auch online zur Verfügung (www.diw.de/ de/ soep/ ).- - Eine eindrucksvolle Schilderung der (auch methodologischen) Schwierigkeiten von Langzeitstudien finden Sie in Hunt (1991, Kap. 5). Sehr lesenswert! Man spricht bei „statischen“ Ansätzen auch von Querschnitt-, bei „dynamischen“ Ansätzen auch von Längsschnittuntersuchungen. Stehen Daten aus hinreichend vielen Wiederholungszeitpunkten zur Verfügung, können Trend- oder Zeitreihenanalysen vorgenommen werden. Eine zentrale Datenbasis für komparativ-statische Untersuchungsfragestellungen liefert die Allgemeine Bevölkerungsumfrage der Sozialwissenschaften (ALL- BUS). Der ALLBUS ist eine Wiederholungsstudie, in der seit 1980 alle zwei Jahre ein repräsentativer Querschnitt der Bevölkerung in der Bundesrepublik Deutschland mit einem teils gleichbleibenden, teils variablen Fragenprogramm befragt wird. Standardthemen sind politische Einstellungen, Verhaltensweisen und die Sozialstruktur der Bevölkerung. Hinzu kommen verschiedene zusätzliche Schwerpunktthemen, zum Beispiel Religion, Freundschaft, Freizeitgestaltung oder politische Kultur. Der ALLBUS wird vom Zentrum für Umfragen, Methoden und Analysen in Mannheim (ZUMA) betreut. Auch diese Daten stehen für Forschung und Lehre zur Verfügung (www.gesis.org/ allbus/ allbus-home/ ). Trotz Globalisierung und europäischer Integration finden die meisten Studien bis heute im nationalstaatlichen Rahmen statt, sehr oft als Erhebung, die repräsentativ ist für die Bevölkerung in einem Nationalstaat. Zunehmend werden aber auch länder-und kulturvergleichende Untersuchungen durchgeführt. Der European Social Survey (ESS) ist eine große ländervergleichende Studie in Europa. Seit 2004 werden alle zwei Jahre in zwanzig bis dreißig europäischen Ländern vergleichbare Befragungen durchgeführt. Gleichbleibende Kernthemen sind politische Einstellungen, Mediennutzung, subjektives Wohlbefinden, Diskriminierung und Vertrauen. Hinzu kommen wechselnde Themen, zum Beispiel Erwerbs und Hausarbeit, Gesundheit oder Umgang mit Migration. Ein Zusammenschluss von fünfzehn Forschungsinstituten verschiedener Länder koordiniert die Befragung. Zusätzlich können sich Teams aus weiteren Ländern für die Teilnahme bewerben, müssen aber eine eigene Finanzierung finden, weshalb die Anzahl teilnehmender Länder wechselt. Die Daten können unter www. europeansocialsurvey.org heruntergeladen werden. Querschnitt-/ Längsschnittanalysen Zeitreihenanalysen BEISPIEL länder-und kulturvergleichende Untersuchungen BEISPIEL <?page no="67"?> 68 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 68 Bei Fragestellungen, die an der Feststellung von Veränderungen, am Nachzeichnen von Entwicklungsprozessen orientiert sind, muss die Datenerhebung jedoch nicht zwangsläufig zeitgleich mit den zu beschreibenden Ereignissen stattfinden. Für den Spezialfall zeitlicher Übereinstimmung von Ereignissen/ Prozessen und ihrer Erhebung spricht man von einer Realzeituntersuchung. Oft kann aber die Ermittlung der Informationen auch im Nachhinein („ex post facto“) durchgeführt werden. Dabei wird versucht, die Abfolge von Ereignissen und Situationen zu rekonstruieren, etwa durch Auswertung von Dokumenten aus dem in Betracht kommenden Zeitraum oder durch Sekundäranalyse früher erhobener Daten oder durch Interviews mit Personen, die die interessierenden Ereignisse miterlebt haben („oral history“). Bisher wurden zwei Typen deskriptiver Fragestellungen (Exploration und Diagnose) in verschiedenen Variationen vorgestellt. Die Untersuchung kann jedoch auch-- darauf wurde in Kapitel 1 schon eingegangen-- mit dem Ziel der Entwicklung oder des Tests wissenschaftlicher Theorien/ Hypothesen oder zur empirischen Entscheidung über die Angemessenheit konkurrierender Theorien durchgeführt werden. Während es im Falle deskriptiver Forschung um die Erhebung von Daten im sozialen „Feld“ geht (Daten über den Alltag von Personen bzw. über existierende Haushalte, Gruppen, Organisationen, Regionen etc.), kann es bei theorietestenden Analysen notwendig sein, Untersuchungssituationen künstlich zu schaffen, in denen die zentralen Bedingungen, wie sie in den zu testenden Hypothesen benannt werden, vom Forscher beeinflusst oder zumindest exakt kontrolliert werden können. Forschungen in solchen künstlich geschaffenen Situationen nennt man „Labor“-Untersuchungen; das Forschungsdesign ist im Allgemeinen das des Experiments. Die Untersuchung kann schließlich auch dazu dienen, entweder das wissenschaftliche Grundlagenwissen zu vergrößern oder aber anwendungsorientierte Informationen zur Verfügung zu stellen (vgl. auch dazu Kapitel 1). Der Anwendungsbezug wiederum kann mehr oder weniger direkt sein, etwa wissenschaftliche Begleitung eines kommunalen Projekts zur sozialen Integration der Bewohner einer Obdachlosensiedlung oder Untersuchung der Auswirkungen eines staatlichen Programms zur Investitionsförderung in mittelständischen Unternehmen bis zur wissenschaftlichen Beratung der Politik auf Bundesebene etwa bei der Novellierung des Baurechts. Häufig kommt es bei anwendungsbezogener Forschung vor, dass das Erkenntnisinteresse darauf gerichtet ist, den Erfolg oder Misserfolg einer Maßnahme bzw. eines Handlungsprogramms mit Hilfe empirischer Informationen zu beurteilen, das Programm also im Lichte empirischer Daten zu bewerten. In diesem Fall haben wir es mit Evaluationsstudien zu tun. Geschieht diese Bewertung mit Blickrichtung auf potenzielle zukünftige Konsequenzen eines Vorhabens, muss die Untersuchung auch eine Prognose künftiger Entwicklungen mit einschließen. Da dieses in die Zukunft gerichtete Erkenntnisinteresse besonders oft bei anstehenden Entscheidungen über das Weiterverfolgen technologischer Entwicklungen und Programme besteht, ist um diesbezügliche Fragestellungen herum ein eigener Forschungstyp mit vielfältigen Differenzierungen und Schwerpunkten entstanden: die Technikfolgenbzw. Technologiefolgen-Abschätzung (TA). Realzeituntersuchung/ ex post facto- Analyse Sekundäranalyse Hypothesentest Feldforschung/ Laborforschung Grundlagenforschung/ angewandte Forschung Evaluationsstudie <?page no="68"?> 69 2.2 Der Forschungsprozess als eine Reihe ineinander verzahnter Entscheidungen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 69 Mit diesen Ausführungen sind lediglich einige Dimensionen angesprochen, in die ein konkretes Forschungsprojekt einzuordnen ist. Ein auch nur annähernd vollständiger Überblick ist damit bei Weitem nicht gegeben und auch nicht beabsichtigt. Diese Skizze macht vielmehr deutlich, dass das Vorgehen der empirischen Sozialforschung eben nicht in einer umfassenden und allen denkbaren Aufgaben gerecht werdenden Rezeptsammlung kodifizierbar ist. Diesen Aspekt greifen wir später im Kapitel 2.4 noch einmal auf und vertiefen ihn durch die Darstellung der unterschiedlichen Forschungslogiken verschiedener ausgewählter Designtypen. Danach allerdings ist eine bewusste Beschränkung auf einen besonders typischen Anwendungsfall empirischer Forschung unabdingbar. Wie als wissenschaftstheoretischer Zugang in diesem Buch die Position des Kritischen Rationalismus gewählt wurde, so wird sich auch der forschungsmethodische Teil ab Kapitel 3 schwerpunktmäßig an nur einem Typ von Fragestellungen (der mehr oder weniger standardisierten Datenerhebung im sozialen Feld) und am Vorgehen nur einer Forschungsrichtung (der „traditionellen“, analytisch-nomologischen) orientieren. Ergänzt ist diese Schwerpunktsetzung durch die Annotationen aus qualitativ-interpretativer Sicht am Ende jedes Kapitels und einen kurzen Überblick über qualitative Ansätze in Kapitel 9. Doch auch bei Einschränkung auf den genannten Vorgehenstyp sind Ablauf und Organisation eines Forschungsprojektes immer noch eine äußerst verwickelte Angelegenheit, wie im folgenden Abschnitt gezeigt wird. 2.2 Der Forschungsprozess als eine Reihe ineinander verzahnter Entscheidungen Die Methoden der empirischen Sozialforschung sind Verfahrensregeln formaler Art, die sicherstellen sollen, dass ihre Ergebnisse einen angebbaren Grad von Verbindlichkeit haben. Zu diesem Zweck hat sich die Empirie auf ein bestimmtes Vorgehen bei der Untersuchung sozialer Realität geeinigt. Dieses bezieht sich auf Entscheidungen, die im Forschungsprozess zu treffen sind. In diesem Abschnitt werden die in jedem Forschungsprojekt notwendigen Entscheidungen sowie dabei auftretende Probleme kurz aufgelistet, ohne schon näher erläutert werden zu können. Ihre ausführliche Behandlung bleibt den späteren Kapiteln vorbehalten. Die Funktion dieses Abschnitts ist insbesondere, den „roten Faden“ für den weiteren Text zu liefern. Dabei sollte sich der Leser jedoch bewusst bleiben, dass die hier gewählte Reihenfolge der Entscheidungen idealtypischen Charakter hat. Im realen Forschungsablauf werden Überschneidungen, Sprünge und Rückkoppelungen die Regel sein. Jedes Forschungsvorhaben impliziert vom Beginn bis zum Abschluss eine Fülle von Entscheidungen über den Umgang mit anfallenden Problemen (Eingrenzung des Themas, Wahl der Instrumente, Auswahl der Untersuchungsobjekte, Anwendung statistischer Verfahren usw.), die erhebliche Auswirkungen auf das Forschungsresultat haben können und deshalb zur Sicherung der intersubjektiven Nachprüfbarkeit sorgfältig zu dokumentieren sind. eine Reihe wichtiger Entscheidungen Nachprüfbarkeit durch Dokumentation <?page no="69"?> 70 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 70 Inhaltlich richten sich die vom Forscher zu treffenden Entscheidungen auf folgende Punkte (einige der dabei zu beantwortenden Fragen sind jeweils mit aufgeführt): a) Klärung des „Entdeckungs-“ und des „Verwertungszusammenhangs“: - Welches Problem soll erforscht werden (Forschungsfrage)? Warum ist dieses Problem so relevant, dass es erforscht werden soll? - Wessen Probleme werden aufgegriffen? Wessen Interessen werden berührt (Erkenntnisinteressen)? - Handelt es sich um ein dem Forscher vorgegebenes oder ein von ihm selbst gestelltes Problem? - Für welche Zwecke sollen die Ergebnisse verwendet werden (Verwertungsinteressen)? - Welche Informationen werden zur Erfüllung dieser Zwecke und zur Beantwortung der Forschungsfrage benötigt (Informationsbedarf )? b) Präzisierung der Problemformulierung, „dimensionale Analyse“ des Forschungsgegenstands: - Welche Bereiche („Dimensionen“) der Realität sind durch die Forschungsfragestellung explizit angesprochen? - Welche Dimensionen werden berührt, ohne direkt angesprochen zu sein? - Können die als relevant angenommenen Dimensionen zusammengefasst oder müssen sie differenziert betrachtet werden? c) Zuordnung von geeigneten Begriffen zu den als relevant angenommenen Dimensionen: - Existieren bereits eindeutig verwendete und für die Fragestellung geeignete Begriffe, oder müssen diese neu eingeführt und unmissverständlich definiert werden? - Werden durch die verwendeten Begriffe bzw. durch die Wahl der für Definitionen verwendeten Merkmale möglicherweise vorhandene Beziehungen zwischen den realen Erscheinungen verschleiert, „wegdefiniert“? d) Einordnung der Problemstellung in vorhandene Kenntnisse (Theorien, Forschungsergebnisse, Methoden); Hypothesenbildung unter Verwendung der definierten Begriffe; Entscheidung über das Forschungsdesign: - Welche theoretischen Kenntnisse sind über den Untersuchungsgegenstand sowie über Beziehungen zwischen den angesprochenen Dimensionen vorhanden? Welche Vermutungen können/ müssen zusätzlich formuliert werden? - Welcher Untersuchungsansatz ist dem Forschungsproblem angemessen? - Sind die vorhandenen Vorkenntnisse ausreichend, um ein endgültiges Forschungsdesign zu entwerfen? Oder ist zuvor eine (explorative) Vorstudie erforderlich? - Welche Methoden der Informationsgewinnung sind prinzipiell geeignet und im gegebenen Zusammenhang zweckmäßig? e) Auswahl von „Indikatoren“ für die verwendeten Begriffe (falls erforderlich): Fragen für den Forschungsprozess <?page no="70"?> 71 2.2 Der Forschungsprozess als eine Reihe ineinander verzahnter Entscheidungen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 71 - Fassen Begriffe mehrere Dimensionen der Realität zusammen, so dass von einzelnen Aspekten auf den Gesamtbegriff (auf das sprachliche Konstrukt) geschlossen werden muss? - Ist das mit einem Begriff bezeichnete reale Phänomen direkt beobachtbar, oder muss vom Vorliegen anderer, direkt beobachtbarer Sachverhalte (Indikatoren) auf das Vorhandensein des gemeinten Phänomens geschlossen werden? - Welche Kenntnisse sind vorhanden, um geeignete Indikatoren auswählen zu können? f ) Festlegung des erforderlichen Differenzierungsgrades der Informationen sowie Angabe der Messinstrumente („Operationalisierung“ der Begriffe): - Kann auf bewährte Erhebungsinstrumente und Skalen zurückgegriffen werden? Oder ist ein spezifisches Instrument zu entwickeln und zu testen (Pretest)? - Mit welchen „Messverfahren“ sollen die Ausprägungen der Variablen festgestellt werden? Wie muss die Situation beschaffen sein, in der die Messung vorgenommen wird? - Auf welchem Skalenniveau kann/ soll gemessen werden? - Sind die Indikatoren und die gewählten Ausprägungen „gültig“, d. h. erfassen sie genau diejenigen Tatbestände und diejenigen Differenzierungen der Realität, die mit der Forschungs-Problemstellung gemeint sind? - Sind die verwendeten Instrumente zuverlässig, d. h. führt ihre wiederholte Anwendung unter gleichen Bedingungen zu gleichen Ergebnissen? g) Festlegung der Objekte (Merkmalsträger), bei denen die Merkmale gemessen werden sollen; Definition der Grundgesamtheit; gegebenenfalls Entscheidung über Art und Umfang der Stichprobe: - Wer sind die Merkmalsträger (z. B. Personen, Gebiete, Zeitschriften, Zeitpunkte)? - Sollen alle Objekte, auf die sich die Problemstellung bezieht, untersucht werden oder nur ein Teil davon? - Bei Teilauswahlen: Sollen besonders typische Fälle herausgegriffen werden, oder ist eine „repräsentative“ Auswahl erforderlich? h) Erhebung und Aufbereitung der Daten: - Ist eine Primärerhebung erforderlich? Oder existieren die benötigten Informationen bereits anderswo (Sekundärauswertung)? - Stehen qualifizierte Personen für die Datenerhebung zur Verfügung? Oder muss Erhebungspersonal rekrutiert und geschult werden? - Lässt sich die Zuverlässigkeit der Datenerhebung kontrollieren (Feldkontrolle)? - In welcher Weise sollen die Erhebungsprotokolle (z. B. Fragebögen, Beobachtungsprotokolle) aufbereitet und gespeichert werden? i) Verringerung der Unübersichtlichkeit der Informationsfülle, Straffung und Verdichtung von Informationen (Anwendung statistischer Modelle und Verfahren): - Sollen die erhobenen Daten quantitativ ausgewertet werden? - Welche statistischen Modelle sind geeignet? j) Interpretation der Ergebnisse; Rückbezug zu den Punkten a bis i. <?page no="71"?> 72 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 72 Im Interpretationsprozess sind folgende Fragen zu klären: - Sind die statistischen Modelle sowohl dem Messniveau der Daten als auch der empirischen Realität angemessen? Werden die im Hinblick auf die Problemstellung wesentlichen Informationen ausgewertet? Können also die berechneten Beziehungen zwischen den Daten (=- zwischen den Reihen von Zahlen) überhaupt in Beziehungen zwischen Dimensionen der Realität zurückübersetzt werden? (vgl. i) Wenn ja: - Gelten die ermittelten Beziehungen nur für die untersuchte Menge von Objekten, oder können die Ergebnisse auf ähnliche Objekte oder auf eine größere Gesamtheit verallgemeinert werden? (vgl. g) - Sind die Daten zuverlässig gemessen/ erhoben und aufbereitet worden? Können die ermittelten Beziehungen zwischen den Daten also als Beziehungen zwischen den Variablen interpretiert werden? (vgl. h) - Sind geeignete Methoden gewählt worden? Die Fragestellung bei traditionellen empirischen Untersuchungen lautet: Welche Methoden der Datenerhebung sind geeignet, 1. die Dimensionen der Realität adäquat zu erfassen, ohne sie 2. durch die Datenerhebung selbst zu verändern? - Sind die Ausprägungen der Variablen in geeigneter Weise abgegrenzt worden? Können also die ermittelten Beziehungen zwischen den Variablen als Beziehungen zwischen den (empirischen) Indikatoren interpretiert werden? (vgl. f ) - Sind geeignete Indikatoren für die mit Begriffen bezeichneten Sachverhalte gewählt worden? Können die ermittelten Beziehungen zwischen den Indikatoren als Beziehungen zwischen den (mit Begriffen bezeichneten) Dimensionen der Realität interpretiert werden? (vgl. e und f ) - Werden die vorher formulierten Hypothesen bzw. Theorien (vgl. d) durch die Ergebnisse (vorläufig) bestätigt? Oder müssen die Hypothesen verworfen bzw. umformuliert werden? - Ergeben sich durch die Resultate der Untersuchung Konsequenzen für die Auswahl und Abgrenzung der als relevant angenommenen Dimensionen der Realität sowie für die Definition der benutzten Begriffe (d. h. wurden relevante Dimensionen nicht berücksichtigt, haben sich Definitionen als nicht brauchbar erwiesen)? (vgl. b und c) - Welche Konsequenzen für die eingangs formulierte Problemstellung lassen sich aus den Ergebnissen ableiten? Können die auf der Ebene der Symbole (Begriffe, Sprache) gefundenen Erkenntnisse auf die Realität bezogen werden (Praxisrelevanz; Verwertungszusammenhang)? k) Dokumentation des Forschungsprozesses und der Ergebnisse (Forschungsbericht) sowie Präsentation der Befunde: - Wie ausführlich sind die Entscheidungen im Projekt und die verwendeten Instrumente zu dokumentieren (Sicherung der Möglichkeit intersubjektiver Nachprüfung)? - Wie ausführlich und auf welche Weise sind die Ergebnisse der Analyse zu dokumentieren? <?page no="72"?> 73 2.3 Entdeckungs-, Begründungs- und Verwertungszusammenhang www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 73 - Kann/ soll der erhobene Datenbestand für Sekundäranalysen archiviert werden? - Auf welche Weise werden die Befunde gegenüber der Öffentlichkeit, dem Auftraggeber etc. präsentiert (Artikel für Fachzeitschriften, Vorträge, Zusammenfassungen für die Presse)? 2.3 Entdeckungs-, Begründungs- und Verwertungszusammenhang: Das Problem der Wertungen in der empirischen Forschung Die Klärung des Entdeckungs- und des Verwendungszusammenhangs (Punkt a) in Abschnitt 2.2) stellt den Ausgangspunkt und das Ziel der Forschung dar. Er ist die eigentliche Bezugsgröße für alle Überlegungen und liefert im Zweifelsfall die Kriterien für die im Forschungsprozess notwendigen Entscheidungen. Während die Punkte b) bis k) eingehender in den folgenden Kapiteln behandelt werden, sind zum Punkt a) einige nähere Erläuterungen schon an dieser Stelle erforderlich. Dazu soll die häufig benutzte Unterscheidung zwischen Entdeckungs-, Begründungssowie Verwertungsbzw. Wirkungszusammenhang der Forschung (z. B. Friedrichs 1977, 50 ff.) herangezogen werden. Dabei ist unter Entdeckungszusammenhang (oder Entdeckungskontext) „der Anlass zu verstehen, der zu einem Forschungsprojekt geführt hat“ (Friedrichs 1977, 50). Hier spielen Interessen immer eine Rolle, etwa: das Erkenntnisinteresse eines Wissenschaftlers, der aufgrund vorliegender widersprüchlicher Befunde sozialwissenschaftliche Theorien testen und fortentwickeln möchte; problembezogene politische Interessen, wenn z. B. vom Forscher (oder Auftraggeber) soziale Situationen gesehen werden, die nicht im Einklang mit bestimmten Soll-Vorstellungen stehen. Insbesondere bei Auftragsforschung ist also bei der Lektüre von Forschungsberichten immer die Frage zu klären, wessen Probleme und Interessen aufgegriffen worden sind (bzw. wessen Probleme/ Interessen ausgeklammert wurden! ). Letzteres verweist bereits auf die enge Verzahnung des Entdeckungszusammenhangs mit dem Verwertungssowie Wirkungszusammenhang der Forschung, worunter die „Effekte einer Untersuchung verstanden werden, ihr Beitrag zur Lösung des anfangs gestellten Problems“ (Friedrichs 1977, 54). Jede Untersuchung erweitert Wissen über soziale Zusammenhänge, kann zur Lösung sozialer Probleme beitragen (wenn die neu gewonnenen Kenntnisse mit diesem Ziel eingesetzt werden) oder diese Lösung verhindern bzw. zumindest verzögern (wenn Kenntnisse bewusst zurückgehalten werden oder wenn durch die Untersuchung bestimmter sozialer Fragen andere Probleme unbeachtet bleiben). Die Unterscheidung geht im Wesentlichen auf Reichenbach zurück (context of discovery, context of justification) und erweist sich als nützlich in der Einschätzung des Werturteilsfreiheits-Postulats der Erfahrungswissenschaft. Wertungen sind für das Wissenschaftskonzept des Kritischen Rationalismus in mehrfacher Hinsicht ein Problem. Entdeckungszusammenhang Verwertungszusammenhang Werturteilsproblematik <?page no="73"?> 74 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 74 Erstens: Erfahrungswissenschaft soll über die Realität, so wie sie unabhängig vom wissenschaftlichen Beobachter existiert, informieren, soll sie beschreiben und erklären. Wertende Aussagen jedoch können nicht aus Tatsachenaussagen logisch abgeleitet werden; anders ausgedrückt: Aus dem, was ist, kann nicht hergeleitet werden, was sein soll. Wertungen informieren also nicht über die „objektive“ Realität, sondern sind Ausdruck der subjektiven Sicht der wertenden Person oder Instanz. Auf Wertungen lässt sich das Kriterium der Wahrheit oder Falschheit nicht anwenden. Somit kann über sie mit Hilfe des Instrumentariums der Erfahrungswissenschaft nicht entschieden werden (vgl. Abschnitt 1.2.3). Zweitens: Bei der Beobachtung der Realität wird die Wahrnehmung von den Zielen der beobachtenden Person beeinflusst. Die Wahrnehmungspsychologie hat nachgewiesen, dass man tendenziell vor allem das erkennt, was man zu erkennen hofft. Das gilt sowohl für vertraute Sachverhalte als auch für ungewohnte Situationen: Das Unvertraute wird zunächst so interpretiert, dass es in das eigene Orientierungsraster hineinpasst. Um solche Wahrnehmungsverzerrungen auszuschließen (realistischer: möglichst gering zu halten), muss deshalb die strikte Neutralität das Leitprinzip bei der Informationserhebung sein, um der „objektiven“ Realität (d. h. der Realität der Untersuchungsobjekte) die bestmögliche Chance zu geben, sich in den Wahrnehmungseindrücken abzubilden (vgl. Abschnitt 1.3.3, Problem 2: Basissatzdilemma). Drittens: Kein Forschungsprojekt kann soziale Realität in ihrer „Ganzheit“ untersuchen; jedes Projekt muss vielmehr außerordentlich selektiv vorgehen. Es ist immer nur ein kleiner Ausschnitt (ein eng abgegrenztes Thema, ein relativ kleiner Gegenstandsbereich) aus im Wesentlichen nur einer Perspektive analysierbar. Im Verlauf des Projekts sind unablässig Entscheidungen zu treffen: über das angemessen erscheinende Vorgehen, über die Auswahl der zu untersuchenden Situationen oder Personen, über die zu messenden Merkmale usw. (vgl. Kapitel 2.2). Jede Selektion kann allerdings nur vorgenommen, jede Entscheidung nur getroffen werden unter Bezugnahme auf Werturteile (auf Bewertungen der „Aktualität“ eines Themas, der „Relevanz“ von Fragestellungen, der „Gültigkeit“ von Indikatoren, der „Repräsentativität“ einer Auswahl, der „praktischen Verwertbarkeit“ von Erkenntnissen und vieles mehr). Solche Entscheidungen-- und damit der Rückgriff auf Wertungen-- sind unvermeidbar. Dennoch dürfen sie die wissenschaftliche Geltung der Ergebnisse nicht beeinträchtigen. Aus diesen drei Problemen folgt für die Erfahrungswissenschaft die Forderung nach strikt interessenneutralem und unparteiischem Vorgehen, das zugespitzt als Postulat der Wertneutralität bzw. der Wert(urteils)freiheit formuliert wurde. Das Postulat der Wert(urteils)freiheit- - ursprünglich formuliert von Max Weber (1904)-- wird allerdings häufig missverstanden. Es bedeutet nicht, dass Wissenschaftler/ innen als Personen sich jeder Wertung enthalten müssten, sondern lediglich, dass ihre subjektiven Wertungen ihre Entscheidungen innerhalb des Forschungsprojekts nicht beeinflussen dürfen. 54 Mit anderen Worten: Das Wert(urteils)freiheitspostulat 54 Der „Werturteilsstreit“ in der Sozialwissenschaft ist ausführlich mit zahlreichen Beiträgen dokumentiert in Albert/ Topitsch 1971. Eine umfassende und anregende Diskussion der Wertproblematik findet sich bei Beck 1974. Wertungen folgen nicht aus Tatsachen Problem: Wahrnehmungsverzerrung Entscheidungen erfordern Werturteile Wert(urteils)freiheits-Postulat Wertfreiheit im Begründungszusammenhang <?page no="74"?> 75 2.3 Entdeckungs-, Begründungs- und Verwertungszusammenhang www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 75 bezieht sich ausschließlich auf den sogenannten Begründungszusammenhang (Reichenbach: context of justification), worunter „die methodologischen Schritte zu verstehen (sind), mit deren Hilfe das Problem untersucht werden soll“ (Friedrichs 1977, 52 f.; vgl. Kapitel 2.2, Buchstaben b bis k). 55 Es besagt weiter, dass die innerhalb des Begründungszusammenhangs notwendigen Entscheidungen nicht auf der Basis subjektiver Wertungen und Präferenzen zustande kommen dürfen, sondern ausschließlich entsprechend den Normen der Methodologie empirischer Forschung sowie unter Rückgriff auf bestätigtes empirisches Wissen zu begründen sind. Das Postulat der Wert(urteils)freiheit lautet demnach: (1) Werturteile sind erfahrungswissenschaftlich nicht begründbar. (2) Im Begründungszusammenhang der Forschung haben subjektive Werturteile keinen Platz; hier müssen sich die Wissenschaftler auf methodologisch begründbare Schlussfolgerungen und intersubjektiv nachprüfbare Aussagen beschränken. Für das Feld des Begründungszusammenhangs empirischer Forschung soll also- - zusammengefasst-- gelten: a) Werturteile (normative Aussagen) können nicht Inhalt erfahrungswissenschaftlicher Aussagen sein. Werturteile sind nicht intersubjektiv nachprüfbar, sie informieren nicht über einen Gegenstandsbereich, sondern über die wertende Person. Bei identischen Sachverhalten können verschiedene Personen zu unterschiedlichen Wertungen gelangen. b) Werturteile können dagegen sehr wohl zum Gegenstand sozialwissenschaftlicher Untersuchungen und erfahrungswissenschaftlicher Aussagen gemacht werden (z. B. Analyse des Ideologiegehalts von Propagandasendungen). c) Vorab zu fällende Werturteile schließlich sind Grundlage jeder wissenschaftlichen Aussage. Wissenschaftstheorie und Methodologie sind Bestandteile der Wertbasis, 56 sind somit explizit normativ: Sie setzen fest, welche Aussagen als zum Bereich der definierten Wissenschaft zugehörig gelten sollen und welche nicht (s. o.: „Abgrenzungskriterium“). Sie setzen z. B. fest, unter welchen Bedingungen eine Aussage als wahr oder zumindest vorläufig bestätigt akzeptiert bzw. wann sie als falsch zurückgewiesen werden soll. Solche immanenten Basisregeln des Forschens sind es gerade, die intersubjektiv überprüfbare wissenschaftliche Entscheidungen ermöglichen (sollen). Sie beruhen auf dem Konsens der Wissenschaftlerinnen und Wissenschaftler einer „Wissenschaftlergemeinde“ (scientific community), sind also nicht in das Belieben der einzelnen Forscherin oder des einzelnen Forschers gestellt (vgl. Albert 1972 u. 55 Die anfangs möglicherweise unplausibel erscheinende Bezeichnung „Begründungszusammenhang“ für die Phase der „eigentlichen Forschung“ wird nunmehr vielleicht plausibler: Es geht (u. a.) um die Geltungsbegründung der auf empirischem Wege gewonnenen wissenschaftlichen Erkenntnisse. 56 Zur Wertbasis einer Wissenschaft gehören weitere Normen: etwa die Verpflichtung, den Bestand an gesichertem Wissen über die Realität zu vermehren, aufklärend zu wirken, die Regeln der Forschungsethik zu beachten. Werturteile nicht Inhalt wissenschaftlicher Aussagen Werturteile können erforscht werden notwendig: methodologische Wertbasis Regeln der Wissenschaftsgemeinde <?page no="75"?> 76 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 76 1973). 57 Die wissenschaftsimmanenten Normen informieren in diesem Fall nicht über die Person des einzelnen Forschers (vgl. a), sondern über die „Wissenschaftlergemeinde“, nämlich über deren Regeln für „wissenschaftliches Vorgehen“. Das Wert(urteils)freiheits-Postulat bedeutet: Innerhalb des Begründungszusammenhangs erfahrungswissenschaftlicher Forschung ist auf andere als wissenschaftsimmanente Wertungen zu verzichten! Ist aber die Wert(urteils)freiheit-- wie vom Kritischen Rationalismus postuliert-- in der praktischen empirischen Forschung überhaupt realisierbar? Abgesehen davon, dass sehr schwer abgrenzbar ist, welche Forschungsentscheidung schon (bzw. noch) zum „Begründungszusammenhang“ gehört (eine Durchsicht der einzelnen Punkte in Kapitel 2.2 dürfte das deutlich machen), und abgesehen davon, dass es praktisch schwierig sein dürfte, für alle (häufig ad hoc im Forschungsprozess zu treffenden) Entscheidungen immer und schnell genug die erforderliche methodologische und/ oder empirische Informationsbasis zu beschaffen, bleibt darüber hinaus prinzipiell umstritten, ob eine Realisierung des Werturteilsfreiheitspostulats- - auch in der präzisierten Formulierung- - überhaupt denkbar ist. Immerhin hat die Art der Präzisierung einer Fragestellung, hat die Wahl einer theoretischen Perspektive, unter der die Untersuchung in Angriff genommen wird, haben Begriffsdefinitionen und Operationalisierungen-- um nur einige Punkte zu nennen-- unbestreitbar Auswirkungen auf die Ergebnisse, und sei es auch nur dadurch, dass bestimmte Realitätsaspekte in den Blick geraten, andere ausgeblendet werden. Ebenso unbestreitbar dürfte sein, dass es schon aus logischen Gründen nicht möglich ist, alle diese Entscheidungen ausschließlich unter Rückgriff auf die methodologischen Regeln und auf empirisch gesicherte Kenntnisse über den Gegenstandsbereich der Untersuchung zu treffen. Zu Ende gedacht, würde dies nämlich voraussetzen, dass bereits vollständiges Wissen über den Untersuchungsgegenstand vorhanden ist-- dann aber wäre die Forschung überflüssig. Praktisch wird also vielfach auch innerhalb des Begründungszusammenhangs des Projekts auf Argumente aus dem Entdeckungs- und dem Verwertungszusammenhang Bezug zu nehmen sein (=-wissenschaftsexterne Wertungen als Basis von Entscheidungen) oder wird die Intuition der Forscherin bzw. des Forschers weiterhelfen müssen (=-subjektive Überzeugungen). Dies spricht jedoch nicht gegen das Wertneutralitätspostulat als orientierende Perspektive erfahrungswissenschaftlicher Forschung. Solange solche Wertbezüge nicht verschleiert oder hinter scheinobjektiven Formulierungen versteckt werden, ist darin für die Intersubjektivität der Ergebnisse kein grundsätzliches Problem zu sehen. Im Gegenteil wird durch die Offenlegung aller Wertbezüge eine wesentliche Vorausset- 57 Methodologische Standards, die zu bestimmten Zeitpunkten allgemein anerkannt sind, müssen jedoch nicht „für alle Zeiten“ festgeschrieben sein (so die Diskussion bei Galtung 1978). Definition: Wert(urteils)freiheits-Postulat Durchführbarkeit des Wert(urteils)freiheits-Postulat Möglichkeit der Werturteilsfreiheit fraglich Wertneutralitätspostulat als orientierende Perspektive Offenlegung aller Wertbezüge <?page no="76"?> 77 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 77 zung für die wechselseitige Kritik innerhalb des Wissenschaftssystems-- eine zentrale Forderung des Kritischen Rationalismus-- geschaffen. 58 Anders als für den Begründungszusammenhang wird im Übrigen von keiner Seite bestritten, dass in den Bereichen des Entdeckungs- und des Verwertungszusammenhangs der Forschung notwendigerweise eine Fülle von (nicht wissenschaftsimmanenten) Werturteilen zu fällen ist. 2.4 Forschungsplanung und Forschungsdesign An mehreren Stellen wurde bereits darauf hingewiesen, dass die Methodenlehre der empirischen Sozialforschung kein Handbuch mit Rezepten bereitstellen kann, die schematisch auf konkrete Forschungsprojekte anzuwenden wären. Vielmehr muss in der Regel-- mit Ausnahme weniger, häufig wiederholter Routineerhebungen-- für jedes Vorhaben ein zur jeweiligen Thematik „maßgeschneiderter“ Forschungsplan entworfen werden, müssen die jeweiligen Forschungsfragen operationalisiert, müssen problemadäquate Erhebungsinstrumente entwickelt und getestet werden. Dabei können die verschiedenen Verfahren und Techniken aus dem Baukasten der Methodenlehre in vielfältiger Weise miteinander kombiniert werden, so wie sie bei gegebenen Rahmenbedingungen (Zeitrestriktionen, Ressourcen, Stand der Vorkenntnisse, Zugänglichkeit und Kontrolle des Untersuchungsfeldes, Art der verfügbaren Informationsquellen u. a.) für den jeweiligen Untersuchungszweck am nützlichsten zu sein scheinen. Solche Entwurfsarbeit ist vergleichbar der Tätigkeit eines Architekten, der ein Gebäude zu planen hat, das in bestmöglicher Weise der vorgesehenen künftigen Nutzung gerecht werden soll, für dessen Realisierung der Architekt jedoch den vorgegebenen Möglichkeitsrahmen (verfügbare Finanzen, Art und Lage des Grundstücks, örtliche baurechtliche Auflagen usw.) nicht durchbrechen kann. Trotz aller „Individualität“ des jeweiligen konkreten Forschungsvorhabens gibt es dennoch für bestimmte Gruppen von Fragestellungen durchaus einige spezifische Designtypen mit jeweils spezifischer Forschungslogik- - wie ja auch der Architekt unterschiedliche Gebäudetypen kennt: vom Einfamilienreihenhaus über den freistehenden Bungalow bis zum Wohnbzw. Bürohochhaus oder zur Fabrikhalle. Aus dem Spektrum der existierenden Designtypen sollen hier vier besonders häufig vorkommende herausgegriffen und etwas näher dargestellt werden: - die theorie- oder hypothesentestende Untersuchung, - das Experiment sowie quasi-experimentelle Ansätze, - das Standardmodell der Programm-Evaluation sowie - das deskriptive Surveymodell (Querschnittserhebung nicht-experimenteller Daten). 58 Für Popper ist die intersubjektive Nachprüfbarkeit ein wesentliches Instrument für die Chance auf Erkenntnisfortschritt. Er fordert ausdrücklich eine Einstellung, „die bereit ist, auf kritische Argumente zu hören und von der Erfahrung zu lernen- …, eine Einstellung, die die Hoffnung nicht leichtfertig aufgibt, dass man durch Argumente und durch sorgfältiges Beobachten in vielen wichtigen Punkten zu einer Art Übereinstimmung kommen kann“ (Popper 1973a, II, 276). Entdeckungs- und Verwertungszusammenhang mit-Werturteilen maßgeschneiderter Forschungsplan notwendig Designtypen <?page no="77"?> 78 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 78 Zum besseren Vergleich der ihnen zugrunde liegenden Verfahrenslogik ziehen wir das von Hempel und Oppenheim vorgeschlagene Schema deduktiv-nomologischer wissenschaftlicher Erklärung (H-O-Schema) heran. Es wird im folgenden Abschnitt in seinen Grundzügen erläutert. 2.4.1 Das Modell wissenschaftlicher Erklärung von Hempel und Oppenheim Der Ausgangspunkt: Es ist etwas- - möglicherweise Unerwartetes- - passiert, das erklärt werden soll. In der Sprache der Methodologen: Ein aufgetretenes singuläres Ereignis soll logisch haltbar mit empirischen Argumenten erklärt werden. Nochmals anders ausgedrückt: Für einen „zu erklärenden Sachverhalt“ (Explanandum) wird ein „erklärendes Argument“ (Explanans) gesucht. Wird-- wie im analytisch-nomologischen Wissenschaftsverständnis-- Kausalität als Wirkungsprinzip in der empirischen Realität unterstellt (vgl. Abschnitt 1.2.2), dann kann der „zu erklärende Sachverhalt“ nur als Effekt einer wirksam gewordenen Ursache (oder mehrerer Ursachen) verstanden werden. Die „Erklärung“ bestünde also in der Angabe der Ursache(n). Nehmen wir als Beispiel für einen „erklärungsbedürftigen“ Sachverhalt: „Die Studiendauer der Studierenden an deutschen Universitäten ist lang“ (nach Auffassung mancher Hochschulpolitiker: zu lang). Als Erklärung dafür wird von manchen angeboten (z. B. vom SPIEGEL): „Die Lehre an deutschen Universitäten ist schlecht“ (1993, Nr. 16). Als alltägliche Erklärung mag das bereits ausreichend und einleuchtend sein. Als logisches Argument allerdings ist diese „Erklärung“ unvollständig. Es fehlt noch die Angabe eines Ursache-Wirkungs-Prinzips. Dieses könnte in unserem Beispiel etwa lauten: „Wenn die Lehre an der Hochschule schlecht ist, dann ist die bis zum erfolgreichen Studienabschluss erforderliche Studiendauer lang.“ Explanans: („das Erklärende“) (1) Wenn die Lehre an der Hochschule schlecht ist, dann ist die bis zum erfolgreichen Studienabschluss erforderliche Studiendauer lang. (Ursache- Wirkungs-Prinzip) (2) Die Lehre an deutschen Universitäten ist schlecht. (Vorliegende Ursache) 59 Explanandum: („das zu Erklärende“) (3) Die Studiendauer an deutschen Universitäten ist lang. (Eingetretene Wirkung) 59 Die in Aussage (2) beschriebenen Situationskomponenten, also die in der Argumentation als „Ursache“ genannten Sachverhalte, werden im Erklärungsschema auch als „Anfangsbedingungen“ oder „Randbedingungen“ bezeichnet. Erklärung: erkennen der Ursache BEISPIEL <?page no="78"?> 79 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 79 Damit aus dieser „Alltagserklärung“ eine wissenschaftliche Erklärung wird, müssen allerdings einige ergänzende Bedingungen erfüllt sein: Zum einen muss es sich bei (1) um ein „empirisches Gesetz“ handeln, des Weiteren müssen die in den Aussagen verwendeten Begriffe präzise definiert und operationalisiert sein, 60 und selbstverständlich müssen die Aussagen (2) und (3) empirisch „wahr“ sein. Formaler ausgedrückt lauten diese „Adäquatheitsbedingungen für Erklärungen singulärer Ereignisse“ nach Opp (1976, 128 f. und 131 ff.): 1) Das Explanandum muss aus dem Explanans korrekt gefolgert worden sein. Dies bedeutet: a) Die Anfangsbedingungen (siehe Fußnote 59) stellen raum-zeitlich lokalisierte Elemente derjenigen Objekte dar, die die Wenn-Komponente bezeichnet. b) Die Prädikate der Dann-Komponente und des Explanandums müssen entweder identisch sein, oder das Prädikat der Dann-Komponente muss in dem Prädikat des Explanandums enthalten sein. 2) Das Explanans muss mindestens ein Gesetz enthalten, das für die Ableitung des Explanandums erforderlich ist, sowie singuläre Sätze, die die Randbedingungen beschreiben. 3) Das Explanans muss empirischen Gehalt haben, d. h. es muss empirisch überprüfbar sein. 4) Die Sätze des Explanans müssen wahr sein (oder zumindest: sie müssen sich sehr gut bewährt haben). Ganz ähnlich ließe sich eine Beobachtung wie die folgende erklären: „Die Studiendauer an deutschen Universitäten ist heute länger als sie vor 20 Jahren war.“ Zutreffen müssten ein Ursache-Wirkungs-Prinzip wie „Je schlechter die Lehre ist, desto länger ist die bis zum Studienabschluss benötigte Zeit“ sowie die empirische Feststellung der „Randbedingung“: „Die Lehre an deutschen Universitäten ist heute schlechter als vor 20 Jahren“. Allgemein lautet das deduktiv-nomologische Erklärungskonzept von Hempel und Oppenheim (1948) (DN-Schema oder H-O-Schema): Explanans: (1) Es gilt (mindestens) ein nomologisches Gesetz z. B.: („Wenn A und B, dann C“). (2) Die in der Wenn-Komponente genannten Randbedingungen sind erfüllt (z. B.: „A und B liegen vor“). Explanandum: (3) Singulärer Satz, der den zu erklärenden Sachverhalt beschreibt (z. B. „C liegt vor“). 60 Das heißt: Die „Qualität der Lehre“ sowie die „Studiendauer“ müssen gültig und zuverlässig gemessen werden können; und es ist anzugeben, ab welchem Messwert die Lehre „schlecht“, ab welchem Messwert die Studiendauer „lang“ ist. deduktivnomologisches Schema <?page no="79"?> 80 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 80 Gegeben ist das zu erklärende „singuläre Ereignis“(3), gesucht ist das „Explanans“ (1 und 2). Bei dieser Art von Erklärung muss (3) deduktiv-logisch aus (1) und (2) folgen, wobei (2) aus der Wenn-Komponente und (3) aus der Dann-Komponente des nomologischen Gesetzes abgeleitet wird. 61 Äußerlich ähnlich ist die Struktur bei den Argumentations-Typen „Prognose“ und „Technologische Aussage“. Bei der „Prognose“ ist das Explanandum aus Gesetz(en) und Randbedingung(en) „vorherzusagen“. Bei „Technologischen Aussagen“ ist das Explanandum das in der Zukunft zu erreichende Ziel; gesucht sind geeignete Gesetze, die in der Dann-Komponente das Explanandum enthalten und die in der Wenn-Komponente Sachverhalte benennen, welche gezielt so veränderbar sind, dass dadurch das gewünschte Ziel erreicht wird. 2.4.2 Das Design hypothesen- und theorietestender Forschung Vielen erscheint der Theoriebzw. Hypothesentest als der Prototyp empirischer Forschung: „Sozialwissenschaftliche Datenerhebung ist kein Selbstzweck. Befragungen, Beobachtungen und andere Erhebungsmethoden dienen in der Regel einem allgemeineren Zweck: der Überprüfung der Geltung von Theorien“ (Esser 1984, I, 3). Methodologische Texte sind im Allgemeinen (explizit oder zumindest implizit) vor diesem Hintergrund geschrieben, methodologische Argumentationen und Dispute häufig nur vor diesem Hintergrund zu verstehen. Auch Forschungsberichte über abgeschlossene Projekte berufen sich häufig auf die Logik des hypothesentestenden Vorgehens. 62 Die Fragestellung dieses Typs von Forschung ist: Kann eine Hypothese oder eine Theorie empirische Geltung beanspruchen? Das mit der Beantwortung dieser Frage verfolgte Ziel könnte sein: - eine bei der Analyse empirischer Befunde einer früheren Untersuchung ad hoc formulierte Dateninterpretation auf ihre allgemeinere Geltung zu testen oder - zwischen „konkurrierenden“ Hypothesen eine empirische Entscheidung herbeizuführen oder - Theorien, die sich bisher zwar schon empirisch „bewährt“ haben, einem härteren Test zu unterwerfen, um sie gegebenenfalls weiterzuentwickeln oder zu präzisieren. Die Logik des Hypothesentests ist anhand des H-O-Schemas der Erklärung (Abschnitt 2.4.1) leicht nachzuvollziehen. Vorab gegeben ist die Aussage (1)-- die zu prüfende Hypothese. Gesucht sind Situationen, in denen die in der Wenn-Komponente genannten Aspekte als Randbedingungen (2) empirisch vorliegen. In diesen Situati- 61 Analog ist der Argumentationszusammenhang bei einer Je-desto-Beziehung. Das „Gesetz“ (1) könnte lauten: „Je höher X, desto höher Y“. Empirisch erfüllt sein müsste die Randbedingung (2): „X ist gestiegen“. Erklärt wäre damit das Explanandum (3): „Y ist gestiegen“. 62 Dies geschieht allerdings häufiger als gerechtfertigt. Nicht selten werden Interpretationen, die erst bei der Datenanalyse ad hoc formuliert wurden, nachträglich zu forschungsleitenden Hypothesen umgedeutet. Struktur der Prognose Technologische Aussagen Ziel des Hypothesentests Logik des Hypothesentests <?page no="80"?> 81 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 81 onen wird „beobachtet“, 63 ob auch die aus der Dann-Komponente ableitbaren Sachverhalte (3) empirisch auftreten. Diese „Beobachtung“ kann in „natürlichen Situationen“ geschehen (also in der sozialen Realität, wie sie unabhängig von der Forschung existiert) oder in „künstlich geschaffenen Situationen“, die speziell für den Forschungszweck herbeigeführt werden (Experimentalforschung, vgl. Abschnitt 2.4.3). Das Design einer hypothesentestenden Untersuchung ist so anzulegen, dass ein gezielter und kontrollierter Vergleich der empirisch feststellbaren Sachverhalte mit den aus der Hypothese ableitbaren Behauptungen über die empirische Realität möglich ist. Die Überlegungen, die in diesem Zusammenhang anzustellen sind, beziehen sich also noch nicht auf die Wahl bestimmter Instrumente oder Methoden. Mit der Bezeichnung „Design einer hypothesentestenden Untersuchung“ ist vielmehr einerseits eine spezifische Verfahrenslogik (s. o.), andererseits ein spezifischer Argumentationstyp angesprochen. Der Argumentationstyp besteht darin, dass zunächst aus der zu testenden Theorie/ Hypothese [(1) im H-O-Schema] deduktiv-logisch Aussagenpaare [(2) und (3) im H-O-Schema] derart abgeleitet werden, dass sie in der Realität beobachtbare Sachverhalte bezeichnen. Im Folgenden werden sie als hypothesenbzw. theorie-implizierte Basissätze (kürzer: als theoretische Basissätze) bezeichnet. 64 Anschließend werden diese Deduktionen mit Aussagen über reale (durch empirische Beobachtung festgestellte) Situationskonstellationen verglichen. Stimmen die aus der Theorie/ Hypothese abgeleiteten Sätze mit den Beobachtungsaussagen (=-den empirischen Basissätzen) überein, gilt die zu prüfende Theorie/ Hypothese als empirisch bestätigt, andernfalls als empirisch widerlegt, zumindest als in ihrem empirischen Geltungsanspruch „erschüttert“. Wissenschaftstheoretisch sind die aus einer Hypothese ableitbaren Realitätsbehauptungen-- also die Gesamtheit der „theorie-implizierten“ Aussagenpaare (2) und (3)-- potenzielle Konfirmatoren (=-„Bestätiger“; falls sie empirisch zutreffen sollten) bzw. potenzielle Falsifikatoren der Hypothese (=- „Widerleger“; falls sie empirisch nicht zutreffen sollten). Natürlich können in einer Untersuchung nicht alle denkbaren (deduktiv ableitbaren) Tatsachenbehauptungen empirisch getestet werden, sondern immer nur eine (gezielte) Auswahl von ihnen. Dabei sollen solche Hypothesen/ Theorien ausgewählt werden, die einen möglichst „harten“ Test bedeuten. Hypothesenbzw. theorietestende Forschung besteht (nach dem Idealbild der kritisch-rationalen Wissenschaftstheorie) also darin, zunächst solche Tatsachenbehauptungen zu deduzieren, von denen man annehmen kann, dass sie (möglicherweise) empirisch nicht zutreffen. 65 Danach werden in der Realität entweder Situationen geschaffen oder natürliche Situationen aufgesucht, in denen die aus der Wenn-Komponente der Hypothese abge- 63 „Beobachten“ ist hier wieder im weitesten Sinne zu verstehen. (vgl. Kapitel 1.2.3). 64 Die Bezeichnung „theoretischer Basissatz“ kann man wie folgt verstehen: Die allgemeine Geltung beanspruchende, also abstrakte Theorie/ Hypothese wird hier konkret spezifiziert und damit theoretisch auf eine konkrete Basis bezogen, die empirisch untersucht werden kann. 65 Vielleicht ist es nützlich, wenn Sie jetzt noch einmal das Beispiel in Kapitel 1.3.6 lesen. Ziel des hypothesentestenden Designs Argumentationstyp: deduktiver Schluss theoretische Basissätze Vergleich mit Beobachtungen empirische Basissätze Konfirmatoren / Falsifikatoren „harter“ Test <?page no="81"?> 82 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 82 leiteten Phänomene/ Sachverhalte realisiert sind. Zugleich wird mit empirischen Mitteln festgestellt, ob in diesen Situationen auch die aus der Dann-Komponente abgeleiteten Phänomene/ Sachverhalte eintreten bzw. vorliegen. Die Beschreibungen der Ergebnisse dieser empirischen Feststellungen sind die empirischen Basissätze der Forschung. Der Vergleich dieser empirischen mit den theoretischen Basissätzen bildet dann die Grundlage der Entscheidung über die Richtigkeit (=-Bestätigung) oder Falschheit (=-Falsifikation) der zu prüfenden Hypothese bzw. Theorie. Die Abbildung 2.1 fasst das geschilderte Argumentationsmodell theoriebzw. hypothesentestender Forschung zusammen. Dieses schlüssig scheinende Verfahren sieht sich allerdings mit zwei gravierenden methodologischen Problemen konfrontiert: einerseits dem Korrespondenzproblem Falsifikation / Bestätigung methodologische Probleme des Hypothesentests Logische Denkschritte Empirische Arbeitsschritte und Hilfstheorien Hypothesen/ Theorie Theoretische Begri e, ggf. Aussagen über Zusammenhänge Indikatoren (de-nitorische, korrelative, schlussfolgernde) logische (analytische) Ableitung Operationalisierung Messinstrumente ggf. härtere Tests Erhebung empirischer Daten ggf. Reformulierung der Hypothesen bzw. der Theorie Auswertung Singuläre Aussagen (theoretische Basissätze) Beobachtungsaussagen (empirische Basissätze) Vergleich Falsi-kation der Hypothesen Korrespondenzregeln oder hypothesen Mess-, Instrumenten- und Beobachtungstheorien Bestätigung der Hypothesen          Quelle: Eigene Darstellung Abbildung 2.1: Designtyp Theorie- und Hypothesentest. <?page no="82"?> 83 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 83 (das wird in Kapitel 4.3-- Operationalisierung-- noch zu vertiefen sein), andererseits dem Basissatz-Dilemma. Das beim Vergleich der theorie-implizierten mit empirischen Basissätzen auftretende Basissatz-Dilemma wurde bereits in Abschnitt 1.3.3 skizziert. Es besagt in der jetzt vorgenommenen Präzisierung der Vergleichssituation zwischen „Theorie“ und „Realität“, dass die empirisch gewonnene Beobachtungsaussage (also der empirische Basissatz) „wahr“ sein muss, damit aus ihrem Vergleich mit dem theoretisch abgeleiteten Basissatz, dem potenziellen Falsifikator oder Konfirmator, eine Schlussfolgerung auf die „Wahrheit“ der Hypothese begründet werden kann. Diese Wahrheit des empirischen Basissatzes lässt sich aber nicht beweisen. Das Korrespondenzproblem setzt eine Stufe früher an. Wie schon in Kapitel 1.3 betont, sollen sich die von der analytisch-nomologischen Wissenschaft angestrebten Hypothesen/ Theorien durch möglichst hohen Informationsgehalt auszeichnen. Dazu sollen sie nicht nur im Idealfall eine raum- und zeit-unabhängige Geltung beanspruchen, sondern auch in Begriffen formuliert sein, die zeitüberdauernd und ortsübergreifend gelten können, also von den Besonderheiten singulärer Situationen bewusst abstrahieren. Außerdem sollen sich die Hypothesen/ Theorien nicht auf Aussagen über unmittelbar beobachtbare Phänomene beschränken, sondern auch Vermutungen über nicht direkt erfahrbare Eigenschaften und Phänomene, wie zum Beispiel „Vertrauen“ oder „Erreichbarkeit“, über Dispositionen wie „Autoritarismus“ oder „Umzugsbereitschaft“ bzw. über theoretische Konstrukte wie „soziale Schicht“ oder „Rollenkonflikt“ zum Ausdruck bringen. Mit anderen Worten: Die von der Erfahrungswissenschaft angestrebten Hypothesen sind in „theoretischer Sprache“ formuliert. Die Basissätze dagegen (und zwar sowohl die deduktiv aus den Hypothesen abzuleitenden wie die aufgrund von Datenerhebungen zu formulierenden) greifen auf „Beobachtungsbegriffe“ zurück, beziehen sich also auf Sachverhalte, die unmittelbar wahrnehmbar oder unter Benutzung geeigneter Instrumente erfassbar sind. Zwischen diesen beiden Aussage-Ebenen klafft eine semantische Lücke, die mit Hilfe geeigneter Verknüpfungsregeln zwischen theoretischem Begriff und Beobachtungsbegriffen geschlossen werden muss: Dem theoretisch bezeichneten Phänomen müssen direkt erfahrbare Sachverhalte zugeordnet werden, die als beobachtbare Hinweise (Indikatoren) auf das in seiner Allgemeinheit oder Abstraktheit nicht unmittelbar beobachtbare Phänomen dienen können. Diese Verknüpfungsregeln stellen die „Korrespondenz“ (=-die Entsprechung) von theoretischer Ebene und Beobachtungsebene her und heißen daher Korrespondenzregeln. Das Problem besteht nun darin, dass nicht immer unbezweifelbare Indikatoren für das theoretisch gemeinte Phänomen benannt und begründet werden können. Während dies bei einem Begriff wie „Erreichbarkeit“ noch auf intuitiver Basis möglich ist, fällt es bei einem Konstrukt wie Rollenkonflikt schon viel schwerer. Bei einer hypothetischen Aussage über den Zusammenhang zwischen der Erreichbarkeit der Universität von der studentischen Wohnung aus und der Häufigkeit der Anwesenheit der/ des Studierenden in der Universität könnten wir z. B. die Entfernung zwischen Wohnung und Hochschule als Indikator nennen. Eine Basissatz-Dilemma Korrespondenzproblem theoretische Sprache / Beobachtungssprache Korrespondenzregel BEISPIEL <?page no="83"?> 84 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 84 mögliche Korrespondenzregel wäre dann: „Je kürzer der Weg, desto besser die Erreichbarkeit.“ Wir könnten aber auch die Anzahl der Linien des öffentlichen Nahverkehrs und die Dichte der Zug-/ Busfolge als Indikatoren nennen. Korrespondenzregeln: „Je mehr Linien des öffentlichen Nahverkehrs die Universität anfahren, desto besser die Erreichbarkeit.“ Und: „Je dichter die Zugbzw. Busfolge, desto besser die Erreichbarkeit.“ Bei näherem Hinsehen erweist sich die „Korrespondenz“ von Begriff und Indikatoren aber selbst hier als problematisch: Die Zugfolge ist nicht zu jeder Uhrzeit gleich dicht; wir hätten also je nach Tageszeit unterschiedliche „Erreichbarkeiten“. Die Linien des öffentlichen Nahverkehrs nützen dem Studierenden nichts, wenn in der Nähe der eigenen Wohnung keine Haltestelle ist. Die Universität wäre dann zwar „im Prinzip“ gut erreichbar, für den betreffenden Studierenden jedoch mit öffentlichen Nahverkehrsmitteln überhaupt nicht. Wir müssten für diese Hypothese die Erreichbarkeit mit Indikatoren operationalisieren, die sich auf die individuelle Situation der/ des jeweiligen Studierenden beziehen. Für eine andere Hypothese- - etwa über einen Zusammenhang zwischen der Erreichbarkeit der Universität und ihrer Bedeutung für die Wirtschaft in der Region-- könnten wir allerdings mit solchen Indikatoren nichts anfangen, sondern würden ganz andere, nämlich von individuellen Situationen abstrahierende Indikatoren benötigen. Allgemeiner ausgedrückt: Eine hypothesenbzw. theorie-unabhängige (sozusagen „objektive“) Operationalisierung eines theoretischen Begriffs ist nicht möglich; beides hängt unauflösbar miteinander zusammen. Selbst wenn das eigentliche Basissatzproblem in einem bestimmten Projekt als vernachlässigbar angesehen werden könnte, 66 wäre aus der Übereinstimmung oder Nicht-Übereinstimmung zwischen theoretischen Tatsachenbehauptungen und empirischen Beobachtungsaussagen kein von der Operationalisierung ablösbarer Schluss auf die Bestätigung oder Falsifizierung der überprüften Hypothese möglich, sondern lediglich auf die Bestätigung oder Falsifizierung der Hypothese in Verbindung mit den in diesem Projekt verwendeten Korrespondenzregeln. 67 Eine eigentlich falsche Hypothese könnte aufgrund der empirischen Daten bestätigt scheinen, falls die Korrespondenzregeln falsch sind. In gleicher Weise könnte eine eigentlich richtige Hypothese fälschlicherweise empirisch widerlegt erscheinen. Das Problem ist prinzipiell unlösbar. Der einzige Rat kann nur lauten, die Arbeitsschritte der Operationalisierung (vgl. Kapitel 4) sehr ernst zu nehmen und Korrespondenzregeln nicht lediglich auf Plausibilitätsannahmen, sondern auf empirisch bereits gut bestätigte Hypothesen/ Theorien zu stützen-- und zwar auf solche Hypo- 66 Die Messung der gewählten Indikatoren sei mit bewährten und vielfach getesteten Instrumenten geschehen, und die Sorgfalt bei der Datenerhebung und -aufbereitung sei sehr genau kontrolliert worden. 67 Das Korrespondenzproblem (ebenso wie das Basissatz-Dilemma) wird ausführlich in dem bereits genannten Text von H. Esser (1984, I) behandelt. keine theorieunabhängige Operationalisierung Bestätigung/ Falsifikation bei geltenden Korrespondenzregeln bewährte Korrespondenzregeln nutzen <?page no="84"?> 85 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 85 thesen/ Theorien, die nicht in der zu prüfenden Hypothese/ Theorie enthalten sind; andernfalls besteht die Gefahr der Tautologisierung der Hypothesenprüfung. 2.4.3 Experiment und Quasi-Experimente Wird der im vorigen Abschnitt dargestellte „Theoriebzw. Hypothesentest“ von manchen Autoren als der Zweck empirischen Forschens überhaupt eingeschätzt, so gilt das Experiment als das Design der Wahl bei jeder Form von Kausalanalysen, d. h. bei Fragestellungen des Typs: Wie und in welcher Stärke wirkt sich X (als Ursache) auf Y (als Folge) aus? Im Lexikon zur Soziologie findet sich folgende Definition: Ein Experiment ist eine „planmäßige Beobachtung bestimmter Sachverhalte und ihrer Veränderungen unter vom Forscher kontrollierten und variierten Bedingungen.“ Weiter heißt es dort: „[Es] unterscheidet sich u. a. dadurch von anderen Beobachtungsformen, dass die beobachteten Vorgänge durch den Forscher hervorgerufen, hergestellt werden“ (Fuchs-Heinritz u. a., 1994, 190). Besonders in den Naturwissenschaften wird das kontrollierte Experimentieren als eine der zentralen Strategien der Erkenntnisgewinnung, des „Entdeckens“ neuer Zusammenhänge und Gesetzmäßigkeiten in der Natur eingesetzt. Doch auch in den Sozialwissenschaften hat das Experiment in den letzten Jahren an Bedeutung gewonnen, wenn auch die methodisch „reine“ Form des Einsatzes von Experimenten oftmals an ethische Grenzen stößt. 68 In den Kategorien des H-O-Erklärungsschemas (vgl. Abschnitt 2.4.1) lässt sich die experimentelle Fragestellung wie folgt konkretisieren: Der Forscher führt in einer kontrollierten Untersuchungssituation, die insbesondere von allen externen Einflüssen abgeschirmt ist, eine „Maßnahme“ durch-- d. h. er realisiert bestimmte „Randbedingungen“: Punkt (2) des H-O-Schemas-- und setzt seine Untersuchungsobjekte dieser „Maßnahme“ (engl.: treatment) aus. Danach beobachtet er, welchen Effekt die „Maßnahme“ auf seine Versuchsobjekte hat, d. h. welche „Wirkungen“ eintreten: Punkt (3) des H-O-Schemas. Bei mehrfacher Wiederholung des Experiments unter jeweils gleichen Bedingungen kann aus den Resultaten der Versuchsreihe das in dieser Konstellation zur Geltung kommende Ursache-Wirkungs-Prinzip-- Punkt (1) im H-O-Schema-- abgelesen werden. 68 Eine aktuelle Einführung in Experimente in den Sozialwissenschaften bietet Kubbe (2016) mit Blick auf Anwendungen in der Politikwissenschaft. Gute, kurz gefasste Überblicke über die Experimentalmethode geben auch Eifler (2014), Jackson/ Cox (2013) und Draper/ Pukelsheim (1996); ausführlich Zimmermann 1972; aus qualitativer Perspektive Kleining 1986. Experiment als Idealdesign des Theorietests Experiment im HO-Schema <?page no="85"?> 86 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 86 Wird in einer Versuchsreihe das „treatment“ systematisch variiert, während alle sonstigen Bedingungen konstant bleiben, 69 kann aus dem Zusammenhang von variierendem „treatment“ und dem in Abhängigkeit davon variierenden Effekt das Ursache-Wirkung-Prinzip (das empirische „Gesetz“) differenziert ausformuliert werden. Ging es bei der Konzipierung hypothesentestender Forschung in erster Linie um ein methodologisch abgesichertes Argumentationsschema, so konzentrieren sich die methodologischen Überlegungen zum Design des Experiments 70 um die Gestaltung und Kontrolle der Untersuchungssituation. Im Mittelpunkt des klassischen Experiments steht das Bemühen, für die Datenerhebung Bedingungen zu schaffen, in denen nur das Ursache-Wirkungs-Prinzip zwischen Maßnahme und Effekt zur Geltung kommen kann. Zum anderen ist Vorsorge zu treffen, dass die Art und die Stärke der vermuteten Kausalwirkungen eindeutig festgestellt und in gültiger Weise-- nach Möglichkeit sogar quantitativ-- gemessen werden können. Die erste Anforderung kann dadurch erfüllt werden, dass-- wie bereits angesprochen-- die als (mögliche) Ursache angenommene Einflussgröße (s. o.: „Maßnahme“ oder „treatment“; in der psychologischen Experimentalforschung häufig auch „Stimulus“ genannt) vom Forscher kontrolliert in die Untersuchungssituation eingeführt wird und dass alle sonstigen, im Prinzip denkbaren Einflussgrößen weitestgehend abgeschirmt oder in anderer Weise (z. B. durch „Randomisierung“, s. u.) unwirksam gemacht werden. Die zweite Anforderung ist dann erfüllt, wenn parallel zur Experimentalsituation eine „geeignete“ Vergleichssituation existiert, in der die (angenommene) Ursache nicht wirkt, die jedoch in allen anderen Aspekten mit der Experimentalsituation identisch ist. Im Falle sozialwissenschaftlicher Experimente mit Menschen als Untersuchungsobjekten (in der Psychologie meist Versuchspersonen- - abgekürzt: Vpn- - genannt) zeichnet sich das Design eines „echten“ Experiments dadurch aus, dass es mindestens die folgenden Merkmale aufweist: - Es existiert eine Experimentalgruppe G 1 , die dem „treatment“ bzw. dem experimentellen „Stimulus“, also der auf ihre Auswirkungen zu untersuchenden Maßnahme, ausgesetzt wird. - Es existiert eine in allen wesentlichen Merkmalen äquivalente Kontrollgruppe G 2 , die dem experimentellen Stimulus nicht ausgesetzt wird, die also vom „treatment“ verschont bleibt. - In beiden Gruppen werden vor dem Zeitpunkt des „treatments“ und ausreichende Zeit danach die Ausprägungen der abhängigen Variablen (also der Merkmale, bei denen man Auswirkungen durch das „treatment“ erwartet) gemessen. 69 Häufig werden Sie für diese Bedingung die Bezeichnung „ceteris paribus“ (abgekürzt: c.p.) finden. 70 Statt Experimentaldesign verwendet man häufig auch die Bezeichnung „Versuchsanordnung“. Anforderungen an das Experiment Kontrolle der Untersuchungssituation Experimentalsituation/ Vergleichssituation Merkmale des „echten“ Experiments Experimentalgruppe Kontrollgruppe Vorher- nachher-Messung <?page no="86"?> 87 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 87 - Stimmen vor dem „treatment“ in der Experimental- und in der Kontrollgruppe die Verteilungen der abhängigen Variablen überein (was bei äquivalenten Vergleichsgruppen der Fall sein sollte) und sind nach dem „treatment“ Unterschiede zwischen den Gruppen feststellbar, dann werden diese Unterschiede als Effekte interpretiert (d. h. als Auswirkungen der experimentellen Stimuli). Als Prototyp des sozialwissenschaftlichen Experiments ist das Labor-Experiment anzusehen. Hierfür gilt, dass- - im günstigsten Fall- - die Auswirkungen möglichst aller Randbedingungen mit Ausnahme des experimentellen Stimulus bekannt sein sollten, so dass die Äquivalenz von Versuchs- und Kontrollgruppe auf der Basis empirisch bestätigter Kenntnisse herstellbar ist. Die Zusammensetzung der Gruppen kann in einem solchen Fall gezielt vorgenommen werden, die möglichen Einflussgrößen sind gezielt kontrollierbar. Diese anspruchsvolle Voraussetzung- - dass man schon hinreichende empirisch bestätigte Kenntnisse hat, um vollständig kontrollierte Experimente durchzuführen- - ist allerdings normalerweise nicht gegeben. Daher machen sich auch sogenannte „echte“ sozialwissenschaftliche Experimente den Vorteil des kontrollierten Zufallsprinzips zunutze, 71 der darin besteht, auch (noch) unbekannte Merkmale und Faktoren mit angebbarer Wahrscheinlichkeit in einer nicht einseitig verzerrenden Weise zu repräsentieren: Die Versuchspersonen werden „zufällig“ (etwa durch Auslosen) auf Experimental- und Kontrollgruppe verteilt. Dieses Vorgehen wird als „Randomisierung“ bezeichnet. Diese zufällige Zuordnung darf nicht mit einer Zufallsauswahl der Experimentalteilnehmer verwechselt werden-- in aller Regel wird man auf Freiwillige angewiesen sein (Selbstselektion statt Zufallsauswahl). Das Prinzip der Randomisierung setzt eine Stufe tiefer ein: Sobald eine genügende Anzahl von Versuchspersonen gefunden ist, werden diese zunächst hinsichtlich derjenigen Merkmale, die für den Ausgang des Experiments als bedeutsam gelten- - vielleicht Alter, Geschlecht, Bildung- -, „geschichtet“, also sozusagen vorgruppiert. Danach entscheidet ein Zufallsverfahren, welche Personen aus jeder Schicht der Experimentalgruppe und welche der Kontrollgruppe zugewiesen werden. Auf diese Weise erreicht man zweierlei: zum einen die Bildung unmittelbar äquivalenter Experimental- und Kontrollgruppen hinsichtlich der Schichtungsmerkmale, zum anderen durch das zufällige Zuweisen- - das sogenannte Randomisieren-- die Ausschaltung der Gefahr systematischer Ergebnisverzerrungen durch Faktoren, die dem Forscher vorab nicht bekannt sind. Dieses Zweigruppen-Design (G 1 und G 2 ) kann noch um zwei weitere Gruppen (eine Experimental- und eine Kontrollgruppe, G 3 und G 4 ) erweitert werden, in denen man auf den Vorgang des Messens vor dem eigentlichen „treatment“ verzichtet. Dadurch wird kontrolliert, ob nicht allein schon durch die Messung vor dem „treatment“ Veränderungen in Gang gesetzt wurden (Versuchskaninchen-Effekt). Für Untersuchungsgegenstände, bei denen man in verschiedenen Bevölkerungsschichten 71 Auf das Prinzip des „kontrollierten Zufalls“ wird im Detail im Kapitel 6- - Auswahlverfahren-- eingegangen. Interpretation von-Effekten Prototyp: Laborexperiment Randomisierung Randomisierung ≠ Zufallsauswahl der Versuchspersonen Effekt des Messens kontrollieren <?page no="87"?> 88 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 88 jeweils unterschiedliche Auswirkungen der gleichen Maßnahmen für möglich hält (z. B. alte Leute gegenüber Jugendlichen, Frauen gegenüber Männern, Familien mit Kleinkindern gegenüber alten Ehepaaren usw.), kann außerdem das Design auf eine größere Zahl von Experimental- und zugeordneten Kontrollgruppen ausgeweitet werden (für jede relevante Bevölkerungsschicht ein komplettes Experimentaldesign). Die folgende Übersicht zeigt einige der wichtigsten Experimental-Designs: Geschildert wurde bisher das Design „echter Experimente“. 72 Wie leicht vorstellbar, sind die dafür genannten Bedingungen allenfalls im „Labor“ herstellbar. Laborexperimente haben jedoch den Nachteil, im Allgemeinen ausgesprochen „realitätsfern“ zu sein. In ihnen wird künstlich eine Situation hergestellt, in der nur ein einziges Merkmal (der experimentelle Stimulus) in kontrollierter Weise wirksam wird und alle anderen möglichen Einflussgrößen „ausgeblendet“ werden (engl.: screening). Dies widerspricht fast allen realen sozialen Situationen, die sich ja gerade dadurch auszeichnen, dass praktisch „alles mit allem“ zusammenhängt. Ideal geeignet sind solche Labor-Untersuchungssituationen für Fragestellungen, die den isolierten Einfluss einer einzigen Variablen für den idealtypischen Fall nachweisen wollen, dass „alle übrigen Bedingungen gleich bleiben“ (sogenannte ceteris-paribus-Klausel), selbst wenn in der Realität dieser Fall nie eintritt. Dies ist etwa für theoretische Argumentationen sowie für den Test und die Konkretisierung von Hypothesen und Theorien von unschätzbarem Vorteil (vgl. das kurze Beispiel in Kapitel 1.3.5 sowie die ausführliche Darstellung einer sozialwissenschaftlichen Labor-Experimentalreihe in Hunt 1991, Kapitel 4). Für andere- - insbesondere anwendungsorientierte- - Fragestellungen ist die Realitätsferne dagegen ein kaum akzeptabler Nachteil. Anstelle von Laborforschung wird für solche Zwecke Feldforschung zu betreiben sein. Ihr Ziel ist es, soziale Prozesse und Strukturen, wie sie unabhängig vom wissenschaftlichen Forschungsprozess bestehen, zu erfassen und zu analysieren. Versuchen die Forscher dabei, in systematischer Weise die Bedingun- 72 Ein Beispiel für ein echtes Laborexperiment findet sich in Kapitel 1.3.6. Nachteil von Laborexperiment: realitätsfern ideal für isolierten Einfluss Feldforschung Quelle: Darstellung nach Frey/ Frenz (1982, 250)              four-group design (Solomon) pretest-posttest controlgroup design G 1 G 2 M 1 M 1 M 2 M 2 M M G 3 G 4 R R R R posttest-only controlgroup design (non)equival. controlgroup design static group comparison one-shot case study ohne Randomisierung mit Randomisierung x - - x one-group pretest-posttest design Abbildung 2.2: Design-Strukturen bei Experimenten. <?page no="88"?> 89 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 89 gen einer gegebenen Feldsituation zu kontrollieren und die für die Untersuchung relevanten Variablen gezielt zu manipulieren, orientieren sie sich am Konzept des Feldexperiments. Feldexperimente verfolgen das Ziel, die Logik des klassischen Experiments auch auf Untersuchungsanordnungen im sozialen Feld zu übertragen und dort zu realisieren. Dies ist in realen sozialen Situationen jedoch fast niemals in vollem Umfang möglich. Beispielsweise wird im Allgemeinen nicht für Zwecke der Wissenschaft in die soziale Realität eingegriffen. 73 Vielmehr muss die Forschung sich an Situationen „anhängen“, in denen im Rahmen des „normalen“ sozialen Handelns Veränderungen in Gang gesetzt werden (etwa Einführung einer neuen Produktionstechnik in der Automobilindustrie, Reform der Verwaltungsabläufe in der Kommune mit dem Ziel „mehr Bürgernähe“, Realisierung eines Arbeitsbeschaffungsprogramms für Langzeitarbeitslose). In solchen Situationen wird aber die Forschung allenfalls geduldet; keinesfalls erhält sie eine federführende Rolle bei der Gestaltung der von ihr untersuchten sozialen Realität. Insbesondere wäre die Erwartung unrealistisch, Versuchs- und Kontrollgruppen nach von der Forschung vorgegebenen Kriterien zusammenzusetzen und/ oder nach dem Zufallsprinzip zu bilden (s. o.: Randomisierung). In manchen Fällen wird es überhaupt nicht möglich sein, über direkte Kontrollgruppen zu verfügen. Häufig sind auch „Vorher-Messungen“ der interessierenden Variablen nicht durchführbar. Besondere Probleme verursachen die Kontrolle der „treatments“ 74 sowie die Abschirmung der übrigen Einflussgrößen. 75 Für nicht voll erfüllbare Bedingungen des „echten“ Experiments (s. o.) wird man dann bestrebt sein, Ersatzlösungen zu finden, die nach Möglichkeit die gleiche Funktion erfüllen: Anstelle äquivalenter Kontrollgruppen kann man versuchen, Vergleiche mit Situationen anzustellen, in denen die untersuchten Maßnahmen nicht durchgeführt werden. Anstelle expliziter „Vorher-Messungen“ bei den Versuchspersonen kann man Daten aus früheren Zeiträumen heranziehen. Sind „externe“ Einflüsse auf die Effekte des untersuchten Programms nicht abzuschirmen, müssen diese externen Einflussgrößen gleichfalls gemessen werden, um sie bei der Auswertung der gesammelten Daten berücksichtigen zu können (statistische Variablenkontrolle in der Phase der Datenanalyse anstelle der Situationskontrolle im Experiment). Untersuchungsanordnungen, die sich an der Experimentallogik orientieren, jedoch nicht alle Bedingungen des klassischen Experiments erfüllen können, werden als Quasi-Experimente bezeichnet. In der Übersicht „Designstrukturen bei Experi- 73 Eine Ausnahme bildet der Ansatz der sogenannten „experimentellen Politik“: Beabsichtigte politische Maßnahmen werden zunächst „versuchsweise“ in begrenztem Rahmen mit wissenschaftlicher Begleitung durchgeführt. Erst aufgrund der so gewonnenen Erfahrungen wird endgültig entschieden (vgl. Hellstern/ Wollmann 1983a). 74 Werden die politischen Maßnahmen von den zuständigen Stellen auch wirklich so durchgeführt wie vorgesehen und/ oder wie nach außen dargestellt? 75 Wie reagiert die nicht direkt betroffene „Umwelt“ auf die Maßnahmen? Welche einflussreichen anderen Veränderungen finden statt? Feldexperiment Nutzung experimentähnlicher Situationen Probleme beim Feldexperiment vergleichbare Situationen als Kontrollgruppe statistische Kontrolle anderer Einflüsse Quasi-Experimente <?page no="89"?> 90 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 90 menten“ (Abb. 2.2) sind auch einige solcher quasi-experimenteller Designs dargestellt, etwa das Design mit nicht äquivalenten Kontrollgruppen (fehlende Randomisierung) oder der statische Gruppenvergleich (keine Vorher-Messung). 76 Ein Feldexperiment zur Durchsetzung informeller Normen haben Wolbring, Bozoyan und Langner (2013) in der Münchener U-Bahn durchgeführt. Sie prüften dabei folgende Hypothese: Je höher der erkennbare soziale Status einer Person, die eine Norm verletzt, desto geringer die Wahrscheinlichkeit einer Sanktion durch andere. Diese allgemeine Hypothese wurde in einem Feldexperiment auf der Rolltreppe einer Münchner U-Bahn-Station geprüft. Auf den Rolltreppen gilt die informelle Norm, dass Menschen auf der rechten Seite stehen und die linke Seite frei lassen für Menschen, die gehen wollen. Diese informelle Norm wurde in dem Feldexperiment gebrochen, indem jemand auf der linken Seite steht und so den Weg versperrt. Die Frage war nun, ob dieser Regelverletzer- - entsprechend der Hypothese- - mit geringerer Wahrscheinlichkeit von anderen sanktioniert wird, also auf sein Fehlverhalten durch Schimpfen oder zur Seite drängen hingewiesen wird, wenn er einen höheren sozialen Status hat. Nach dem Hempel-Oppenheim-Schema ist die Untersuchungsfrage folgende: Explanans: („das Erklärende“) (1) Je höher der erkennbare soziale Status einer Person, die eine Norm verletzt, desto geringer die Wahrscheinlichkeit einer Sanktion durch andere. (Ursache- Wirkungs- Prinzip) (2a) Links gehen, rechts stehen ist in der-Münchner U-Bahn eine Norm. (2b) Person A hat einen geringeren sozialen Status als Person B. (Vorliegende Ursache) Explanandum: („das zu Erklärende“) (3) Person A wird mit höherer Wahrscheinlichkeit für den Verstoß der Norm „Links gehen, rechts stehen“ in der Münchner U-Bahn sanktioniert als Person B. (Eingetretene Wirkung) Diese Erwartung wurde in der Münchner U-Bahn als Feldexperiment geprüft. Eine Person stellte sich einmal in eleganter, formeller Kleidung auf der linken Seite in den Weg und war so der Normverletzer mit erkennbar höherem sozialen Status. Zum Vergleich stellte sich die selbe Person in ausgewaschener, informeller Kleidung auf der linken Seite in den Weg und war so der Normverletzer mit erkennbar niedrigerem sozialen Status. 77 Die Versuchsanordnung des Feldexperiments war also folgende: 76 Für die Darstellung der Methodologie von Quasi-Experimenten sei neben Frey/ Frenz 1982 auf die „Klassiker“ Campbell 1983 sowie Cook/ Campbell 1979 verwiesen. 77 Fotos sind in dem Artikel zu finden, wie auch der Vergleich zwischen der Normverletzung durch einen Mann und eine Frau. BEISPIEL <?page no="90"?> 91 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 91 Gruppe treatment Messung G1 X (niedriger sozialer Status) M G2 - (hoher sozialer Status) M Weil es sich um ein Feldexperiment handelt, gibt es eine Reihe von Einschränkungen im Vergleich zum Laborexperiment. So gibt es keine vorher-Messung. Für diesen Fall wird schlicht unterstellt, dass es ohne eine Person, die den Weg versperrt, auch keine Sanktion geben dürfte. Auch fehlt eine zufällige Zuweisung zu den Gruppen. Stattdessen wird das Experiment häufig durchgeführt, um so eine größere und möglichst zufällig variierende Anzahl von Personen zu haben, denen der Weg versperrt wird. Schließlich lassen sich, wie immer bei Feldexperimenten, nicht alle Randbedingungen kontrollieren. So erweist es sich als eine wichtige Randbedingung, ob auf dem Gleis gerade ein Zug steht, der durch den versperrten Weg nicht erreicht werden kann. Auch die unterschiedlichen Randbedingungen finden Berücksichtigung, indem das Experiment häufiger, zu unterschiedlichen Tageszeiten und Wochentagen durchgeführt wurde, um so eine möglichst breite Palette von Randbedingungen abzudecken. Durch diese Prüfung zeigt sich dann, dass die Person mit erkennbar niedrigerem sozialen Status in der Tat mir höherer Wahrscheinlichkeit auf ihr Fehlverhalten hingewiesen und zur Seite gedrängt wird. Die Details der Ergebnisse finden sich in dem Artikel von Wolbring, Bozoyan und Langner (2013). 2.4.4 Das Evaluationsdesign der Programmforschung Im alltäglichen Sprachgebrauch bedeutet „Evaluation“ nichts weiter als „Bewertung“. Im Kontext von Forschung wird der Begriff Evaluation in verschiedenstem Sinne benutzt; entsprechend vielfältig sind die methodischen Ansätze, sich in Wissenschaft und Forschung mit Evaluation zu befassen. 78 Diesem in seiner Komplexität kaum überschaubaren Feld will sich der folgende Abschnitt jedoch nicht zu nähern versuchen. Herausgegriffen wird vielmehr die einflussreiche und methodologisch besonders fundierte Richtung der Implementations- und Wirkungsevaluation. Darin bezeichnet Evaluation einerseits eine spezifische Fragestellung: 78 Für komprimierte Überblicke siehe Kromrey 2001 und 2003; ausführlicher Giel 2013. Eine sehr detaillierte Zusammenstellung der diversen Fragestellungen, Gegenstände, Funktionen und Ansätze findet man in Döring/ Bortz 2016, Kap. 18; siehe auch eval-wiki.org/ glossar/ Kategorie: A_bis_Z. Für die Evaluationspraxis wertvolle Hinweise sowie Darstellungen von Evaluationsprojekten unterschiedlichen Typs finden sich in Giel/ Klockgether/ Mäder (2015). <?page no="91"?> 92 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 92 Die Fragestellung der Evaluation ist die Bewertung eines bestimmten Sachverhalts oder eines bestimmten Handelns-- z. B. ein politisches Reformprogramm oder eine neue Technologie oder das Handeln einer bestimmten Gruppe- - nach vorgegebenen Kriterien und gestützt auf empirische Informationen (Ziel: Objektivierung des Bewertungsproblems). Zum anderen bezeichnet der Begriff ein spezifisches Design. Das Design der Evaluation ist ein Untersuchungsansatz, bei dem das zu evaluierende Handeln- - die durchgeführten Maßnahmen sowie die eingesetzten Instrumente, nennen wir es zusammenfassend „Programm“ 79 -- und die durch dieses Handeln bewirkten Effekte in methodisch kontrollierter Weise miteinander in Beziehung gesetzt und aus der Perspektive der Handlungsziele auf ihren Erfolg hin beurteilt werden. Dabei muss die Forschung explizit berücksichtigen, dass das „Programm“ nur in enger Verflechtung mit seiner sozialen Umwelt durchführbar ist, dass es also von Umgebungseinflüssen nicht abgeschirmt werden kann: Beziehen wir Fragestellung und Design wieder auf das in Abschnitt 2.4.1 dargestellte Hempel-Oppenheim-Erklärungsschema, dann finden wir dessen Komponenten gleich in doppelter Weise wieder. Zum einen erweist sich das „Programm“ als eine „technologische Aussage“, die ja formal die gleiche Struktur wie eine „Erklärung“ hat. Die Programmziele stellen die 79 Unter Programmen versteht die Sozialwissenschaft komplexe Handlungsmodelle, die auf die Erreichung bestimmter Ziele gerichtet sind, die auf bestimmten, den Zielen angemessen erscheinenden Handlungsstrategien beruhen und für deren Abwicklung finanzielle, personelle und sonstige administrative Ressourcen bereitgestellt werden (nach Hellstern/ Wollmann 1983b, 7; grundlegend zum Konzept der Programm- und Implementationsforschung Mayntz 1980). Evaluation als Fragestellung Evaluation als-Design Programmevaluation Programmevaluation-- H-O-Schema Abbildung 2.3: Programmevaluation Quelle: Eigene Darstellung HANDLUNGSPROGRAMM (Maßnahmen/ Instrumente) EFFEKTE (beabsichtigte und nichtbeabsichtigte Wirkungen = Kriterien der Zielerreichung) PROGRAMMZIELE PROGRAMMUMWELT <?page no="92"?> 93 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 93 angestrebte künftige Situation dar-- Punkt (3) im H-O-Schema. Die „Maßnahmen“ sind die zu vollziehenden Eingriffe in die gegenwärtigen „Randbedingungen“- - Punkt (2) im H-O-Schema. Die Art und Weise, wie eingegriffen werden soll, beruht auf Annahmen über Ursache-Wirkungs-Prinzipien-- Punkt (1) im H-O-Schema--; sie liefern die theoretische Basis des Programms: „Wenn die Randbedingungen in bestimmter Weise verändert werden- (2), dann werden dadurch die beabsichtigten Effekte hervorgerufen (3).“ Zum anderen orientiert sich das Evaluationsdesign an eben diesen Komponenten: Es hat sicherzustellen, dass sowohl die existierenden Randbedingungen (2) als auch der Ist-Zustand der Zielvariablen (3) vor Programmbeginn- - also zum Zeitpunkt t 0 -- empirisch beschrieben werden. Es hat weiter sicherzustellen, dass die während der Programmlaufzeit vorgenommenen Eingriffe in die Randbedingungen (2) erfasst werden, und zwar sowohl Eingriffe durch die im Programm vorgesehenen Maßnahmen als auch andere relevante Veränderungen in der Programmumwelt (Diese „begleitende Buchführung“ wird monitoring genannt). Das Design hat schließlich sicherzustellen, dass der Zustand der Zielvariablen (3) nach Programmdurchführung-- also zum Zeitpunkt t 1 -- wiederum empirisch beschrieben wird, so dass Art und Ausmaß der Veränderungen feststellbar sind. Ein zentrales methodisches Problem besteht darin, für festgestellte Veränderungen der Zielvariablen (=-Unterschiede zwischen den Zeitpunkten t 0 und t 1 ) zu entscheiden, ob und in welcher Höhe sie durch die Maßnahmen des Programms bewirkt wurden oder ob sie auf (programmexterne) Umwelteinflüsse zurückführbar sind. Diese Aufgabe der „Wirkungszurechnung“ ist am ehesten lösbar, wenn die Evaluationsforschung sich an der Logik des Feldexperiments orientiert und soweit möglich eine quasi-experimentelle Untersuchungsanordnung mit Vergleichsgruppen realisiert (vgl. Abschnitt 2.4.3). Der eigentliche Bewertungsteil der Evaluationsforschung besteht darin, anhand der festgestellten Effekte den „Erfolg“ des Programms, seine Effektivität einzuschätzen. Als Maßstab für die Erfolgsbewertung gelten die Programmziele, also die beabsichtigten Effekte. Die faktisch eingetretenen Wirkungen können in mehr oder weniger hohem Maße den beabsichtigten Effekten entsprechen. Der Programmerfolg ist allerdings nicht schon aus den festgestellten Veränderungen, sondern erst aus der Wirkungszurechnung (s. o.) ablesbar. Selbst bei einem absolut wirkungslosen Programm könnten Veränderungen der Zielvariablen in der gewünschten Richtung durch positive Einflüsse der Programmumwelt hervorgerufen worden sein. Andererseits kann der umgekehrte Fall eintreten, dass trotz eines eigentlich wirksamen Programms aufgrund negativer Umgebungseinflüsse nur geringe Veränderungen der Zielvariablen (oder gar Veränderungen in nicht gewünschter Richtung) sichtbar werden. Das Programm selbst war dann trotzdem nicht „erfolglos“, denn es hat immerhin eine Verschlechterung der Situation verhindert. Zusammengefasst: Als „erfolgreich“ gilt ein Programm dann, wenn die getroffenen Maßnahmen die Zielvariablen in der gewünschten Richtung und in der gewünschten Stärke beeinflussen. Evaluation darf sich jedoch nicht auf den Nachweis des Eintretens oder Nicht-Eintretens der beabsichtigten Effekte beschränken. In aller Regel werden neben den vom Evaluationsdesign-- H-O-Schema Zurechnung der Wirkungen erzielte Wirkung als Bewertungsmaßstab <?page no="93"?> 94 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 94 Programm beabsichtigten auch nicht beabsichtigte Wirkungen zu beobachten sein. Diese wiederum können von positiver oder von negativer Art sein und somit das Gesamturteil über ein Programm in erheblicher Weise beeinflussen. Das Evaluationsdesign muss daher das Untersuchungsfeld von vornherein so weit fassen, dass es über den Eingriffsbereich der Maßnahmen des Programms hinausreicht. Das schließt die Entwicklung eines theoretischen Wirkungsmodells-- Punkt (1) im H-O-Schema-- ein, welches auch Alternativen zu den Ursache-Wirkungs-Annahmen berücksichtigt, die dem Programm selbst zugrunde liegen (s. o.). Darüber hinaus impliziert dieser Arbeitsschritt eine fundierte „dimensionale Analyse“ 80 des Eingriffs- und des Wirkungsfeldes. Solche umfassenden-- auch theoretischen-- Vorarbeiten sind erforderlich, da von einer guten Evaluation nicht lediglich Aussagen über den Erfolg oder Misserfolg eines Programms erwartet werden. Vielmehr sollen bei ausbleibendem Erfolg aus den Forschungsergebnissen auch Hinweise auf Möglichkeiten zur Verbesserung des Programms ableitbar sein. Dazu ist neben der eigentlichen Wirkungsanalyse u. a. auch die Beurteilung der Programmdurchführung sowie der theoretischen Basis erforderlich. Selbstverständlich ist eine Evaluation in so umfassender Weise, dass sie alle bisher angesprochenen Aspekte vollständig berücksichtigt, in keinem Projekt realisierbar. Jedes faktische Vorhaben wird Schwerpunkte setzen müssen. Forschungsmethodisch führt dies zu unterschiedlichen Evaluationstypen, abhängig davon, welche der in der Abbildung „Programmforschung“ (S. 94) angesprochenen Dimensionen und/ oder deren Zusammenhänge den Kern der Evaluationsfragestellung bildet. 81 Eine übliche Unterscheidung bezieht sich auf den Gegenstand der Evaluation. Stehen im Vordergrund die Effekte, die von den Maßnahmen eines Programms hervorgerufen werden, haben wir es mit Wirkungsanalysen zu tun. Richtet sich der Blick nicht schwerpunktmäßig auf die Effekte, sondern steht die systematische Untersuchung der Planung, Durchsetzung und des Vollzugs eines Programms und seiner Maßnahmen im Vordergrund, spricht man von Implementationsforschung. Von Interesse kann auch sein, ob und in welcher Weise die von einem Handlungsprogramm gebotenen Leistungen von der Zielgruppe, für die diese Leistungen erstellt werden, in Anspruch genommen werden bzw. ob das Angebot auf Zustimmung oder Ablehnung stößt. Für diese Evaluationsrichtung steht der Begriff Akzeptanzforschung. Eine weitere gängige Differenzierung wird hinsichtlich des Zeitpunkts vorgenommen, an dem eine Evaluation ansetzt. Hier kann man zwischen einer projektbegleitenden und einer abschließenden Evaluation unterscheiden. Da üblicherweise bei begleitender Evaluation zugleich regelmäßige Rückkoppelungen von Ergebnissen in das Projekt vorgesehen sind, hat die Forschung Konsequenzen für dessen Verlauf; sie wirkt „programmformend“. Ein solches Konzept heißt formative Evaluation. Eine 80 Dieser Arbeitsschritt wird ausführlich in Kapitel 3.1 und 3.2 behandelt. 81 Ausführlicher dazu: Kromrey 1987, 1995a, 2007; Stockmann 2004, Giel 2013. nicht beabsichtigte Wirkungen Wirkungsmodell Evaluation zeigt Verbesserungsmöglichkeiten Evaluationstypen mit Schwerpunkten Wirkungsanalyse Implementationsforschung Akzeptanzforschung begleitende Evaluation formative Evaluation <?page no="94"?> 95 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 95 erst gegen Ende oder gar nach Abschluss eines Projekts durchgeführte- - oder erst dann zugänglich gemachte-- Evaluation verzichtet explizit auf formative Effekte. Sie gibt vielmehr im Nachhinein ein zusammenfassendes Evaluationsgutachten ab. Man spricht hier von summativer Evaluation. Schließlich ist noch danach zu unterscheiden, woher die Kriterien der Evaluation stammen und wer die Bewertungsinstanz ist. Im „traditionellen Fall“, der hier bisher dargestellt wurde, stammen die Beurteilungskriterien aus dem zu evaluierenden Programm selbst. Seine Implementation sowie seine Wirkungen werden im Lichte seiner eigenen Ziele bewertet. Vorgenommen wird die Beurteilung von den Durchführenden der Evaluationsforschung. Dieser Typ von Beurteilung besteht ausdrücklich nicht in der Abgabe subjektiver Werturteile, sondern in der Formulierung „technologischer Einschätzungen“, die intersubjektiv nachprüfbar sein müssen. In manchen Fällen wird die eigentliche Bewertung jedoch auf programm- und evaluationsexterne Instanzen verlagert. So holt man beispielsweise Fachgutachten ein; oder man befragt neutrale Expertinnen oder Experten, die sich thematisch besonders intensiv mit projektrelevanten Themen befasst haben oder die durch berufliche Erfahrungen mit ähnlich gelagerten Aufgaben ausgewiesen sind. Unter forschungsmethodischen Gesichtspunkten handelt es sich dabei jedoch nicht um „Evaluationsforschung“, sondern um herkömmliche Umfrageforschung: Unter Verwendung empirischer Instrumente werden Experteneinschätzungen erhoben und ausgewertet. Als eine Variante des Verlagerns der Evaluierung auf eine programmexterne Instanz wird verschiedentlich die Befragung der Adressaten und Adressatinnen eines Programms (Nutzer oder Betroffene, häufig „Anspruchsgruppen“ oder „stakeholder“ genannt) favorisiert. Die Begründung fällt scheinbar leicht: Die Nutzerinnen oder Nutzer einer Dienstleistung und/ oder die Betroffenen einer Maßnahme sind die „eigentlichen“ Expertinnen und Experten. Sie haben den Gegenstand der Untersuchung aus eigener Erfahrung kennengelernt und wissen, wie er (bei ihnen) wirkt. Sie sind also-- so wird unterstellt-- in der Lage, die konkretest-möglichen Urteile darüber zu fällen. Diese Form von Evaluationsbefragung ist jedoch methodisch besonders problematisch, da die erhobenen Urteile weder den Status von Bewertungen im Sinne „technologischer“ Evaluationen noch von Bewertungen neutraler Experten haben. Es handelt sich um individuell parteiische Werturteile von Personen, die in einer besonderen Beziehung-- eben als Nutzer, als Betroffene-- zum Untersuchungsgegenstand stehen. Hier sollte nicht von „Evaluation“, sondern von Akzeptanzerhebung gesprochen werden. 82 82 Um diesen Typ von Akzeptanzbefragungen handelt es sich im Allgemeinen, wenn im Hochschulbereich von „Evaluation der Lehre“ die Rede ist. Befragt werden Teilnehmerinnen und Teilnehmer von Lehrveranstaltungen, wie sie die Güte der gebotenen Ausbildung und Betreuung einschätzen. Ausführlich dazu: Kromrey (1994b, 1995b, 1996). summative Evaluation Bewertung nach Programmzielen Befragung neutraler Experten Adressatenbefragung Problem von Adressatenbefragungen Akzeptanzerhebung <?page no="95"?> 96 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 96 2.4.5 Das deskriptive Survey-Modell: Querschnittserhebung nicht-experimenteller Daten In den vorhergehenden Abschnitten wurden drei wichtige Spezialfälle sozialwissenschaftlicher Forschungsdesigns vorgestellt: der Hypothesenbzw. Theorietest als der Prototyp wissenschaftlicher Fragestellungen und empirisch-methodologischer Argumentation, das Experiment als der „Königsweg“ methodisch kontrollierter Gestaltung der Untersuchungssituation für die Entdeckung und Prüfung von Ursache- Wirkungs-Zusammenhängen sowie die Evaluationsforschung als eine typische anwendungsorientierte Fragestellung. Im folgenden Abschnitt geht es nun um den „Forschungsalltag“ und zugleich um die allgemeinste und methodisch umfassendste Untersuchungsanordnung: um das Design für die Erhebung (engl.: survey) und Analyse empirischer Informationen zur Beschreibung und Diagnose eines interessierenden sozialen Sachverhalts zu einem Zeitpunkt. 83 Ziele deskriptiver Untersuchungen können sein, - als Basis für eine zu treffende Entscheidung empirisch gesicherte aktuelle Erkenntnisse über den in Frage stehenden Gegenstand zu erhalten (Fragestellung: Entscheidungsvorbereitung) oder - bei unvorhergesehenen gesellschaftlichen Veränderungen umfassende Informationen zur Beurteilung und zum Verständnis dieser Entwicklungen zu gewinnen (Fragestellung: Diagnose) oder - einen noch relativ unbekannten empirischen Sachverhalt durch eine möglichst breit angelegte Deskription zu erkunden (Fragestellung: Exploration) oder - beispielhafte Deskriptionen für eine allgemeine Regelhaftigkeit bzw. „Gesetzmäßigkeit“ zur Verfügung zu stellen (Fragestellung: Illustration) oder - in regelmäßigen Abständen die Informationen über wichtige Teilbereiche der Gesellschaft zu aktualisieren (Fragestellung: gesellschaftliche Dauerbeobachtung) oder - zu aktuellen politischen und/ oder gesellschaftlichen Themen das Meinungsbild in der Bevölkerung zu erheben (Fragestellung: Meinungsforschung/ Demoskopie) oder - die Vorlieben und Konsumneigungen potenzieller Kunden für kommerziell anzubietende Güter und Dienstleistungen zu durchleuchten (Fragestellung: Marktforschung) - und manches andere. Der Geltungsbereich empirischer Deskriptionen kann entweder auf die untersuchten Fälle-- bei sogenannten „Fallstudien“ sogar auf den untersuchten Fall-- beschränkt sein: etwa bei Gegenstandsbeschreibungen zur Vorbereitung spezifischer Entscheidungen oder bei Explorationen. Die Absicht kann aber auch sein, die Befunde über 83 Daher die Bezeichnung „Querschnittserhebung“. Eine „Längsschnittuntersuchung“ bezieht sich auf die Analyse eines Sachverhalts im Zeitverlauf (siehe Kapitel 2.1). Beschreibung und-Diagnose Geltung: Einzelfall bis repräsentative Dauerbeobachtung <?page no="96"?> 97 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 97 die untersuchten Fälle hinaus zu verallgemeinern: etwa bei Markt- und Meinungsforschungen oder bei gesellschaftlicher Dauerbeobachtung. Während im ersten Fall das Untersuchungsfeld eindeutig abgegrenzt ist, wird im zweiten Fall explizit eine „Grenzüberschreitung“ beabsichtigt: Die Befunde sollen „repräsentativ“ sein für eine über die untersuchten Fälle weit hinausreichende „Grundgesamtheit“. 84 Im Vergleich zu den bisher behandelten Untersuchungsanordnungen verlangt die deskriptive Surveystudie die umfassendsten methodologischen Überlegungen zur Gestaltung des Forschungsdesigns. Sie reichen von der Präzisierung der Fragestellung (sowie deren expliziter Einbettung in den Entstehungs- und Verwertungskontext) über die Entwicklung eines untersuchungsleitenden und theoretisch fundierten Gegenstandsmodells sowie die Definition des Untersuchungsfeldes bis hin zur Auswertungsplanung. Während beispielsweise beim Untersuchungstyp „Theorietest“ die Fragestellung durch die zu prüfenden Hypothesen von vornherein eingeschränkt und präzisiert ist, und während dort auch die in Frage kommenden Objekte der Untersuchung relativ eindeutig zu bestimmen sind (nämlich mit Hilfe der aus den Hypothesen abzuleitenden „theorie-implizierten Basissätze“, vgl. Kapitel 1.3), erfordern deskriptive Surveystudien in dieser Hinsicht umfassende Konzipierungsaufgaben mit zentraler Bedeutung für die spätere Brauchbarkeit der Resultate. Während bei Evaluationsforschungen trotz aller Komplexität der Aufgabenstellung immerhin der Gegenstand der Untersuchung (das zu evaluierende Programm und dessen Eingriffsbereich) klar vorgegeben ist, müssen bei deskriptiven Studien auch in dieser Hinsicht konzeptionelle Vorleistungen erbracht werden. Diese sollen in ein Modell des Untersuchungsgegenstands einmünden, das sowohl dem Gegenstand selbst als auch dem Verwertungszweck der Studie gerecht wird und das zudem durch empirische wie theoretische Vorkenntnisse hinreichend abgesichert ist. Dadurch wird sichergestellt, dass bei wichtigen Aspekten keine Lücken entstehen und dass man nicht Unnötiges oder Irrelevantes erfasst. Darüber hinaus sollen im Idealfall auch deskriptive Surveystudien Ansätze für die Weiterentwicklung sozialwissenschaftlicher Theorien bieten, sie sollen nicht „rein deskriptiv“, sondern zugleich „theoretisch relevant“ sein (vgl. Abschnitt 1.3.5). Das „Strukturmodell“ für nicht-experimentelle Forschungsprojekte in Abbildung 2.4 zeigt die einzelnen Arbeitsschritte und ihre Zusammenhänge auf. In Kapitel 2.2 wurde der Forschungsprozess als „eine Reihe ineinander verzahnter Entscheidungen“ in einer Abfolge von elf Etappen dargestellt: beginnend mit der Klärung des „Entdeckungs-“ und des „Verwertungszusammenhangs“ sowie der Präzisierung der Problemformulierung über die dimensionale Analyse des Forschungsgegenstands, seine Beschreibung mit geeigneten Begriffen, über Hypothesenbildung und Operationalisierung bis zur Erhebung von Daten bei den ausgewählten „Untersuchungsobjekten“ sowie deren Aufbereitung, statistische Auswertung und Analyse/ Interpretation. Dort wurde schon darauf hingewiesen, dass diese Aneinanderreihung der Arbeitsaufgaben im Zusammenhang eines empirischen Projekts jedoch nicht so (miss)verstanden werden darf, als wäre der Prozess der Forschung eine lineare Folge 84 Die Methodik repräsentativer Auswahlen wird in Kapitel 6 behandelt. umfassendste Designplanung Modell des Untersuchungsgegenstands miteinander verflochtene Entscheidungen <?page no="97"?> 98 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 98 von Entscheidungsschritten. Auch bei der Betrachtung der folgenden Übersicht sollten Sie sich vergegenwärtigen: Es handelt sich hierbei um ein Strukturmodell, nicht um ein Ablaufmodell. 85 85 Wollte man ein Modell skizzieren, das den Ablauf eines Projekts repräsentiert, wären an vielen Stellen Rückkoppelungsschleifen einzufügen. Quelle: Eigene Darstellung Untersuchungsschritte Forschungsentscheidungen Fragestellung der Untersuchung Objektbereich dimensionale Analyse semantische Analyse „Modell“ des Objektbereichs (relevante Dimensionen und Beziehungen zwischen ihnen) Begri e Auswahl von Elementen aus dem Objektbereich Indikatoren Variablen (Merkmalsausprägungen) Objekte (Untersuchungseinheiten / Merkmalsträger) Messen (Regeln für die Zuordnung von Variablenausprägungen zu Untersuchungseinheiten) Methoden/ Instrumente Datenerhebung und Vercodung Auswertung Art der Fragestellung statisch / dynamisch; Deskription / Exploration / Evaluation De nitionen (Extension / Intension) Korrespondenzhypothesen Festlegung des zu erhebenden Dierenzierungsgrads der Indikatoren messtheoretische Annahmen / Messniveaus Inhaltsanalyse / Beobachtung / Befragung / Gruppendiskussion / psycholog. Tests usw. Anwendung der Instrumente statistische Modelle Abbildung 2.4: Strukturmodell nicht-experimenteller Forschung <?page no="98"?> 99 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 99 Faktisch sind in jedem Projekt alle Teilschritte untereinander vernetzt: Die Projektidee und die erste Formulierung der Forschungsfragestellung- - also die „Geburtsphase“ des Vorhabens-- ist nicht denkbar, ihre endgültige Präzisierung ist nicht realisierbar ohne ausdrücklichen und intensiven Bezug zur Schlussetappe: zur (gedanklich als Projektziel vorweggenommenen) Aufbereitung und Verwertung der Forschungsergebnisse. Das Projekt wird ja nicht um seiner selbst willen durchgeführt, es soll vielmehr etwas ganz Bestimmtes erreichen. Darauf-- auf dieses Projektziel-- ist jede Entscheidung zwischen Beginn und Ende des Forschungsprozesses bezogen. Auch innerhalb dieses Prozesses läuft nichts geradlinig ab: Bei der Ausformulierung der untersuchungsleitenden Hypothesen und der Definition der zentralen Begriffe müssen schon die Erhebungsinstrumente mit bedacht werden und sind zugleich Entscheidungen über die Informanten und Informationsquellen sowie über die „Objekte“ der Forschung (Personen, Familien, Organisationen, soziale Situationen etc.) zu treffen. Bei der Entwicklung und beim Test der Erhebungsinstrumente und Mess-Skalen muss bereits ein grober Auswertungsplan vor Augen stehen, u. a. damit schon bei der Operationalisierung auf das später benötigte Messniveau der Daten geachtet werden kann. Gedanklich ist bei der Konkretisierung des „Designs“ der gesamte Projektablauf vorwegzunehmen. Sobald das Projekt erst einmal „im Feld“ ist, kann bei einem auf Standardisierung angelegten Vorhaben kaum noch etwas „repariert“ werden, was im Zuge der Planung nicht bedacht wurde. Wir haben schon darauf hingewiesen, dass unter methodischen Gesichtspunkten das hier skizzierte Standardmodell deskriptiver Erhebungen das umfassendste und „kompletteste“ Design der empirischen Sozialforschung ist. Es dient daher in diesem Lehrtext für die folgenden Kapitel als „roter Faden“ der Darstellung und Argumentation. 2.4.6 Spezielle Untersuchungsanordnungen Die bisher vorgestellten Untersuchungsdesigns sind gewissermaßen die Grundtypen in der standardisierten Sozialforschung. Einzelne speziellere Untersuchungsanordnungen seien hier zumindest kurz vorgestellt. 86 Mehrebenenstudie Die bisher vorgestellten Forschungsdesigns sind durchweg davon ausgegangen, dass sie Aussagen über Menschen (oder andere Untersuchungs-„Objekte“) aus einem gemeinsamen Zusammenhang machen. Diese Annahme ist aber keineswegs realistisch. Ganz im Gegenteil: Menschen leben in Gesellschaften, und auch die Situation der Gesellschaften wird das Leben der Menschen wesentlich beeinflussen. 86 Für die Logik von Untersuchungen in der qualitativ-interpretativen Sichtweise siehe Kapitel 9. Projektplan als Gesamtkonzept gegenseitige Abhängigkeit der Entscheidungen <?page no="99"?> 100 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 100 Beispielsweise könnten wir die Einstellung zur angemessenen Höhe der Altersrente untersuchen und fragen, welche Personen eher für ein hohes und welche Personen eher für ein niedriges Rentenniveau plädieren. Zur Erklärung einer solchen Einstellung würden wir sicherlich eine Reihe von Merkmalen der Person heranziehen und z. B. vermuten, dass ältere Menschen eher für hohe Renten plädieren (weil sie schon oder bald selbst Rentnerinnen und Rentner sind). Weitere Merkmale der Person, die einen Einfluss haben könnten, fallen uns schnell ein. Für die Erklärung könnte aber auch noch wichtig sein, ob die Person in Deutschland lebt oder in Polen, in der Schweiz oder den Niederlanden, denn das Rentenniveau und die Wirtschaftslage des Landes ebenso wie die verschiedenen Lebensstile und Kulturen spielen möglicherweise eine Rolle. Dies sind Einflüsse, die nicht allein von Merkmalen der Individuen abhängen, sondern von den verschiedenen Kontexten, in denen die Menschen leben. Es geht also um Einflüsse, die sich auf einer übergeordneten Ebene (hier: der Länderebene) unterscheiden. Um sowohl die Einflüsse auf Ebene der Personen (Individualebene) als auch die Einflüsse auf Ebene der Länder (Länderebene) in unserer Untersuchung berücksichtigen zu können, müssten wir eine Mehrebenenstudie durchführen. Mehrebenstudien sind also solche, bei denen „Individualdaten und Daten über Kollektive-… miteinander in Beziehung gesetzt (werden), um den Einfluss der durch die Kollektivmerkmale charakterisierten Umwelten auf Individualeinstellungen und Individualverhalten zu analysieren bzw. um Generalisierungen auf der strukturellen Ebene durch Spezifikatoren auf der Individualebene einen höheren Informationsgehalt zu verleihen“ (Eirmbter 1979, 710). Oder einfacher ausgedrückt: Mehrebenenstudien sind Untersuchungsanlagen, die Einflüsse auf mehreren Ebenen gleichzeitig berücksichtigen. Die Mehrebenenstudien sammeln deshalb Informationen für mehrere Ebenen. Mit diesen Informationen oder Daten lassen sich dann Theorien testen, die sich gleichzeitig auf mehrere Ebenen beziehen (vgl. Kap. 2.4.2). Die Datenerhebung bei Mehrebenenstudien unterscheidet sich nicht prinzipiell von Studien mit nur einer Ebene. Die verschiedenen, in den folgenden Kapiteln diskutierten Schritte müssen in diesem Fall für mehrere Ebenen durchgeführt werden, und wir müssen wissen, welcher Fall der untersten Ebene in welche Gruppe der höheren Ebene(n) gehört (also zum Beispiel welche Person in welches Land gehört). Bei der Datenauswertung müssen dann diese Ebenen berücksichtigt werden, indem Mehrebenenanalysen gerechnet werden. 87 Die Mehrebenstudien sind in der ländervergleichenden Forschung von großer Bedeutung. Aber auch in der Bildungsforschung führt man Mehrebenenstudien 87 Zur Mehrebenenanalyse, einem fortgeschrittenen statistischen Analyseverfahren, siehe Langer (2009, auch 2010). BEISPIEL Mehrebenenstudien Datenerhebungsschritte auf mehreren Ebenen <?page no="100"?> 101 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 101 durch, wenn Schülerinnen und Schüler innerhalb unterschiedlicher Schulen untersucht werden. In diesem Fall gibt es Hypothesen, die sich auf die Schülerinnen und Schüler beziehen, und andere Hypothesen beziehen sich auf die Schulen (zum Beispiel Schulform, Ausstattung usw.). Ähnliches gilt für die Untersuchung von Arbeitnehmerinnen und Arbeitnehmern innerhalb verschiedener Unternehmen. Sekundäranalyse Nicht in jedem Fall werden für eine Untersuchung Daten erhoben. Oft lassen sich bereits existierende Daten für bislang nicht untersuchte Fragestellungen nutzen. Solche Studien heißen Sekundäranalyse. Eine Sekundäranalyse ist eine Analyse von vorliegenden Daten, die nicht zu diesem Zweck und/ oder nicht bei diesen Personen erhoben wurden (Roose 2013, 699). Sekundäranalysen sind in der Sozialforschung ausgesprochen verbreitet. Mehr als die Hälfte der quantitativen Analysen, die in den deutschen renommierten sozialwissenschaftlichen Zeitschriften veröffentlicht werden, sind Sekundäranalysen (Roose 2013, 702 f.). 88 Sekundäranalysen haben eine Reihe von entscheidenden Vorteilen. 89 Die finanziellen und zeitlichen Vorteile liegen auf der Hand, weil der Aufwand einer Erhebung (einer Primärstudie) entfällt. Da schon Daten vorliegen, bleibt Zeit und Energie, um neue, weiterführende Fragestellungen-- möglicherweise unter Berücksichtigung neuerer theoretischer Erkenntnisse-- durch eingehendere Analysen, durch Anwendung komplexerer statistischer Auswertungsverfahren vertieft zu bearbeiten. Die schon vorliegenden empirischen Befunde können dann mit den Resultaten der Sekundäranalyse konfrontiert werden. Zu den Vorteilen gehört auch die Möglichkeit einer Spezialisierung. Die Durchführung von Primärstudien ist nicht ganz leicht. Die folgenden Kapitel vermitteln einen Eindruck von den Tücken. Insbesondere kulturvergleichende Studien oder Paneluntersuchungen stellen hohe Anforderungen an die Forschenden, über die erheblichen finanziellen Ressourcen hinaus. Die Verwendung vorliegender Daten ermöglicht auch jenen, die nicht Expertinnen oder Experten von kulturvergleichen Umfragen oder Panelstudien sind, Analysen mit diesen Daten. Sie können dafür auf andere Aspekte spezialisiert sein, wie Auswertungsverfahren oder Theorie. Damit hängt ein weiterer Vorteil eng zusammen: Sekundäranalysen erlauben es allen Sozialwissenschaftlerinnen und Sozialwissenschaftlern, quantitativ zu arbeiten. Während Primärstudien eine Finanzierungsquelle brauchen und entsprechend von erfolgreichen Förderanträgen abhängig sind, können mit Sekundäranalysen alle 88 Statt „Sekundäranalyse“ verwenden manche Autoren den Begriff „Re-Analyse“. 89 Vgl. für die folgende Diskussion Hyman (1972), Klingemann und Mochmann (1975), van Deth (2003), Fielding/ Fielding (1986), Stewart (1984) und insbesondere Roose (2013). Verbreitung von-Mehrebenenstudien Sekundäranalyse Vorteil: Zeit- und Geldersparnis Vorteil: Spezialisierung Vorteil: Analysemöglichkeit für alle <?page no="101"?> 102 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 102 arbeiten und zum Beispiel in einer Studienabschlussarbeit eigene Fragen verfolgen. Sekundäranalysen ‚demokratisieren‘ in diesem Sinne die Forschung (Diekmann 2002, 173; Hyman 1972, 9). Diesen Vorteilen stehen allerdings Nachteile gegenüber. Sekundäranalysen müssen sich bei den Versuchen zur Operationalisierung ihrer theoretischen Variablen auf das vorhandene Datenmaterial beschränken. Dies kann dazu führen, dass relevante und interessante Fragen nicht mit den verfügbaren Daten bearbeitet werden können. Dies ist nicht nur ein Nachteil für die einzelne Studie, deren Geltung durch die Datenbeschränkung begrenzt bleibt. Es schränkt auch die Entwicklung der sozialwissenschaftlichen Disziplinen ein, denn Fragen, die sich mit vorliegenden Daten nicht behandeln lassen, laufen Gefahr, nicht behandelt zu werden. 90 Auch deshalb bleiben Primärerhebungen wichtig. Das Angebot an gut dokumentierten, einfach zugänglichen Datensätzen zur Sekundäranalyse hat sich in den vergangenen Jahren stark erhöht. Das Datenarchiv der GESIS (www.gesis.org) erlaubt es, eine Vielzahl theoretischer Fragen auch ohne aufwendige Primärerhebungen zu bearbeiten. Eingeschränkt ist allerdings das Datenangebot bei aufwändigen Erhebungsverfahren (Panel, Ländervergleich). Verifikations- und Replikationsstudien Eine Variante der Sekundäranalyse sind die Verifikations- und Replikationsstudien. Sie dienen der Überprüfung vorliegender Befunde. Dabei ist eine Verifikationsstudie die Analyse der identischen Daten mit der identischen Vorgehensweise. Sie dient also direkt der Kontrolle, ohne ein weiteres eigenes Erkenntnisinteresse zu verfolgen. Die Replikationsstudie behandelt die identische Frage auf dieselbe Weise, nutzt aber andere Daten und erweitert somit das Wissen (Herrnson 1995). Verifikationsstudien sind ausgesprochen selten. Forschende können mit einer Verifikationsstudie kaum Reputation gewinnen und werden deshalb den großen Aufwand scheuen. Reine Replikationen sind ebenfalls selten, aber im Rahmen der Weiterentwicklung von Forschungsfragen gibt es nicht selten-- gewissermaßen ‚auf dem Weg‘-- Replikationen, weil die bekannten Ergebnisse zunächst auch mit neuen und aktuelleren Daten ermittelt werden, bevor die Analyse darüber hinaus geht und neue Erkenntnisse präsentiert. Prozessgenerierte Daten Eine besondere Form von Daten, die für Sekundäranalysen zur Verfügung stehen, sind prozessgenerierte Daten. Diese entstehen in vielen alltäglichen Zusammenhängen: Webseiten protokollieren das Verhalten der Nutzer, Stromerzeuger sammeln die Stromverbrauchsdaten ihrer Kunden, Krankenkassen erheben die Häufigkeit von Medikamentenverschreibungen, Kitas wie auch Fluggesellschaften verzeichnen die Auslastung ihrer Plätze etc. 90 So basiert jeder fünfte quantitativ-empirische Artikel in den führenden soziologischen Zeitschriften Deutschlands auf nur einem Datensatz: dem sozio-ökonomischen Panel (Roose 2013). Nachteil: Abhängigkeit von verfügbaren Daten Angebot an Datensätzen Verifikationsstudie, Replikationsstudie <?page no="102"?> 103 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 103 Prozessgenerierte Daten sind Daten, die nicht für Forschungszwecke hergestellt werden, sondern im Rahmen von anderen Prozessen entstehen, aber für sozialwissenschaftliche Analyse genutzt werden können. Für die Verwendung von prozessgenerierten Daten gelten dieselben Vor- und Nachteile wie für Sekundäranalysen. Auch hier sind nicht immer alle relevanten Informationen verfügbar, und die Untersuchung muss sich auf das beschränken, was zugänglich ist. Andererseits können prozessgenerierte Daten Einblicke bieten, die sonst kaum möglich wären. Eine Besonderheit der prozessgenerierten Daten liegt darin, dass sie nicht durch den Umstand sozialwissenschaftlicher Datenerhebung beeinflusst sind. Wir können vermuten, dass Menschen sich anders verhalten, wenn ihnen bewusst ist, dass ihre Angaben in eine sozialwissenschaftliche Studie eingehen. Menschen reagieren auf die Situation, Teil einer wissenschaftlichen Studie zu sein. In diesem Fall sprechen wir von reaktiven Daten. 91 Bei Daten, die unabhängig von solchen Erhebungen entstehen und genutzt werden können, liegt die Sache anders. Es sind nicht-reaktive Daten. Data Mining in Big Data Durch die Ausbreitung von Computertechnologie in die verschiedensten Lebensbereiche und insbesondere durch das Internet fallen heute sehr große Mengen von prozessproduzierten Daten an. Auf Internetseiten werden Lesedauer und weitere Klicks von den Nutzenden gespeichert, Daten über körperliche Leistungen von Millionen Hobbysportlern, die sich mit entsprechenden Sensoren und Smartphone-Apps selbst vermessen, landen auf den Servern der Gerätehersteller, digitale Verkehrsüberwachungssysteme messen Verkehrsströme und sammeln die Daten auf ihren Großrechnern. Diese Art von Datensammlungen werden unter dem Stichwort Big Data diskutiert. Unter Big Data werden prozessgenerierte Datensätze verstanden, die riesig sind, in großer Geschwindigkeit entstehen, Bereiche vollständig abdecken (also nicht nur Teile oder Stichproben umfassen, vgl. Kap. 6) und in sich heterogen sind (vgl. Kitchin/ McArdle 2016, 2). Typische Arten von Big Data sind Daten, die im Web 2.0 entstehen, deren Inhalte in Form von Kommentaren und Beiträgen der Nutzenden von allen mit produziert werden. So sammeln sich auf sozialen Plattformen oder bei Kurznachrichtendiensten in kurzer Zeit enorme Textmengen an, die bisher verarbeitete Daten weit übersteigen. Die Diskussion um die Spezifik und Bedeutung von Big Data ist noch in der Entstehung, genauso wie die Techniken ihrer Nutzung. Sie erfordern aufgrund ihrer 91 Zum Messvorgang schreibt Campbell (1957): „Wenn der Messvorgang nicht Teil der normalen Umgebung ist, ist er wahrscheinlich reaktiv“ (zit. nach Bungard/ Lück 1974, 88). prozessgenerierte Daten nicht-reaktive Daten Big Data Big Data in der Diskussion <?page no="103"?> 104 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 104 Größe spezifische technische Umgangsweisen, aber auch im Hinblick auf die Art der Analyse dieser Daten gibt es oft, aber nicht zwingend Unterschiede zu den bisher diskutierten Forschungsdesigns. Die Analyse von Daten dieser Art erfolgt oft nach dem Forschungsdesign des „Data Mining“. Data Mining ist die automatische oder semi-automatische Technik der Identifikation von Mustern in großen komplexen Datensätzen (vgl. Gorunescu 2011, 4). Data Mining fasst demnach Analysetechniken zusammen, die mit geringer Theoriesteuerung vorgehen (vgl. Runkler 2015). Mit mathematischen Algorithmen sollen Muster entdeckt und dann interpretiert werden. Der Fokus liegt auf der Entdeckung von einander ähnlichen Fällen (zum Beispiel ähnlichen Benutzern sozialer Plattformen oder ähnlichen Themensträngen bei Kurznachrichtendiensten) als Untergruppen innerhalb des großen Datensatzes. Was diese Untergruppen dann ausmacht, wie sie also theoretisch interpretiert werden können, wird erst nach der statistischen Analyse entwickelt. Allerdings gilt der Grundsatz, dass Forschung immer theoriegesteuert ist, auch für das Data Mining. Die Auswahl der berücksichtigten Variablen und die Entscheidung für ein bestimmtes statistisches Verfahren-- und damit gegen andere Verfahren-- sind bewusst oder unbewusst theoretisch gesteuert. Bei der Interpretation von Ergebnissen und dem Verwerfen von Ergebnissen als „nicht interpretierbar“ spielt dann wiederum das theoretische Verständnis eine große Rolle. Die Diskussion, in welcher Weise sozialwissenschaftliche Theorien in diese Analysen eingebracht werden, steht noch am Anfang (Mützel 2016). Fallstudien Fallstudien oder- - wenn nur ein einziger Fall Gegenstand der Untersuchung ist- - Einzelfallstudien haben in der Soziologie eine lange Tradition. Bei (Einzel-)Fallstudien werden besonders interessante Fälle möglichst umfassend 92 und zumeist über einen längeren Zeitraum hinweg beobachtet (bzw. befragt, inhaltsanalytisch ausgewertet), beschrieben und analysiert. 92 Vgl. die Definition von Goode/ Hatt (1962, 300): „Die Einzelfallstudie ist-… keine besondere Technik. Sie ist vielmehr eine bestimmte Art, das Forschungsmaterial so zu ordnen, dass der einheitliche Charakter des untersuchten sozialen Gegenstandes erhalten bleibt. Anders ausgedrückt ist die Einzelfallstudie ein Ansatz, bei dem jede soziale Einheit als ein Ganzes angesehen wird.“ Eine kurz gefasste Darstellung verschiedener Varianten des Fallstudienansatzes in der quantitativen und in der qualitativen Forschung gibt Lamnek 1989, Kapitel 2; siehe auch Reinecker 1984, Petermann 1989. Data Mining mathematische Entdeckung von-Mustern Theoriesteuerung Fallstudien <?page no="104"?> 105 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 105 Untersuchungseinheiten können nicht nur einzelne Personen sein, sondern auch Personengruppen oder -klassen, Organisationen, ökologische Einheiten oder kulturelle Aggregate (vgl. v. Alemann/ Ortlieb 1975, 159 ff.). Fallstudien- - und in besonderem Maße Einzelfallstudien- - dienen im Rahmen „quantitativer“ Sozialforschung in erster Linie explorativen Zwecken: Ein Gegenstandsbereich der sozialen Realität soll zunächst deskriptiv aufgearbeitet werden, um im Anschluss daran empirisch begründbare theoretische Konzepte, Theorien, Hypothesen entwickeln zu können. Für den Test nicht-deterministischer Theorien oder Hypothesen wie auch für Prognosen, die sich auf Kollektive beziehen, eignen sie sich nach dieser Auffassung weniger, da Generalisierungen nur selten möglich sind. Dagegen gelten sie als sehr gut geeignet zur Plausibilisierung von Theorien oder Hypothesen sowie zur Illustration quantitativer Ergebnisse. Einen methodisch höheren Stellenwert haben Fallanalysen in der qualitativen Forschung. Eine bevorzugte Untersuchungsanordnung sind Einzelfallstudien auch in der Kulturanthropologie, in der ethnografischen Sozialforschung und in dem Zweig der Soziologie, der als Ethnomethodologie bezeichnet wird. Klassische Fallstudien sind die ethnografische Untersuchung von William F. Whyte zur Gruppenstruktur von „street gangs“ (Whyte 1969), die Studie „The Jack-Roller“ über einen devianten Jugendlichen von Clifford R. Shaw (1930) sowie die Studie über die Arbeitslosen von Marienthal von Marie Jahoda, Paul F. Lazarsfeld und Hans Zeisel (1975). Die Bedeutung von Fallstudien in den verschiedenen Forschungsperspektiven der qualitativ-interpretativen Sichtweise wird in Kapitel 9 deutlich gemacht. Mehrmethodenansatz/ Triangulation Ein Grundproblem zahlreicher empirischer Untersuchungen ist, dass die Datenerhebung sich nur auf ein Erhebungsinstrument, die Studie sich also auf nur eine Operationalisierungsstrategie stützt. Damit steht die gesamte Untersuchung unter dem prägenden Einfluss eines einzigen Instruments, dessen instrumentenspezifische Fehler und „Verzerrungen“ kaum kontrolliert werden können. Erst durch die Wahl eines Mehrmethodenansatzes eröffnen sich Möglichkeiten zur Kontrolle instrumentenspezifischer Verzerrungen. Zugleich sichert die Umsetzung unterschiedlicher Operationalisierungsstrategien eine verlässlichere empirische Interpretation oder Überprüfung von Theorien/ Hypothesen. Die Kombination nicht nur verschiedener Messinstrumente im Rahmen eines Forschungsansatzes, sondern auch die parallele Annäherung an das gleiche Forschungsproblem auf der Basis verschiedener Forschungsansätze wird in den Sozialwissenschaften über wissenschaftstheoretische Grenzen hinweg zunehmend für notwendig gehalten (Kelle 2007). Wie es scheint, findet zumindest in der Forschungspraxis die Auffassung Wilsons immer breitere Zustimmung, dass der Gebrauch einer spezifischen Methode oder eines spezifischen Satzes von Methoden immer nur von der aktuellen Forschungsaufgabe her begründet werden kann, also gegenstandsangemessen sein muss (Wilson 1981, 58). Über die begrenzte Frage möglicher instrumentenspezifischer „Verzerrungen“ beim eigentlichen Messvorgang hinaus ist zu bedenken, dass jede Methode, jedes Hypothesenentwicklung große Bedeutung für qualitative Ansätze Mehrmethodenansatz Kombination von Ansätzen notwendig <?page no="105"?> 106 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 106 Verfahren spezifische Stärken und Schwächen aufweist und Sachverhalte aus unterschiedlichen Perspektiven, mit unterschiedlicher Breite oder Tiefe erfasst. Eventuelle Differenzen in den Ergebnissen sind daher nicht ohne Weiteres nach dem Kriterium ‚richtig‘ oder ‚falsch‘ zu bewerten, sondern zunächst und in erster Linie nach dem Kriterium, aus welcher Perspektive welcher Aspekt des Gegenstandes erfasst wurde. Insbesondere bei komplexen und bei noch in der Entwicklung befindlichen Forschungsgegenständen erbringt erst eine bewusst geplante Methodenvielfalt die notwendige Fülle an Informationen, um daraus ein Gesamtbild zusammenstellen und auch um die gefundenen Teilinformationen gegenseitig validieren zu können. Die klassische Studie von P. Lazarsfeld, M. Jahoda und H. Zeisel über „Die Arbeitslosen von Marienthal“ (Jahoda u. a. 1975, Orig. 1933) ist ein Beispiel für einen Mehrmethodenansatz. Über vier Monate beobachtete das Forschungsteam die Veränderungen in Marienthal nach der Schließung der örtlichen Fabrik, die einen Großteil der Bevölkerung Marienthals in die Arbeitslosigkeit entließ. Mit Befragungen und Beobachtungen ganz unterschiedlicher Art untersuchten sie, wie sich das dörfliche Leben im Angesicht der Langzeitarbeitslosigkeit eines Großteils der Bevölkerung entwickelt. Die Studie ist bis heute eindrucksvoll, nicht nur in ihrer Beschreibung der Auswirkungen von Arbeitslosigkeit, sondern auch in der Kreativität, mit der das Forschungsteam Methoden entwickelte. Die systematische Kombination mehrerer Methoden zur gegenseitigen Ergänzung und Prüfung der Ergebnisse wird Triangulation genannt. Triangulation ist die Untersuchung eines Forschungsgegenstandes aus mindestens zwei unterschiedlichen Perspektiven, wobei die Perspektiven sich durch Theorien oder Methoden unterscheiden können und möglichst gleichberechtigt angewendet werden (nach Flick 2008, 12). Ziel der Triangulation ist es, Schwächen einer Perspektive durch eine andere Perspektive zu kompensieren und so einen breiteren und besser abgesicherten Erkenntniszugang zu gewinnen. Mixed Methods Eine spezifische Form der Kombination unterschiedlicher empirischer Zugänge wird unter dem Stichwort Mixed Methods zusammengefasst. Mixed-Methods-Studien kombinieren ebenfalls unterschiedliche Zugangsweisen zur Wirklichkeit und ähneln damit den Mehrmethodenstudien. Spezifisch für den Mixed-Methods-Ansatz ist allerdings die Kombination von Analysen aus der quantitativen, kritisch-rationalen Perspektive und der qualitativen, interpretativen Perspektive. spezifische Stärken und Schwächen BEISPIEL <?page no="106"?> 107 2.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 107 Als Mixed-Methods-Studien werden solche Studien bezeichnet, die bei der Art benutzter Daten, der Datenerhebung oder der Datenanalyse qualitative und quantitative Zugänge kombinieren (vgl. Small 2011, 59). Damit ergibt sich ein breites Feld sehr unterschiedlicher Untersuchungsanordnungen, die unter den Begriff Mixed Methods fallen. Dazu zählen Studien, die standardisierte oder unstandardisierte Daten analysieren, die unterschiedliche Datenerhebungsinstrumente nutzen (zum Beispiel einen standardisierten Fragebogen und offene Interviews) oder die empirisches Material aus der Sicht der hypothesenprüfenden Tradition und der interpretativen Tradition interpretieren. Während die Kombination von standardisierten und unstandardisierten Verfahren noch vergleichsweise gut zu bewältigen ist, stellt insbesondere die Interpretation von Material aus den ganz unterschiedlichen Perspektiven von nomologischer und interpretativer Tradition erhebliche Anforderungen an die Forschenden. 2.5 Annotationen aus der Perspektive qualitativinterpretativer Methoden Systematisch beginnt die Unterscheidung qualitativ-interpretativer Ansätze vom analytisch-nomologischen Programm mit einer zentralen Erweiterung des Problemhorizonts: Während die auf dem Kritischen Rationalismus aufbauende Methodologie die von Hans Reichenbach (1983, Orig. 1938) vorgeschlagene Eingrenzung des Gegenstands der Erkenntnistheorie auf den Begründungszusammenhang wissenschaftlicher Theorien übernimmt, betonen Vertreter qualitativ-interpretativer Methodologien, dass diese Ausgrenzung des Entdeckungszusammenhangs zu einer problematischen Vereinseitigung führt. Zwar ist es richtig, dass wir den Forschenden nicht „in den Kopf schauen“ können, wenn in ihnen Forschungsfragen Gestalt annehmen oder sie sich ihre Hypothesen ausdenken, und dass wir im Wege der Geltungsprüfung nur bewerten können, was in versprachlichten Aussagesystemen niedergelegt ist. Doch die von Reichenbach vorgeschlagene Verbannung des Entdeckungszusammenhangs aus der Erkenntnistheorie in die Psychologie verkennt aus der Sicht qualitativ-interpretativer Sozialforschung die Zentralität des erkenntnispragmatischen Arbeitsschrittes der Entwicklung hypothetischer, theoretisierender Aussagen. Auch wenn dieser Teil des Forschungsprozesses nicht-logischer Natur ist und sich daher auch nicht vollständig logisch-zwingend rational herleiten oder begründen lässt: Für Forschungsprozesse, die im Kern immer auf die Generierung neuen Wissens zielen, finden entscheidende Weichenstellungen gerade vor der Etablierung logischer Aussagesysteme statt. Und-- so wird in qualitativ-interpretativer Perspektive weiter argumentiert- - die erkenntnispraktischen Vorgänge der Hypothesengenerierung sind zumindest intersubjektiv plausibel darstellbar und nachvollziehbar bzw. finden darin ein wesentliches Gütekriterium. Mixed Methods hohe Anforderung an Forschende Bedeutung des Entdeckungszusammenhangs Theoriebezug qualitativer Forschung <?page no="107"?> 108 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 108 Damit geht zugleich eine wichtige Umstellung im Verhältnis von Theorie und Empirie einher: An die Stelle der empirischen Überprüfung eines vorab gebildeten theoretischen Aussagensystems über den Untersuchungsbereich tritt in der qualitativ-interpretativen Forschungslogik die Entwicklung einer auf den Untersuchungsbereich bezogenen Theorie. Dabei entsteht die Theorie nicht im Sinne eines rein induktiven Prozesses ‚aus der Empirie‘-- eine solche Tabula rasa wäre erkenntnislogisch auch ganz unmöglich. Vielmehr bestehen alle qualitativ-interpretativen Forschungsprozesse aus einem Wechselspiel zwischen Empirie und Theorie: Ohne dabei von (auch theoretischem) Vorwissen absehen zu können oder zu wollen, geht die Analyse primär vom empirischen Material aus, bewegt sich insgesamt aber in einem iterativ-zyklischen Prozess zwischen Theorie und Empirie hin und her. Das Primat der Daten müssen wir uns eingebettet in einen größeren Wissens- und Entscheidungskontext vorstellen. So betont etwa Lindemann (2008, 110 f.), dass schon in die Konzeption von Methoden selbst basale sozialtheoretische Grundüberzeugungen eingehen, wie etwa die, ob ein handlungs-, interaktions- oder strukturtheoretisches Grundmodell angenommen wird. Noch basaler sind die erkenntnis- und wissenschaftstheoretischen Annahmen z. B. über den zugrunde zu legenden Realitätsbegriff, über das Theorieverständnis oder die Bestimmung dessen, was Daten sind und welche Rolle ihnen in den Methoden zukommt. Diese a priori und nicht von allen Forschenden immer bewusst getroffenen Entscheidungen haben axiomatischen Charakter, d. h. sie sind einer empirischen Überprüfung nicht zugänglich. Für eine rationale Diskussion über Methoden und Forschungsergebnisse ist es allerdings unabdingbar, die Grundannahmen des jeweiligen Forschungsprozesses zu explizieren. Selbst innerhalb der qualitativ-interpretativen Methoden findet sich in Bezug auf diese erkenntnis-, wissenschafts- und sozialtheoretischen Grundannahmen eine große Variation. Allerdings existieren über alle Methoden hinweg basale Prinzipien qualitativen Forschens, die weitestgehend geteilt werden. Es sind dies die Prinzipien der Offenheit, der Kommunikation, der Prozesshaftigkeit und der Reflexivität. Das Prinzip der Offenheit erklärt sich aus dem Interesse qualitativer Forschung an der Spezifik und Tiefgründigkeit sozialer Phänomene. Darin ist zugleich eine Kritik am „methodischen Filtersystem“ (Lamnek 1988, 22) standardisierter Verfahren enthalten: Batterien geschlossener Fragen, selektive Beobachtungsschemata oder vordefinierte inhaltsanalytische Kategoriensysteme können im Wesentlichen nur überprüfen, was vorab bereits gewusst-- oder genauer: theoretisch begründet vermutet-- wurde. Offenheit zielt dagegen auf eine initiale Öffnung des Forschungsprozesses gegenüber dem im empirischen Feld vorhandenen Wissen. Das beginnt bereits mit der Art der Fragestellungen, denn in der qualitativ-interpretativen Sozialforschung stehen Fragen des ‚Wie‘ und des ‚Was‘ im Vordergrund. Dem von Geertz geprägten Motto „What the devil is going on here? “ (Geertz 1973, 27) die qualitativ-interpretative Forschung daran interessiert, die im empirischen Feld relevant gemachten Perspektiven zu rekonstruieren und sich dabei immer wieder überraschen zu lassen. Das impliziert auch im Forschungsverlauf einige Offenheit in Bezug auf die Forschungsfrage: Gerade weil wir a priori noch nicht genau wissen können, wie unser For- Wechselspiel zwischen Empirie und Theorie Prinzip der Offenheit <?page no="108"?> 109 2.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 109 schungsgegenstand beschaffen ist, kann auch die Präzisierung der Forschungsfrage erst im Verlauf der Forschung erfolgen. Forschungsfrage und Forschungsergebnis stehen also in einem wechselseitigen Konstitutionsverhältnis. Offenheit ist auch das zentrale Charakteristikum für die Prozesse und Methoden der Datengewinnung. An die Stelle des in der standardisierten Forschung dominierenden Motivs der Vergleichbarkeit tritt in der qualitativen Forschung das Ziel einer maximalen Ausschöpfung des spezifischen Informationspotenzials. Statt z. B. starrer Fragebögen werden flexible, situativ zu variierende Interviewleitfäden verwendet, statt der selektiven Messung einzelner Variablen strebt man ein offenes Spektrum kontextreicher Informationen an. All dies zielt darauf, im Verlauf des Forschungsprozesses und im Lichte einer intensiven Materialkenntnis zur Formulierung und dann auch Überprüfung von Hypothesen zu gelangen. „Datengewinnung ist eine kommunikative Leistung“, schreibt Christa Hoffmann-Riem (1980). Damit ist-- im Sinne des Prinzips von Forschung als Kommunikation-- gemeint, dass die angestrebte Ausschöpfung des spezifischen Informationspotenzials in der Datengewinnungssituation nur gelingen kann, wenn wir unseren Kontakt mit dem Forschungsfeld konsequent als sozialen Prozess der Kommunikation und Interaktion auffassen und unsere Informanten im Feld als „orientierungs-, deutungs- und theoriemächtige Subjekte“ (Schütze 1978, 118) behandeln, statt sie zu „Fällen“ oder „Probanden“ zu degradieren, an denen uns nicht die Person, sondern allein die Ausprägung definierter Variablen interessiert. Auch wenn dies eher wie ein forschungsethischer Imperativ klingen mag-- hinter Prinzipien wie Offenheit und Kommunikation steckt wesentlich ein Qualitätsargument: Nur wenn wir unsere Forschung an diesen Prinzipien ausrichten, können wir die angestrebte Spezifität und Tiefgründigkeit unserer Ergebnisse erreichen. Forschung als Kommunikation bedeutet daher, dass wir die Situation der Datengewinnung konsequent an den Strukturen des Alltagshandelns ausrichten müssen. Statt artifizieller Datenerhebungssituationen sind eher alltagsähnliche Situationen des Gesprächs und des Mithandelns zu nutzen, um relevantes Wissen über unsere Forschungsgegenstände zu erlangen. Dies ist insbesondere deshalb von hoher Bedeutung, weil ein wesentlicher Teil unseres Forschungsgegenstandes immer auch die Motive, Reflexionen und Hintergrundkonstruktionen der handelnden Menschen betrifft, die wir nur in kommunikativen Prozessen erschließen können. Mit dem Prinzip der Prozesshaftigkeit ist zweierlei gemeint: Einerseits ist Forschung als Kommunikation ersichtlich als Prozess zu verstehen. In dem Sinne, dass ein Forschungsvorhaben immer eine gewisse Zeit beansprucht, ist diese Feststellung trivial. Gemeint ist hier aber, dass die Gewinnung der Daten nicht als einmaliger Akt des Messens, sondern als fortgesetzter Interaktionsprozess mit den Akteuren im Feld zu konzipieren ist. Damit werden die Forschenden unvermeidlich selbst zu einem Teil des Forschungsprozesses und seiner Ergebnisse. Wichtiger noch ist die zweite Bedeutung von Prozesshaftigkeit qualitativer Forschung: Auch der Gegenstand qualitativ-interpretativer Forschung wird als prozessual hergestellter verstanden: Die soziale Wirklichkeit, die wir untersuchen, bringen soziale Akteure fortwährend hervor, erhalten und modifizieren sie. Soziale Realität Forschung als kommunikative Leistung Forschung als Prozess Forschungsgegenstand wird im Forschungsprozess hergestellt <?page no="109"?> 110 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 110 ist in stetem Wandel begriffen; selbst vermeintlich Statisches muss immer aufs Neue interaktiv erzeugt werden: „Not change but the dynamics of remaining the same is the miracle which social science must explain” (Hughes 1955, 6)Es sind genau diese Hervorbringungsprozesse, für die sich qualitative Forschung interessiert: Wie entstehen Gruppen oder Netzwerke? Aber auch: Wie werden sie erhalten, verändert, weiterentwickelt oder auch aufgelöst? Wie geht der Wandel gesellschaftlicher Institutionen-- etwa Ehe oder Familie-- tatsächlich vonstatten und wie wird ihre Stabilität fortwährend hergestellt? Wie definieren Akteure Situationen als z. B. kritisch, und wie gehen sie interaktiv damit um? Auch mit dem Prinzip der Reflexivität ist die qualitative Sozialforschung in mehrfacher Hinsicht befasst: Zunächst einmal gilt, dass kein Objekt und keine Äußerung aus sich selbst heraus eine Bedeutung hat, diese vielmehr erst in einem Verweisungskontext von Objekt, Äußerung und Kontext entsteht. Je nach Referenzrahmen ist ein Objekt oder eine Äußerung anders zu interpretieren. Dieses reflexive Verhältnis von Einzelnem und Ganzem, das Wilson (1982) als „Indexikalität“ bezeichnet hat, war der implizite Hintergrund schon der Hermeneutik, jener ‚Kunst‘ der Auslegung also, die sich mit der Interpretation des Sinns von Artefakten (Texten, Bildern, Objekten) befasst und von einer Zirkularität von Sinnkonstitution und Sinnverstehen ausgeht. So wie das Einzelne erst im Kontext des Ganzen verstehbar ist, so erschließt sich auch die Bedeutung des Ganzen erst aus der Bedeutung des Einzelnen-- dies wird auch als hermeneutischer Zirkel bezeichnet. Zugleich aber existiert Reflexivität auch im Verhältnis von Forschungsfrage und Forschungsgegenstand: Unser Forschungsinteresse und unsere konkrete Forschungsfragen sind mitentscheidend dafür, welche Bedeutung wir bestimmten empirischen Phänomenen im Feld und bestimmten Daten, die wir über sie gewonnen haben, zuweisen. In einem gewissen Umfang richtet die Fragestellung also die Daten zu, beeinflusst mithin, was die Daten uns bedeuten. In diesem Sinne spricht etwa Mead davon, dass wir als Handelnde unsere Objekte aus der Welt „herausmeißeln“ müssen (1938, 660) und dass Tatsachen nicht einfach vorhanden sind und aufgesammelt werden können, sondern dass man sie als Daten herauspräparieren muss (1938, 98). In einem dritten Sinne schließlich meint Reflexivität auch das gegenüber der standardisierten Forschung veränderte Verständnis der Rolle der Forschenden. Nicht nur ist ihre kreative Eigenleistung in den vielfältigen Interpretations- und Rekonstruktionsprozessen unverzichtbar. „Qualitative Forschung ist Feldforschung“, wie Aglaja Przyborski und Monika Wohlrab-Sahr (2014, 39) schreiben. Deshalb sind die Forschenden in die Produktion von Datenmaterial als konkrete Personen verstrickt. Reflexivität bedeutet hier, diese Weisen der Verstrickung in das Feld analytisch fortgesetzt mit zu bedenken. Prinzip der Reflexivität Indexikalität Reziprozität von Forschungsfrage und Forschungsgegenstand <?page no="110"?> 111 2.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 111 2.5.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Bohnsack, Ralf, 2014: Rekonstruktive Sozialforschung. Einführung in qualitative Methoden, Opladen (Hier: Kapitel 1: Rekonstruktive Verfahren in der empirischen Sozialforschung im Unterschied zu hypothesenprüfenden Verfahren.) Hoffmann-Riem, Christa, 1980: Die Sozialforschung einer interpretativen Soziologie-- Der Datengewinn. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 32, 339-372. (Ein methodenhistorisch für die Etablierung der interpretativen Sozialforschung in Deutschland bedeutsamer Aufsatz. Die Forschungslogik qualitativ-interpretativer Verfahren wird in der Perspektive einer die Sozialforschung insgesamt bereichernden Andersartigkeit der auf diesem Weg zu gewinnenden Daten und Theorien kontrastierend zur hypothesentestenden Forschungslogik der standardisierten Sozialforschung dargestellt.) Kelle, Udo, 1994: Empirisch begründete Theoriebildung: Zur Logik und Methodologie interpretativer Sozialforschung. Weinheim Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Forschungsdesigns für die qualitative Sozialforschung, in: Baur, N.; Blasius, J. (Hg.): Handbuch Methoden der empirischen Sozialforschung, Wiesbaden, 117-133 Silverman, David, 1997: The Logics of Qualitative Research. In: Miller G.; Dingwall, R. (Hg.), Context and Method in Qualitative Research, London; Thousand Oaks, Calif., 12-25. <?page no="111"?> www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 112 <?page no="112"?> 113 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 113 3 Die empirische „Übersetzung“ des-Forschungsproblems 3.1 Problempräzisierung und Strukturierung des Untersuchungsgegenstandes: dimensionale und semantische Analyse Wenn die Wissenschaftlerin bzw. der Wissenschaftler das Forschungsproblem abgegrenzt hat (bzw. bei Auftragsforschung: wenn die Fragestellung vorgegeben worden ist) und wenn er oder sie sich über die Relevanz des Problems sowie über damit verbundenen Interessen klar geworden ist (vgl. Kapitel 2.3: „Entdeckungs- und Verwertungszusammenhang“), dann ist in aller Regel die Problemformulierung noch recht grob. Es werden also einige Überlegungen in die Präzisierung der Aufgabenstellung zu investieren sein. Diese nächsten Arbeitsschritte im Forschungsprozess, die man als Exploration des Vorstellungsfelds über den Untersuchungsgegenstand bezeichnen kann, werden für die Art und Qualität der Ergebnisse mitentscheidend sein. Ihr Ergebnis soll in einer modellhaften Strukturierung des Objektbereichs bestehen: In gedanklichen Vorleistungen ist der Gegenstand der Untersuchung so zu durchleuchten, so in seine vielfältigen Facetten zu zerlegen und zu ordnen, dass sich daraus ein problemangemessenes Forschungsdesign entwickeln und begründen lässt. 93 Dazu zunächst ein grober Überblick: Je nach dem Typ der Untersuchung stehen zu Beginn unterschiedliche Einzelaufgaben im Vordergrund. Zumindest analytisch lässt sich das Vorgehen in dieser Phase danach unterscheiden, ob die Aufgabenstellung auf die Überprüfung einer Hypothese/ Theorie gerichtet ist (theorie-/ hypothesentestende Forschung; Kapitel 2.4.2) 94 , oder ob es sich um die Beschreibung eines mehr oder weniger komplexen sozialen Sachverhalts oder Zusammenhangs handelt (deskriptive Untersuchung; Kapitel 2.4.5). Geht es bei einem Forschungsvorhaben in erster Linie um die beschreibende Diagnose eines Sachverhalts (deskriptive Untersuchung), so wird sich der Blick zunächst auf die empirische Struktur des Realitätsausschnitts richten, über den Daten erhoben werden sollen. Hierüber werden möglichst umfassend diejenigen Informationen 93 Bei einigen Lehrbuchautoren wird dieser Projektabschnitt „Konzeptspezifikation“ genannt, so etwa bei Schnell/ Hill/ Esser 1999, Diekmann 1995, Döring/ Bortz 2016 (wenn auch vor allem bezogen auf die Klärung „theoretischer Konzepte“). 94 Für den hier diskutierten Zusammenhang darf allerdings die Trennung in deskriptive Studien auf der einen und hypothesenbzw. theorietestende Untersuchungen auf der anderen Seite nicht als einander ausschließend verstanden werden. Jede Beschreibung setzt gewisse Annahmen über den Gegenstandsbereich (zumindest also „Alltagstheorien“) voraus. Und zu testende Hypothesen/ Theorien haben einen unterschiedlichen Allgemeinheitsgrad, wobei die Trennungslinie zwischen (noch) „Verbalisierung beobachteter empirischer Regelmäßigkeiten“ und (schon) „Theorie“ unscharf wird. Präzisierung der Aufgabenstellung abhängig vom Untersuchungstyp Beschreibung: Struktur des Realitätsausschnitts <?page no="113"?> 114 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 114 zusammengetragen, die bereits existieren. Auf der Grundlage dieser-- zunächst mehr oder weniger unstrukturierten- - Informationssammlung filtert man die Aspekte („Dimensionen“) des empirischen Untersuchungsgegenstands heraus, die für die aktuelle Fragestellung besonders bedeutsam erscheinen. 95 Dieser Arbeitsabschnitt wird im Folgenden nach Zetterberg (1973) als „dimensionale Analyse des Untersuchungsgegenstandes“ bezeichnet. 96 Anschließend sind die geeigneten sprachlichen Symbole (objektsprachliche Begriffe) zu wählen, die den Untersuchungsgegenstand in der als problemangemessen erkannten Differenzierung, d. h. kontrolliert selektiv, abzubilden und kommunikativ zu vermitteln erlauben. Um zugleich sicherzustellen, dass die erzielten Forschungsresultate nicht lediglich einen bestehenden Datenfriedhof vergrößern, sollten die verwendeten objektsprachlichen Begriffe dennoch „theoretisch relevant“ sein (darauf wird an späterer Stelle noch weiter eingegangen; vgl. auch Kapitel 1.3.5: „deskriptives Schema“). Ist demgegenüber die empirische Überprüfung einer Theorie oder von Theorieteilen (Hypothesen) das Ziel einer Untersuchung, so enthalten die zu testenden Hypothesen bereits explizite Behauptungen über die Struktur des empirischen Untersuchungsgegenstands. Das heißt: Überlegungen darüber, wie der Gegenstand beschaffen ist, über den Daten erhoben werden sollen, sowie welche seiner Aspekte untersuchungsrelevant sind und welche nicht, brauchen hier nicht am Anfang der Phase der „Konzeptspezifikation“ zu stehen; denn die Art und Richtung der Selektion wird bereits durch die Hypothesen vorgegeben. Auch die verwendeten sprachlichen Zeichen (Begriffe) sind in den Formulierungen der Hypothesen bereits festgelegt. Da jedoch Begriffe nicht immer und von jedem eindeutig und einheitlich verwendet werden, wird es in diesem Fall (d. h. bei hypothesentestender Forschung) einer der ersten Arbeitsschritte sein müssen, die Bedeutung der in den Hypothesen verwendeten Begriffe zu klären. Es ist also zu prüfen, was der Autor der Theorie oder der Hypothesen über die empirische Realität präzise behauptet; es ist zu erschließen, was mit den verwendeten Begriffen im Detail gemeint ist. Nicht nur dies: Im Falle hypothesentestender Forschung hat es der Empiriker mit so genannten „theoretischen“ (oder theoriesprachlichen) Begriffen zu tun, das heißt mit Begriffen, die bewusst so allgemein und abstrahierend gehalten sind, dass sie üblicherweise mehr als eine eng abgrenzbare Menge konkreter Ereignisse umgreifen (bitte lesen Sie ggf. noch einmal Kapitel 2.4.2). In diesem Falle muss festgelegt werden, welches die konkreten empirischen Beziehungen und Sachverhalte sein sollen, auf die die theoretische Aussage anzuwenden sei. Mit anderen Worten: Aus der (all- 95 Natürlich hat die Forscherin und hat der Forscher zu begründen, warum sie/ er bestimmte Aspekte für relevant, andere im gegebenen Zusammenhang für weniger relevant oder gar für unerheblich hält. 96 „In der modernen soziologischen Theorie richtete sich die Aufmerksamkeit in starkem Maße auf die Entwicklung von Definitionen deskriptiver Kategorien (Taxonomien). Wir wollen dies dimensionale Analyse nennen-… Den besonderen Aspekt der Wirklichkeit, den ein Wissenschaftler behandeln will, nennen wir eine ‚Dimension der Natur‘. Diese Dimensionen werden mit verschiedenen Namen oder ‚Begriffen‘ bezeichnet.“ (Zetterberg 1973, 105, ähnlich Holm 1975, 15) dimensionale Analyse Hypothesentest: Bedeutung der-Begriffe Beziehung Begriffe-- Sachverhalte <?page no="114"?> 115 3.1 Problempräzisierung und Strukturierung des Untersuchungsgegenstandes www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 115 gemeinen) Theorie sind unter Einhaltung logischer Regeln (durch Deduktion) spezifische Hypothesen für spezifische Sachverhalte abzuleiten. Hierzu ist es in aller Regel notwendig, die in der Theorie verwendeten „theoretischen Begriffe“ oder Konstrukte zu spezifizieren und „empirisch zu interpretieren“, d. h. ihren Bedeutungsgehalt für die konkrete Untersuchungssituation festzulegen. Für die dann angesprochenen spezifischen Sachverhalte soll sich die (allgemeine) Theorie „bewähren“. Jede denkmögliche empirische Situation, die von der Theorie ausgeschlossen wird, ist ein „potenzieller Falsifikator“ dieser Theorie. Die Aufgabe der Festlegung der zwecks Hypothesentests zu untersuchenden konkreten empirischen Beziehungen und Sachverhalte bedeutet also: aus der Gesamtheit der potenziellen Falsifikatoren einer Hypothese (bzw. Theorie) eine Auswahl zu treffen. 97 Dieser Arbeitsabschnitt der Erschließung der Bedeutung von Begriffen (der Rekonstruktion ihrer „semantischen Regeln“, 98 aber auch der „empirischen Interpretation“ theoretischer Begriffe) wird im Folgenden als „semantische Analyse“ bezeichnet. Erst danach kann endgültig entschieden werden, über welche empirischen Gegebenheiten Daten zu sammeln sind. Gemeinsam ist beiden Ausgangssituationen (beschreibende Diagnose, Theorietest) die Notwendigkeit, die empirische Wirklichkeit mit Begriffen zu verknüpfen; also entweder relevante Dimensionen der zu untersuchenden Realität mit Begriffen zu bezeichnen oder umgekehrt-- von theoretischen Begriffen ausgehend-- die Begriffe mit konkreten Aspekten der Wirklichkeit in Beziehung zu setzen, d. h. anzugeben, welche Aspekte der Realität im konkreten Untersuchungsfall unter den Begriff subsumiert werden sollen. Die Begriffe sind-- mit anderen Worten-- so zu wählen und ggf. zu definieren, dass eine Korrespondenz zwischen empirischen Sachverhalten und sprachlichen Zeichen hergestellt ist. Häufig werden die in Frage kommenden Begriffe in der alltäglichen und/ oder wissenschaftlichen Sprache nicht genau den Bedeutungsgehalt haben, der für den konkreten Untersuchungsfall zweckmäßig ist. In diesem Fall braucht es präzisierende und/ oder einschränkende Definitionen, in denen nach Zweckmäßigkeitsgesichtspunkten die sprachlichen Zeichen auf damit gemeinte Aspekte der Realität („Referenzobjekte“) bezogen werden. Der Definition hat also entweder eine dimensionale Analyse des Gegenstandsbereichs voranzugehen (bei deskriptiven Untersuchungen), 97 Es sei daran erinnert, dass dieser Konfrontation der Theorie mit Beobachtungsdaten zwei andere Prüfungsdurchgänge voranzugehen haben (vgl. Kapitel 1.3.2): 1. der logische Vergleich der Folgerungen (der abgeleiteten Hypothesen) untereinander, d. h. die Suche nach internen Widersprüchen, 2. die logische Analyse der Theorie auf ihren empirischen Gehalt (Popper 1971; Opp 1976, Kapitel VIII). 98 Semantik =-Lehre von der Bedeutung sprachlicher Zeichen.-- Um Missverständnissen entgegenzuwirken: Wenn hier zur Verdeutlichung die dimensionale und die semantische Analyse idealtypisch am Beispiel deskriptiver und theorietestender Forschung abgehandelt wird, dann bedeutet dies selbstverständlich nicht, dass die Strukturierung des empirischen Objektbereichs nur bei deskriptiven und die Analyse von Bedeutungsdimensionen nur bei theorietestenden Untersuchungen erforderlich sei. Vielmehr besteht bei jeder Forschung die Aufgabe, beides (den Untersuchungsgegenstand wie die zu verwendende Sprache) im Detail zu klären, wenn auch jeweils mit unterschiedlichem Gewicht. semantische Analyse Korrespondenz: Begriff und Sachverhalt präzise Definitionen <?page no="115"?> 116 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 116 oder der für die Untersuchung geltenden Definition hat eine semantische Analyse der in den Hypothesen vorkommenden Begriffe voranzugehen. Dadurch wird nicht nur sichergestellt, dass intersubjektive Klarheit über die Bedeutung der verwendeten Begriffe besteht, sondern auch, dass die Begriffe empirischen Bezug haben. In der Erfahrungswissenschaft folgt auf diese semantische Klärung noch als weiterer Schritt die Verknüpfung von Begriffen mit empirischen Sachverhalten, und zwar in einer Weise, dass durch Forschungsoperationen (also durch Beobachtung, Befragung, Inhaltsanalyse usw.) entscheidbar wird, ob der gemeinte Sachverhalt in der Realität vorliegt oder nicht. Dies nennt man Operationalisierung, manchmal auch operationale Definition. In den vorangegangenen Abschnitten dieses Überblicks haben wir einige zentrale Fachausdrücke zunächst ohne hinreichende Erläuterung eingeführt. Sie werden an geeigneter Stelle noch ausführlich behandelt. Vorerst seien hier zwei Worte herausgegriffen, die für unsere weiteren Überlegungen die Basis bilden: „Begriffe“ und „Dimensionen“. Beide beziehen sich aufeinander. Nach Zetterberg (1973) soll unter Dimension (der Realität) eine „Eigenschaft der Wirklichkeit“, also des zu untersuchenden Gegenstandsbereichs, verstanden werden. Begriffe dagegen sind Bestandteil der Sprache, mit denen der Gegenstandsbereich „besprochen“, bezeichnet wird. Man kann für die gleiche Dimension der Realität verschiedene Begriffe prägen (Synonyme wie Automobil oder Kraftfahrzeug oder Auto oder Kfz). Man kann auch für unterschiedliche Gegenstände der Realität den gleichen Begriff benutzen (Homonyme, Homogramme, z. B. „Hahn“, wobei sich erst aus dem Kontext ergibt, ob der Hahn auf dem Hühnerhof oder der an der Wasserleitung gemeint ist). Bei deskriptiver Aufgabenstellung wird es die erste Aufgabe sein, die nach der Fragestellung zu erfassenden Dimensionen der Wirklichkeit festzulegen und abzugrenzen. Wenn dies auf der gedanklichen Ebene geschehen ist-- zugegebenermaßen eine Abstraktion--, dann muss der Forscher/ die Forscherin dazu die geeigneten deskriptiven Kategorien definieren. Als Resultat der Verknüpfung mit geeigneten Begriffen erhalten wir das deskriptive Schema des Untersuchungsgegenstands. Ziel der dimensionalen Analyse bei sozialwissenschaftlichen Forschungen ist also die Aufstellung eines Modells der für die empirische Studie relevanten Dimensionen des Untersuchungsgegenstands und die Zuordnung geeigneter Begriffe. Dieses Dimensions- und Begriffssystem ist der Orientierungsrahmen bei deskriptiver Forschung. Das den Untersuchungsdimensionen zugeordnete Begriffssystem soll aber zugleich „theoretisch relevant“ sein, damit die Ergebnisse zur Theoriebildung und -fortentwicklung verwendet werden können. Dieses Zusammenbringen von Objektbereich und Sprache ist jedoch nicht lediglich bei deskriptiver Forschung ein zentraler Arbeitsschritt; er ist ebenso unabdingbar bei Operationalisierung: Verknüpfung Begriff-Sachverhalt Dimension: Eigenschaft der Wirklichkeit Begriff: sprachliche Bezeichnung des Gegenstandes deskriptives Schema zur Orientierung <?page no="116"?> 117 3.1 Problempräzisierung und Strukturierung des Untersuchungsgegenstandes www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 117 hypothesentestenden Untersuchungen. Der ins Auge springende Unterschied ist lediglich der entgegengesetzte Startpunkt dieses Bemühens: Hypothesentestende Forschung hat von Begriffen auszugehen, die bereits in ihrem jeweils theoretischen Zusammenhang festgelegt worden sind und deren spezifische Bedeutung im gegebenen (Hypothesen-)Kontext zunächst zu klären ist. Am Anfang steht also die Notwendigkeit einer präzisen semantischen Analyse. Bei der semantischen Analyse zerlegt man die Begriffe in ihre Bedeutungskomponenten; es wird festgestellt, welche Bedeutungsdimensionen der theoretische Begriff anspricht. Dieser semantischen Klärung hat sodann die „empirische Interpretation“ zu folgen. Es ist zu explizieren, auf welche Dimensionen der Wirklichkeit sich die Bedeutungsdimensionen des Begriffs konkret beziehen (sollen). Was mit Dimension, gleichgültig ob „Bedeutungsdimension“ oder „Dimension der Wirklichkeit“ gemeint ist, soll zunächst an einem Beispiel eingeführt werden. Mit „individuelle Lebensqualität“ wird ein empirischer Sachverhalt bezeichnet, der u. a. dadurch charakterisiert ist, dass er nicht nur einen einzigen Aspekt hat, dass er also nicht „eindimensional“, sondern „mehrdimensional“ ist. Richten Sie jetzt Ihre Überlegungen nicht auf das sprachliche Zeichen, den Begriff „Lebensqualität“, sondern auf den gemeinten realen Sachverhalt. Dieser setzt sich nach übereinstimmender Vorstellung aus einer Vielzahl von Teilaspekten (eben: „Dimensionen“) zusammen, die sehr unterschiedlich ausgeprägt sein können: Umweltqualität insgesamt, Wohnumwelt, Wohnung, Konsummöglichkeiten, Freizeit, Berufs- und Arbeitssituation, Familiensituation und noch manches mehr. Alles dies sind „Dimensionen der Lebensqualität“, Aspekte der Realität, an denen wir unterscheiden (können), ob die Lebensqualität „hoch“ oder „niedrig“ ist, genauer: ob die Lebensqualität als hoch oder niedrig gelten soll. Noch einmal: Auch wenn wir an dieser Stelle zur Wiedergabe unserer gedanklichen Strukturierung des Sachverhalts Lebensqualität sprachliche Zeichen verwenden müssen (wie „Umweltqualität“ oder „Wohnung“)-- Ihre Denkarbeit sollte sich im Moment auf die Ebene der empirischen Sachverhalte (nicht der Begriffe) richten. 99 Nehmen wir von den aufgezählten Dimensionen eine heraus: die Familiensituation. Auch hiermit ist wieder ein empirischer Sachverhalt gemeint, der nicht eindimensional ist. Wiederum kann man verschiedene Aspekte unterscheiden: Grad 99 Wir sind als schulisch sozialisierte Erwachsene mittlerweile so sehr daran gewöhnt, Unterschiede in der Realwelt sprachlich-abstrakt zu denken, dass die hier geforderte Trennung von sprachlicher Bezeichnung und Gegenstandsbereich manchem schwerfällt. Das Kleinkind, dem Sprache noch nicht als Kommunikations- und Denkinstrument zur Verfügung steht, muss seine Lebensumwelt und ihre „Dimensionen“ noch ausschließlich begriffsunabhängig durch sein erkundendes Handeln entdecken. dimensionale Analyse auch bei Hypothesentest BEISPIEL <?page no="117"?> 118 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 118 der emotionalen Sicherheit (z. B. Konfliktfreiheit, Familiengebundenheit der Kinder usw.), materielle Sicherheit, Familienzyklus und einiges mehr. Auch von diesen „Unterdimensionen“ sei eine herausgegriffen: Familien- oder Lebenszyklus. Erneut bezeichnet dies einen empirischen Sachverhalt, der offensichtlich nicht eindimensional ist; denn darunter wird eine Kombination der Merkmale Alter, Familienstand, Kinder im Haushalt verstanden. Beispielsweise fassen die Merkmalskombinationen „jung/ verheiratet/ kinderlos“ zur Vorstellung „Familie im Gründungsstadium“ und „alt/ verheiratet/ Kinder nicht mehr im Haushalt der Eltern“ zur Vorstellung „reduzierte Familie“ zusammen. Erst die Teilaspekte, aus denen sich entsprechend diesem Konzept der „Familienzyklus“ zusammensetzt-- Alter, Familienstand, Kinder im Haushalt--, sind „eindimensional“: Jeder dieser Teilaspekte lässt sich auf einer einfachen Skala abbilden: Altersangabe in Jahren, Familienstand auf einer Nominalskala (ledig, verheiratet, geschieden etc.) und Kinder im Haushalt in natürlichen Zahlen. Unter „Dimensionen“ sind also diejenigen Merkmale zu verstehen, nach denen empirische Sachverhalte unterschieden werden können. Je nach Fragestellung kann diese dimensionale Unterscheidung weit vorangetrieben werden (im Beispielsfall etwa bis hin zu Individualmerkmalen wie Alter, Familienstand, Kinderzahl), oder man wird sich auf einer höheren Abstraktionsstufe bewegen (z. B. wenn Dimensionen der Lebensqualität in verschiedenen Regionen zu untersuchen sind). Bitte beachten Sie jedoch: Mit „Dimensionen“ sind nicht die Merkmalsausprägungen gemeint wie „67 Jahre alt“ oder „verheiratet“, mit denen man eine einzelne Person charakterisiert, sondern gemeint ist immer das ganze Spektrum möglicher Ausprägungen eines Merkmals (hier eben: Alter und Familienstand). Auf derjenigen Ebene, bis zu der die dimensionale Unterscheidung „gedanklich“ 100 vorangetrieben wird, setzt der Forscher für die zu unterscheidenden Dimensionen Begriffe ein, die zu definieren und für die gegebenenfalls Indikatoren festzulegen sind. Richten wir den Blick bei unseren Bemühungen um gedankliche Strukturierung (wie im obigen Beispiel) auf den empirischen Gegenstand, dessen Details wir ergründen und ordnen wollen, dann handelt es sich um eine dimensionale Analyse des Gegenstandsbereichs. Setzen wir uns dagegen mit der Frage auseinander, welche Bedeutungen 100 Diese zunächst nur „gedankliche“ dimensionale Strukturierung ist natürlich eine idealtypische Abstraktion. Im obigen Text mussten notwendigerweise bei der Schilderung des Beispiels bereits Begriffe verwendet werden, und auch „in Wirklichkeit“ sind wir es gewöhnt, „in Begriffen“ zu denken. Um die beiden Ebenen „Objektbereich“ und „Sprache“ an dieser Stelle eindeutig zu trennen, stellen Sie sich bitte vor, Sie verfügten noch über keinerlei für Ihren Untersuchungsgegenstand geeigneten Begriffsapparat und seien deshalb gezwungen, bei der dimensionalen Strukturierung die zu unterscheidenden Sachverhalte grafisch zu skizzieren (so wie z. B. ein Architekt den Grundriss, die räumliche Aufteilung und das äußere Erscheinungsbild eines von ihm zu planenden Bauwerks zeichnerisch darstellt). Dimension: Merkmal mit möglichen Ausprägungen dimensionale Analyse des Gegenstandsbereichs <?page no="118"?> 119 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 119 sprachlichen Zeichen zugeschrieben werden (sollen), dann bemühen wir uns um eine semantische Analyse von Begriffen (oder: eine Analyse der Bedeutungsdimensionen von Begriffen). Um auf unser Beispiel zurückzukommen: Bei einer semantischen Analyse des Begriffs „Lebensqualität“ würde unsere Frage nicht lauten, aus welchen Aspekten sich der „Sachverhalt Lebensqualität“ zusammensetzt, sondern was Personen meinen, wenn sie von „Lebensqualität“ reden. Die geforderte Unterscheidung zwischen der dimensionalen Analyse eines empirischen Gegenstandsbereichs und der semantischen Analyse von Begriffen fällt-- wie bereits angemerkt-- manchen Studierenden anfangs schwer; denn beides kann nur sprachlich kommuniziert werden. Vielleicht hilft hier eine Unterscheidung nach der Art der verwendeten Sprache: Begriffe, mit denen wir Sachverhalte, Ereignisse (allgemeiner: Objekte) bezeichnen, gehören zur Objektsprache; Aussagen, die wir über die sprachlichen Zeichen treffen, gehören zur Metasprache. Das bedeutet dann: Als Resultat einer dimensionalen Analyse erhalten wir objektsprachliche Aussagen; das Resultat einer semantischen Analyse formulieren wir in einer Metasprache. Und vielleicht hilft auch ein Satz weiter, den wir bei Wienold (2000, 147) gefunden haben: „Das Bild eines Hundes bellt nicht.“ Präzisierung der Fragestellung, dimensionale bzw. semantische Analyse sind wie die gesamte Konzeptualisierung des Forschungsvorhabens wichtige und für den erfolgreichen Verlauf eines Forschungsprojekts kritische Punkte. Festlegungen auf dieser Stufe können in einer späteren Untersuchungsphase nicht mehr zurückgenommen, Unterlassungen nicht mehr korrigiert werden (s. auch Kriz 1981, Kap. 6 bis 9). 3.2 Dimensionale Analyse Wie dargestellt dient die dimensionale Analyse der Identifikation wichtiger Dimensionen des zu untersuchenden Gegenstandsbereichs und der anschließenden Entwicklung eines geeigneten begrifflichen Schemas. Wir widmen uns zunächst komprimiert dem Vorgehen bei einer dimensionalen Analyse und illustrieren danach das Vorgehen an einem ausführlichen Beispiel. 3.2.1 Vorgehen bei einer dimensionalen Analyse Die dimensionale Analyse hat eine idealtypische Abfolge von vier Arbeitsschritten: - Ideen- und Materialsammlung: Welche Sachverhalte sind von der Fragestellung direkt angesprochen? Was hängt (indirekt) mit ihr zusammen? Wie sind die angesprochenen Sachverhalte gegliedert? Haben sie eine angebbare Struktur; d. h.: Welche empirischen Zusammensemantische Analyse von Begriffen BEISPIEL dimensionale Analyse: objektsprachliche Aussagen semantische Analyse: Metasprache Ideen- und Materialsammlung <?page no="119"?> 120 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 120 hänge gibt es zwischen den Teilelementen des Untersuchungsgegenstands? Als methodische Vorgehensweisen bieten sich an: „Brainstorming“, Rückgriff auf vorhandene empirische Kenntnisse bei den Forschern, Literaturstudium, Expertenbefragung, explorative Vorstudie. - Systematisierung: Die gesammelten Ideen und Materialien sind in eine realitäts- und themenadäquate Ordnung zu bringen. Erst durch eine solche Ordnung wird erkennbar, ob und wo möglicherweise noch Lücken bestehen, so dass gegebenenfalls eine Ergänzung der Ideen- und Materialsammlung erforderlich wird. Strategien der Systematisierung können sein: - theoretische Ordnung (z. B. unter Rückgriff auf Ursache-, Wirkungs- oder Systemzusammenhangs-Hypothesen), - Ordnung in Form eines Ablaufschemas (z. B. Entscheidungs- oder Ereignisabfolge), - formale Ordnung (z. B. vom Allgemeinen zum Spezifischen, von Oberzielen über Zwischen- und Unterziele zu konkreten Maßnahmen). - Auswahl der untersuchungsrelevanten Aspekte: Aus der Ergebnisfülle der möglichst umfassend angelegten Ideen- und Materialsammlung und ihrer systematisierten Zusammenfassung sind diejenigen Aspekte („Dimensionen“) auszuwählen, die für die Fragestellung der Untersuchung bedeutsam scheinen und über die deshalb empirische Daten erhoben werden sollen. Die Selektion ist anhand begründeter und intersubjektiv nachprüfbarer Kriterien vorzunehmen; die Begründungen sind zu dokumentieren. Auswahlkriterien lassen sich z. B. aus empirisch bewährten theoretischen Kenntnissen ableiten, oder sie können sich aus dem Erkenntnisinteresse des Forschers oder dem Verwertungsinteresse des Auftraggebers einer Studie ergeben. - Entwicklung eines untersuchungsleitenden Modells sowie des deskriptiven Begriffsschemas: Die als untersuchungsrelevant ausgewählten Dimensionen des Gegenstands sind zueinander in Beziehung zu setzen (Was hängt in welcher Weise womit zusammen? Was wirkt sich in welcher Weise worauf aus? ). Es empfiehlt sich, dieses untersuchungsleitende Gegenstandsmodell in Form einer Grafik zu visualisieren sowie die im Modell implizierten Zusammenhangshypothesen explizit auszuformulieren. Dies erleichtert Ihnen zudem die nächste Aufgabe: die Erstellung des deskriptiven Begriffsschemas. Beim deskriptiven Begriffsschema ist darauf zu achten, dass die zur Beschreibung und Analyse des Untersuchungsgegenstands benutzten Begriffe der Fragestellung angemessen sind; d. h. sie sollen geeignet sein, die Struktur des empirischen Sachverhalts in der notwendigen Differenzierung sprachlich abzubilden. Ferner müssen sie- - zur Sicherung der intersubjektiven Geltung der Aussagen- - entweder bereits eine unmissverständliche Bedeutung haben oder gegebenenfalls vom For- Systematisierung Auswahl relevanter Aspekte Entwicklung eines untersuchungsleitenden Modells Entwicklung eines deskriptiven Begriffsschemas <?page no="120"?> 121 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 121 scher präzise definiert werden. Im Idealfall haben die Begriffe des deskriptiven Schemas zugleich theoretische Relevanz, so dass die Daten auch zur Weiterentwicklung bereits bestehender oder zur Formulierung neuer Theorien/ Hypothesen über den Untersuchungsgegenstand beitragen können. Zur Illustration des möglichen Ergebnisses einer dimensionalen Analyse zeigt Abbildung 3.1 als Beispiel ein mit einfachen grafischen Mitteln übersichtlich dargestelltes Modell eines extrem komplexen Untersuchungsgegenstands. Es handelt sich um ein von G. Maletzke (1981) entworfenes „Schema des Feldes der Massenkommunikation“. Hier wird in vorbildlicher Weise die Visualisierung der als relevant angesehenen Aspekte des Untersuchungsgegenstandes sowie der als relevant angenommenen Beziehungen zwischen den einzelnen Dimensionen realisiert. Zur Erläuterung: „Das Schema versucht, folgende Sachverhalte darzustellen: Der Kommunikator (K) produziert die Aussage durch Stoffwahl und Gestaltung. Seine Arbeit wird mitbestimmt durch seine Persönlichkeit, seine allgemeinen sozialen Beziehungen (u. a. persönliche direkte Kommunikation), durch Einflüsse aus der Öffentlichkeit und durch die Tatsache, dass der Kommunikator meist in einem Produktionsteam arbeitet, das wiederum einer Institution eingefügt ist. Außerdem muss der Kommunikator die Erfordernisse seines Mediums und des ‚Programms‘ kennen und berücksichtigen, und schließlich formt er sich von seinem Publikum ein Bild, das seine Arbeit und damit die Aussage und damit endlich auch die Wirkungen wesentlich mitbestimmt. Die Aussage (A) wird durch das Medium (M) zum Rezipienten geleitet. Sie muss dabei den technischen und dramaturgischen Besonderheiten des jeweiligen Medi- Quelle: Maletzke (1981, 14). Selbstbild als Persönlichkeit im Team in der Institution in sonstigen sozialen Beziehungen Zwang der Ö entlichkeit Zwang der Aussage bzw. des Programms Sto auswahl Gestaltung Spontane Antworten des Rezipienten Auswahl aus dem Angebot Erleben Wirkung Zwang des Mediums Bild vom Medium beim Rezipienten Zwang des Mediums Bild vom Rezipienten beim Kommunikator Bild vom Kommunikator beim Rezipienten in sonstigen sozialen Beziehungen als Glied des Publikums als Persönlichkeit Selbstbild A R M K Abbildung 3.1: Schema des Feldes der Massenkommunikation <?page no="121"?> 122 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 122 ums angepasst werden. Der Rezipient (R) wählt aus dem Angebot bestimmte Aussagen aus und rezipiert sie. Der Akt des Auswählens, das Erleben der Aussage und die daraus resultierenden Wirkungen hängen ab von der Persönlichkeit des Rezipienten, von seinen sozialen Beziehungen, von den wahrnehmungs- und verhaltenspsychologischen Eigenarten des Mediums auf der Empfängerseite, von dem Bild, das sich der Rezipient von der Kommunikatorseite formt und von dem mehr oder weniger klaren Bewusstsein, Glied eines dispersen Publikums zu sein. Schließlich deutet der obere Pfeil im Feldschema an, dass trotz der Einseitigkeit der Massenkommunikation ein ‚Feedback‘ zustande kommt“ (Maletzke 1981, 14). 3.2.2 Beispiel einer dimensionalen Analyse: Berufserfolg-und-soziale-Herkunft Die Aufgabenstellung für eine deskriptive Untersuchung möge sein: Es sollen Daten zur Beschreibung der Bildungs- und Berufssituation von Kindern aus Elternhäusern unterschiedlicher Sozialschichten erhoben und ausgewertet werden. Zunächst stellt sich die Frage (vgl. Kapitel 2.2, Punkt a): Wie steht es um den „Entdeckungszusammenhang“? Eine solche Forschungsaufgabe würde sicher nicht formuliert, wenn nicht bestimmte Probleme aufgetaucht wären und wenn nicht bestimmte Vermutungen oder Kenntnisse über die Zusammenhänge der angesprochenen Aspekte der Wirklichkeit bestünden. Beispielsweise könnte jemand die Erfahrung gemacht haben, dass Arbeiterkinder es sowohl in der Schule als auch später im Beruf schwerer haben, „nach oben“ zu kommen (oder gleichbedeutend: dass Kinder aus Mittelschicht- oder Oberschichtmilieu es in beiden Bereichen leichter haben). Der Ausgangspunkt der Überlegungen könnte aber auch ein ganz anderer sein; nämlich, dass wir- - nach Schelsky (1962)- - in einer hochmobilen Gesellschaft leben, in der im Prinzip jeder die Chance hat, bei entsprechender Leistung „aufzusteigen“, und in der die Schule die eigentliche Zuweisungsinstanz für soziale Chancen sei. Das hier formulierte Forschungsproblem beschäftigt Soziologen seit den Anfangszeiten ihrer Disziplin. Für die USA etwa wurde es in einer klassischen Studie von Blau und Duncan (1967) untersucht. Deren forschungsleitende Hypothese war- - stark vereinfacht--: „Die soziale Herkunft beeinflusst sowohl direkt als auch indirekt (über die ermöglichte Bildung) den beruflichen Erfolg der Kinder.“ Formalisiert lässt sich diese theoretische Annahme (Vermutung über Chancenungleichheiten in der Gesellschaft) so darstellen: Bildung Berufserfolg Soziale Herkunft Sollen die Ergebnisse auch praktische und politische Relevanz haben („Verwertungszusammenhang“), müssen die empirischen Informationen über dieses Problemfeld sowohl relativ präzise als auch begründet sein. Schon daraus ergibt sich die Notwen- <?page no="122"?> 123 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 123 digkeit, den Sachverhalt gedanklich klar durchzustrukturieren (vgl. Kapitel 2.2, Punkt b: Präzisierung der Problemformulierung). Zunächst einmal ist zu klären: Was ist der gesellschaftliche Sachverhalt „soziale Herkunft“? Welchen Einfluss könnte die soziale Herkunft auf Schulerfolg und späteren Berufserfolg der Kinder ausüben? Was ist „Bildung“ und-- schließlich-- was ist „beruflicher Erfolg“ der Kinder? Außerdem, da man ganz gewiss nicht alle Aspekte der zu Beginn global formulierten Aufgabenstellung in einer einzigen Untersuchung wird analysieren können: Welche Aspekte sind besonders relevant? Welche können im gegebenen Zusammenhang als weniger relevant vernachlässigt werden? Mit anderen Worten: Man benötigt Selektionskriterien. Die Formulierung „im gegebenen Zusammenhang weniger relevant“ verweist auf das Erkenntnisinteresse, aber auch auf den Verwendungszusammenhang: Für welche Zwecke sollen die Resultate der Forschung verwendet werden? Das Ergebnis der dimensionalen Analyse und der Problempräzisierung wird z. B. bei Auftragsforschung entscheidend vom Auftraggeber und dessen Interessen abhängen. In dieser Phase strukturieren Erkenntnisziele und Werte bis zu einem gewissen Grad das potenzielle Ergebnis der Forschung, indem sie den Kreis möglicher Erkenntnisse eingrenzen: Was jetzt ausgeblendet wird, darüber werden keine Forschungsresultate gewonnen! Zurück zur ersten Frage: Was könnte „soziale Herkunft“ in der realen Situation einer Gesellschaft wie den USA in den 1960er-Jahren sein? 101 Welche Merkmale könnten (bei gegebener Fragestellung) relevant sein? Ein „Brainstorming“, eine Ideen-Sammlung der Forschergruppe möge die folgende Liste erbringen: 1) Engere soziale Umwelt des Individuums (Familie): - sozialer Status der Familie (Elternhaus, größerer Familienverband in der Gegenwart, Verwandte, Familientradition, „guter Name“) - soziales Netzwerk der Familie (Mitgliedschaft in einflussreichen Organisationen, gute Beziehungen durch persönliche Bekanntschaften von Familienmitgliedern etc.) - Verhaltensstile in der Familie (etwa Erziehungsstile, Leistungsorientierung, soziales Klima, Autoritätsstruktur) - demografische Merkmale der Familie (Haushaltsgröße, Altersstruktur, Geschwister, Rang in der Geschwisterfolge etc.) 2) Weitere soziale Umwelt: - Wohngebiet (Nachbarschaft, „Adresse“) - Stadt/ Land - homogene/ heterogene soziale Umwelt 3) Zugehörigkeit zu gesellschaftlichen Gruppen: - ethnische Gruppen (etwa indigene Völker Amerikas, Afroamerikaner, Latinos) - Randgruppen 101 Man beachte: Die Überlegungen richten sich hier nicht auf die Bedeutung des Begriffs „soziale Herkunft“, sondern auf die Situation im Untersuchungsfeld zum Zeitpunkt der Untersuchung. <?page no="123"?> 124 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 124 Diese Liste ist natürlich unvollständig, dürfte jedoch bereits zu lang sein, als dass sie in der Regel in einem Forschungsprojekt bzw. in einer Untersuchung voll berücksichtigt werden könnte. Die Forschergruppe möge sich dafür entscheiden, „soziale Herkunft“ auf „sozialer Status des Elternhauses“ zu reduzieren. Diese Entscheidung wäre zur Sicherung der intersubjektiven Überprüfbarkeit explizit zu begründen. Soll die Reduzierung dem Anspruch der Wertneutralität genügen, müsste die Begründung sogar im Rahmen der Untersuchungsfragestellung gelingen. Es müsste also der Nachweis möglich sein, dass außer den Merkmalen des sozialen Status des Elternhauses alle übrigen aufgelisteten Aspekte (Dimensionen) der sozialen Herkunft keinen nennenswerten Einfluss auf die Bildung und auf den Berufserfolg der Kinder ausüben. Sie wären „im gegebenen Zusammenhang“ unerheblich. Das Problem ist nur: Um diesen Nachweis führen zu können, müssten bereits sämtliche relevanten Informationen verfügbar sein. Nehmen wir also (im Interesse der Vereinfachung dieses Beispiels) an: Für die USA der 1960er-Jahre sei dieser Nachweis aufgrund vorliegender empirischer Befunde möglich. Nach der Entscheidung für die Reduzierung auf den sozialen Status des Elternhauses geht es nun darum, die Teildimensionen hiervon zu bestimmen. Das Ergebnis könnte folgende Liste sein: 1) Beruf - Berufsbezeichnung - Berufsprestige - mit der Berufsposition verbundener Einfluss (Macht) - Selbständigkeit/ Abhängigkeit (Freiheitsspielraum bei der Ausgestaltung der Arbeit) - berufliche Sicherheit (Kündbarkeit, Zukunftsaussichten etc.) - berufliche Belastung (Schwierigkeit, Eintönigkeit der Arbeit, Arbeitszeit etc.) 2) Vermögen (Geld, Wertsachen, Grund und Boden, Produktivvermögen etc.) 3) Einkommen - durch Erwerbstätigkeit erzielt (selbständige, unselbstständige Erwerbstätigkeit) - durch Vermögen erzielt (durch Produktionsmittel, aus anderen Vermögensanlagen) 4) Bildung - Schulbildung (formale nichtberufliche Schulbildung, Berufsschule) - Erwachsenenbildung, 2. Bildungsweg, allgemeine Weiterbildung - berufliche Ausbildung, berufliche Weiterbildung - „Geistesbildung“, Persönlichkeitsbildung - außerhalb des Schulsystems (z. B. durch Selbststudium) erlangtes Wissen Es zeigt sich, dass auch diese Liste von Merkmalen noch zu umfangreich sein dürfte, so dass auch hier wieder eine Selektion stattzufinden hat; dies aber nicht nur hinsichtlich der Merkmale, sondern auch im Hinblick auf die Personen, die durch die Bezeichnung „Elternhaus“ angesprochen sind: Sollen die Merkmale für alle Mitglie- <?page no="124"?> 125 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 125 der der Familie erhoben werden? Oder nur für das Elternpaar oder nur für eine Person (Vater oder Mutter)? Oder soll ein Gesamtwert für die ganze Familie gefunden werden (etwa: Gesamteinkommen oder Durchschnittseinkommen pro Kopf oder Einkommen des Hauptverdieners)? Auch in diesem Fall ist die Auswahlentscheidung wieder nachprüfbar zu begründen, sind die Selektionskriterien offen zu legen. Was hier für den Aspekt (die Dimension) „soziale Herkunft“ bzw. den Teilaspekt (die Teildimension) „sozialer Status des Elternhauses“ vorgeführt wurde, hätte in ähnlicher Weise für „Bildung der Kinder“ und „beruflicher Erfolg der Kinder“ zu geschehen. In Anlehnung an Blau/ Duncan (1967), und zwar an deren „Basismodell“, sei die Fragestellung im Folgenden eingeschränkt auf die Ermittlung des Zusammenhangs der Merkmale „sozialer Status des Elternhauses“ (gemessen an den beiden Merkmalen: Berufsprestige und Bildung), „Bildung des Befragten“ (gemessen am Merkmal: formale schulische Bildung) sowie „Berufserfolg des Befragten“ (gemessen am Merkmal: Berufsprestige) 102 . Was die Merkmalsträger angeht (die Personen, für die in der Untersuchung die Merkmale Bildung und Berufsprestige erhoben werden), so wird die Analyse auf die Väter (als Repräsentanten für das Elternhaus) und auf die Söhne (als die künftigen Status-Träger) begrenzt. Wie könnte eine solche Selektion der Merkmale und der Merkmalsträger aus der Vielzahl der aufgelisteten möglichen Merkmale und der Zahl möglicher Merkmalsträger begründet werden? Nun, man wird wieder auf Theorien zurückgreifen, auch wenn dies nicht immer deutlich gemacht wird, vielleicht sogar dem Forscher selbst nicht klar ist. Mögliche Begründungen könnten lauten: Es ist gerechtfertigt, „Elternhaus“ auf den Vater des Befragten zu beschränken, weil das „männliche Familienoberhaupt“ (in einer Gesellschaft wie den USA um 1960) die Stellung der Familie in der gesellschaftlichen Hierarchie definiert: Ehefrau und Kinder besitzen demgegenüber lediglich einen davon abgeleiteten Status. Ganz analoge Gründe könnten für die Beschränkung der Untersuchung auf die Söhne angeführt werden. 103 Was die Auswahl der Statusmerkmale angeht, so seien als besonders relevant für die Charakterisierung des Herkunftskontextes angesehen: a) das Berufsprestige des Vaters, denn die gesellschaftliche Stellung drückt sich vor allem im Prestige der Berufsposition aus, vor allem diese ist nach außen sichtbar; b) die erreichte formale Bildung des Vaters; denn: Je höher die Bildung des Elternhauses, umso höher das Anspruchsniveau für die an die Kinder weiter zu vermittelnde Bildung; und: Je höher die Bildung des Elternhauses, desto günstiger die 102 Sozialer Status des Elternhauses sei definiert als (kurz: =-df.): die Position, die die Herkunftsfamilie in der gesellschaftlichen Hierarchie einnimmt.-- Schulische Bildung =-df. über offizielle gesellschaftliche Institutionen vermittelte Kenntnisse und Fähigkeiten, wobei der erfolgreiche Besuch solcher Institutionen durch ein Zertifikat bescheinigt wird.-- Berufsprestige =-df. der Rang eines Berufs in einer nach dem gesellschaftlichen Ansehen gebildeten Rangordnung aller Berufe. 103 „Gender mainstreaming“ war vor 50 Jahren in den USA (wie in Europa) nicht nur noch „kein Thema“; es hatte auch keine empirische Relevanz für die soziale Strukturierung der Gesellschaft. <?page no="125"?> 126 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 126 Voraussetzungen, die in der vorschulischen Sozialisation an die Kinder weitergegeben werden (z. B. Sprache). Als „nicht relevant“ werden im Basismodell von Blau/ Duncan unberücksichtigt gelassen: Höhe und Art des Einkommens (mögliche Begründung: enger statistischer Zusammenhang mit Berufsprestige); andere als formale Bildung („soziale“ Relevanz erhalten vor allem die offiziell dokumentierten Bildungsabschlüsse); soziale und räumliche Umwelt (diese bestimmt nur indirekt den Status des Elternhauses; die Segregation 104 verläuft umgekehrt: sozialer Status → Umwelt). Im Hinblick auf die Bereiche Bildung und Berufserfolg der Söhne werden als problemrelevant angesehen: die formale schulische Bildung sowie das Prestige der Berufsposition. Damit wird nun die zu Beginn formulierte forschungsleitende Hypothese durch folgende Einzelhypothesen (die nur noch einen Ausschnitt aus der Anfangsfragestellung abdecken) spezifiziert: a) Der Berufserfolg (Berufsprestige) der Söhne wird positiv beeinflusst durch deren eigenen Bildungsabschluss (Zuteilung gesellschaftlicher Chancen durch die Schule): beru icher Erfolg des Sohnes Bildung des Sohnes + b) Die Höhe des Bildungsabschlusses wird positiv beeinflusst sowohl von der Berufsposition des Vaters als auch von dem Bildungsniveau des Vaters (höheres Anspruchsniveau und bessere Voraussetzungen aus dem Elternhaus): Bildung des Sohnes beru iche Position des Vaters + Bildung des Sohnes Bildung des Vaters + c) Der berufliche Erfolg wird zusätzlich positiv beeinflusst durch die Berufsposition des Vaters („delayed effect“: bei gleicher bildungsmäßiger Voraussetzung hat die höhere Berufsposition des Vaters einen fördernden Einfluss, z. B. über Einfluss, Beziehungen, Vorurteile der Personalchefs). Die Bildung des Vaters dagegen hat- - so die Annahme- - keinen „delayed effect“ und wirkt sich ausschließlich indirekt auf dem Weg über die Bildung des Sohnes aus: beru iche Position des Vaters + beru icher Erfolg des Sohnes 104 Segregation =- df. Ausmaß der disproportionalen Verteilung von Bevölkerungsgruppen oder Nutzungen über die Teilgebiete (z. B. Ortsteile) eines Gebiets (z. B. Stadt). <?page no="126"?> 127 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 127 Zusammengefasst ergibt sich das folgende (formalisierte) Untersuchungsmodell (vgl. zum bisherigen Argumentationsgang Kapitel 2.2, Punkte a bis d): Berufsprestige des Vaters Berufserfolg (prestige) des Sohnes Bildung des Vaters + + + 0 + Bildung des Sohnes Wie ist das Resultat der hier beispielhaft vorgestellten dimensionalen Analyse und deren Verwertung für ein Untersuchungsmodell einzuschätzen? Die Gesamtheit möglicher Einflussfaktoren auf den Berufserfolg der Kinder reduziert sich hier auf drei Größen und wird lediglich im Hinblick auf die Söhne untersucht. Eine Konsequenz für die Verwertung der Ergebnisse: Informationen für eine Politik oder für Bemühungen mit dem Ziel, etwa die gesellschaftliche Situation der Frau zu verändern, sind aus dieser Untersuchung nicht zu gewinnen. Voraussetzung für die Berechtigung der Reduzierung des komplexen Beziehungsfeldes auf die genannten Einflussgrößen ist entweder: Alle anderen Einflussgrößen sind im Vergleich zu diesen drei (in der untersuchten Gesellschaft und zum Zeitpunkt der Untersuchung) in ihrer Wirkung gering und können daher für den hier interessierenden Zusammenhang vernachlässigt werden. Oder: Andere Einflussgrößen mögen zwar auch bedeutsam sein (etwa Zugehörigkeit zu einer ethnischen Gruppe); sie interessieren (den Forscher oder Auftraggeber) aber nicht. Die zweite Begründung kann man lediglich akzeptieren oder nicht akzeptieren. Die erste Begründung dagegen kann empirisch richtig oder falsch sein. Wenn aber andere als die drei Einflussgrößen auf Berufserfolg nicht erhoben werden, kann man sie im Rahmen dieser Untersuchung auch nicht empirisch überprüfen. Die Annahme könnte ja durchaus falsch sein; in diesem Falle wären aber die gesamten Ergebnisse der Analyse möglicherweise auch falsch, nämlich dann, wenn andere-- nicht berücksichtigte- - Einflussgrößen nicht nur auf die abhängige Variable, sondern auch auf erklärende Variablen 105 Einfluss ausüben. Zum Beispiel könnte das Einkommen des Vaters sowohl die erreichbare Bildung des Sohnes positiv beeinflussen (Lernmaterial, Nachhilfestunden etc.) als auch zusätzlich den späteren Berufserfolg (der „Geldadel“ hilft sich gegenseitig, oder gar: „Kauf“ 105 Erklärende Variablen werden auch „explikative Variablen“ oder „unabhängige Variablen“ genannt. Es sind die Merkmale, die nach den Modell-Annahmen Einfluss auf die „abhängige Variable“ (hier: Berufserfolg der Söhne) nehmen und daher deren Veränderung „erklären“ sollen. Bitte beachten Sie: Dieser statistische Begriff des „Erklärens“ unterscheidet sich von dem in Kapitel 2.4.1 verwendeten Begriff des „wissenschaftlichen Erklärens“; er bedeutet, dass ein bestimmter Teil der Unterschiede in der abhängigen Variablen aufgrund der Kenntnis der unabhängigen Variablen „berechnet“ werden kann (ausführlicher in Kapitel 8.3.3). <?page no="127"?> 128 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 128 einer hoch angesehenen Position). In einem solchen Fall würde aber die Hinzunahme des Merkmals „Einkommen des Vaters“ die Restbeziehung zwischen Bildung und Berufserfolg vermindern und zu einer anderen Interpretation der empirischen Resultate führen. Das Untersuchungsmodell hätte dann folgendes Aussehen: Berufsprestige des Vaters Berufsprestige des Sohnes Bildung des Vaters Einkommen des Vaters + + + + + + Bildung des Sohnes Ob diese ergänzende Annahme in der empirischen Realität Bestand hat, lässt sich nicht im Voraus entscheiden, sondern erst, wenn die dafür benötigten Daten erhoben und statistisch ausgewertet worden sind. Bitte erinnern Sie sich: Bei der dimensionalen Analyse (=- bei der gedanklichen Strukturierung) des Untersuchungsgegenstandes geht es darum, 1. herauszufinden, welche Aspekte an dem Untersuchungsgegenstand prinzipiell festgestellt werden können, 2. zu entscheiden, welche Aspekte für die konkrete Untersuchung so bedeutsam sind, dass dazu Daten erhoben werden sollen. Für beide Aufgaben ist es hilfreich, wenn wir auf bereits bewährte Theorien zurückgreifen können. Zumindest für den Punkt 2. müssen wir uns auch über den „Entdeckungs- und Verwertungszusammenhang“ (vgl. Kapitel 2.3) klar werden. Die strategische Bedeutung der dimensionalen Analyse bei der Konzipierung eines Untersuchungsmodells soll noch kurz an einem Vergleich der empirischen Ergebnisse von Blau und Duncan mit denen einer Nachfolgeuntersuchung in der BRD (Raum Konstanz) durch W. Müller (1976) aufgezeigt werden. Bei Müller wird (wie auch schon bei Blau/ Duncan in einem etwas erweiterten Modell) ebenfalls das bisher entwickelte Schema zugrunde gelegt, allerdings geringfügig ergänzt: und zwar wird die Variable „Berufsprestige des Sohnes“ zu zwei Zeitpunkten gemessen, nämlich bei Berufseintritt (1. Beruf ) und zum Zeitpunkt der Untersuchung (derzeitiger Beruf ). Zu diesem erweiterten Modell berichten Blau und Duncan für die USA anhand ihrer Daten von folgenden Befunden: 106 106 Auf die Details der in der statistischen Auswertung berechneten Koeffizienten kann hier- - ohne die notwendigen statistischen Grundlagenkenntnisse bereits vermittelt zu haben-- nicht eingegangen werden. Vereinfacht soll die Stärke der Beziehungen zwischen den Variablen wie folgt symbolisiert werden: (+) =- sehr geringe, + =- geringe bis mittelstarke, ++ =- starke, +++ =-sehr starke Beziehung. <?page no="128"?> 129 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 129 derzeitiger Beruf des Sohnes Bildung des Vaters Beruf des Vaters + + + + (+) + ++ Bildung des Sohnes 1. Beruf des Sohnes Der Bildungsabschluss des Sohnes hängt bis zu einem gewissen Grade von dessen sozialer Herkunft ab, wobei die Merkmale Bildung und Beruf des Vaters zusammen 26 % der Unterschiede in der Schulbildung der befragten Söhne „statistisch erklären“. 107 Das würde die Interpretation rechtfertigen, dass der Einfluss des Elternhauses auf den erzielten Schulabschluss (und das heißt: die Chancenungleichheit im Bildungssystem) gar nicht so groß ist, wie oft behauptet wird. Die Schulbildung wiederum wirkt sich sowohl auf die erste Berufsposition als auch auf den Beruf zum Zeitpunkt der Untersuchung aus; aber auch hier sind die statistisch ermittelten Beziehungen bei weitem nicht so stark, wie die Thesen von der „Status-Vererbung“ und von der Funktion der Schule als Zuweisungsinstanz für soziale Chancen vermuten lassen. Gleiches gilt für den unabhängig von der vermittelten Bildung erkennbaren Effekt des Vaterstatus auf den Berufserfolg des Sohnes. Fazit: Die gängige These vom Aufstieg durch Leistung in einer „offenen Gesellschaft“ wird durch die empirischen Befunde, gewonnen auf der Basis des skizzierten Untersuchungsmodells, für die USA nicht eindeutig widerlegt. Insgesamt lassen sich in den Daten von Blau und Duncan zwar 42 % der festgestellten Unterschiede im Berufsprestige der Befragten auf die Variablen des Untersuchungsmodells und die dort postulierten Beziehungen zurückführen; knapp 60 % der Unterschiede aber bleiben offen für die Vermutung „Leistung zahlt sich aus“. Die Daten der Nachfolgeuntersuchung von Müller für den Konstanzer Raum zeigen bei Zugrundelegen des Blau/ Duncan-Modells durchaus ähnliche Beziehungen. Lediglich der Einfluss der eigenen Schulbildung auf die erste Berufsposition erweist sich hier als stärker. Also: In Deutschland scheint die Situation Ende der 1960er-Jahre ähnlich zu sein wie in den USA. Müller bleibt jedoch nicht bei diesem Befund stehen, sondern nimmt eine geringfügige Änderung der Untersuchungsanlage vor. Er führt die dimensionale Analyse einen Schritt weiter und unterteilt das Merkmal „Bildung des Sohnes“ in a) Bildung vor Eintritt in das Berufsleben sowie b) Weiterbildung. Eine getrennte Auswertung der erhobenen Daten für die Personen, die ihre Ausbildung vor Eintritt in das Berufs- 107 Genauer: 26 % der Varianz der Variablen „Bildung des Sohnes“ wird durch die beiden Herkunftsvariablen kontrolliert. Das statistische Modell der Varianzzerlegung kann an dieser Stelle natürlich nicht eingeführt werden (vgl. dazu Kapitel 8). Zum Verständnis der hier geführten Argumentation sollte folgende Überlegung genügen: Je größer der Anteil der „erklärten Varianz“, umso stärker ist der statistisch festgestellte Zusammenhang zwischen zwei oder mehreren Merkmalen. <?page no="129"?> 130 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 130 leben endgültig abgeschlossen haben (1976, 302 f.), und diejenigen, die sich nach der ersten Berufstätigkeit noch weitergebildet haben (1976, 304 f.), macht nun interessante Unterschiede deutlich: Für Personen mit „normaler Karriere“ (Elternhaus → Schule → Beruf ) zeigt sich eine sehr starke Abhängigkeit ihres „Berufserfolgs“ von sozialer Herkunft und Schulbildung: 81 % der beobachteten Berufsprestige-Unterschiede lassen sich durch die Variablen im Untersuchungsmodell „erklären“. Dabei ist sowohl der Einfluss des Elternhauses auf die Schulbildung (44 % erklärte Varianz) als auch der Effekt des Bildungsabschlusses auf den Einstiegsberuf sowie des Einstiegsberufs auf den späteren Berufserfolg erheblich. Es zeigt sich also eine klar erkennbare Linie der „Status-Vererbung“: soziale Herkunft → Bildung → erster Beruf → späterer Beruf. derzeitiger Beruf des Sohnes Bildung des Vaters Beruf des Vaters +++ + (+) (+) (+) ++ +++ Bildung des Sohnes 1. Beruf des Sohnes Dass dies in den Daten für die gesamte Zahl der Untersuchungspersonen nicht unmittelbar erkennbar wird, liegt an der Gruppe, die den mühevollen Weg der Weiterbildung nach Eintritt in den Beruf gewählt hat. Bei diesen ist der Einfluss des Elternhauses auf ihre Bildung (13 % erklärte Varianz) ebenso wie der Effekt des ersten Berufs auf den späteren Berufserfolg erheblich geringer. Auch das gesamte Variablenmodell kann nur knapp halb so viele Unterschiede im Berufsprestige erklären wie bei der Kontrollgruppe. derzeitiger Beruf des Sohnes Bildung des Vaters Beruf des Vaters (+) (+) + (+) + +++ Bildung des Sohnes 1. Beruf des Sohnes Für den „traditionellen Bildungsweg“ werden nach dieser differenzierteren Analyse die Thesen von der „Statusvererbung“ nun überzeugend bestätigt. Und wenn dieser Prozess der Weitergabe ungleicher Startchancen durchbrochen werden soll, dann-- so muss jetzt das Fazit lauten--, bedarf es dazu zusätzlicher individueller Bemühungen. Das traditionelle Schulsystem nämlich erfüllt nach diesen Resultaten offenbar nicht die Aufgabe, die ihm vielfach zugeschrieben wird: Lebenschancen nach Leistung zu verteilen oder gar Chancenungleichheit zu reduzieren. Eher scheint das Gegenteil zuzutreffen. Müllers Resümee: „Durch die Erweiterung von Blau und Duncans <?page no="130"?> 131 3.3 Semantische Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 131 Modell konnten wir zeigen, dass Bildungsbemühungen während der beruflichen Karriere sich in einer Verbesserung des beruflichen Status auszahlen und zudem wesentlich weniger von Bindungen der sozialen Herkunft abhängen als der Erfolg im ,Ersten Bildungsweg‘. Die größere Distanz zur Herkunftsfamilie, die Berufstätige im Vergleich zu den-- in der Regel jüngeren-- Schülern haben, lässt die bildungsfördernden bzw. -hemmenden Impulse eines unterschiedlichen Herkunftsmilieus weniger zum Zuge kommen“ (1976, 311). Fassen wir zusammen: - Ausgangspunkt der dimensionalen Analyse ist eine auf die Beschreibung eines empirischen Sachverhalts bezogene, relativ grob abgegrenzte Fragestellung. - Die methodische Aufgabe besteht in der Präzisierung der Fragestellung (gegebenenfalls in ihrer Einschränkung) sowie in der gedanklichen und begrifflichen Strukturierung des Untersuchungsgegenstandes. 3.3 Semantische Analyse Erinnern wir uns: Während die Forscherin sich im Rahmen der dimensionalen Analyse mit einem existierenden empirischen Gegenstandsbereich (z. B. soziale und psychische Folgen von Arbeitslosigkeit, Wohnsituation ausländischer Arbeitnehmer, Studienbedingungen an der Massenuniversität) auseinandersetzt, hat sie es bei der semantischen Analyse mit sprachlichen Zeichen (Begriffen) und ihrer Bedeutung, also mit Aussagen über einen (vom Sprecher, vom Schreiber) gemeinten Sachverhalt zu tun. 3.3.1 Vorgehen bei einer semantischen Analyse Während der Forscher/ die Forscherin im Zuge der dimensionalen Analyse mit Hilfe von systematisierter Ideen- und Materialsammlung möglichst präzise die Struktur des zu untersuchenden Gegenstands vorzuklären versucht, muss er/ sie bei der semantischen Analyse die Bedeutung der verwendeten Begriffe in ihrem sprachlichen Kontext rekonstruieren. So spricht beispielsweise das gleiche sprachliche Zeichen „Nordrhein-Westfalen“ in den folgenden Sätzen unterschiedliche Bedeutungsaspekte an: 1. Nordrhein-Westfalen ist 33.958 Quadratkilometer groß. 2. In Nordrhein-Westfalen finden demnächst Landtagswahlen statt. Im ersten Fall ist das räumliche Gebiet gemeint; im zweiten Fall bezieht sich die Aussage auf das politische System, das „Bundesland NRW“ als Teil des föderalistisch organisierten politischen Systems „Bundesrepublik Deutschland“. Dasselbe Begriffsbedeutung rekonstruieren BEISPIEL <?page no="131"?> 132 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 132 sprachliche Zeichen bezeichnet in beiden Aussagekontexten jeweils einen anderen „Gegenstand“: In dem räumlichen Gebiet „Nordrhein-Westfalen“ werden z. B. auf bestimmten Flächen Kartoffeln angebaut, wird in anderen Bereichen (immer noch, wenn auch immer weniger) Kohle gefördert. Im politischen System „Nordrhein-Westfalen“ (im „Bundesland NRW“) bemühen sich CDU, SPD, FDP, GRÜNE und andere Parteien um Sympathie bei „den Wählern“ und um Mandate in den Parlamenten auf Kommunal- und Landesebene. Beides-- räumliches Gebiet/ Fläche und politisches System- - sind offensichtlich außerordentlich unterschiedliche Sachverhalte; mit dem ersten befassen sich innerhalb der Wissenschaften vor allem Geografen, mit dem zweiten Politologen. Sprachliche Zeichen (Begriffe) haben häufig die Eigenschaft, „mehrdeutig“ zu sein. Im unproblematischsten Fall heißt dies, dass der Begriff mehrere unterschiedliche Aspekte eines komplexen Sachverhalts zusammenfasst, dass er also einen mehrdimensionalen Sachverhalt bezeichnet (vgl. das Beispiel „Lebensqualität“ in Kapitel 3.1). „Mehrdeutigkeit“ kann auch bedeuten, dass der Begriff mehrere, in der Realität an sich unterscheidbare Sachverhalte dadurch auf einen Nenner bringt, dass er von individuell spezifischen Merkmalen dieser Sachverhalte absieht (abstrahiert) und nur solche Merkmale hervorhebt, die allen gemeinten Sachverhalten gemeinsam sind. Wir haben es dann mit Oberbegriffen zu tun. So ist z. B. „Kraftfahrzeug“ ein Oberbegriff zu Personenauto, Lastkraftwagen, Sattelschlepper, Lieferwagen, Bus, Motorrad, Motorroller usw., die ihrerseits wieder Oberbegriffe für jeweils eine Reihe unterschiedlicher Kraftfahrzeugarten sind. Von solchen „mehrdimensionalen“ Begriffen sind in einem gegebenen Aussagenzusammenhang- - in einem sprachlichen Kontext-- üblicherweise nicht alle „Bedeutungsdimensionen“ gemeint (vgl. das Beispiel „Nordrhein-Westfalen“). Ziel der semantischen Analyse muss es daher in einem solchen Fall sein, die tatsächlich gemeinten Bedeutungsdimensionen aus dem sprachlichen Kontext zu erschließen. Trotz der Mehrdimensionalität solcher Begriffe wird in den oben genannten Fällen dennoch ein einheitlicher Sprachgebrauch bei unterschiedlichen Sprechern unterstellt, d. h. alle meinen z. B. mit dem Oberbegriff „Kraftfahrzeug“ die gleichen Klassen von Gegenständen. Nicht selten aber geht die „Mehrdeutigkeit“ von Begriffen über ihre „Mehrdimensionalität“ hinaus: Die gleichen sprachlichen Zeichen werden dann von verschiedenen Personengruppen mit jeweils unterschiedlichen, teilweise sogar gegensätzlichen Bedeutungen belegt. Das Begriffspaar „Freiheit und/ oder Sozialismus“ hatte bei Anhängern konservativer bzw. Anhängern linker Parteien in der politischen Auseinandersetzung der 1970er- und 1980er-Jahre völlig unterschiedliche Bedeutung. Wortschöpfungen wie „Wende“ oder „Flexibilisierung des Arbeitsmarktes“ oder „Globalisierung“ oder „demografischer Faktor“ (im Rentensystem) werden ebenfalls unterschiedlich verstanden. Oder überlegen Sie, welche Bedeutung der Begriff „Kapital“ in der marxistischen im Vergleich zur „bürgerlichen“ Wirtschafts- und Gesellschaftstheorie hat. Bei solcher Art von begrifflicher Mehrdeutigkeit ist es Aufgabe der semantischen Analyse, den unterschiedlichen Sprachgebrauch unterschiedlicher Gruppen oder mehrdimensional Oberbegriffe unterschiedliche Bedeutungen begriffliche Mehrdeutigkeit klären <?page no="132"?> 133 3.3 Semantische Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 133 unterschiedlicher theoretischer Ansätze herauszuarbeiten und die verschiedenen Sprachverwendungen einander gegenüberzustellen. Außerdem sind die alternativen Bedeutungen eines sprachlichen Zeichens gegenüber den Bedeutungen ähnlicher Begriffe abzugrenzen. Das heißt: Es sind hinreichend differenziert die Verwendungsregeln sprachlicher Zeichen (die „semantischen Regeln“) für die untersuchungsrelevanten Gruppen von Sprechern oder Autoren sowie für die untersuchungsrelevanten sprachlichen Kontexte zu rekonstruieren. Und noch eines sollte Ihnen stets bewusst sein: Während Begriffe, die im Anschluss an eine dimensionale Analyse des zu untersuchenden Gegenstandsbereichs den Aspekten der Realität durch Definition zugeordnet werden, immer empirischen Bezug haben (vgl. Kapitel 3.1: „deskriptives Schema“ sowie grundlegend Abschnitt 1.3.2), muss dies bei theoretischen Begriffen nicht so sein. Eine semantische Analyse theoretischer Begriffe zum Zwecke der empirischen Überprüfung von Theorien/ Hypothesen umfasst deshalb zwei Ebenen: a) Es müssen die Bedeutungskomponenten (Bedeutungsdimensionen) herausgearbeitet werden, die dem Begriff im verwendeten theoretischen Zusammenhang (eventuell in alternativen theoretischen Zusammenhängen) zukommen, und es müssen b) die empirischen Sachverhalte bestimmt werden, die diesen Bedeutungsdimensionen entsprechen. Dabei kann sich durchaus herausstellen, dass ein Begriff im theoretischen Zusammenhang zwar von seiner (intensionalen) Bedeutung her eindeutig verwendet wird, dass ihm aber (extensional) überhaupt keine oder doch nur sehr wenige auch empirisch mögliche Sachverhalte entsprechen (überhaupt kein bzw. sehr geringer empirischer Bezug). 108 Das praktische Vorgehen bei der semantischen Analyse ist ähnlich dem der dimensionalen Analyse: Beim Verfahren der dimensionalen Analyse des Untersuchungsgegenstandes folgt auf die Ideen- und Materialsammlung sowie auf die Systematisierung der Befunde die Entscheidung, welche Aspekte des zu untersuchenden Realitätsausschnitts für die Analyse so bedeutsam sind, dass darüber Daten erhoben werden müssen, und welche Aspekte im gegebenen Zusammenhang vernachlässigt werden können (vgl. Kapitel 3.2). Diese Entscheidung ist zu begründen. In vergleichbarer Weise läuft auch die semantische Analyse schrittweise ab: Ideen- und Materialsammlung (über mögliche Bedeutungen und Verwendungskontexte, über Begriffe mit ähnlichen Bedeutungen usw.), Systematisierung (Abgrenzungen und Gegenüberstellungen von Begriffsverwendungen). Anschließend folgt die Entscheidung, welche der ermittelten Bedeutungsdimensionen für die durchzuführende Untersuchung zentral sind und welche im gegebenen Zusammenhang außer Acht gelassen werden können. Auch hier gilt: Jede Entscheidung ist zu begründen. Falls 108 Auf diese „Doppelbedeutung“ von Begriffen unter den Bezeichnungen „Intension“ und „Extension“ wird in Kapitel 3.5 eingegangen. semantische Regeln herausarbeiten Ebenen der semantischen Analyse Bedeutungskomponenten im-sprachlichen Kontext zugehörige empirische Sachverhalte bestimmen Arbeitsschritte der-semantischen Analyse <?page no="133"?> 134 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 134 erforderlich, z. B. wenn ein unterschiedlicher Sprachgebrauch festgestellt wurde, sind die Begriffe präzise zu definieren; d. h. es ist anzugeben, in welcher Bedeutung sie in der nachfolgenden empirischen Untersuchung Verwendung finden. Der Prozess der dimensionalen Analyse eines Untersuchungsgegenstandes endet damit, dass den interessierenden empirischen Sachverhalten geeignete (objektsprachliche) Begriffe zugeordnet werden. Diese Begriffe sollen einerseits den empirischen Gegenstandsbereich in der für sinnvoll gehaltenen Differenzierung beschreiben, andererseits sollen sie aber zugleich auch nach Möglichkeit theoretische Relevanz besitzen, z. B. in existierenden Theorien über den Untersuchungsgegenstand vorkommen. Analog dazu besteht der Schlusspunkt der semantischen Analyse darin, die untersuchungsrelevanten Begriffe mit beobachtbaren Sachverhalten der Realität zu verknüpfen (Festlegung des empirischen Gehalts, empirische Interpretation der Begriffe). Mit anderen Worten: Es ist anzugeben, welche empirische Bedeutung den Begriffen zukommen soll, welche konkreten empirischen „Gegenstände“ mit den sprachlichen Zeichen gemeint sein sollen. Je nach dem Abstraktionsgrad der Begriffe kann deren empirische Interpretation ein mehr oder weniger komplexer Vorgang sein. 3.3.2 Drei Beispiele für semantische Analysen Im folgenden Beispiel soll die Suche nach den Bedeutungen eines theoretischen Begriffs ansatzweise skizziert werden. Dabei ist zu bedenken, dass die präzise Bedeutungsanalyse theoretischer Begriffe im Allgemeinen ein intensives Literaturstudium erfordert. Sinnvollerweise beginnt man mit der Sammlung einer Reihe von Definitionen in verschiedenen Nachschlagewerken und fachbezogenen Handbüchern. So gewinnt man einen ersten Eindruck, auf welchen Dimensionen dem Begriff Bedeutungen zugeschrieben werden. 109 Zugleich wird man dabei bereits Hinweise auf existierende Standardveröffentlichungen zum Thema finden. Danach folgt die Durchsicht der Literatur, die sich mit den infrage stehenden theoretischen Konzepten befasst. Schließlich sind die vorgefundenen Bedeutungskomponenten (Bedeutungsdimensionen) der interessierenden Begriffe zu ordnen, zu präzisieren und gegeneinander abzugrenzen. Das kann natürlich an dieser Stelle nur ansatzweise geleistet und nur exemplarisch dargestellt werden. Der hier als erstes Illustrationsbeispiel gewählte Begriff „Entfremdung“ ist nach einer willkürlich herausgegriffenen Definition (Weigt 1968, 16): „eine Kategorie der marxistischen Philosophie. Wird auch als Entäußerung, Selbstentfremdung, Versachlichung, Verdinglichung bezeichnet. Beschreibt eine historisch-gesellschaftliche Gesamtsituation, in der die Beziehungen zwischen Menschen als Verhältnisse zwi- 109 Machen Sie sich bewusst, dass es bei dieser Sammlung und Durchsicht von Definitionen zunächst darum geht, die Bedeutungsdimensionen zu ermitteln, auf die in den Definitionen Bezug genommen wird. Wenn beispielsweise „Greis“ als „sehr alter Mensch“ definiert wurde, dann ist die Bedeutungsdimension das Merkmal „Alter“ und nicht die Merkmalsausprägung „sehr alt“. 1. Beispiel: Entfremdung <?page no="134"?> 135 3.3 Semantische Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 135 schen Sachen, Dingen erscheinen. Die durch materielle und geistige menschliche Arbeit hervorgebrachten Produkte, gesellschaftlichen Verhältnisse, Institutionen und Ideologien treten den Menschen als fremde, beherrschende Mächte gegenüber.“ E. Mandel (1968) versucht, den Begriff direkt auf die Werke von Karl Marx zurückzuführen, der von der „praktischen Feststellung des Elends der Arbeiter“ ausgegangen sei, d. h. von einem empirischen Sachverhalt. Ihm sei-- nachdem er „die Entfremdung nacheinander auf religiösem-… und auf juridischem Gebiet (das Privatinteresse entfremdet den Menschen von der Gemeinschaft) entdeckt hatte“- - schließlich klar geworden, „dass das Privateigentum eine allgemeine Quelle der Entfremdung darstellt-… Indem er die politische Ökonomie einer systematischen Kritik unterwirft, entdeckt er, dass diese dazu neigt, die gesellschaftlichen Widersprüche, das Elend der Arbeiter, welche in der Erscheinung der entfremdeten Arbeit sozusagen zusammengefasst sind, zu verschleiern“ (Mandel 1968, 156 f.). In der Sicht von Marx werden hier also bereits drei Bedeutungsebenen genannt („Dimensionen“, zu denen der Begriff etwas aussagt), nämlich: einige Gebiete, in denen das Phänomen Entfremdung auftaucht (=-Religion, Recht, Ökonomie), eine allgemeine Erscheinungsform (=- Elend) und eine mögliche Ursache (=- Privateigentum). Die Suche nach den Bedeutungsgehalten des Begriffs Entfremdung bei Marx und bei anderen Autoren, die diesen Begriff im marxistischen Sinn benutzen, müsste natürlich fortgesetzt werden. Das soll hier nicht geschehen, sondern lediglich der Anfang einer solchen Arbeit aufgezeigt werden. Grob zusammengefasst, könnte das Ergebnis so ausfallen: Der nicht entfremdete Mensch verwirklicht sich in der gesellschaftlichen Arbeit, findet sich im Produkt seiner Arbeit wieder; er äußert einen Teil seiner Persönlichkeit darin, ist sozusagen ein Teil des Produkts. Die moderne Produktionsweise stört diese Beziehung: Der Mensch tritt als verdinglicht, als Sache (nämlich als bezahlte, beliebig austauschbare Arbeitskraft) in Erscheinung; Arbeitskraft, Arbeitswerkzeug und Arbeitsprodukt gehören ihm nicht mehr, sondern dem Besitzer der Produktionsmittel. Die Arbeit und ihr Ergebnis werden damit dem Arbeiter entfremdet, treten ihm als feindliche Dinge gegenüber. „Mit der Verwertung der Sachenwelt nimmt die Entwertung der Menschenwelt in direktem Verhältnis zu. Die Arbeit produziert nicht nur Waren: sie produziert sich selbst und den Arbeiter als eine Ware-…“ 110 Damit kein Missverständnis aufkommt: Das geschilderte Zwischenergebnis der semantischen Analyse skizziert, welche Bedeutungen in den ausgewerteten Texten mit dem Denkkonzept „Entfremdung“ verbunden werden. Ob diese Begriffsbedeutung auch eine Entsprechung in der empirischen Welt hat, ist damit noch nicht entschieden. Der theoretischen Bedeutung von Entfremdung würden nach diesem Denk-Konzept auf der empirischen Ebene gesellschaftliche Verhältnisse (etwa Rechtsordnung, Arbeitsbedingungen, Produktionsorganisation, Vermögensverteilung), also „objek- 110 Marx, Karl, 1844: Ökonomisch-philosophische Manuskripte („Pariser Manuskripte“), Abschnitt: entfremdete Arbeit; hier zitiert aus: Fetscher (1966, 76).-- Eine ausführliche „marxistische Analyse der Entfremdung“ hat L. Sêve vorgenommen (1978, Frankfurt/ M.) <?page no="135"?> 136 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 136 tive“ Bedingungen entsprechen, die außerhalb des einzelnen Menschen existieren. Dies ist jedoch nicht die einzige Sichtweise. So stellt etwa Sartre kategorisch fest: „Wir weisen jede irreführende Gleichsetzung des entfremdeten Menschen mit einer Sache, der Entfremdung selbst mit physikalischen, die Bedingungsverhältnisse der äußeren Welt beherrschenden Gesetzlichkeiten strikt ab“ (1964, 74 f.). Und Bottigelli wendet den Begriff vom Objektiven ins Subjektive, wenn er schreibt: Der (entfremdete) „Arbeiter fühlt sich außerhalb der Arbeit frei, und in der Arbeit fühlt er sich unfrei“ (Bottigelli 1969, 8). Sie sehen an diesen Zitaten, dass derselbe Begriff in verschiedenen sprachlichen Kontexten (=- von unterschiedlichen Autoren) in unterschiedlicher Weise benutzt wird. Bei „Entfremdung“ handelt es sich offensichtlich um einen „mehrdeutigen“ Begriff (s. o.). Wollte man durch eine empirische Untersuchung entscheiden, welcher Autor denn nun mit seinen Vorstellungen „empirisch recht hat“, so wäre dies ohne eine grundlegende semantische Klärung des jeweils verwendeten Begriffs „Entfremdung“ nicht möglich. Notwendig wäre zunächst eine dimensionale Auflösung des Bedeutungsspektrums, um einen empirischen Vergleich pro Bedeutungsdimension vornehmen zu können. Um zu illustrieren, wie unterschiedlich das hier als Beispiel gewählte Konzept „verstanden“ werden kann, sei deshalb als zweites Beispiel eine alternative semantische Analyse des Begriffs „Entfremdung“ vorgestellt. Sie stammt von Melvin Seeman und soll verdeutlichen, dass aus unterschiedlicher Interpretation theoretischer Begriffe durchaus unterschiedliche empirische Untersuchungsansätze folgen (können), die auch unterschiedliche Resultate erbringen (können). Der Gedankengang von Seeman (1959, 1972) zielt darauf ab, einen Begriff „Entfremdung“ (alienation) zu erhalten, mit dem empirische Aussagen möglich sind, der also mit empirisch angebbaren Merkmalen korrespondiert. Seine Vorüberlegung: „Entfremdung“ ist etwas nicht direkt Beobachtbares; jedenfalls nicht in der Bedeutung, in der Seeman diesen Begriff auffasst, nämlich als eine „dispositionale Eigenschaft“ von Personen, d. h. eine Eigenschaft, die nicht fortwährend, sondern nur unter bestimmten Situationsbedingungen zum Ausdruck kommt, wie z. B. „Mut“. Der Autor bezieht den Entfremdungsbegriff nicht auf die Sachverhalte, die Marx als Entfremdung beschrieben hat (also auf Dimensionen objektiver Gegebenheiten), sondern er bezieht den Begriff auf die individuellen Erfahrungen dieser Gegebenheiten der Umwelt durch die betroffenen Menschen. Wenn Seeman nun diese-- sagen wir-- „subjektive Entfremdung“ für den Forscher (und auch für den Arbeiter selbst) erfahrbar machen will, dann muss er den Begriff auf erfahrbare Sachverhalte beziehen: Er muss Korrespondenzregeln 111 finden, nach denen aus beobachtbaren Sachverhalten auf die nicht direkt erfahrbare dispositionale Eigenschaft geschlossen werden kann. Dies geschieht, indem Seeman von der Existenz und der sozialen Wirksamkeit 111 Korrespondenzregeln verknüpfen gemeinte Sachverhalte, die nicht unmittelbar wahrnehmbar sind, mit direkt beobachtbaren Phänomenen (vgl. auch Kapitel 2.4.2: Korrespondenzproblem und Kapitel 4.1). 2. Beispiel: alternative Analyse von Entfremdung <?page no="136"?> 137 3.3 Semantische Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 137 einer Verhaltensform ausgeht, die als entfremdetes Verhalten zu bezeichnen ist. Verhalten aber ist erfahrbar: erfragbar, beobachtbar. Durch die Wendung vom Objektiven ins Subjektive wird der Begriff „Entfremdung“ in hohem Maße mehrdimensional: Auf die gleichen Umweltbedingungen können Individuen durchaus in unterschiedlicher Weise reagieren, und sie können unterschiedliche dispositionale Eigenschaften aufbauen. Also kann man sich auch unterschiedliche Typen entfremdeten Verhaltens (unterschiedliche Dimensionen entfremdeten Verhaltens) vorstellen. Die erste Dimension des subjektiven Begriffs von Entfremdung ist für Seeman „powerlessness“ (Machtlosigkeit); sie drückt sich aus in der individuellen Wahrnehmung fehlender Möglichkeiten, Einfluss auf Ereignisse im sozialen und politischen Umfeld auszuüben (Politik, Wirtschaft, Gesellschaft) und dementsprechend in dem Verzicht auf Handlungen, die auf Einflussnahmen in solchen Bereichen gerichtet sind (powerlessness =- fehlende Kontrolle über Wirkungen, Folgen, Ergebnisse in gesellschaftlichen Handlungsbereichen). 112 Die zweite Dimension wird mit „meaninglessness“ bezeichnet (etwa: Orientierungslosigkeit). Der Autor versteht darunter, dass das Individuum sich nicht über gesellschaftliche Handlungszusammenhänge klar ist; dass für ihn die Minimalforderungen an die Transparenz von Entscheidungsprozessen, von denen er betroffen ist, nicht erfüllt sind; dass seine Erwartungen, er könne zufriedenstellende Voraussagen über die Folgen von Handlungen machen, gering sind (meaninglessness =-Unfähigkeit, die Mechanismen von Situationen, denen man selbst zugehört, zu begreifen, zu durchschauen). Die dritte Dimension von Entfremdung ist nach Seeman „normlessness“. Darunter versteht er die Überzeugung einer Person, unter gegebenen gesellschaftlichen Bedingungen sei für sie ein gesetztes Ziel nur über sozial nicht akzeptiertes (unapproved) Verhalten erreichbar; die gesellschaftlich erlaubten Mittel und Wege, individuelle Ziele zu erreichen, scheinen ihr verschlossen. Als vierte Dimension nennt der Autor „value isolation“. Entfremdete Personen messen-- wie Intellektuelle-- solchen Zielen, Werten oder Überzeugungen niedrigen individuellen Belohnungswert zu, die üblicherweise in einer gegebenen Gesellschaft hoch bewertet werden und umgekehrt. Diese Form von Entfremdung rückt das Individuum in die Nähe der Verhaltenskategorie des „Innovators“ (vgl.: die Arbeiterklasse als Avantgarde). Eine fünfte Dimension entfremdeten Daseins wird von Seeman „self-estrangement“ genannt (wörtlich: Selbstentfremdung). Damit ist gemeint: der Grad der Abhängigkeit des aktuellen Verhaltens von antizipierten zukünftigen Belohnungen oder Bestrafungen, und zwar Belohnungen/ Bestrafungen, die außerhalb der Aktivi- 112 Da es sich bei powerlessness um eine Dimension subjektiver Entfremdung handeln soll, müsste es genau heißen „Wahrnehmung unterschiedlicher Grade des Fehlens von Möglichkeiten, Einfluss zu nehmen“. Je stärker also das Fehlen von Einflussmöglichkeiten wahrgenommen wird, desto ausgeprägter die subjektive Entfremdung. Gleiches gilt für die folgenden fünf Dimensionen. <?page no="137"?> 138 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 138 tät selbst und außerhalb des Individuums liegen. Diese Dimension bezieht sich mit anderen Worten auf die Unfähigkeit des Individuums, sich Aktivitäten zuzuwenden, die aus sich selbst heraus belohnenden Charakter haben. Dieser letztere Entfremdungstyp entspricht dem, was in der Sozialpsychologie als der „externalisierte“ Persönlichkeitstyp bezeichnet wird: Das Individuum hat normative Regeln nicht internalisiert (verinnerlicht), sondern orientiert sein Verhalten an den zu erwartenden (externen) Belohnungen und Bestrafungen. Eine sechste Dimension schließlich wird „social isolation“ genannt, womit die niedrige individuelle Erwartung gemeint ist, sozial akzeptiert, anerkannt zu werden. 113 Zu diesem Verfahren des Inbeziehung-Setzens eines theoretischen Begriffs zu erfahrbaren Sachverhalten, aufgrund derer dann auf das Vorliegen oder Nichtvorliegen des theoretisch gemeinten Sachverhalts geschlossen werden kann, ist zweierlei anzumerken: Erstens. Die formulierten Korrespondenzregeln sind selbst wieder Hypothesen; sie können falsch sein. Hier wird z. B. postuliert, dass ein Zustand „subjektiver Entfremdung“ mit bestimmten Verhaltensstilen einer Person korrespondiert. Es ist aber durchaus denkbar, dass für ein Individuum zwar „eigentlich“ ein Zustand subjektiver Entfremdung gegeben ist, dass dieses Individuum aber dennoch (und sei es unter großen psychischen Anstrengungen) in der Lage ist, einen bestimmten Verhaltensstil zu unterdrücken. Zweitens. Dadurch, dass der theoretische Begriff nicht direkt auf Erfahrbares bezogen werden kann, sondern erst „semantisch interpretiert“ werden muss, kann er auf geänderte Bedingungen in geänderten historischen Kontexten angewendet werden (Beispiel: die in sozialpolitischen Diskursen übliche Definition des Begriffs „Armut“) 114 . Im Extremfall kann auf diese Weise aber auch eine Theorie gegen jede empirische Überprüfung, gegen jede empirische Erfahrung immunisiert werden. Wie vorn bereits angemerkt (Kapitel 3.1), fällt es erfahrungsgemäß manchen Studierenden schwer, klar zwischen der (abstrakten) Ebene der Sprache und der (konkreten) Ebene der Realitätsphänomene und Sachverhalte zu trennen. Unversehens wird beim Versuch des Herausarbeitens der Bedeutung eines Begriffs zu Überlegungen über Eigenschaften eines realen Sachverhalts „umgeschaltet“; oder umgekehrt: An die Stelle der Begründung relevanter Eigenschaften eines Gegenstandes wird die Definition eines Begriffs gesetzt. Dies ist auch nicht weiter verwunderlich, wird doch diese Unterscheidung in der Alltagssprache oft verwischt. Für die klare gedankliche Strukturierung des Vorgehens bei der semantischen Analyse ist diese Unterscheidung aber von großer Wichtigkeit. 113 Ähnliche Dimensionen wie in dieser von Melvin Seeman entworfenen semantischen Interpretation von „Entfremdung“ tauchen-- ins Positive gewendet-- in der aktuellen Gesundheitsforschung wieder auf in einem von Aaron Antonovsky in die Diskussion eingebrachten Konstrukt „sense von coherence“; etwas umständlich übersetzbar als „Vertrauen in die Verstehbarkeit, Handhabbarkeit und Sinnhaftigkeit der Anforderungen der internalen und externalen Umwelt und der Auseinandersetzung mit ihnen“ (Beck/ Bonn/ Westermayer 2005, 20). 114 Siehe zu dem Konzept „relative Armut“ Groh-Samberg/ Voges (2014: 38). <?page no="138"?> 139 3.3 Semantische Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 139 Deshalb sei hier als drittes Beispiel noch die semantische Analyse eines weiteren Begriffs skizziert. Um die generelle Notwendigkeit von Bedeutungsanalysen zu illustrieren, soll er nicht einer sozialwissenschaftlichen Theorie, sondern eher alltäglichem Sprachgebrauch entnommen werden: „Führungskräfte“. In welchem Kontext könnte uns dieser Begriff begegnen? Es könnte z. B. sein, dass Ihnen in der Frankfurter Allgemeinen Zeitung im „Stellenmarkt“ die Anzeige eines Unternehmens auffällt, das „Führungskräfte“ sucht. Oder: Sie lesen in Ihrer Lokalzeitung einen Bericht über einen Verwaltungsgerichtsprozess, in dem es darum geht, ob ein Beklagter aus der öffentlichen Verwaltung Ihrer Gemeinde „Führungsaufgaben“ wahrgenommen hat und daher in besonderer Weise für seine Entscheidungen zur Verantwortung gezogen werden kann. Natürlich könnte es auch sein, dass Sie das Angebot erhalten, in einem Forschungsprojekt mit dem Titel „Der Wandel in der Aufgabenstruktur und in der sozialen Herkunft von Führungskräften in Großunternehmen“ mitzuwirken. In keinem der drei Beispielskontexte geht es diesmal um eine theoretische Argumentation, sondern um Alltagssituationen. Im ersten Fall-- Anzeige in der FAZ-- könnte es für Sie persönlich interessant sein zu wissen, was wohl mit „Führungskräfte“ gemeint ist, falls Sie sich nach Abschluss Ihres Studiums um eine „gute“ Anstellung bemühen und daher entscheiden wollen, ob sich eine Bewerbung um die ausgeschriebene Position für Sie lohnen könnte. Im zweiten Fall ist die Klärung des Begriffs „Führungskraft“ für die beteiligten Juristen ausschlaggebend für die Entscheidung darüber, nach welchen Kriterien das zur Verhandlung stehende Verhalten des Beklagten beurteilt wird. Und im Falle eines (deskriptiven) empirischen Forschungsprojekts über den Wandel der Herkunft und der Aufgabenstruktur von Führungskräften gibt erst die semantische Analyse des Begriffs Auskunft darüber, welche Positionen in den verschiedenen Epochen des Untersuchungszeitraums überhaupt in die Analyse einzubeziehen sind. Vielleicht ist Ihnen schon aufgefallen, dass in diesen verschiedenen Zusammenhängen mit demselben sprachlichen Zeichen „Führungskräfte“ bunt durcheinander zwei grundlegend unterschiedliche Gruppen von Sachverhalten bezeichnet worden sind: nämlich einerseits Positionen, andererseits Personen, die diese Positionen ausfüllen. Die „Aufgabenstruktur von Führungskräften“ bezieht sich offensichtlich auf die Position in der Unternehmensorganisation, die „soziale Herkunft von Führungskräften“ ebenso offensichtlich auf die Personen in Führungspositionen. Desgleichen geht es bei der juristischen Auseinandersetzung um die Konfrontation der (im strittigen Fall geltenden) Aufgabenbeschreibung für Führungspositionen mit den von der beklagten Person faktisch wahrgenommenen Aufgaben. Sie sind damit auf eine semantische Dimension des Begriffs „Führungskräfte“ gestoßen, die man den „Objektbereich“ (oder die „Referenzobjekte“) nennen könnte. Anders ausgedrückt: Der Begriff bezeichnet in der einen Ausprägung dieser Dimension bestimmte Schnittpunkte in der Struktur sozialer Organisationen, die die Sozio- 3. Beispiel: Führungskräfte <?page no="139"?> 140 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 140 logie „Positionen“ nennt. In der anderen Ausprägung dieser Dimension dagegen bezieht sich der Begriff auf Personen, die in solchen Positionen tätig sind. Im alltäglichen Sprachgebrauch wird häufig nicht danach unterschieden, ob die Aussage sich auf das Referenzobjekt „Person“ oder auf das Referenzobjekt „Position“ bezieht. Wollen wir dagegen in einem Forschungsprojekt empirische Daten sammeln, muss dies eindeutig geklärt sein: Geht es um die „erforderlichen Qualifikationen für Führungsaufgaben im Unternehmen“, ist vermutlich der Blick auf die Positionen gerichtet: Welche Aufgaben fallen an welcher Stelle an, und über welche Fertigkeiten und Fähigkeiten muss das dafür benötigte Personal verfügen? Der Gegenstand der Untersuchung ist in diesem Fall die Organisationsstruktur von Unternehmen; empirische Informationen über den Aufgabenbereich von und die Qualifikationsanforderungen an bestimmte Positionen können vielleicht in Satzungen, schriftlichen Anweisungen, arbeitsrechtlichen Vorschriften, Betriebsvereinbarungen, Tarifverträgen oder Aufgabenbeschreibungen in Arbeitsverträgen nachgelesen werden. Geht es um die „Weiterbildung von Führungspersonal“, oder um „Führungskräftetrainings“, können dagegen nur die Personen in Führungspositionen gemeint sein: Nur eine Person kann weitergebildet werden, eine „Position“ kann man nicht zum Fortbildungskurs „Verhaltenstraining“ schicken. Der Gegenstand der Untersuchung ist in diesem Fall das Führungspersonal; empirische Informationen über deren Verhaltensstile, deren Fertigkeiten und Fähigkeiten sowie über deren Einstellung zu und Teilnahme an Weiterbildungsmaßnahmen können z. B. durch Befragung der betroffenen Personen gesammelt werden. Die semantische Analyse wäre natürlich noch weiterzuführen. Innerhalb der oben erwähnten beiden „Zweige“ (Führungspositionen einerseits, Führungspersonen andererseits) sind weitere-- für das Verständnis des mit dem Begriff Gemeinten wichtige-- Dimensionen zu identifizieren. Dabei wäre z. B. auf juristische Texte zurückzugreifen (Regelung von Kompetenzen in Personengesellschaften im BGB, für Aktiengesellschaften im AG-Recht, für GmbHs im GmbH-Gesetz, für leitende Angestellte im Betriebsverfassungsgesetz usw.); darüber hinaus wäre einschlägige Fachliteratur zu Rate zu ziehen. Nach Durchsicht des Literatur- und Forschungsstandes könnte sich vielleicht ergeben, dass vier Bedeutungsdimensionen zu berücksichtigen sind: - Verhaltensdimension: Wodurch unterscheidet sich ein Führungsverhalten von anderen Tätigkeiten? (Leitung von Projekten, Abteilungen, Gruppen; Planung und Entscheidung; Beaufsichtigung der Tätigkeit nachgeordneter Personen usw.) - Kompetenzdimension: Welche Rechte und Pflichten bestehen im Unterschied zu anderen Positionen? (Übernahme von Personal- und Sachverantwortung; Recht zur Einstellung und Entlassung von Personal; Vertretung der Organisation nach außen, Generalvollmacht oder Prokura usw.) - Zuordnungsdimension: Wie ist die Zuordnung zur Organisationshierarchie? (höhere Stellung in der hierarchischen Linienorganisation; Selbstständigkeit in <?page no="140"?> 141 3.4 Zusammenfassung: Semantische Analyse und dimensionale Analyse im Vergleich www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 141 der Stabsorganisation; Träger spezieller Aufgaben von besonderer Wichtigkeit; Zugehörigkeit zu Kontrollgremien usw.) - Qualifikationsdimension: Welche Qualifikationen unterscheiden Führungskräfte von Inhabern anderer Positionen? (höherer Bildungsabschluss, z. B. Universität; Durchsetzungsfähigkeit und Entschlusskraft; besondere Fachqualifikationen; umfassende Berufserfahrungen usw.) Die Analyse kann an dieser Stelle nicht im Detail zu Ende geführt werden. Daher die Empfehlung: Nutzen Sie die bisherige Skizze als Denkanstoß und arbeiten Sie zur Vertiefung Ihres Verständnisses die semantische Analyse noch in weiteren Details aus; ergänzen Sie sie, wenn es sich anbietet, auch um weitere Dimensionen. 3.4 Zusammenfassung: Semantische Analyse und dimensionale Analyse im Vergleich Beide Aufgaben- - dimensionale Analyse (der Struktur eines Gegenstandsbereichs) und semantische Analyse (der Bedeutung eines Begriffs)-- haben gemeinsam, dass ein zunächst noch unterbestimmter Sachverhalt gedanklich strukturiert und begrifflich präzisiert werden soll. Richtet sich der Blick auf einen empirisch existierenden oder gedanklich vorgestellten Gegenstandsbereich, dann sind die Eigenschaftsdimensionen dieses „Gegenstands“ von Interesse. Bei einem physikalischen Gegenstand könnte das sein: das Material, aus dem er besteht, seine Form, Festigkeit, Größe, sein Gewicht usw.; bei Personen etwa: Alter, Geschlecht, Bildung, Beruf, Familienstand usw.; bei Organisationen etwa: Organisationsziele, Struktur, Zahl der Mitglieder usw. Ist der Ausgangspunkt ein sprachliches Zeichen (ein „Begriff“), dann geht das Interesse dahin, zu erkunden, was dieser Begriff „bedeutet“, d. h. wen oder was er „bezeichnet“ 115 und nach welchen (semantischen) Regeln bei der Anwendung dieses Begriffs auf die „Realität“ entschieden werden kann, ob ein Sachverhalt unter das mit dem Begriff „Gemeinte“ fällt. Rufen Sie sich für die Überlegungen in diesem Zusammenhang immer wieder ins Bewusstsein: Ein „Gegenstand“ ist etwas real oder ideell Existierendes und hat individuelle Ausprägungen auf bestimmten Eigenschaftsdimensionen. Ein bestimmtes, „real existierendes“ Auto weist etwa die Ausprägung „rot“ bei der Eigenschaftsdimension „Farbe“, die Ausprägung „150 km/ h“ bei der Eigenschaftsdimension „Höchstgeschwindigkeit“, die Ausprägung „15.000 €“ bei der Eigenschaftsdimension „Preis“ auf usw. Demgegenüber ist ein „Begriff“ ein sprachliches Zeichen für eine gedankliche Vorstellung von einer Klasse von „gleichartigen“ Sachverhalten oder Gegenständen. Dabei ist es irrelevant, ob es sich bei den „vorgestellten“ Sachverhalten bzw. Gegen- 115 Zur Erinnerung: Die Semantik ist die Lehre von der Bedeutung sprachlicher Zeichen. gemeinsam: Zusammenhang Begriff-Sachverhalt dimensionale Analyse: Eigenschaftsdimensionen eines Sachverhalts semantische Analyse: vom Begriff bezeichnete Sachverhalte <?page no="141"?> 142 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 142 ständen um reale oder um fiktive Sachverhalte/ Gegenstände handelt. 116 Die gedankliche Vorstellung „Auto“ meint also kein bestimmtes Automobil, sondern eine „Klasse von Gegenständen“ mit gleichartiger Funktion und von im Wesentlichen gleichartiger Erscheinungsform. Der Begriff „Auto“ hat etwa eine Bedeutung auf einer semantischen Dimension „Funktion des Gegenstands“ und weist hier die Ausprägung „Fortbewegungsmittel auf dem Lande“ auf (Gegenstände, die der Fortbewegung in der Luft dienen, bezeichnen wir mit anderen Begriffen: z. B. Flugzeug, Ballon, Hubschrauber). Der Begriff „Auto“ hat auch eine Bedeutung auf einer Dimension, die wir vielleicht mit „Art des Gegenstandes“ bezeichnen könnten und wo die Ausprägung „technisches Artefakt“ lauten könnte, sowie auf einer Dimension „Art des Antriebs“ mit der Ausprägung „Motor“ usw. 117 Er hat dagegen keinerlei Bedeutung auf den oben für den Gegenstand „Auto“ genannten Dimensionen Farbe, Höchstgeschwindigkeit, Preis. Ob ein Gegenstand gelb, schwarz oder blau-weiß-kariert ist, ob er schnell oder nur relativ langsam fahren kann, ob der Preis niedrig oder hoch ist-- wir werden diesem Gegenstand die Bezeichnung „Auto“ nicht verwehren, wenn er die „richtigen“ Ausprägungen auf denjenigen Dimensionen aufweist, die für unsere Vorstellung von der Gegenstandsklasse „Automobil“ relevant sind. 118 Nach diesen Vorüberlegungen lassen sich auch die folgenden Eckpunkte einer semantischen Analyse nachzuvollziehen (s. Abbildung 3.2): Die semantische Strukturierungsarbeit geht aus vom sprachlichen Zeichen und seiner Verwendung in verschiedenen sprachlichen Kontexten. Sie findet ihren Abschluss in der systematisierten semantischen Interpretation des interessierenden sprachlichen Zeichens sowie gegebenenfalls seiner Abgrenzung gegenüber bedeutungsähnlichen Begriffen. Daran schließt sich im Falle eines empirischen Forschungsprojekts die Festlegung der präzisen Bedeutung des Begriffs für den Zweck dieses Projekts an (falls notwendig: durch ausdrückliche Definition) sowie die Verknüpfung des sprachlichen Zeichens mit denjenigen Realitätsaspekten, über die in diesem Projekt Daten erhoben werden sollen (vgl. Kap. 4: Operationalisierung). Bei einer dimensionalen Analyse ist die Abfolge der Arbeitsschritte entgegengesetzt: Am Anfang steht die gedankliche Strukturierung des Gegenstandsbereichs, gefolgt von der Entscheidung, welche Gegenstandsdimensionen untersuchungsrelevant sein sollen. In einem Denkmodell werden sodann die möglichen Zusammenhänge zwischen diesen „relevanten“ Dimensionen dargestellt (vgl. etwa in Kapitel 3.2, Abbil- 116 Im ersteren Fall handelt es sich um einen Begriff mit empirischem Bezug, im zweiten Fall um einen solchen ohne empirischen Bezug. 117 Zur Denkübung: Wie könnte die Dimension bezeichnet werden, zu der die Ausprägung „mindestens drei Räder“ lautet? 118 Genauer: Der Begriff ist die „Abstraktion einer Gegenstandsklasse“. Um die mit dem Begriff gemeinte Vorstellung weitervermitteln zu können, benötigen wir noch einen „Bedeutungsträger“. Das könnte in unserem Beispiel die abstrakt gezeichnete Skizze (neudeutsch: „icon“) eines Automobils sein, ist im Allgemeinen jedoch ein sprachliches Zeichen: ein Wort. Das deutsche Wort „Auto“ können wir auch gegen das englische Wort „motor car“ austauschen, ohne dass sich am Begriff „Auto“ etwas ändert. semantische Strukturierungsarbeit Begriff-- Bedeutungsgehalt-- Verknüpfung mit Realitätsaspekten Realitätsaspekt-- Dimensionen-- Dimensionsbezeichnung <?page no="142"?> 143 3.4 Zusammenfassung: Semantische Analyse und dimensionale Analyse im Vergleich www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 143 dung 3.1 das „Feldschema Massenkommunikation“). Natürlich sind die Überlegungen über den Gegenstandsbereich ohne das Instrument Sprache nicht kommunikationsfähig. Daher müssen die untersuchungsrelevanten Gegenstandsdimensionen mit geeigneten Begriffen bezeichnet werden, und daher ist auch das Denkmodell über Zusammenhänge zwischen den Dimensionen in die Form forschungsleitender Hypothesen zu gießen. 119 Wo wir nicht auf allgemein eingeführte und in der wissenschaftlichen Disziplin eindeutig verwendete Begriffe zurückgreifen können, müssen wir unter Umständen die für die Untersuchung geeigneten Begriffe explizit durch Definition neu einführen. Genau genommen geht also in der Phase der Ausformulierung des deskriptiven 119 Prinzipiell wären für manche Gegenstandsbereiche zwar auch rein zeichnerisch-ikonische Darstellungen möglich (denken Sie z. B. an Modellzeichnungen von Architekten); aber besonders praktisch wäre dies für sozialwissenschaftliche Fragestellungen sicher nicht. Verbindung dimensionale Analyse-- semantische Analyse Selektion der „relevanten“ Aspekte („Beobachtungsdimensionen“) → Kriterien für die Relevanzentscheidungen begründen DIMENSIONALE ANALYSE SEMANTISCHE ANALYSE empirischer Gegenstandsbereich → Ideensammlung → Systematisierung ggf. Explikation der Beziehungen zwischen den relevanten Dimensionen → „Modell“ des Gegenstands → forschungsleitende Hypothesen Verknüpfung der relevanten empirischen Aspekte mit sprachlichen Zeichen; ggf. De‘nition der Begri’e → „adäquate“ Begri’e → deskriptives Schema → theoretische Relevanz der Begri’e → Kriterien für Begri’swahl Aussagen über empirische Sachverhalte Begri’e → sprachlicher Kontext → Sprachkontext Klärung der Bedeutung der Begri’e → Sammlung von Bedeutungen und Bedeutungsdimensionen → Systematisierung → Gegenüberstellung zu ähnlichen Begri’en Selektion der untersuchungsrelevanten Bedeutungen → Kriterien für die Selektion → ggf. De‘nition Verknüpfung der Begri’e mit beobachtbaren Realitätsaspekten → Festlegung des empirischen Gehalts → empirische Interpretation                     Quelle: Eigene Darstellung. Abbildung 3.2: Arbeitsschritte der dimensionalen und der semantischen Analyse <?page no="143"?> 144 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 144 Schemas die dimensionale Analyse in die semantische Analyse über; denn nur mit ihrer Hilfe ist entscheidbar, ob Begriffe existieren, die für unsere Gegenstandsüberlegungen passen und zugleich hinreichend eindeutig verwendet werden. 3.5 Begriffe und Definitionen Bereits bei der Einführung der wissenschaftstheoretischen Grundbegriffe (vgl. Kapitel 1) haben wir darauf hingewiesen, dass empirische Sozialforscher über weite Strecken ihres Tuns das Instrument Sprache in präziser und systematischer Weise handhaben müssen: - Ihre Vermutungen über die real existierende Welt haben sie unter Einhaltung spezifischer Regeln zu formulieren (empirischer Bezug der verwendeten Begriffe wie der gesamten Aussagen, prinzipielle empirische Widerlegbarkeit der Aussagen, logisch widerspruchsfreie Systematisierung von Hypothesen zu einer Theorie). - Bei der empirischen Prüfung lassen sich die Hypothesen nicht unmittelbar mit der Realität konfrontieren, sondern lediglich mit empirisch gewonnenen Aussagen über beobachtbare Ereignisse oder Sachverhalte in der Realität (Beobachtungsaussagen bzw. Protokollsätze; vgl. „Basissatzproblem“). Innerhalb der Hypothesen werden vorrangig verallgemeinernde, abstrahierende Begriffe verwendet, denen meist nicht unmittelbar beobachtbare Sachverhalte oder Ereignisse in der Realität entsprechen (theoretische Sprache). In den Beobachtungsaussagen (Protokollsätzen) nutzt man dagegen Begriffe, denen immer unmittelbar beobachtbare Sachverhalte oder Ereignisse in der Realität entsprechen (Beobachtungssprache). Die beiden Sprachebenen-- theoretische und Beobachtungssprache-- müssen für die Zwecke der Datenerhebung ebenso wie für die Rückinterpretation der in den empirischen Daten enthaltenen Informationen auf regelgeleitete und kontrollierbare Weise miteinander in Beziehung gesetzt werden. In den Ausführungen zur dimensionalen und zur semantischen Analyse kam dieser Punkt schon zur Sprache. Die entsprechenden methodischen Regeln dieses In-Beziehung-Setzens der Theoriezur Beobachtungsebene werden unter dem Stichwort „Operationalisierung“ im nächsten Kapitel noch im Einzelnen behandelt und vertieft. Es dürfte also bis zu dieser Stelle deutlich geworden sein, dass auch empirische Sozialforscher über einige der in den Sprachwissenschaften entwickelten Techniken und Konzepte verfügen müssen. Die Wissenschaft von der Sprache, von der Funktion sprachlicher Zeichen, wird Semiotik genannt. Ihr Arbeitsfeld ist üblicherweise unterteilt in Syntaktik, Semantik und Pragmatik. - Die Syntaktik handelt von den Beziehungen der Zeichen untereinander (z. B. Grammatik, Zeichensetzung). - Die Semantik befasst sich mit den Beziehungen zwischen den sprachlichen Zeichen und ihren Bedeutungen, d. h. mit der Relation zwischen sprachlichen Zeichen und den damit bezeichneten Sachverhalten (den „Referenzobjekten“). präzise Sprache Regeln für Hypothesen Basissatzproblem Beziehung von theoretischer und Beobachtungssprache Syntaktik Semantik <?page no="144"?> 145 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 145 - Die Pragmatik schließlich handelt von den Beziehungen zwischen Zeichen und Menschen; sie untersucht z. B. den unterschiedlichen Sprachgebrauch bei verschiedenen Personen oder Gruppen (vgl. vorn: „mehrdeutige“ Begriffe). Wissenschaftliche Erkenntnisse werden unter Verwendung von Symbolsystemen 120 weitergegeben und diskursiv (in argumentativer Auseinandersetzung im Kreis der Wissenschaftler oder zwischen Wissenschaft und Anwendern) auf ihre Haltbarkeit geprüft, „kritisiert“ (vgl. Kapitel 1). Sollen wissenschaftliche Erkenntnisse „kritisierbar“, „intersubjektiv nachprüfbar“ sein, muss die verwendete Sprache zwei Funktionen in möglichst optimaler Weise erfüllen: die Repräsentanz- und die Kommunikationsfunktion. Repräsentanzfunktion der Sprache heißt, dass die Begriffe in eindeutiger Weise die gemeinten Sachverhalte (Referenzobjekte) repräsentieren. Daraus folgt zum einen, dass die Sprache differenziert genug sein muss, um die Struktur des Untersuchungsgegenstandes-- wie sie von der Wissenschaftlerin oder dem Wissenschaftler gesehen wird-- exakt abzubilden. So kommt es, dass jede Wissenschaft sich ihren Satz von ganz spezifischen Fachausdrücken schafft (fachspezifische wissenschaftliche Terminologie). Aus der Forderung nach optimaler Erfüllung der Repräsentanzfunktion folgt für die verwendeten Begriffe weiter, dass ihnen durch präzise Definitionen eindeutige Bedeutungen zuzuweisen sind. In teilweisem Widerspruch zur Repräsentanzfunktion der Sprache steht ihre Kommunikationsfunktion. Wissenschaft ist nicht Sache eines Einzelnen, sondern ist auf die Kommunikation zwischen den am Wissenschaftsprozess beteiligten Personen sowie zwischen Wissenschaft und anderen Adressaten (z. B. interessierten Laien, Anwendern) angewiesen. Um die Kommunikationsfunktion zu erfüllen, muss die von den Wissenschaftlern gewählte Sprache daher von möglichst vielen Personen „richtig“ verstanden werden. Soweit es sich bei den Kommunikationspartnern um Angehörige der gleichen wissenschaftlichen Fachrichtung handelt, erfüllen die spezifischen Fachtermini nicht nur die Repräsentanz-, sondern in idealer Weise auch die Kommunikationsfunktion. Schon für Angehörige anderer wissenschaftlicher Fachrichtungen aber- - und erst recht für interessierte Laien- - kann es sich bei solchen Fachtermini um eine kaum noch verstehbare Fremdsprache handeln. Die Wissenschaftlerinnen und Wissenschaftler werden also in ihren Forschungsberichten darauf achten müssen, welches die Zielgruppe ihrer Mitteilungen ist. Bei Veröffentlichungen außerhalb von wissenschaftlichen Fachbuchreihen oder Fachzeitschriften ist entweder eine alltagsnähere Sprache (möglicherweise unter Inkaufnahme von Ungenauigkeiten) zu wählen oder sind zumindest die Fachtermini jeweils zu erläutern. Bevor wir nun im Folgenden (Abschn. 3.5.1 bis 3.5.3) auf weitere Funktionen von Begriffen eingehen und Verfahren zu ihrer Definition vorstellen, sollen zunächst noch einige der dabei vorkommenden Ausdrücke erläutert werden, um das Durcharbeiten des Textes zu erleichtern. 120 Das ist vor allem die Sprache, in den Naturwissenschaften im Allgemeinen ergänzt um mathematische Symbole und Strukturformeln. Pragmatik Anforderung an-Sprache Repräsentanzfunktion Forderung nach-präzisen Definitionen Kommunikationsfunktion Fachsprache und-alltagsnähere Sprache <?page no="145"?> 146 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 146 Begriffe sind sprachliche Zeichen (Wörter), die nach bestimmten Regeln (semantische Regeln, Bedeutungszuweisungen) mit Phänomenen der Realität oder gedanklichen Vorstellungen verbunden sind: 121 Diese Verbindung zwischen sprachlichem Zeichen und dem damit Gemeinten kann man extensional und intensional vornehmen. Unter Extension (Begriffsumfang) versteht man die Menge aller Objekte, die mit einem Begriff bezeichnet werden sollen (z. B. Extension des Begriffs „Haus“ =-die Menge aller Häuser, die es irgendwo und irgendwann gibt, gegeben hat oder geben wird). Mit Intension (Begriffsinhalt) ist die Menge aller Merkmale gemeint, die den mit einem Begriff bezeichneten Objekten gemeinsam sind (z. B. Intension des Begriffs „Haus“ =- die Menge aller Merkmale, die ein Objekt besitzen muss, damit wir es als Haus akzeptieren). Begriffe, deren Extension empirische Objekte umfasst (die sich also nicht nur auf gedanklich vorgestellte Sachverhalte beziehen), haben empirischen Bezug. Der empirische Bezug kann direkt sein; dann sind die mit einem Begriff bezeichneten Objekte/ Merkmale unmittelbar oder unter Zuhilfenahme von Instrumenten beobachtbar (z. B. sind Eiweiß-Moleküle durch ein Mikroskop beobachtbar). Der empirische Bezug kann aber auch indirekt sein; dann sind die bezeichneten Objekte/ Merkmale nicht unmittelbar feststellbar, auch nicht mit Hilfe von Instrumenten. Auf ihr Vorhandensein muss vielmehr aus der Beobachtung anderer, direkt feststellbarer Objekte/ Merkmale („Indikatoren“) geschlossen werden. Nehmen wir z. B. „Geiz“ als dispositionales Merkmal, als Charaktereigenschaft einer Person: Das Vorliegen oder Nichtvorliegen dieses-- als solches nicht beobachtbaren-- Merkmals wird durch das faktische Verhalten dieser Person in bestimmten Situationen angezeigt, „indiziert“. Trotzdem: Mit dem Begriff „Geiz“ meinen wir eben nicht das beobachtbare Verhalten, sondern eine Charaktereigenschaft, die sich lediglich in einem spezifischen Verhalten äußert. Fassen wir zusammen: Wir waren in den methodologischen Überlegungen so weit gediehen, dass wir-- ausgehend von einer Forschungsfrage-- nach der Präzisierung 121 Zur Erinnerung: Die Gleichsetzung von „Begriff“ mit sprachlichem Zeichen plus Bedeutung ist eine aus unserer Alltagspraxis begründete Vereinfachung. Genauer besehen ist ein Begriff ein mentales Modell: die gedankliche Abstraktion einer Gegenstandsklasse (vgl. Fußnote 118). Um diese kommunizierbar zu machen, benutzen wir in Alltag und Wissenschaft überwiegend sprachliche Zeichen als Bedeutungsträger. extensionale Verbindung: Referenzobjekte intensionale Verbindung: gemeinsame Merkmale direkter empirischer Bezug indirekter empirischer Bezug Designata (Objekte, Merkmale) Begri sprachliches Zeichen (Wort) semantische Regeln (Bedeutungzuweisungen)  Quelle: Eigene Darstellung. Abbildung 3.3: Definition von „Begriff“. <?page no="146"?> 147 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 147 der Problemstellung eine dimensionale Analyse des Gegenstandsbereichs und/ oder eine Bedeutungsanalyse mehrdeutiger Begriffe vorgenommen haben. D. h. im Falle einer deskriptiven Analyse haben wir uns umfassend Gedanken gemacht über die möglichen Zusammenhänge innerhalb des zu untersuchenden Gegenstandsbereichs, über die zu unterscheidenden „relevanten Dimensionen“ des Sachverhalts. Jetzt müssen wir zweckentsprechende Begriffe finden, die 1) eine der Problemstellung gemäße Differenzierung des Gegenstandsbereichs zulassen und die 2) auch potenziell theoretisch relevant sind. Oder wir haben (speziell im Falle der Hypothesen- oder Theorieprüfung) eine Bedeutungsanalyse der verwendeten theoretischen Begriffe vorgenommen, um abzuschätzen, in welcher Weise sie sich auf konkrete empirische Sachverhalte beziehen lassen. In beiden Fällen ist es nötig, die beabsichtigte Benutzung der Begriffe so präzise zu beschreiben (d. h. sie zu „definieren“), dass unsere Argumentation intersubjektiv nachvollziehbar wird. Damit soll zum einen sichergestellt werden, dass zweifelsfrei klar ist, welche Sachverhalte und/ oder Aspekte in die Untersuchung einbezogen werden und welche nicht (s. o. Repräsentanzfunktion der Sprache). Dabei sind zum anderen die Begriffe so zu wählen, dass die an den Forschungsbefunden Interessierten (insbesondere die Zielgruppe des Projekts) die empirischen Ergebnisse und deren Interpretationen ohne schwierige „Übersetzungsleistungen“ nachvollziehen können (s. o. Kommunikationsfunktion). Was genau bedeutet nun der bisher schon so oft benutzte Terminus „Definition“? Ganz generell sind Definitionen Verknüpfungen zwischen sprachlichen Zeichen nach bestimmten Regeln. Definitionen sind also nicht Verknüpfungen zwischen Zeichen und „Sachverhalten“ nach Korrespondenzregeln. 122 „Definitorische Aussagen werden dazu verwendet, den wissenschaftlichen Sprachgebrauch festzulegen. Sie sind also Mittel der Festsetzung von Verwendungsregeln für Ausdrücke der Wissenschaftssprache“ (Albert 1973, 73). Die Gesamtheit der Ausdrücke der Wissenschaftssprache (Termini) stellt die spezifische Terminologie einer wissenschaftlichen Disziplin dar, sie ist-- vor allen Methoden wie Befragung, Test, Beobachtung usw.-- deren „Grundwerkzeug“ (Heller/ Rosemann 1974, 19). An der grafischen Darstellung des Konzepts „Begriff“ (Abbildung 3.3) können Sie sich nun auch veranschaulichen, was eine „Definition“ ist: Eine Definition ist die Verknüpfung zwischen sprachlichen Zeichen nach bestimmten Regeln. Sie ist a) die Beschreibung (oder Auflistung) der „semantischen Regeln“ für die Verwendung des „Begriffs“ sowie b) die Zuordnung eines sprachlichen Symbols (Wort), mit dem dieser Begriff „bezeichnet“ werden soll. 122 Verknüpfungen zwischen Zeichen und empirischen Sachverhalten werden zwar häufig- - etwas irreführend-- als „operationale Definitionen“ bezeichnet. Im strengen Sinne handelt es sich jedoch nicht um Definitionen, sondern- - im Sprachgebrauch von Bunge (1967)- - um Referitionen. Definition zur intersubjektiven Nachvollziehbarkeit <?page no="147"?> 148 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 148 3.5.1 Nominaldefinition 1: Voraussetzungen Da es unterschiedliche Auffassungen über Art und Funktion von Definitionen gibt, sei hier zunächst von der in den Erfahrungswissenschaften üblichen Form des Definierens, der Nominaldefinition ausgegangen. Eine Nominaldefinition ist die Festlegung der Bedeutung eines Begriffs (des Definiendums) durch einen bereits bekannten Begriff oder durch mehrere bereits bekannte andere Begriffe (Definiens). Definitionen sind konventionelle-- d. h. per Vereinbarung getroffene-- Festlegungen der Bedeutung sprachlicher Zeichen (Giesen/ Schmid 1976, 33; vgl. auch Opp 1976, 189 ff.). Eine Nominaldefinition ist also formal nichts weiter als eine tautologische Umformung; das Definiendum ist bedeutungsgleich, ist identisch mit dem Definiens. Mit anderen Worten: Bei der Nominaldefinition geht man davon aus, dass zwei Zeichen oder Ausdrücke (Definiendum und Definiens) dieselbe Bedeutung haben, sich auf dieselben Gegenstände der Realität (auf dieselben Referenzobjekte) beziehen lassen. Das impliziert zugleich, dass eine solche definitorische Beziehung zwischen zwei Ausdrücken keinen empirischen Bedingungszusammenhang zwischen verschiedenen Gegenständen, sondern eine logische Relation zwischen Ausdrücken und Zeichen unserer Sprache darstellt. Schreibweise: Definiendum: = df.: Definiens A = df.: B, C, D Damit Definitionen in dieser Form möglich sind, müssen bereits einige Begriffe existieren, die undefiniert eine präzise Bedeutung haben (Voraussetzung also: gemeinsame Sprache, gemeinsamer kultureller Hintergrund). In jede Definition gehen notwendigerweise undefinierte Begriffe ein, die in ihrer Bedeutung als bekannt vorausgesetzt werden: Das Definiendum als „Unbekanntes“ wird durch Bekanntes im Definiens erläutert. Für die Theoriebildung auf der Grundlage nominaldefinierter Begriffe heißt dies, dass im Idealfall eine möglichst kleine Gruppe außerlogischer Termini 123 zu finden ist (=-ursprüngliche oder einfache Begriffe), aus denen mit Hilfe verschiedener Kombinationen untereinander und durch Verknüpfung mittels logi- 123 „Außerlogische“ Begriffe sind solche, die eine Bedeutung in der empirischen oder in der Vorstellungswelt haben (wie: ‚Tier‘, ‚Automobil‘, ‚Wind‘, ‚Idee‘, ‚Hölle‘ etc.), positiv formuliert kann man sie auch als sinntragende Begriffe bezeichnen. „Logische“ (hier besser: „sprachlogische“) Termini dagegen haben die Funktion, solche Gegenstandsbegriffe zu verknüpfen, damit daraus eine Aussagestruktur entsteht (wie: ‚und‘, ‚oder‘, ‚nicht‘, ‚das‘, ‚wenn‘ etc.). Nominaldefinition VERTIEFUNG Nominaldefinition: logische Relation zwischen Ausdrücken unbekannte durch bekannte Begriffe festlegen <?page no="148"?> 149 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 149 scher Termini alle anderen außerlogischen Begriffe der Theorie definiert werden können (=-abgeleitete Begriffe) (Zetterberg 1973, 113). Nominaldefinitionen haben keinen empirischen Informationsgehalt. Dennoch sind sie weder überflüssig noch Selbstzweck; denn sie sollen die Mitteilung und die Diskussion in der Wissenschaft erleichtern. Sie sollen vor allem die intersubjektive Kontrolle des empirischen Forschungsprozesses ermöglichen. Was nicht präzise definiert ist, kann auch nicht eindeutig nachvollzogen und nachgeprüft werden. Nominaldefinitionen sind ein geeignetes Instrument, Begriffe exakt und unmissverständlich auf die Bedürfnisse eines Forschungsprojektes zuzuschneiden. 3.5.2 Begriffe und Begriffsarten: Funktionen, theoretischer und-empirischer Bezug von Begriffen An dieser Stelle sei noch einmal eine Aussage aus Kapitel 1 aufgegriffen, wonach auch für den Fall deskriptiver Untersuchungen die Begriffe, mit denen die Realität strukturiert wird, „theoretisch relevant“ sein sollten. Warum? Dass es offensichtlich sinnlos und für den Fortschritt einer Wissenschaft nutzlos ist, nicht weiter verwertbare Datenfriedhöfe mit „rein“ deskriptiven Untersuchungen zu produzieren, ist nur die eine Seite. Die andere ist, dass durch Begriffe der Gegenstandsbereich der Forschung erst strukturiert wird. Begriffe haben insofern die Funktion, aus der Fülle von Merkmalen eines Gegenstandsbereichs diejenigen Aspekte herauszufiltern, die im gegebenen Zusammenhang als relevant angesehen werden, und die übrigen Aspekte als für den gegebenen Zusammenhang irrelevant außer Acht zu lassen (Selektivität von Begriffen). Mit anderen Worten: Ein Begriff erfasst niemals alle Merkmale eines Gegenstands oder Sachverhalts, sonst müsste für jeden individuellen Gegenstand oder Sachverhalt eine spezielle Bezeichnung (ein Name) gefunden werden. Vielmehr treten bestimmte Eigenschaften und Beziehungen ins Blickfeld, andere bleiben unberücksichtigt. Entsprechend legt ein Begriff, und mehr noch die jeweilige Gesamtheit der wissenschaftlichen Begriffe, die Terminologie bestimmte Fragestellungen nahe und blendet andere aus. Diese Selektivität kann nicht willkürlich geschehen, sondern sie muss von einem Vorverständnis, von-- zumindest-- Alltagstheorien über die Struktur des mit dem Begriff zu bezeichnenden Gegenstandsbereichs ausgehen. Nehmen wir ein so einfaches Wort wie „Tisch“, so verstehen wir darunter ganz selbstverständlich die Bezeichnung für einen Gegenstand, der in der Regel nicht zum Sitzen konstruiert wurde, der im allgemeinen eine waagerechte Platte auf vier „Füßen“ oder einem meist senkrechten Ständer aufweist usw. Welche Merkmale uns auch noch einfallen mögen; es wird jedenfalls eine Liste von relativ wenigen Merkmalen sein, die wir zur Entscheidung benötigen, ob ein Gegenstand Tisch ist oder Nicht-Tisch. Und es zeigt sich an den vagen Merkmalsformulierungen wie „im Allgemeinen eine waagerechte Platte“, dass „Tisch“ von seiner Funktion und nicht so sehr von seiner Erscheinung her definiert wurde, Eigenschaften von-Nominaldefinitionen Strukturierung des-Gegenstandsbereichs durch Begriffe Selektivität von-Begriffen BEISPIEL <?page no="149"?> 150 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 150 dass also von der Verwendungsmöglichkeit oder der tatsächlichen Verwendung her entschieden wird, ob etwas als Tisch gilt oder nicht. Das setzt aber voraus, dass wir eine „Alltagstheorie“ besitzen, für welche Zwecke in der Regel ein Tisch verwendet wird und welche Eigenschaften ein Gegenstand besitzen muss, damit er als Tisch geeignet ist. Nicht der Gegenstand als solcher setzt seine Definition als „Tisch“ fest, sondern unsere Art der Nutzung. Deshalb werden wir auch Eigenschaften wie Farbe, Form der waagerechten Tischplatte oder ob aus Metall oder Holz oder Glas bestehend oder ob mit vier oder drei Beinen oder einem einzigen im Fußboden verankerten Ständer versehen usw. als im gegebenen Zusammenhang (nämlich für die Entscheidung, ob Tisch oder Nicht-Tisch) irrelevant außer Acht lassen; irrelevant, weil wir aus unserer „Theorie“ wissen, dass z. B. die Farbe für die Verwendungsfähigkeit eines Gegenstands als Tisch unerheblich ist. Wir bilden durch Begriffe also die jeweils relevanten, die Einzelerscheinung übergreifenden, allgemeinen Eigenschaften eines Gegenstandsbereichs ab. Dazu benötigen wir eine „Theorie“ über den Realitätsausschnitt, den wir mit solchen notwendigerweise verallgemeinernden Begriffen auf gedanklicher Ebene strukturieren wollen. Je besser, je verlässlicher die Theorie, nach der wir den Gegenstandsbereich strukturieren, desto präziser werden die Beschreibungen; und umgekehrt: Je präziser die Beschreibungen, desto besser werden wir unsere Theorie über den Gegenstandsbereich formulieren können. Deshalb sind wir bei jeder Begriffsbildung nicht nur auf eine vorab vorhandene Theorie angewiesen, sondern formulieren zusätzlich die Forderung: Auch die für deskriptive Zwecke verwendeten Begriffe sollen so definiert werden, dass sie theoretisch verwertbar sind; nur dann sind die Ergebnisse der Beobachtungen auf die „Vorab-Theorie“ beziehbar. 124 Wenn ein Begriff vorhanden und seine Bedeutung entweder aufgrund des allgemeinen Sprachgebrauchs oder explizit durch Definition klar ist, erlaubt uns dieser Begriff, aus der Vielfalt von Gegenständen Klassen identischer Fälle zu bilden. Bei genauem Hinsehen erweisen sich allerdings die Elemente dieser Klassen als gar nicht identisch; sie sind vielmehr identisch lediglich im Hinblick auf eine begrenzte Zahl von Merkmalen und können hinsichtlich sämtlicher anderer möglicher Merkmale unterschiedlich sein (vgl. das Beispiel „Tisch“). Man nennt dies die Klassifikationsfunktion von Begriffen. 125 Begriffe ermöglichen es aber nicht nur, Gegenstände zu klassifizieren. Durch die Auswahl und Definition von Begriffen wird zusätzlich entschieden, welche unserer verschiedenen Beobachtungen zusammengehören, welche Daten und welche Sinnes- 124 Zum Verständnis dieser Überlegungen kann es hilfreich sein, wenn Sie sich die Argumente von Kapitel 3.3 (semantische Analyse) noch einmal vor Augen führen. 125 Dieser Aspekt wird in Kapitel 5.2.2 mit der Einführung einer Unterscheidung nach klassifikatorischen, komparativen und metrischen Begriffen weitergeführt. Theorie zur Strukturierung des Gegenstandsbereichs theoretisch verwertbare Begriffe Klassifikationsfunktion von Begriffen <?page no="150"?> 151 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 151 eindrücke nicht als Informationen über isolierte Phänomene, sondern als „ganzheitlicher Komplex“ behandelt werden sollen. Nehmen wir den Begriff „Wettbewerb“, so fasst dieser die Aktivitäten mindestens zweier Personen zusammen, falls zusätzliche Bedingungen erfüllt sind, nämlich: dass die Aktivitäten der Personen auf das gleiche Ziel gerichtet sind, dass es sich bei diesem Ziel um ein knappes Gut handelt (etwa Geld bei wirtschaftlichem Wettbewerb oder der Sieg bei sportlichem Wettbewerb) und dass jeder der „Wettbewerber“ weiß, dass mindestens eine andere Person das gleiche Ziel verfolgt, ihr das knappe Gut also streitig machen könnte. Das heißt, die Aktivitäten von mindestens zwei Personen werden nicht als getrennte Ereignisse gesehen, sondern als eine Einheit aufgefasst und unter einem einzigen Begriff subsumiert. Formuliert man weniger einschränkende Bedingungen, welche Aktivitäten zu einem zusammenhängenden Komplex zusammengefasst werden sollen, kommt man beispielsweise zum soziologischen Begriff der „Interaktion“. 126 In beiden Fällen („Wettbewerb“ und „Interaktion“) werden Ereignisse, die prinzipiell auch isoliert betrachtet werden können, zu einer Einheit zusammengefasst und mit einem speziellen Begriff bezeichnet. Man nennt dies die Synthesefunktion von Begriffen. Ob die durch die Wahl des Begriffs vorgenommene Klassifikation und evtl. Synthese von Sachverhalten zweckmäßig ist, hängt von der zu behandelnden Fragestellung ab. Im wirtschaftlichen Bereich wird ein Begriff wie „Wettbewerb“ sicher zweckmäßig sein; bei anderen Fragestellungen wird vielleicht der Begriff „Interaktion“ zweckmäßiger sein, so dass „Wettbewerb“ als Teilklasse aller Interaktionen erscheint. In anderem Zusammenhang wiederum mag „Interaktion“ eine Strukturierung vornehmen, die zu grob ist, und man wird eventuell einen spezielleren Begriff wie „Kommunikation“ für eine andere Teilklasse von Interaktionen und die damit vorgenommene Strukturierung des Gegenstandsbereichs vorziehen. Begriffe sind Kategorien (oder Abstraktionsklassen) von Sachverhalten, Ereignissen, Ideen etc., die unter einem bestimmten Gesichtspunkt als identisch betrachtet und behandelt werden. Begriffe „konstituieren“ die Wirklichkeit aus der Sicht des Sprechers. 127 126 Interaktion =-df. gegenseitiges, aneinander orientiertes Handeln mindestens zweier Personen. 127 Manche Autoren bleiben bei dem bisher verfolgten Gedankengang nicht stehen und führen zunächst noch den Ausdruck „Prädikator“ ein, worunter ein spezifisches sprachliches Symbol zu verstehen ist, mit dem der gedanklich abgegrenzte Realitätsausschnitt bezeichnet wird (hier z. B. „Tisch“ oder „Interaktion“). Der identische Realitätsausschnitt kann mit unterschiedlichen Prädikatoren bezeichnet werden: An die Stelle von „Tisch“ tritt z. B. in der englischen Sprache der Prädikator „table“. „Begriffe“ sind aus dieser Sicht erst die „Abstraktionsklassen synonymer Prädikatoren“ (Friedrich/ Hennig 1975, 75). Diese für manche Zwecke sicher sinnvolle Differenzierung greift der vorliegende Text nicht auf. Hier wird unter „Begriff“ ein sprachliches Zeichen und dessen Bedeutung verstanden. BEISPIEL Synthesefunktion von Begriffen Ziel: zweckmäßige Klassifkation <?page no="151"?> 152 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 152 Begriffsbildung und Begriffsdefinition sind ein wichtiger Abschnitt von zentraler Bedeutung in jeder Untersuchung. Werden Definitionsmerkmale unzweckmäßig gewählt, können wesentliche Beziehungen in der Realität verschleiert, „wegdefiniert“ werden. „Soziale Schicht“ sei definiert durch eine Kombination von Merkmalen der sozialen Herkunft, der eigenen Bildung, des Berufsprestiges und des Einkommens. Wenn man dies tut, dann werden damit alle Beziehungen „wegdefiniert“, die sich in Hypothesen ausdrücken könnten, wie: Je höher der Status des Elternhauses, desto höher die Bildung der Kinder und deren späteres Berufsprestige sowie deren Einkommen (vgl. Kapitel 3.2). Setzt sich ein bestimmter Sprachgebrauch auf der Grundlage begrifflicher Strukturierung der sozialen Realität durch, dann können auch bestimmte Fragestellungen nicht mehr aufgeworfen werden, weil sie in der Sprache nicht vorgesehen sind. Nochmals zum Theoriegehalt und zum empirischen Bezug von Begriffen: Die unterschiedlichen Grade an Theoriegehalt sowie die Art des empirischen Bezugs werden in einer Unterscheidung deutlich, die A. Kaplan vorgenommen hat. Er klassifiziert Begriffe in direkte und indirekte Beobachtungstermini, Konstrukte und theoretische Begriffe. Zumindest die Unterscheidung zwischen direkten Beobachtungstermini und den nur indirekt beobachtbaren Sachverhalten ist für die empirische Sozialforschung von zentraler Bedeutung. Nach Kaplan (1964, 54 ff.) bietet sich folgende Einteilung an: a) Direkte Beobachtungstermini (observational terms): Diese lassen sich aufgrund relativ einfacher und direkter Beobachtungen anwenden (Beispiele: Einkauf, Spaziergang, Familie, Arbeitsgruppe, Alter, Geschlecht, Klausurteilnehmer, Papagei). Man nennt solche Begriffe mit direktem empirischem Bezug auch empirische oder deskriptive Begriffe. b) Indirekte Beobachtungstermini (indirect observables): Diese können nur mit Hilfe einer Kombination von Beobachtung und Schlussfolgerung angewendet werden. Die bezeichneten Tatbestände sind nicht direkt beobachtbar. Die Begriffe haben einen indirekten empirischen Bezug. Man benötigt direkt erfahrbare Indikatoren, die auf das Vorliegen oder Nichtvorliegen des durch den Begriff gemeinten Sachverhalts hindeuten. (Beispiele: „Norm“: Indikator =- Belohnung/ Bestrafung bestimmter Verhaltensweisen; „Erreichbarkeit“: Indikator =- Fußweg in Minuten oder Entfernung in km; „Sozialstatus“: Indikatoren =- Berufsprestige und/ oder Bildung und/ oder Einkommen und/ oder Ansehen des Wohngebiets und/ oder materieller Besitz etc.). c) Konstrukte (constructs): Sie werden weder aufgrund direkter noch aufgrund indirekter Beobachtungen angewendet, sind aber aufgrund von Beobachtungen BEISPIEL Theoriegehalt von-Begriffen VERTIEFUNG direkte Beobachtungstermini indirekte Beobachtungstermini Konstrukte <?page no="152"?> 153 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 153 definiert; sie „konstruieren“ eine bestimmte Sicht auf die Realität (Beispiel: „soziale Mobilität“ =-df. Ergebnis des Vergleichs des sozialen Status der gleichen Person zu verschiedenen Zeitpunkten). d) Theoretische Begriffe (theoretical terms): Sie haben „theoretischen Gehalt“, beziehen sich u. a. auf Zusammenhänge zwischen einzelnen Variablen (Beispiel: „Urbanismus“: Es wird das gleichzeitige Vorhandensein einer ganzen Reihe von Eigenschaften und Erscheinungen unterstellt, z. B. städtischer Lebensstil mit Merkmalen wie Anonymität, geringe soziale Kontrolle, Beschränkung enger sozialer Beziehungen auf einen Kern von Verwandten und Freunden, besondere Kommunikationsformen etc.; weiteres Beispiel: „soziales System“). Mit Ausnahme von a) sind für die Entscheidung über das Vorliegen der mit den Begriffen bezeichneten Tatbestände Indikatoren erforderlich. 3.5.3 Nominaldefinition 2: Eigenschaften Zurück zu den Eingangsüberlegungen zur Nominaldefinition (Abschnitt 3.5.1). Nach Auffassung der „Schule“ des Begriffsnominalismus sind Begriffe etwas dem bezeichneten Phänomen gegenüber Äußeres; der Zusammenhang von Begriff und Gegenstand ist rein konventioneller, also vereinbarungsgemäßer Art. Begriffe sind lediglich ein prinzipiell auswechselbares Etikett. Auch der Zusammenhang von Definiens und Definiendum ist veränderbar. Die nominalistische Maxime für Begriffsbestimmungen, für Definitionen lautet: Jedes Wort kann verschiedene Bedeutungen tragen (Homogramme, Homonyme), und jede Bedeutung kann durch verschiedene Wörter repräsentiert werden (Synonyme). Begriffe spielen die Rolle des „Wegweisers“ zur Wirklichkeit; sie leuchten denjenigen Teil der Wirklichkeit aus, auf den sie gerichtet sind. Diese Funktion wird umso besser erfüllt, je stärker zwei Bedingungen beachtet werden: Präzision und empirischer Bezug. Beispiele für die Nominaldefinition von „politische Partei“ (lies: Definition der Zeichenfolge „politische Partei“, die jetzt noch bedeutungsleer ist): Eine politische Partei (P) soll sein: (=-df.) eine Organisation (O) mit eingeschriebenen Mitgliedern (M) und demokratischer Binnenstruktur (dB), die an Wahlkämpfen teilnimmt (W) und sich um Regierungsbeteiligung bewirbt (R). Oder: P 1 =-df. O, M, dB, W, R. 128 128 „P 1 “, weil prinzipiell beliebig viele Definitionen möglich sind. theoretische Begriffe Nominaldefinition als Vereinbarung BEISPIEL <?page no="153"?> 154 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 154 Damit ist explizit, präzise und erschöpfend bestimmt, was als politische Partei gelten soll. Gegen diese Definition kann man höchstens einwenden, sie sei unzweckmäßig, weil sie z. B. zu viele Vereinigungen ausschließt, die aus bestimmten Gründen auch in eine Untersuchung über politische Parteien einbezogen werden sollten. Ein anderer Forscher könnte deshalb definieren: P 2 =-df. O, M, dB. Oder ein dritter: P 3 =-df.: O, M, W, R. Oder ein vierter: P 4 =-df.: O, M, R. Oder ein fünfter: P 5 =-df.: O, M, R, V. 129 Jeder dieser so definierten Begriffe verbindet mit der gleichen Zeichenkombination „politische Partei“ eine andere Gesamtheit von empirischen Phänomenen, strukturiert also den Gegenstandsbereich in anderer Weise, zieht andere Grenzen. Hieran wird die Klassifikationsfunktion von Begriffen recht deutlich: Jeder der so definierten Begriffe P 1 bis P 5 klassifiziert die Gesamtheit der „Organisationen“ in anderer Weise als Partei oder als Nicht-Partei. Aber auch: Mit der gleichen Wortkombination „politische Partei“ werden andere Bedeutungen verbunden. Nach diesen Vorüberlegungen lassen sich Nominaldefinitionen genauer bestimmen. Nominaldefinitionen sind Aussagen über die Gleichheit der extensionalen und intensionalen Bedeutung zweier oder mehrerer Begriffe. „Ein zu definierendes sprachliches Zeichen (Definiendum) wird mit einem definierenden Zeichen (Definiens) gleichgesetzt. Knüpft diese Gleichsetzung an einen vorhandenen Sprachgebrauch an, spricht man von einer deskriptiven, schafft sie erst einen neuen Sprachgebrauch, von einer stipulativen Nominaldefinition“ (Esser/ Klenovits/ Zehnpfennig 1977, Bd. 1, 79). Intension (intensionale Bedeutung) des nominalistisch definierten Begriffs heißt also im gegebenen Fall: die Menge der Eigenschaften, die herangezogen worden sind, um „politische Partei“ von anderen Organisationen abzugrenzen (im Falle der Definition P 5 sind dies: O, M, R, V; dagegen werden zur Entscheidung, ob ein Objekt eine „politische Partei“ im Sinne von P 1 ist, die Eigenschaften O, M, dB, W, R-- aber nur diese-- berücksichtigt). Um dagegen die Extension (extensionale Bedeutung) des nominalistischen Begriffs „politische Partei“ anzugeben, wäre eine Liste erforderlich, auf der die Menge aller Objekte verzeichnet ist, die als „politische Partei“ gelten sollen. 130 Im Falle der Defi- 129 „V“ soll hier heißen: verfolgt keine verfassungsfeindlichen Ziele. 130 Der Wahlzettel zu einer Bundestagswahl, auf der alle kandidierenden Parteien aufgelistet sind, wäre für eine Definition P 6 =-df.: O, M, W das extensionale Pendant zum Zeitpunkt dieser Wahl. Definition: Nominaldefinition Intension: Menge herangezogener Eigenschaften Extension: Menge aller Referenzobjekte <?page no="154"?> 155 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 155 nition P 1 wären dies alle Organisationen, die die Eigenschaften O, M, dB, W, R besitzen. Die Extension von P 1 etwa ist vermutlich geringer als die von P 4 , da P 1 sämtliche Eigenschaften von P 4 einschließt (O, M, R) und zusätzlich noch zwei weitere (dB, W) enthält; P 1 führt mehr definitorische Bedingungen ein, die eine Organisation erfüllen muss, um als „politische Partei“ zu gelten. Der Vorzug nominalistischer Definitionen ist deren Präzision. Das Definiendum bedeutet genau das, was im Definiens steht, nicht mehr und nicht weniger. Der Nachteil dieser Beliebigkeit der Begriffsbildung liegt in der mangelnden Möglichkeit des Vergleichs von Forschungsergebnissen, die aufgrund unterschiedlicher Definitionen gewonnen wurden. Aussagen, die für politische Parteien =-df. P 1 gelten, beziehen sich auf einen anderen Gegenstandsbereich als Aussagen über politische Parteien =-df. P 2 , und zwar wegen der unterschiedlichen Extension (wegen des unterschiedlichen „Begriffsumfangs“) von P 1 und P 2 . Identisch sind lediglich die verwendeten Worte. Empirische Regelmäßigkeiten, die für den Gegenstandsbereich P 1 zutreffen, müssen deshalb nicht in gleicher Weise auch für die Gegenstandsbereiche P 2 , P 3 , P 4 oder P 5 zutreffen. Eine weitere Eigenschaft von Nominaldefinitionen ist, dass eine Nominaldefinition niemals falsch sein kann; denn sie macht keine Aussagen über die Eigenschaften der Realität. Sie legt lediglich fest, welche Eigenschaften ein empirischer Gegenstand oder Sachverhalt aufweisen muss, um unter die Menge der Gegenstände oder Sachverhalte zu fallen, die mit der Definition begrifflich abgegrenzt worden sind. 131 Aus dem gleichen Grunde kann eine Nominaldefinition auch niemals „richtig“ sein. Das Beurteilungskriterium Falschheit/ Richtigkeit trifft auf Nominaldefinitionen nicht zu; stattdessen ist nach ihrer Zweckmäßigkeit zu fragen. Nominaldefinitionen sind Klassifikationsvorschriften; sie sind Anweisungen an die Beobachter: Nur Tatbestände, die die folgenden Bedingungen erfüllen, sollen mit dem Begriff (z. B. „politische Partei“) bezeichnet werden; allen anderen Tatbeständen soll dieser Begriff nicht zugeschrieben werden (=-Nicht-P). Im Extremfall könnte es so sein, dass empirisch überhaupt kein Tatbestand die im Definiens aufgeführte Eigenschaftskombination besitzt und somit der definierte Begriff überhaupt keine Entsprechung in der Realität hätte (Extension =-null: alle Objekte fallen unter die Kategorie Nicht-P). Auch damit wäre die Definition nicht „falsch“, sie wäre allerdings völlig unbrauchbar: die Klassifikationsvorschrift wäre derart, dass sich überhaupt nichts in unterschiedliche Klassen einteilen ließe. 131 Nominaldefinitionen werden deshalb verschiedentlich auch „festsetzende Definitionen“ genannt. Die „Festsetzung“ muss jedoch für eine Untersuchung nicht endgültigen Charakter haben. Gerade wenn Begriffe-- insbesondere bei deskriptiven Studien-- die Rolle eines „Wegweisers“ zur Realität erfüllen, oder „sensibilisierend“ für die Analyse wirken sollen, kann sich im Laufe des Forschungsprozesses eine gegenüber der Anfangsdefinition modifizierte Begriffsfassung als angemessener erweisen. Vorteil: Präzision Nachteil: Beliebigkeit Nominaldefinition ist niemals falsch Nominaldefinition ist niemals richtig Nominaldefinition ist Klassifikationsvorschrift <?page no="155"?> 156 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 156 Dieser Zweckmäßigkeitsgesichtspunkt sei an einem konkreten Beispiel illustriert: Das Institut für Museumskunde in Berlin erhebt jährlich durch schriftliche Befragung die Besuchszahlen in Museen. Dazu benötigt es eine für den Zweck „Erhebung“ brauchbare und operational handhabbare Definition, die eine eindeutige Entscheidung ermöglicht, an welche Einrichtungen der Fragebogen zu verschicken ist und an welche nicht. Gesucht sind also (semantische) Regeln, um museale von anderen kulturellen Einrichtungen abzugrenzen. Das Institut für Museumskunde nennt seinen Definitionsvorschlag daher „Abgrenzungsdefinition“. Damit Sie sich davon ein eigenes Bild machen können, wird der diesbezügliche Text des Instituts hier vollständig zitiert: 132 „Um eine annähernd repräsentative Erhebung vornehmen zu können, ist die Kenntnis des Umfangs und der Struktur der Gesamtheit aller musealen Einrichtungen, der ‚statistischen Grundgesamtheit‘ notwendig. Zur Bestimmung der Gesamtheit aller musealen Einrichtungen muss der Museumsbegriff festgelegt bzw. definiert werden, d. h. es muss ein Kriterienkatalog aufgestellt werden, anhand dessen eindeutig entscheidbar ist, ob eine bestimmte Institution als museale Einrichtung anzusehen und somit in die statistische Grundgesamtheit aufzunehmen ist oder nicht. Bei der hier vorgestellten Abgrenzungsdefinition fehlen allerdings wesentliche Elemente einer allgemeinen Museumsdefinition 133 wie z. B. die Beschreibung von Funktionen, Aufgabenstellungen, Einbindungen und Verknüpfungen in bzw. mit anderen Kulturorganisationen. Bei unserer Definition geht es lediglich um eine empirisch fassbare Abgrenzung gegenüber anderen Einrichtungen, die eine größtmögliche Trennschärfe aufweist. Keinesfalls bestimmt das Institut für Museumskunde damit, welche Einrichtungen als Museen anerkannt werden sollen. Dies ist allein Aufgabe der Museumsverbände und -ämter in den einzelnen Bundesländern.“ Die Kriterien der Abgrenzungsdefinition zur Auswahl von Museen und Museumseinrichtungen waren: Merkmale Abgrenzungen Vorhandensein einer Sammlung und Ausstellung von Objekten mit kultureller, historischer oder allgemein wissenschaftlicher Zielsetzung Info-Bereiche der Wirtschaft, Schlösser und Denkmäler ohne Ausstellungsgut, Bauwerke unter Denkmalschutz (Kirchen und andere Sakralbauten) Zugänglichkeit für die allgemeine Öffentlichkeit Fachmessen, Privatgalerien ohne regelmäßige Öffnungszeiten Überwiegend keine kommerzielle Aufgabenstellung Privatgalerien, Läden mit Ausstellungsflächen, Kunstgewerbemarkt klare Eingrenzung des Museumsbereiches Bildhauer-Symposien, Kunst am Bau, städtebauliche Ensembles 132 Quelle: Materialien aus dem Institut für Museumskunde, Heft 23/ 1988, Berlin, 26 f. 133 Siehe z. B. die Definition „Was ist ein Museum“ des Deutschen Museumsbundes e. V. in: Museumskunde 1978 (n. F.), Bd. 43, Heft 2 (Umschlag) BEISPIEL <?page no="156"?> 157 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 157 Zur Erläuterung: In der Spalte „Merkmale“ finden Sie diejenigen Eigenschaften aufgelistet, die der Nominaldefinition von „Museen und Museumseinrichtungen“ dienen. Der Gesichtspunkt der Zweckmäßigkeit dieser Definition für die beabsichtigte Verwendung als Abgrenzungsregel für die Erhebung von Besuchszahlen wird insbesondere am letzten Merkmal („klare Eingrenzung des Museumsbereiches“) deutlich. Damit werden beispielsweise Freilichtmuseen ohne verschließbare Umzäunung aus der Betrachtung ebenso ausgeschlossen wie etwa Kulturdenkmäler mit musealem Charakter, falls sie frei zugänglich sind. Dies geschieht nicht, um diese Einrichtungen zu diskreditieren, sondern aus der Überlegung heraus, dass in diesen Fällen Besuchszahlen nicht ermittelbar sind, also der Versand von Fragebögen überflüssig ist. In der Spalte „Abgrenzungen“ finden Sie dagegen keine Definitionsmerkmale, sondern operationale Vorschriften in Form von Negativ-Beispielen („Was gehört nicht dazu? “). Dies geschieht, weil die jeweiligen Definitionsmerkmale nicht so trennscharf sind, dass allein aufgrund ihrer Formulierung alle Zweifelsfragen ausgeschlossen werden. Dennoch muss-- und kann im gegebenen Kontext-- zusätzlich ein bestimmtes generelles Vorverständnis darüber unterstellt werden, was ein Museum „eigentlich“ ist. Andernfalls wäre es mit der vorgeschlagenen Abgrenzungsdefinition trotz der erläuternden operationalen Hinweise durchaus vereinbar, etwa wissenschaftliche Bibliotheken oder Zoologische Gärten den „musealen Einrichtungen“ zuzuschlagen. Zur Übung: Bitte prüfen Sie diese Behauptung anhand des zitierten Textes! 3.5.4 Realdefinitionen Grundsätzlich anders als die Auffassung des Begriffsnominalismus ist die Auffassung des Begriffsrealismus. Wiederum sehr verkürzt dargestellt, kann man sagen: Der Begriffsrealismus betrachtet Begriffe als unmittelbare Widerspiegelung der Erscheinung. Natürlich- - welchem Gegenstand welches sprachliche Zeichen zugeordnet wird, das ist gesellschaftliche Konvention. Aber: Es ist nicht in das Belieben des einzelnen „Definierers“ gestellt, welche Facetten des Gegenstandes mit einem Begriff hervorgehoben und welche außer Acht gelassen werden. Der Begriff strukturiert nicht den Gegenstandsbereich, sondern er zeichnet die Struktur des Gegenstandsbereichs nach. Der Begriff wird geprägt durch die Eigenschaften des Gegenstandsbereichs selbst; er bildet auf der Ebene der Sprache „das Wesen“ (weniger anspruchsvoll: das Wesentliche) des Gegenstands/ Objekts ab. Was aber an einem Sachverhalt wesentlich ist, hängt nach diesem Verständnis vom bezeichneten Sachverhalt ab und nicht von der Willkür desjenigen, der einen Begriff definiert. Begriffsrealismus <?page no="157"?> 158 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 158 Die Realdefinition ist eine Aussage über Eigenschaften eines Gegenstands oder Sachverhalts, die im Hinblick auf diesen Gegenstand/ Sachverhalt für wesentlich gehalten werden. Die Realdefinition ist also nicht-- wie bei der Nominaldefinition-- im Hinblick auf eine an den Gegenstand/ Sachverhalt herangetragene Fragestellung festgelegt. 134 Realdefinitionen sind Behauptungen über die Beschaffenheit oder über das „Wesen“ eines Phänomens und haben damit den gleichen Status wie empirische Hypothesen: sie müssen sich an der Realität des bezeichneten Phänomens bewähren, und sie können richtig oder falsch sein. Heißt jetzt das Definiendum- - das zu Definierende- - „politische Partei“, dann stehen im Definiens Eigenschaften, die das Wesentliche des Phänomens „politische Partei“ (P) zum Ausdruck bringen sollen. Das Phänomen selbst und dessen Eigenschaften sind durch die Definition zu erschließen. Es soll also nicht für die Zwecke der Kommunikation ein bestimmter Sprachgebrauch hier und jetzt lediglich vereinbart werden. Vielmehr wird vorausgesetzt, dass es den zu definierenden Begriff mit seinem gegenstandsbezogenen Vorstellungsinhalt bereits gibt. Anders ausgedrückt: Die Klassifikation in P und Nicht-P existiert bereits; in der Definition sind nun diejenigen Eigenschaften aufzulisten, die es erlauben, korrekt zwischen P und Nicht-P zu unterscheiden. Der Unterschied im sprachlogischen Status von Real- und Nominaldefinition drückt sich bereits in den Formulierungen aus, die im Zusammenhang mit den beiden Definitionstypen gewählt werden. Bei einer Nominaldefinition wird immer deutlich gemacht, dass „per Definition“ einem Definiendum bestimmte Eigenschaften zugeschrieben werden: „P 1 =- df. O, M, dB, W, R.“ Oder verbal: „Unter einer politischen Partei soll verstanden werden-…“ Oder: „Wenn im Folgenden von politischer Partei die Rede ist, dann ist damit gemeint-…“ oder: „Ich definiere für die vorliegende Untersuchung politische Partei wie folgt: -…“ Bei einer Realdefinition dagegen würde es heißen: „Eine politische Partei ist O, M, dB, W, R.“ Oder: „Als das Besondere einer politischen Partei sind die folgenden Merkmale anzusehen: -…“ Oder: „Wesentlich für politische Parteien sind die Merkmale: -…“ Solche Unterscheidungen schon bei der Schreibweise und bei der Wahl der verwendeten Wörter sind-- wie Opp (1976, 95) hervorhebt-- durchaus nicht „ein überflüssiges Produkt pedantischer Logiker“. Ohne eine klare Kennzeichnung des Definitionstyps könnten Unklarheiten darüber entstehen, ob lediglich ein Vorschlag über 134 Neben Nominal- und Realdefinitionen kann man auch noch die operationale Definition von Begriffen finden. Hierbei geschieht die Bedeutungszuweisung durch die Angabe von Mess-Operationen. Beispiel: „Härte“ (von Materialien) =-df. Material A ist härter als Material B, wenn Material B von A geritzt werden kann, aber nicht Material A von B. Diese Art von Definition darf nicht verwechselt werden mit der „Operationalisierung“, die erforderlich ist, um einen bereits definierten Begriff empirisch anwendbar zu machen (siehe Kapitel 4). Behauptung über das Wesen eines Sachverhalts Realdefinitionen beschreiben existente Unterscheidungen Kennzeichnung des Definitionstyps <?page no="158"?> 159 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 159 die präzise Verwendung eines bestimmten Ausdrucks gemacht wird (Nominaldefinition) oder ob etwas über die Realität ausgesagt werden soll. Wird bei einer Nominaldefinition von „politischer Partei“ der Beobachter mit einer Organisation konfrontiert, die zwar nach allgemeiner Überzeugung als politische Partei einzustufen wäre, die aber mindestens eines der Definitionsmerkmale nicht aufweist, dann ist die Konsequenz: Diese Organisation fällt nicht in die Menge der als politische Partei definierten Organisationen und wird nicht in die Untersuchung einbezogen. Falls diese Konsequenz als nicht sinnvoll erscheint, ist die Definition nicht etwa falsch, sondern unzweckmäßig. Handelte es sich dagegen um eine Realdefinition von politischer Partei, dann ist die Konsequenz eine andere: Die Definition ist falsch, sie muss geändert werden. Nehmen wir an, die Einschätzung werde allgemein akzeptiert: Die NPD ist eine politische Partei. Nehmen wir ferner an, es sei empirisch wahr, dass die NPD keine demokratische Binnenstruktur aufweist. Dann stimmt in der Realdefinition „P ist O, M, dB, W, R“ ein Bestandteil nicht: Wir haben eine politische Partei gefunden, die keine demokratische Binnenstruktur aufweist. „Demokratische Binnenstruktur“ ist also offenbar keine Eigenschaft, die „das Wesen“ einer politischen Partei ausmacht. Wenn man weiter davon ausgeht, dass auch eine staatliche Einheitspartei eine politische Partei ist, dann trifft für diese empirisch nicht zu, dass sie sich im Wahlkampf um Regierungsbeteiligung bewirbt; eine Wahl in einem Staat mit nur einer Einheitspartei hat eine andere Funktion als in einem Staat mit konkurrierenden politischen Parteien, nämlich: Bestimmung der Repräsentanten dieser Partei für die Regierungsorgane. Wenn dies so ist, dann ist aber auch die Eigenschaft „sich in Wahlkämpfen um Regierungsbeteiligung bewerben“ nicht ein „wesentliches“ Bestimmungsmerkmal politischer Parteien. Die Realdefinition wäre dann auch in dieser Hinsicht falsch. Und so könnte es im Prinzip jedem der anderen genannten Definitionsmerkmale ergehen. Da die Realdefinition etwas aussagt über den Gegenstand, so wie er unabhängig von dieser Definition schon existiert und nicht erst durch die Definition konstruiert und strukturiert wird, kann sie in vielfacher Hinsicht empirisch falsch sein. Realdefinitionen können aber nicht nur falsch sein, sie können praktisch auch niemals vollständig sein. Man kann unmöglich sämtliche Eigenschaften, die ein bereits bekannter Gegenstand hat, in die Definition aufnehmen. Anspruch und Ziel von Realdefinitionen ist es ja gerade, nur „das Wesentliche“ hervorzuheben. Aber das, was wirklich wesentlich ist-- nicht was vereinbarungsgemäß als wesentlich erachtet werden soll--, kann nicht mit letzter Sicherheit bestimmt werden. In unterschiedlichen historischen Epochen können jeweils andere Aspekte eines Phänomens wesentlich sein (man denke etwa an den Wandel der Bedeutung von „Familie“). Unter Realdefinition versteht man die Angabe des „Wesens“ der Sache, die mit dem zu definierenden Begriff bezeichnet wird. Das Definiendum (z. B. P) soll durch unterschiedliche Konsequenz BEISPIEL Realdefinitionen sind niemals vollständig <?page no="159"?> 160 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 160 bestimmte Eigenschaften (z. B. O, M, dB, W, R) definiert werden, weil diese „wesentliche“ Merkmale des bezeichneten Phänomens- - hier: P- - darstellen; oder anders ausgedrückt: weil diese Eigenschaften unabdingbare Kriterien darstellen, nach denen wir das gemeinte Phänomen von anderen Sachverhalten abgrenzen können. Letztlich bleibt allerdings- - wegen der Unklarheit des Begriffs „Wesen“- - die Bedeutung von „Realdefinition“ recht vage; es bleibt unbestimmt, was denn, um die gleiche Terminologie zu verwenden, „das Wesen der Realdefinition“ ausmacht. So arbeitet beispielsweise Hempel (1974, 17 ff.) drei mögliche Bedeutungen des Begriffs „Realdefinition“ heraus-- analytische Definition oder Bedeutungsanalyse, empirische Analyse, Begriffsexplikation--, die mit den Ausführungen dieses Abschnitts nur teilweise übereinstimmen. Als wichtiger Merkposten bleibt festzuhalten: Intersubjektive Überprüfbarkeit des Forschungsprozesses setzt präzise Definitionen voraus. Diese sollten üblicherweise die Form von Nominaldefinitionen haben: „Wir verstehen unter x einen Gegenstand mit den Eigenschaften E 1 bis E n .“ Die für die Nominaldefinition notwendige gedankliche Ordnung des Gegenstandsbereichs erhält man durch die dimensionale Analyse des Gegenstandsbereichs; bei theorietestenden Untersuchungen ähnelt die semantische Analyse der Bedeutungsdimensionen theoretischer Begriffe in ihrem Vorgehen dem Verfahren der Realdefinition. Allerdings wird dabei im Anschluss an die semantische Analyse deren Ergebnis in Form einer Nominaldefinition für den Geltungsbereich der Untersuchung festgeschrieben. Notwendig ist, dass am Ende eine präzise Definition der verwendeten Begriffe steht, die operationalisierbar ist (siehe das folgende Kapitel). 3.6 Annotationen aus der Perspektive qualitativinterpretativer Methoden Die Vorstellung einer „Übersetzung“ des Forschungsproblems aus der Theorie in die Empirie ist allen Formen qualitativ-interpretativen Forschens fremd. Typisch ist hier eher die Idee der Entwicklung und Konkretisierung des Forschungsproblems in einem zyklischen Prozess zwischen Vorwissen (sei es wissenschaftlich oder auch alltagspraktisch) und dem empirischen Feld, auf das sich das Forschungsinteresse richtet bzw. in dem das Forschungsproblem seinen Ausgangspunkt hat. Es ist daher für den Verlauf qualitativer Studien durchaus nicht untypisch, dass die schlussendlich durch die Untersuchung beantwortete Forschungsfrage mehr oder weniger deutlich von der Ausgangsfrage oder -problemstellung abweicht, weil sich z. B. Teilbereiche der Ausgangsproblematik als eher uninteressant erweisen oder weil im Kontakt mit dem Untersuchungsbereich Phänomene sichtbar und thematisch wurden, die ex ante nicht bekannt sein konnten. Insofern als der Bezug auf theoretisches Vorwissen in der qualitativen Forschung nicht in der Form des Tests von Ex-ante-Hypothesen erfolgt, sondern Theorie in Form „sensibilisierender Konzepte“ (Blumer 1954) fortlaufend in den Forschungspro- Realdefinition unklares Konzept präzisie Definition für intersubjektive Überprüfbarkeit <?page no="160"?> 161 3.6 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 161 zess integriert wird, spielen daher explizite dimensionale oder semantische Analysen (vgl. Kapitel 3.1) keine bedeutende Rolle in der Anlage der Untersuchung. Da der empirische Objektbereich von vornherein als immer auch sprachlich konstituiert aufgefasst wird, muss die dimensionale Analyse hier als fortwährend sowohl in der Alltagspraxis als auch in der qualitativen Analyse geleistet verstanden werden. Alles Erkennen, auch das alltägliche, erfordert Unterscheidungen. Diese beziehen sich zwar auf unsere Erfahrungen in der Welt, werden aber im Raum des Begrifflichen geleistet. Im qualitativ-empirischen Zugang auf ausgewählte Teilbereiche der Sozialwelt erfolgt der Prozess des Dimensionalisierens systematischer als im Alltag, aber- - im Unterschied zur standardisierten Sozialforschung-- als fortwährender Prozess. Deshalb stellt sich das erwähnte Problem der Irreversibilität (vgl. Kapitel 1.2.4) hier nicht. Wesentlich wichtiger für das Theorie-Empirie-Verhältnis qualitativer Studien ist die Frage der Anschlussfähigkeit theoretischer Ergebnisse der empirischen Studie an den Stand der im Fach etablierten Theoriebildung. Das Problem besteht hier darin, dass qualitativ-interpretative Theoriebildung wesentlich auf eine systematische Theoretisierung der Spezifik der untersuchten Phänomene abzielt, etwa: die Lebenswelt des Drogenmilieus im Frankfurter Bahnhofsmilieu. Die dabei entwickelte Theoriesprache könnte nun mit vorgängigen Theorien aus den Bereichen Drogensucht, Milieu- oder Devianzforschung in Konflikt geraten. Dies nicht in dem Sinne, dass neue und den alten Theorien widersprechende Befunde formuliert werden-- das wäre sinnvoller und wünschenswerter wissenschaftlicher Wettbewerb- -, sondern indem die gewählten Begriffe zwar von vorgängigen Theorien abweichen, im Wesentlichen aber Gleiches bezeichnen könnten, also statt Wissensfortschritt nur Redundanz erzeugt würde. Ziel der Wissenschaft kann es aber nicht sein, immer mehr Theorien mit im Kern identischen Inhalten zu produzieren, die sich allein durch ihre Begriffssysteme unterscheiden: Das würde der zentralen Sparsamkeitsregel wissenschaftlicher Theoriebildung widersprechen und auf die Dauer eine sinnvolle Kommunikation innerhalb der Scientific Community, aber auch über sie hinaus erschweren. Allerdings erweist sich diese Befürchtung als unbegründet. Denn eine theoretische Perspektivierung erfolgt ja bereits in der Anlage der Untersuchung (wenngleich nicht in Form definitiver theoretischer Rahmungen), so dass Theorieproblem und empirisches Problem fortgesetzt miteinander korrespondieren. Zwar geht die qualitativ-interpretative Forschung in der Begriffsbildung andere Wege als standardisierte und Hypothesen testende Verfahren. Sie tut dies, indem sie sowohl in ersten deskriptiven Zugängen als auch in den Schritten der Theoriebildung zunächst bei der Sprache des Feldes ansetzt- - weil davon ausgegangen wird, dass die dort praktizierten Redeweisen relevante Binnenperspektiven der Handelnden repräsentieren. Dabei bleibt es jedoch nicht, denn qualitative Forschung will Theorie generieren und nicht ausschließlich Beschreibungen der Realität liefern. Bei aller Variation der Sprache in den Fallanalysen wird doch mit zunehmender Abstraktion der Ergebnisse vom Einzelfall, ja oft schon bei der abstrakten Formung einzelner Fälle auch das begriffliche Vokabular der jeweiligen Fachwissenschaft oder eines ihrer Spezialgebiete bemüht und auf die untersuchungsleitende Theorieperspektive referiert. Auch wenn etwa Biografieforscher eine große Offenheit für die jeweilige Gestalt einer einzelnen Theorie als sensibilisierende Konzepte Anschlussfähigkeit an Theoriediskurse Sprache des Feldes beachten <?page no="161"?> 162 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 162 erzählten Biografie haben: In die analytische Abstraktion gehen immer wieder zentrale Denkstile und Begriffe ein, die bereits in anderen Studien sukzessive entwickelt und im Fach etabliert wurden. So werden etwa im Kontext erzähltheoretisch informierter Narrationsanalysen biografische Wendepunkte identifiziert, biografische Gesamtformungen entwickelt oder Haupt- und Nebenlinien der jeweiligen Lebensgeschichten herausgearbeitet. Es ist am Ende die Verbindung von Sprache des Feldes und dem Vokabular des Faches, die sicherstellt, dass die Analysen zugleich spezifisch und vergleichbar werden und dass die Ergebnisse sich im Theorierahmen des Faches systematisch verorten lassen und insofern zu dessen Weiterentwicklung beitragen. Die Begriffswelt des untersuchten Feldes und die der jeweiligen Fachwissenschaft mischen sich auch deshalb, weil in der analytischen Einstellung der Forschenden immer auch Zusammenhänge sichtbar werden, die den Akteuren im Feld nicht zugänglich sind und auch-- meist-- nicht zugänglich sein können. Durch Mittel wie Distanz, Vergleich und Kontrastierung, aber auch auf Grund technischer Möglichkeiten (Zeitlupe bei Videoaufnahmen, Bildvergrößerungen etc.) stehen den Forschenden in der vom Handlungsdruck der Situation entlasteten Analysephase Erkenntnismittel zu Gebote, die in der Situation nicht verfügbar sein können. 3.6.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Flick, Uwe, 2007: Qualitative Forschung: Eine Einführung, Reinbek, S. 122-141 Kalthoff, Herbert; Hirschauer, Stefan; Lindemann, Gesa (Hg.), 2008: Theoretische Empirie, Frankfurt a. M. (Der Band leuchtet in verschiedenen Beiträgen das Spektrum von Theorie-Empirie-Verhältnissen in der qualitativ-interpretativen Sozialforschung aus. Dabei wird auch der gegenüber dem Kritischen Rationalismus umfassendere Theoriebegriff sichtbar.) Kelle, Udo; Kluge, Susann, 1999: Vom Einzelfall zum Typus: Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung, Leverkusen, S. 25-37 Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Qualitative Sozialforschung. Ein Arbeitsbuch, München, 4. Aufl., S. 1-10, 12-21, 28-37 Strübing, Jörg, 2013: Qualitative Sozialforschung. Eine komprimierte Einführung für Studierende, München (hier Kap. 2). Bezug zu vorgängigen Studien Distanz, Vergleich, Kontrastierung <?page no="162"?> 163 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 163 4 Strategien der Operationalisierung und Indikatorenauswahl Bevor auf die in der Überschrift genannten Stichworte eingegangen wird, sei kurz an die Anforderungen erinnert, die an eine erfahrungswissenschaftliche Theorie bzw. an Hypothesen im erfahrungswissenschaftlichen Zusammenhang gestellt werden: 1) Erfahrungswissenschaftliche Theorien müssen empirischen Bezug haben, d. h. sie müssen empirisch überprüfbar sein und an der Erfahrung scheitern können. 2) Die benutzten Begriffe der Theorie müssen präzise definiert sein. 3) Wenn der empirische Bezug der in der Theorie (Hypothese) verwendeten Begriffe nur indirekt herstellbar ist (z. B. Gruppenkohäsion, Feindschaft), müssen Indikatoren angebbar sein, die auf das Vorhandensein der mit dem Begriff gemeinten Sachverhalte schließen lassen (Beispiel „Gruppenkohäsion“, mögliche Indikatoren: Bejahung der Gruppe, Hilfsbereitschaft innerhalb der Gruppe, Bereitschaft der Gruppenmitglieder zu gemeinsamem Handeln). Bei mehrdimensionalen Begriffen sollte jede relevante Bedeutungsdimension durch mindestens einen Indikator repräsentiert werden. 4) Die Begriffe müssen operationalisierbar sein. In vorläufiger Formulierung heißt das: Zu den Begriffen (bei direktem empirischem Bezug) bzw. zu den Indikatoren (bei Begriffen mit nicht direktem empirischem Bezug) müssen Beobachtungsoperationen angebbar sein, so dass entschieden werden kann, ob der mit dem Begriff gemeinte Tatbestand in der Realität vorliegt, bzw. in welchem Ausmaß er vorliegt. Um die Punkte 3) und 4) geht es in diesem Kapitel. 4.1 Indikatoren Wenn ein Sachverhalt, der uns interessiert und den wir für unsere Forschung messen wollen, nicht direkt beobachtbar ist, müssen wir indirekte Wege finden, um ihn messbar zu machen. Dazu dienen Indikatoren. Ein Indikator ist ein direkt beobachtbarer Sachverhalt, der durch Korrespondenzregeln mit dem nicht direkt beobachtbaren Sachverhalt verknüpft wird. Durch diese Verknüpfung wird dem direkt beobachtbaren Sachverhalt die Funktion zugewiesen, über sich selbst hinauszuweisen und dadurch zugleich den nicht direkt beobachtbaren Sachverhalt anzuzeigen. Ein Indikator ist also ein empirischer Sachverhalt, dem durch die Korrespondenzregel eine „Überschussbedeutung“ zugeschrieben wird. Anforderungen an erfahrungswissenschaftliche Theorien empirischer Bezug präzise Definitionen Indikatoren angebbar Begriffe operationalisierbar <?page no="163"?> 164 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 164 Bleiben wir zunächst bei dem in Kapitel 3.2 eingeführten Beispiel über den Zusammenhang von sozialer Herkunft und Schulsowie Berufserfolg. Die definierten Begriffe „sozialer Status“ des Elternhauses, „Bildung“ und „Berufserfolg“ der Kinder haben alle einen empirischen Bezug: Es gibt in der sozialen Realität so etwas wie eine soziale Rangordnung in der Gesellschaft, wie Bildung einer Person oder Berufserfolg. Aber alle Begriffe sind zunächst praktisch nicht direkt erfahrbar, sondern nur indirekt auf dem Umweg über die Beobachtung von Sachverhalten, die etwas mit Statuseinschätzung, mit Bildung, mit Berufserfolg zu tun haben. Wir benötigen also Indikatoren, die uns das Vorliegen der mit den Begriffen bezeichneten Sachverhalte anzeigen, „indizieren“. 135 Zum Teil wurden im Beispielsfall bei der dimensionalen Analyse (vgl. Kap. 3.3.2) die Begriffsinhalte zwar schon so weit reduziert, dass die dann definierten Bedeutungsinhalte direkt erfahrbar werden. So wurde „sozialer Status des Elternhauses“ auf Berufsprestige und formale Schulbildung des Vaters (bzw. „Familienoberhaupts“) eingeengt. Von diesen beiden Teildimensionen könnten wir formale Schulbildung im Prinzip direkt erheben: Einsichtnahme in die Abschlusszeugnisse oder in Zeugnislisten von Bildungsinstitutionen. Praktisch allerdings ist dieser Weg nicht gangbar, und man wird auf Auskünfte der Personen angewiesen sein, an denen man das soziale Problem untersuchen möchte: Im Beispielsfall wird man Antworten der Söhne auf entsprechende Fragen in einem Fragebogen als Auskunft über den eigentlich interessierenden Sachverhalt „formale Schulbildung des Vaters“ heranziehen müssen. Beim Berufsprestige ist nicht einmal im Prinzip die Ausprägung dieses Merkmals direkt erhebbar. Vielmehr ist in zwei Etappen vorzugehen: Zwar könnten die Bezeichnungen der Berufstätigkeit von Personen wiederum im Prinzip direkt erhoben werden, z. B. über die Beschäftigtenkarteien der Arbeitgeber. Praktisch jedoch ist auch dieser Weg nicht gangbar. Man benötigt wieder Antworten der Söhne auf entsprechende Fragen als Auskünfte über die tatsächliche Berufstätigkeit des Vaters. Dabei ergibt sich eine weitere Schwierigkeit: „Berufstätigkeit des Vaters“ kann sich auf die gesamte Zeit von dessen Berufstätigkeit beziehen; und falls jemand nicht immer die gleiche Berufsposition hatte, was soll dann als Indikator für die generelle Variable „Berufsposition“ erfragt werden: die letzte Berufsposition? Oder diejenige, die der Vater am längsten innegehabt hat? Oder-- dafür sprächen theoretische Überlegungen-- die Berufsposition, die der Vater zu dem Zeitpunkt innehatte, als es um die Entscheidung ging, welche Ausbildung der Sohn erhalten sollte? Oder gar-- auch dafür sprächen theoretische Überlegungen- - die Berufsposition, die der Vater gar nicht hatte, sondern anstrebte? Denn möglicherweise ist das berufliche Anspruchsniveau des Vaters die eigentliche Triebfeder für die Pläne, die er im Hinblick auf seinen Sohn verfolgt. 135 Beachten Sie bitte, dass die Argumentation sich zunächst nur auf die empirische Gegenstandsebene bezieht, nicht auf die sprachlichen Bezeichnungen durch z. B. theoretische Begriffe und Beobachtungsbegriffe. BEISPIEL <?page no="164"?> 165 4.1 Indikatoren www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 165 Unterstellt, dies sei gelöst: Dann hat man mit der Bezeichnung der Berufsposition aber noch nicht das Berufs„prestige“ erhoben. Hierzu benötigt man zusätzlich eine generalisierte Rangordnung für alle vorkommenden Berufspositionen hinsichtlich des Prestiges, des Ansehens, das diese Berufe in der Gesellschaft genießen (denn Berufsprestige war ja nicht definiert worden als Einschätzung des Ansehens der Berufstätigkeit im Bewusstsein des Inhabers der Position selbst). Blau und Duncan haben eine solche Rangordnung auf der Basis einer Reihe von Befragungen mit Hilfe von Regressionsanalysen berechnet (Befragungen, die unabhängig von der geschilderten Untersuchung durchgeführt worden waren, und statistische Auswertung der erhaltenen Daten; vgl. Kap. 8). Jetzt erst-- nach Ermittlung der jeweiligen Berufspositionen der Väter mit Hilfe einer Befragung der Söhne und nach Ermittlung einer generalisierten Rangordnung der Berufe-- können, aus der Kombination der Ergebnisse dieser beiden Vorgehensweisen, der Variablen „Berufsprestige“ konkrete Werte zugewiesen werden, d. h. Berufsprestige kann nun „gemessen“ werden. 136 Entsprechend wird hinsichtlich der Bildung und des Berufserfolgs der Söhne verfahren: Antworten auf Fragen nach ihrem höchsten Bildungsabschluss dienen als Informationen zur „Bildung“, Antworten auf Fragen nach ihrer gegenwärtigen Berufsposition gelten zusammen mit der generalisierten Rangordnung der Berufe auf einer Prestigeskala als Indikatoren für „Berufserfolg“. Die von Blau und Duncan (1967) entwickelte Berufsprestige-Skala weist Punktwerte zwischen 0 und 96 auf. 137 Hier einige Beispiele: 0-- 4 Punkte: Kohlengruben-Hilfskräfte und -arbeiter, Gepäckträger, Arbeiter in Sägemühlen usw. (…) 25-- 29 Punkte: Büroboten, Zeitungsausträger, Straßenbauarbeiter, Raffineriearbeiter usw. (…) 50-- 54 Punkte: Musiker und Musiklehrer, Angestellte in der kommunalen Verwaltung, Buchhalter, Briefträger, Vorarbeiter in der Metallindustrie usw. (…) 70-- 74 Punkte: angestellte Manager im Großhandel, Lehrer, selbständige Unternehmer im Auto- und Ersatzteilhandel usw. (…) 80-- 84 Punkte: College-Präsidenten, Professoren, Herausgeber und Chefreporter, höhere Regierungsangestellte, angestellte Manager im Dienstleistungsbereich usw. (…) 90- - 96 Punkte: Architekten, Zahnärzte, Chemie-Ingenieure, Rechtsanwälte, Richter, Physiker, Chirurgen usw. 136 Was in den Sozialwissenschaften unter „Messen“ zu verstehen ist, wird in Kapitel 5 behandelt. 137 Eine Darstellung neuerer Verfahren zur Messung von Berufsprestige findet man bei Christoph (2005). <?page no="165"?> 166 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 166 In den Sozialwissenschaften unterscheiden wir unterschiedliche Arten von Indikatoren: definitorische, korrelative und schlussfolgernde Indikatoren (Nowak 1963). Als definitorische Indikatoren gelten solche, mittels derer die zu untersuchende Merkmalsdimension selbst erst definiert wird. In unserem Standardbeispiel ist „Bildung“ als „formale Schulbildung“ definiert, und „höchster Schulabschluss“ ist ein definitorischer Indikator, falls dieser höchste Schulabschluss direkt erhoben wird. Die Antwort auf die Frage nach dem höchsten Schulabschluss dagegen ist, streng genommen, kein definitorischer, sondern ein externer korrelativer Indikator (s. u.): Wir schließen aus der Antwort, dass der erfragte Sachverhalt tatsächlich vorliegt, weil wir wissen, dass die Ausprägung der Antworten von Befragten häufig mit der Ausprägung des eigentlich zu erhebenden Sachverhalts übereinstimmt. Diese etwas spitzfindige Unterscheidung lassen wir jedoch zunächst noch außer Betracht. Es gibt aber auch Begriffe, die durch Antworten auf ein Befragungsinstrument definiert sind: z. B. „soziometrischer Status“ =-df. Anzahl der positiven Wahlen, die ein Individuum in einer Gruppe erhält; oder: „response set“ =-df. die Tendenz des Befragten, unabhängig vom erfragten Sachverhalt bestimmte Antwortalternativen vorzuziehen. Bei korrelativen Indikatoren ist der Bedeutungsgehalt der Indikatoren (im Unterschied zu definitorischen Indikatoren) nicht mehr gleich dem Bedeutungsgehalt der Begriffe, für die sie stehen. 138 Man unterscheidet hier noch zwischen internen und externen korrelativen Indikatoren. Intern korrelativ sind Indikatoren für Teilaspekte eines mehrdimensionalen Sachverhalts (einer mehrdimensionalen oder komplexen Merkmalsdimension), wenn sie mit den übrigen Komponenten des definierten Begriffs korrelieren. Als extern korrelativ gelten dagegen Indikatoren für Sachverhalte, die nicht Bestandteil der Definition eines Begriffs sind, aber dennoch mit der begrifflich bezeichneten Merkmalsdimension korrelieren. Wenn also „sozialer Status“ einer Person definiert ist als „Position der Person in der gesellschaftlichen Hierarchie, wie sie sich aufgrund ihrer Bildung, ihres Berufs und ihres Einkommens ergibt“, und wenn Bildung, Beruf und Einkommen positiv korrelieren, dann ist jedes dieser Merkmale für sich genommen ein intern korrelativer Indikator für „sozialen Status“. Nehmen wir an, es gelte zusätzlich die Beziehung: „Je höher der soziale Status einer Person, desto luxuriöser und 138 Empirisch stehen hier nebeneinander: der eigentlich gemeinte Sachverhalt und etwas „Ähnliches“, das leichter beobachtbar oder erhebbar ist.- - Dem statistischen Begriff „Korrelation“ liegt folgende Fragestellung zugrunde: Wie oft kommen gewisse Erscheinungsformen gleichzeitig oder in regelmäßiger zeitlicher Aufeinanderfolge mit gewissen anderen Erscheinungsformen vor, so dass von einem „Zusammenhang“ zweier (oder mehrerer) Variablen gesprochen werden kann? Beispielsweise würde man sagen, dass die Variablen „Bildung“ und „Einkommen“ (positiv) korrelieren, wenn gilt: Je höher die Bildung von Personen ist, desto höher ist tendenziell auch deren Einkommen. Arten von Indikatoren Definitorische Indikatoren BEISPIEL korrelative Indikatoren intern korrelative Indikatoren extern korrelative Indikatoren BEISPIEL <?page no="166"?> 167 4.1 Indikatoren www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 167 teurer ist die Ausstattung ihrer Wohnung, insbesondere die des Wohnzimmers“. In diesem Fall korreliert „Wohnzimmerausstattung“ mit „sozialer Status“, und die-- etwa von einem Interviewer eingeschätzte-- Qualität der Wohnzimmerausstattung wäre ein korrelativer Indikator für sozialen Status (aber ein externer, da nicht Bestandteil der Begriffsdefinition). 139 Lässt sich die Korrelation zwischen Indikator und indiziertem Merkmal nicht theoretisch als ein konstanter Zusammenhang begründen, sondern lediglich als bisher beobachtbare empirische Regelmäßigkeit, dann ist die „Gültigkeit“ (s. u.) eines solchen Indikators fragwürdig. So könnten sich etwa im Zeitablauf die Einrichtungsgewohnheiten ändern, und es könnte bei Personen mit hoher Bildung und hohem Berufsprestige „in“ sein, sich möglichst schlicht und einfach einzurichten („Snob-Effekt“: Wir haben es nicht nötig, unseren Status zu „dokumentieren“). Der ehemals „gültige“ externe korrelative Indikator „Wohnzimmerausstattung“ würde dann falsche Resultate liefern. Als schlussfolgernde Indikatoren schließlich bezeichnet man solche, von denen auf Merkmalsausprägungen von Variablen geschlossen werden kann, die überhaupt nicht direkt beobachtbar sind. Bei dispositionalen Eigenschaften von Personen (etwa „Entfremdung“ als dispositionale Eigenschaft) muss sich der Forscher oder die Forscherin mit der Beobachtung manifester Eigenschaften oder Verhaltensweisen der Individuen begnügen und von deren Auftreten auf die Existenz der eigentlich interessierenden Variablen schließen (etwa von Formen „entfremdeten Verhaltens“ auf die dispositionale Eigenschaft „Entfremdung“). Dazu müssen Korrespondenzregeln formuliert werden, die ihrerseits den Status von Hypothesen haben und dementsprechend falsch sein können (vgl. Kapitel 4.3). Die vorgestellte Klassifikation von Indikatoren ist wichtig, weil sie etwas über die Gültigkeit (Validität) 140 der Indikatoren aussagt. 139 Beispiel nach S. Chapin, 1951: The Measurement of Social Status, Chicago; zitiert bei Mayntz/ Holm/ Hübner (1971, 41).-- Sozialer Status und Berufsprestige sind in der soziologischen Theorie zentrale Konstrukte, und es existieren vielfältige Strategien, sie für die Forschung zu operationalisieren. Für einen Überblick siehe Wolf 1995. 140 Für die Beurteilung empirischer Untersuchungen werden von Zetterberg (1973) sechs Kriterien genannt: „1. Die Gültigkeit (logische und/ oder empirische) der operationalen Anweisungen; 2. die Zuverlässigkeit (Präzision und Objektivität) der operationalen Anweisungen; 3. die „Übereinstimmung“ zwischen dem Trend der Daten und dem von der überprüften These vorausgesagten Trend-…; 4. die Kontrolle alternativer Hypothesen; 5. die Repräsentativität der Auswahl und der Umfang der Gesamtheit; 6. das Maß, in dem die überprüfte These ein wesentlicher Teil der bereits bestehenden Theorie ist“ (a. a. O., 143).-- Die Kriterien 1, 2 und 5 werden im vorliegenden Text als „Gütekriterien“ empirischer Sozialforschung abgehandelt (Kapitel 4.3.2, Kapitel 5.6, 6.2, Kapitel 7.4.2); Kriterium 3 bezieht sich auf die Anwendung statistischer Auswertungsmodelle.-- Kreutz (1972) spricht in diesem Zusammenhang vom „Realitätsgehalt“ der erhobenen Daten bzw. der Gesamtergebnisse einer Untersuchung. Die o. g. sechs Kriterien können als Teildimensionen des allgemeineren Begriffs „Realitätsgehalt“ verstanden werden. schlussfolgernde Indikatoren BEISPIEL <?page no="167"?> 168 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 168 Gültig (oder valide) ist ein Indikator dann, wenn er tatsächlich den Sachverhalt anzeigt, der mit dem definierten Begriff bezeichnet worden ist. Bei definitorischen Indikatoren sind definitionsgemäß der Bedeutungsgehalt des definierten Begriffs und der durch die Indikatoren angezeigte Objektbereich identisch; wir haben es auf der sprachlogischen Ebene mit hundertprozentiger Gültigkeit der Indikatoren zu tun. Bei internen korrelativen Indikatoren ist zumindest teilweise Gültigkeit gesichert: Wenn ein mehrdimensionaler Begriff definiert ist und wenn als Indikator für den gesamten Vorstellungsgehalt eine der Bedeutungsdimensionen oder eine begrenzte Anzahl von Bedeutungsdimensionen beobachtbar werden, dann machen diese Indikatoren definitionsgemäß immerhin einen Teil des Bedeutungsgehaltes aus. Wählen wir den Indikator zudem noch so, dass er mit allen anderen Bestandteilen der Definition möglichst hoch korreliert, dann dürfte auch die Gültigkeit als ziemlich hoch einzuschätzen sein. Benutzen wir dagegen einen externen korrelativen Indikator, dann ist die Gültigkeit schon ungewisser: Der Indikator korreliert zwar empirisch mit dem gemeinten Sachverhalt, ist aber nicht Bestandteil der Definition des Begriffs (s. o.: „Wohnzimmerausstattung“). Lässt sich die Korrelation zwischen Indikator und indiziertem Merkmal nicht als ein konstanter Zusammenhang theoretisch begründen, können wir nie genau wissen, ob bei nächster Gelegenheit dieser empirische Zusammenhang noch bestehen wird. Noch schwieriger ist die Gültigkeit bei schlussfolgernden Indikatoren abzuschätzen (z. B. beobachtbares Verhalten als Indikator für Einstellungen oder andere dispositionale Eigenschaften). Hier ist der Zusammenhang zwischen Indikator und indiziertem Merkmal überhaupt nicht direkt empirisch überprüfbar, sondern wir sind, krass gesprochen, auf den Glauben an die Richtigkeit unserer Korrespondenzregeln, also unserer „Theorie“ über den Zusammenhang zwischen der interessierenden Eigenschaft und dem beobachtbaren Merkmal angewiesen. Betrachten wir als Beispiel 141 die Forschungspraxis, für die Ermittlung von Einstellungen in einem Fragebogen dem Befragten eine Reihe von „Einstellungsfragen“ vorzulegen. Die verbalen Reaktionen auf solche Fragen (eben die Antworten) werden nun als Indikatoren für das Vorliegen bestimmter Einstellungen gewertet und hinsichtlich vorab definierter „Einstellungsdimensionen“ interpretiert. Die Einstellung selbst wiederum gilt als eine Ursache für ein bestimmtes Verhalten in konkreten Situationen: 141 Nach Mayntz/ Holm/ Hübner 1971, 43. Gültigkeit von Indikatoren definitorische Indikatoren sind logisch gültig intern korrelative Indikatoren: teilweise logisch gültig Gültigkeit ungewiss bei extern korrelativen Indikatoren Gültigkeit bei schlussfolgernden Indikatoren unklar BEISPIEL Einstellung verbale Reaktion (Antworten) Verhalten in konkreten Situationen Abbildung 4.1: Antwortverhalten-- Einstellung-- Verhalten <?page no="168"?> 169 4.1 Indikatoren www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 169 Konstrukte sind jedoch nur dann auch theoretisch sinnvoll, wenn sich möglichst viele Klassen von beobachtbaren Eigenschaften und Verhaltensweisen daraus ableiten lassen. Die Gültigkeit des Schlusses von den als Indikatoren verwendeten Merkmalen (hier Antworten auf „Einstellungsfragen“) auf die durch den Begriff bezeichnete Disposition (hier Konstrukt „Einstellung“) lässt sich so immerhin indirekt prüfen. Als Maß dient dann die Korrelation zwischen den Indikatoren und möglichst vielen anderen beobachtbaren Merkmalen, die theoretisch als abhängig von dem Konstrukt angesehen werden. So könnte man etwa zur Ermittlung der Disposition „Autoritarismus“ eine Reihe geeignet erscheinender Fragen stellen und auf der Basis der Antworten für jeden Befragten einen Punktwert auf einer „Autoritarismus-Skala“ bestimmen. Unabhängig davon möge das Verhalten derselben Personen in bestimmten Situationen daraufhin beobachtet werden, ob und in welchem Ausmaß es „autoritär“ oder „nicht autoritär“ sei. Wenn Autoritarismus als dispositionale Eigenschaft einer Person sich a) in den Antworten auf die Fragen niederschlägt und diese Disposition der Person zugleich b) eine Ursache für beobachtbares (manifestes) „autoritäres Verhalten“ ist, dann wird gelten: Je höher der Punktwert auf der Autoritarismus-Skala, desto autoritärer ist das gezeigte Verhalten in konkreten Situationen. Diese Beziehung lässt sich statistisch prüfen. 142 Das Problem der Gültigkeit als eines von mehreren „Gütekriterien“ für die Beurteilung empirischer Untersuchungen (vgl. Fußnote-138) wird im Kapitel 4.3 nochmals aufgegriffen. Wie schon zu Beginn des Kapitels angemerkt (vgl. Fußnote-135), bezog sich die bisherige Argumentation auf die empirische, also auf die Gegenstandsebene: Begrifflich bezeichnete Sachverhalte, die nicht direkt mit unseren Sinnen wahrnehmbar oder mit geeigneten Instrumenten feststellbar sind, müssen durch „Indikatoren“ indirekt erfahrbar gemacht werden. Fassen wir abschließend zusammen: Unter Indikatoren verstehen wir solche empirischen Sachverhalte, die 1. direkt wahrnehmbar oder feststellbar sind und die 2. eindeutige Hinweise auf den nicht direkt erfahrbaren Sachverhalt liefern. Damit einem direkt beobachtbaren Sachverhalt die Indikator-Eigenschaft zugesprochen werden kann, ist eine explizite Regel anzugeben, auf welche Weise vom beobachteten auf den nicht beobachteten Sachverhalt geschlossen werden kann oder in welcher Weise das Beobachtete mit dem nicht Beobachteten „korrespondiert“. Sol- 142 Das Zentrum für Umfragen, Methoden und Analysen in Mannheim hat eine Vielzahl verschiedener in empirischen Studien verwendeter „Skalen“ zur Messung sozialwissenschaftlicher Konstrukte in einem mehrbändigen „Skalenhandbuch“ zusammengestellt (ZUMA 1988). Dieser Service ist mittlerweile zu einem ZUMA-Informationssystem (ZIS: Zusammenstellung sozialwissenschaftlicher Items und Skalen) ausgeweitet worden, das online verfügbar ist (zis.gesis.org). explizite Korrespondenzregel <?page no="169"?> 170 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 170 che Regeln nennen wir Korrespondenzregeln. Je nach der Art dieser Korrespondenzregeln kommen wir zu unterschiedlichen Arten von Indikatoren (s. o.: definitorische, korrelative, schlussfolgernde I.). Wie schon beim Vorgang der dimensionalen Analyse (Kapitel 3) kennengelernt, stehen wir auch an dieser Stelle vor dem Problem, dass wir die als Indikatoren gewählten empirischen Sachverhalte begrifflich bezeichnen müssen und dass auch diese sprachlichen Zeichen so präzise zu definieren sind, dass unzweifelhaft klar ist, welche Klasse empirischer Sachverhalte als Indikatoren gelten sollen. Wir nennen diese Begriffe „Indikator-Begriffe“; und die Zuordnung von Indikator-Begriffen zu den „theoretischen Begriffen“ können wir als „empirische Interpretation“ verstehen. Analog ist auch hinsichtlich des Gütekriteriums „Gültigkeit“ ein Unterschied möglich zwischen empirischer Gültigkeit (der beobachtete Sachverhalt zeigt korrekt den nicht beobachteten an) und semantischer Gültigkeit (die Bedeutung der Indikatorbegriffe bildet korrekt den Bedeutungsraum des theoretischen Begriffs ab). Darauf geht der Abschnitt 4.3.2 noch näher ein. 4.2 Indexbildung Eine in Kapitel 2.2 (Forschungsprozess, Punkt b) im Zusammenhang mit der dimensionalen Analyse aufgeführte Frage ist bisher noch völlig offengeblieben, nämlich: Können die als relevant angenommenen Dimensionen zusammengefasst oder müssen sie differenziert betrachtet werden? Mit anderen Worten: Müssen Teildimensionen in gesonderten Begriffen repräsentiert oder können sie zu einem Oberbegriff zusammengefasst werden? Bezogen auf unser Beispiel war bei Bildung und Berufserfolg der Söhne die Entscheidung klar. Es wurde überhaupt nur jeweils ein Aspekt in die Betrachtung einbezogen: „formale Bildung“ und „Prestige der gegenwärtigen Berufsposition“ des Sohnes. Beim sozialen Status des Elternhauses aber haben wir zwei Aspekte unterschieden: einerseits das Berufsprestige des Vaters, andererseits dessen formale Schulbildung. Hier stellt sich nun die Frage: Ist diese getrennte Abbildung zweier Teildimensionen erforderlich, oder könnte man nicht aus beiden Teildimensionen einen zusammengefassten Index „sozialer Status des Elternhauses“ konstruieren? Die Entscheidung ist zunächst einmal abhängig von unseren theoretischen Annahmen. Die forschungsleitenden Hypothesen hatten zu der formalisierten Darstellung geführt (vgl. Kapitel 3.2): Man erkennt: Nach diesen Hypothesen hat die Teildimension Berufsprestige des Vaters vermutlich andere Wirkungen auf den späteren Berufserfolg des Sohnes als die Teildimension Bildung des Vaters. Es wird angenommen, dass der Beruf des Vaters sowohl die Bildung des Sohnes als auch dessen späteren Berufserfolg beeinflusst. Dagegen wird von der Bildung des Vaters nur ein Einfluss auf die Bildung des Sohnes vermutet. Eine Zusammenfassung dieser beiden Teildimen- Indikator-Begriffe empirische Gültigkeit-- semantische Gültigkeit BEISPIEL <?page no="170"?> 171 4.2 Indexbildung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 171 sionen zu einem Gesamtindex würde diese vermuteten Unterschiede im Wirkungszusammenhang verwischen. Das untersuchungsleitende Modell schließt also in diesem Fall eine Indexbildung aus. Was die Zusammenhänge zwischen den Teildimensionen eines Sachverhalts und die Beziehungen dieser Teildimensionen zu der abhängigen Variablen betrifft, gilt generell für die Indexbildung: Eine Zusammenfassung der Teildimensionen zu einem Index ist nur dann zulässig, wenn die Korrelationen zwischen den Index-Teildimensionen (genauer: zwischen den Indikatoren für die Teildimensionen) alle ein positives Vorzeichen haben und wenn die Korrelationen der Teildimensionen (der Indikatoren) mit der abhängigen Variablen alle das gleiche Vorzeichen haben (also entweder alle positiv oder alle negativ sind). Andernfalls wird durch die Zusammenfassung zu einem Gesamtindex die Struktur der Realität nicht korrekt abgebildet; das Ergebnis wird verfälscht. Der Hauptgrund für die Verwendung von Indizes anstelle einer größeren Zahl isolierter Indikatoren, aber auch anstatt nur eines einzigen Indikators, ergibt sich aus folgender Überlegung: 143 Jeder Indikator ist für sich genommen nur eine teilweise Operationalisierung eines Begriffs. Die Verwendung mehrerer Indikatoren erhöht die Chance, Messungenauigkeiten zu verringern und so den gemeinten „wahren“ Sachverhalt eher abzubilden. Falls mehrere Indikatoren zum gleichen Begriff untereinan- 143 Dies ist die Argumentation der „herkömmlichen empirischen Sozialforschung“; sie kann als Spezialfall „eines allgemeineren Modells der Verbindung von theoretischen Konstrukten mit beobachtbaren Sachverhalten“ (Esser 1984, II, 7) verstanden werden. Zusammenhänge zwischen Variablen und Index mehrere Indikatoren zur Messgenauigkeit Berufserfolg Berufsprestige Bildung Bildung ++ + + + (0) Untersuchungsmodell Statusvererbung A A B C D + + + + + + B C D − − − + + + Zusammenhänge von Indikatoren und Index <?page no="171"?> 172 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 172 der stark korrelieren, messen sie teilweise identische Aspekte des Sachverhalts (sie sind „redundant“); ein anderer Teil repräsentiert Abweichungen von der zu messenden Dimension. Die Zusammenfassung zu einem Index beseitigt diese- - bei der Auswertung der Daten störende-- Redundanz (d. h. die Mehrfachmessung derselben Teildimensionen eines Sachverhalts), während die Abweichungen von der „eigentlich“ zu messenden Dimension sich wechselseitig aufheben. Das erläutert ausführlicher der Abschnitt 4.3.1. Auf die methodologischen Probleme sowie auf unterschiedliche Verfahren der Indexkonstruktion soll hier nicht eingegangen werden. 144 Die Logik des Vorgehens und die damit verbundene Problematik sei jedoch an zwei Beispielen zu dem einfachsten Modell-- Bildung additiver Indizes-- kurz illustriert. Index der Zufriedenheit mit der Wohnsituation In einem Interview sei folgende Frage gestellt worden: „Wenn Sie Ihre jetzige Wohnung beurteilen: Was gefällt Ihnen daran und was nicht? Ich lese Ihnen einige Merkmale vor, und Sie sagen mir bitte, ob das in Ihrer Wohnung besonders vorteilhaft oder besonders nachteilig ist.“ Antwortvorgaben: Aspekte der Wohnungsqualität: besonders vorteilhaft besonders nachteilig weder bes. vorteilhaft noch bes. nachteilig 1. Zahl der Zimmer    2. Größe der Wohnung (Wohnfläche)    3. Wohnungszuschnitt, Grundriss    4. Ausstattung (mit Bad, Heizung usw.)    5. Zustand des Wohngebäudes    6. Belüftung, Besonnung der Zimmer    7. Schallisolation (Abschirmung gegen Lärm aus Nachbarwohnungen und von der Straße)    8. Wärmeisolation (Abschirmung gegen Wärme und Kälte)    9. Höhe der Miete    10. Möglichkeit (bzw. fehlende Möglichkeit), Gäste zu empfangen und zu beherbergen    144 Einige Aspekte werden später-- Kapitel 5.4: Indexmessung-- noch aufgegriffen. Als Einführung vgl. Latcheva/ Davidov (2014). BEISPIEL 1 Abbildung 4.2: Fragebogenausschnitt Wohnqualität <?page no="172"?> 173 4.2 Indexbildung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 173 Wir haben damit zehn (Bewertungs-)Dimensionen der Wohnqualität zur Verfügung, zu denen die Befragten jeweils ihre Zufriedenheit („besonders vorteilhaft“) oder Unzufriedenheit („besonders nachteilig“) bzw. eine indifferente Beurteilung (weder/ noch) zum Ausdruck gebracht haben. Es bieten sich nun mehrere Möglichkeiten an, daraus einen (additiven) Gesamtindex „Wohnzufriedenheit“ zu konstruieren: a) Wir addieren für jeden Befragten die Anzahl der Antwortausprägungen „besonders vorteilhaft“ und erhalten eine Variable, die die Werte 0 (überhaupt nicht zufrieden) bis 10 (in jeder Hinsicht zufrieden) annehmen kann. Unter der Voraussetzung, dass alle Bewertungsdimensionen gleichgewichtig sind, haben wir einen Index erhalten, der- - wie im Kapitel 5 (Messtheorie) noch erläutert werden wird-- das Messniveau einer Ratio-Skala hat. Allerdings verwertet dieser Index nur einen Teil der erhobenen Informationen; er verzichtet auf die Berücksichtigung der Angabe, ob ein mit einem Aspekt der Wohnqualität nicht zufriedener Befragter diesen Aspekt lediglich indifferent oder aber als „besonders nachteilig“ eingeschätzt hat. b) Um diese Einseitigkeit zu beheben, können wir in gleicher Weise zusätzlich einen „Unzufriedenheitsindex“ konstruieren, indem wir die Zahl der Antwortausprägungen „besonders nachteilig“ für jeden Befragten auszählen. c) Man könnte aber auch beide Informationen in einem einzigen Index vereinigen, indem man der Antwort „besonders vorteilhaft“ den Zahlenwert + 1 und der Antwort „besonders nachteilig“ den Zahlenwert--1 zuordnet (die Kategorie „weder/ noch“ erhielte dann den Wert 0). Danach könnte man für jeden Befragten die Zahlenwerte seiner zehn Antworten addieren. Die messtheoretischen Voraussetzungen für ein solches Vorgehen wären jedoch, dass die Antwort „weder/ noch“ wirklich den Nullpunkt darstellt 145 und dass „besonders vorteilhaft“ das gleiche Gewicht im positiven Sinne hat wie „besonders nachteilig“ im negativen Sinne (dass also zwischen den Antwort-Alternativen „gleiche Abstände“ bestehen). Selbst wenn dies als näherungsweise zutreffend eingeschätzt werden sollte, bleibt ein weiterer Nachteil: Der Index ist gegenüber den Alternativen a und b schlechter interpretierbar. So kann beispielsweise ein Wert 0 bei Index c bedeuten: fünf Aspekte besonders vorteilhaft, fünf Aspekte besonders nachteilig; oder: im Hinblick auf jeden Qualitätsaspekt weder/ noch; oder: dreimal besonders vorteilhaft, dreimal besonders nachteilig, viermal weder/ noch; oder: -… Ähnliches gilt für andere Indexwerte: Lediglich die Extrempunkte--10 und + 10 sind eindeutig interpretierbar. 145 und nicht etwa Ausdruck der Unfähigkeit ist, auf der entsprechenden Teildimension die Qualität einzuschätzen (etwa: Zustand des Wohngebäudes), oder Ausdruck des Nicht-Zutreffens einer Bewertungsdimension für den Befragten (etwa bei Item 10: der Befragte erhält niemals Besuch, da er keine Bekannten hat). <?page no="173"?> 174 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 174 Index der Stadtteilbindung Für den Begriff „Stadtteilbindung“ seien die Dimensionen „Zufriedenheit mit der Wohnung“ und „soziale Kontakte im Stadtteil“ (gemessen am Anteil der Bekannten einer Person, die im Stadtteil wohnen) von entscheidender Bedeutung. In einem Interview werde nach beidem direkt gefragt. Aus der Kreuztabellierung der Variablen ergebe sich die folgende Matrix (nach Friedrichs 1977, 167): Anteil der Bekannten im Stadtteil Wohnungszufriedenheit bis 24 % (0) 25-50 % (1) 51 % u. m. 146 (2) niedrig (0) a b c mittel (1) d e f hoch (2) g h i Die Matrix stellt einen zweidimensionalen Merkmalsraum dar. Um die neun Zellen auf einen eindimensionalen Index „Stadtteilbindung“ abzubilden, muss eine ordinale Anordnung (Rangordnung) der Zellen konstruiert werden. Man kann z. B. beide Variablen als gleichgewichtig ansehen, den Antwortausprägungen (zur Kennzeichnung ihrer Rangordnung) die Zahlenwerte 0 bis 2 zuordnen, diese Zahlenwerte für beide Merkmale addieren (siehe Matrix) und das Resultat als Rangordnung der (eindimensionalen) Indexwerte interpretieren (so bei Friedrichs 1977). Man erhielte: Indexwert: Matrixzellen: 0 a 1 b, d 2 c, e, g 3 f, h 4 i Man könnte den Index aber auch nach logischen Überlegungen bilden, etwa: Die Variable „Bekannte im Stadtteil“ (B) dürfte für die Stadtteilbindung gewichtiger sein als die „Wohnungszufriedenheit“ (W) und wird deshalb zum Gerüst der Indexkonstruktion. Die Wertezuweisung könnte dann z. B. nach folgenden Regeln geschehen: 146 Zum Zwecke der Indexbildung wird folgende Umformung der Anteilswerte vorgenommen: Wenn ein Befragter angibt, dass von allen seinen Bekannten weniger als ein Viertel in seinem Stadtteil wohnen (0 bis 24%), so erhält er den Wert „0“ zugewiesen, bei einem Viertel bis höchstens der Hälfte den Wert „1“, darüber hinaus den Wert „2“. BEISPIEL 2 <?page no="174"?> 175 4.2 Indexbildung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 175 Wenn B unter 25 % u. W niedrig oder mittel, dann Bindung =-0 (a,d)* Wenn B unter 25 % u. W hoch, dann Bindung =-1 (g)* Wenn B 25-50 % u. W niedrig, dann Bindung =-1 (b)* Wenn B 25-50 % u. W mittel oder hoch, dann Bindung =-2 (e,h)* Wenn B 51 % u.m. u. W niedrig oder mittel, dann Bindung =-3 (c,f )* Wenn B 51 % u.m. und W hoch, dann Bindung =-4 (i)* * =-Matrixzellen in der Tabelle Man sieht: Die Abbildung der zweidimensionalen Verteilung auf einen eindimensionalen Index führt in den beiden Fällen zu ziemlich unterschiedlichen Resultaten. Die Bildung einer eindimensionalen Rangordnung aufgrund zweier ordinalskalierter Variablen (d. h. für beide Merkmale ist nur die Reihenfolge der Ausprägung, also ihre Rangordnung angebbar) ist problematisch. Man wird gut daran tun, den Index so zu bilden, dass jede Indexausprägung für sich eindeutig interpretierbar ist. Nach dem zweiten Vorschlag wird die Ausprägung „Bindung =- 1“ dieser Forderung nicht gerecht; sie fasst „B unter 25 % und W hoch“ mit „B 25-50 % und W niedrig“ zusammen. Beim ersten Indexvorschlag werden gleich mehrere Ausprägungen (Bindung =-1, 2 oder 3) dieser Forderung nicht gerecht. Mit den beiden kurzen Beispielen können natürlich die Probleme der Indexbildung nicht hinreichend abgehandelt werden. 147 Sie sollten aber verdeutlichen, dass bei jeder Indexkonstruktion zusätzliche Überlegungen und theoretische Absicherungen erforderlich sind, um den Realitätsgehalt der Daten (vgl. Fußnote 140) nicht infrage zu stellen. In dem Maße, in dem etwa im Beispiel 1c (oben) die in der Fußnote 145 genannten Voraussetzungen nicht erfüllt sind, spiegeln die Indexwerte nicht die Bewertungen der Befragten wider. Den Unterschieden in den Indexwerten entsprechen dann nicht gleiche Unterschiede in der subjektiven Realität der Befragten. Vielmehr sind sie in einem solchen Fall zumindest teilweise das Produkt der verwendeten Konstruktionsvorschriften. Generell spricht man bei Daten und Untersuchungsergebnissen, die nicht „realitätsadäquat“ sind, von Forschungsartefakten. Solche Daten sind keine adäquate Widerspiegelung der für die Untersuchungsfrage wichtigen Aspekte des Untersuchungsgegenstandes, sondern „Kunstprodukte“ der verwendeten Methoden. 148 147 Für einen informativen und dennoch kurz gefassten Überblick (mit hilfreichen Verweisen auf vertiefende Literatur) siehe Latcheva/ Davidov (2014) und Schnell/ Hill/ Esser (1999, Kapitel 4.4). Als Beispiel für die Vielfalt von Detailproblemen, die bei der Operationalisierung eines theoretischen Konstrukts auftreten (in diesem Fall: soziale Schicht), sei auf Suter/ Meyer- Fehr (1989) verwiesen. 148 Vgl. hierzu im Einzelnen die grundlegenden Erörterungen bei Kriz 1981, Kapitel 6 bis 11; eine kurze Darstellung findet sich bei Kriz 1994. Forschungsartefakte <?page no="175"?> 176 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 176 4.3 Operationalisierung Was für das Verständnis des Folgenden nötig ist, wurde im Wesentlichen schon angesprochen, und zwar im Zusammenhang mit dimensionaler Analyse des Gegenstandsbereichs bzw. semantischer Analyse von Begriffen sowie später im Zusammenhang mit den verschiedenen Arten von Begriffen (direkte und indirekte Beobachtungstermini, Konstrukte, theoretische Begriffe), mit Definitionen und mit Indikatorenauswahl. Zur Operationalisierung hieß es bisher sinngemäß, dies sei die Verknüpfung von sprachlichen Zeichen (=-Begriffen) mit Sachverhalten durch Korrespondenzregeln. (Zur Erinnerung: Eine Definition ist demgegenüber die Verknüpfung von unbekannten Zeichen mit bekannten Zeichen.) Einfacher formuliert: Unter der Operationalisierung eines Begriffs ist die Angabe derjenigen Vorgehensweisen, derjenigen Forschungsoperationen zu verstehen, mit deren Hilfe entscheidbar wird, ob und in welchem Ausmaß der mit dem Begriff bezeichnete Sachverhalt in der Realität vorliegt. Zur Operationalisierung gehören die Auswahl und Begründung der Indikatoren bei nicht direktem empirischem Bezug eines Begriffs sowie die Angabe der Datenerhebungsinstrumente: z. B. eine bestimmte Reihe von Fragen in einem standardisierten Interviewbogen oder eine bestimmte Zahl von Beobachtungskategorien in einem standardisierten Beobachtungsbogen. Weiter gehören dazu Angaben über die Handhabung des Messinstruments und über die Protokollierung der Messergebnisse. Die Operationalisierung ist ein für jeden Begriff notwendiger Übersetzungsvorgang in Techniken bzw. Forschungsoperationen-- gleichgültig, auf welche Art der Begriff definiert wurde; gleichgültig, ob er direkten oder indirekten empirischen Bezug aufweist. 149 Die Forderung nach Operationalisierung beschränkt sich-- das sei ausdrücklich hervorgehoben- - nicht auf Begriffe mit indirektem empirischem Bezug. Auch Begriffe mit direktem empirischem Bezug (wie z. B. Körpergröße) sind noch zu operationalisieren, d. h. sie müssen in Forschungsoperationen übersetzt werden. Die Operationalisierung von Körpergröße könnte sein: „An einer Wand ist eine Messlatte mit cm-Einteilung anzubringen; die Personen, deren Körpergrößen gemessen werden sollen, haben sich barfuß und aufrecht an die Wand vor 149 Die Gesamtheit der operationalen Vorschriften wird manchmal missverständlich auch als „operationale Definition“ eines Begriffs bezeichnet. In dem hier gebrauchten Sinn ist Operationalisierung jedoch nicht eine weitere Definitionsmöglichkeit neben der Nominal- und der Realdefinition. Sie ist also nicht eine Bedeutungszuweisung zu sprachlichen Zeichen, sondern sie ist eine Handlungsanweisung zur empirischen Anwendung von Begriffen. Bestandteile der Operationalisierung Operationalisierung aller Arten von Begriffen BEISPIEL <?page no="176"?> 177 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 177 die Messlatte zu stellen; der Versuchsleiter liest mit Hilfe eines waagerecht auf den Kopf der zu messenden Person gehaltenen Stabs die Körpergröße auf der Messlatte ab und trägt die cm-Zahl (aufbzw. abgerundet) in einen Protokollbogen hinter den Namen der gemessenen Person ein“. Das wäre eine Möglichkeit der Operationalisierung von Körpergröße; das Messergebnis hätte Rationalskalenniveau. Eine alternative Operationalisierungsmöglichkeit: „Alle Personen stellen sich in einer Reihe auf, so dass der (die) Kleinste ganz vorne steht, der (die) Zweitkleinste an zweiter Stelle usw., der (die) Größte schließlich an letzter Stelle steht. Die kleinste Person erhält im Protokollbogen hinter dem Namen die Zahl 1 vermerkt, die zweitkleinste Person die Zahl 2 usw., die größte Person schließlich die höchste Zahl in der aufsteigenden Zahlenfolge.“ Das Messergebnis hat jetzt Ordinalskalenniveau. 150 Zusammengefasst: Der Prozess der Operationalisierung bei Begriffen mit indirektem empirischem Bezug besteht maximal in folgendem „Dreischritt“: - Erstens. Auswahl und Begründung von Indikatoren, durch die der empirische Bezug hergestellt werden kann, sowie Formulierung der Korrespondenzregeln für die Indikatoren. Dieser Schritt entfällt bei Begriffen mit direktem empirischem Bezug, allerdings nur dann, wenn der Sachverhalt nicht nur prinzipiell, sondern auch faktisch der Beobachtung zugänglich ist. - Zweitens. Angabe und Begründung der Beobachtungsoperationen, mit denen das Vorliegen der Indikatoren (bzw. der direkt beobachtbaren Sachverhalte) festgestellt werden kann, sowie Angabe und Begründung des notwendigen Differenzierungsgrads der Beobachtungen und die Formulierung und Begründung der „Messvorschriften“ für die Durchführung und Protokollierung der Beobachtungen. Das Ergebnis ist ein „Messinstrument“, z. B. ein standardisierter Fragebogen oder ein inhaltsanalytisches Kategorienschema. - Drittens. Formulierung und Begründung von Vorschriften über die Zusammenfassung von Indikator-Einzelwerten zu einem Gesamtwert als „Messresultat“ für den Begriff mit indirektem empirischem Bezug. Dieser Schritt entfällt bei „eindimensionalen“ Begriffen. 4.3.1 Der Vorgang der Operationalisierung von Begriffen und-von-Aussagen Soweit es nicht lediglich um die Angabe der Messoperationen für (direkte) Beobachtungstermini geht, sondern wir es mit relativ abstrakten indirekten Beobachtungstermini zu tun haben: mit Konstrukten und theoretischen Begriffen (vgl. Abschnitt 3.4.2), sei der Vorgang der Operationalisierung hier noch einmal aus einer anderen Perspektive vertieft. 150 Der Begriff des Skalenbzw. Messniveaus wird in Kapitel 5.2.1 und in Kapitel 5.3 erläutert. Dreischritt der Operationalisierung Indikatoren und Korrespondenzregeln Beobachtungsoperationen, Messvorschriften Regeln für Zusammenfassung der Indikator- Einzelwerte <?page no="177"?> 178 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 178 Esser (1984, II, 9) unterscheidet auf dem Wege zur Operationalisierung theoretischer Konstrukte vier Einzelschritte: (1) Exploration des Vorstellungsfeldes (2) Konzeptspezifikation (3) Auswahl der Indikatoren (4) Indexbildung Mit „Exploration des Vorstellungsfeldes“ (1) ist die vorbereitende Erkundung der verschiedenen inhaltlichen Aspekte eines zunächst durch den zu operationalisierenden Begriff nur abstrakt bezeichneten Sachverhalts gemeint. Es ist zu klären, welche „inhaltlichen Dimensionen“ damit generell angesprochen sind und inwieweit dieser Begriff in relevanten Kontexten (z. B. verschiedenen Theorien) einheitlich oder unterschiedlich verwendet wird: „Das Ergebnis dieser Exploration ist die Auflistung der gefundenen unterschiedlich erscheinenden Dimensionen des Konstrukts“ (Esser 1984, II, 9). Im vorliegenden Text wurden diese Überlegungen im Zusammenhang mit der semantischen Analyse ausführlich behandelt (vgl. Kapitel 3.1 und 3.3). Unter „Konzeptspezifikation“ (2) ist ein weiterer Schritt der semantischen Analyse zu verstehen: die konkretisierende Systematisierung des Gefundenen im Hinblick auf die Perspektive der durchzuführenden empirischen Untersuchung. Die verschiedenen einzelnen Bedeutungsaspekte sind inhaltlich nach Homogenitätsgesichtspunkten zu gruppieren, so dass jede Gruppe von Teilaspekten jeweils einer semantischen Dimension des Begriffs zugeordnet werden kann. In Essers Worten: „Formal geschieht dies dadurch, dass man die verschiedenen Einzelaspekte eines Konstrukts auf die gedachten allgemeineren gemeinsamen Dimensionen bezieht. Dieses erfolgt üblicherweise über eine ,funktionale Abbildung‘: Jede Einzeldimension wird mit genau einer latenten allgemeineren Dimension des Konstrukts verbunden“ (Esser 1984, II, 10). Auch dieser Arbeitsschritt wurde weiter vorn erläutert (vgl. unter Kapitel 3.3 insbesondere das Beispiel einer semantischen Analyse des Begriffs „Führungskraft“). Im Unterschied zu den „latenten 151 allgemeineren Dimensionen“ des Begriffs sollten aber die zugeordneten Einzelaspekte so konkret sein, dass sie entweder schon Indikatorcharakter haben oder doch das semantische Feld für die Bestimmung von Indikatoren benennen (vgl. vorn im Beispiel „Führungskraft“ etwa die latente Dimension „Kompetenz“ mit den dazu angegebenen Einzelaspekten: „Übernahme von Personal- und Sachverantwortung, Recht auf Einstellung und Entlassung von Personal, Vertretung der Organisation nach außen, Generalvollmacht oder Prokura“). Aufgabe der „Konzeptspezifikation“ ist es also, die Brücke zwischen der abstrahierenden Theorieperspektive und dem Gegenstandsbereich, auf den sich die Theorie bezieht, zu schlagen. 151 „Latent“, da nicht direkt erfahrbar, sondern lediglich auf dem Wege über das Vorliegen konkreter empirischer Sachverhalte erschließbar; im Gegensatz zu den „manifesten Variablen“ auf der Indikatoren-Ebene. Schritte der Operationalisierung semantische Analyse konkretisierende Systematisierung <?page no="178"?> 179 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 179 Der nächstfolgende Schritt ist die definitive Auswahl der Indikatoren (3) und damit die ganz konkrete „Umsetzung der theoretischen Vorstellungen auf empirisch beobachtbare Äußerungen“ (Esser 1984, II, 12). Die Bezeichnung „Auswahl“ ist in diesem Zusammenhang durchaus wörtlich zu verstehen. Einige Autoren gehen von der Vorstellung aus, zu jeder latenten Dimension eines Konstrukts gebe es eine im Prinzip unendlich große Zahl manifester empirischer Entsprechungen (ein „Indikatoren-Universum“). Denn die latente Dimension bezeichnet einen Vorstellungsinhalt, der, ähnlich wie nomologische Aussagen, nicht an eine bestimmte historische Epoche und an einen bestimmten Ort gebunden ist und der sich daher in unterschiedlichen Konstellationen auf unterschiedliche Weise „manifestieren“ kann. „Auswahl“ der Indikatoren bedeutet dann für eine konkrete empirische Analyse: Erforderlich ist das Heranziehen der für die Untersuchungssituation angemessenen beobachtbaren Sachverhalte. Von zentraler Bedeutung ist diese Regel etwa für kulturvergleichende Forschungen: Ein theoretisches Konstrukt wie „sozialer Status“ äußert sich z. B. für eine entwickelte Industriegesellschaft nicht in gleicher Weise wie in einem Entwicklungsland oder in einer Kultur von Nomaden. Selbstverständlich dürfte es daher nicht durch dieselben, sondern müsste durch jeweils kulturell adäquate Indikatoren gemessen werden. 152 Natürlich kann die Auswahl von Indikatoren nicht nach dem Modell einer „Zufallsstichprobe aus dem Indikatoren-Universum“ geschehen; eher entspricht sie dem Vorgehen bei der „bewussten Auswahl typischer Fälle“ (siehe Kapitel 6). Das heißt aber, dass dieser Schritt nicht schematisch umgesetzt werden kann, sondern dass die Zuordnung von Indikatoren zu den jeweiligen Begriffsdimensionen begründet und in Form von Korrespondenzregeln nachprüfbar festgeschrieben werden muss. Der Arbeitsschritt (4)-- „Indexbildung“-- ist dann erforderlich, wenn zu einer Begriffsdimension mehrere Indikatoren ausgewählt wurden (vgl. Kapitel 4.2). Diese Strategie wird generell als methodische Regel empfohlen. Im konzeptuellen Teil der Operationalisierung wird man sich zwar bemühen, die Indikatoren so zu wählen und zu definieren, dass sie semantisch eindeutig einer latenten Dimension (und nur dieser) zuzuordnen sind. Ob das aber auch empirisch gelungen ist, wird sich erst nach der Erhebung der Daten im Zuge der Auswertung feststellen lassen. 153 Daher ist es empfehlenswert, sich nicht mit nur einem Indikator pro Dimension zu begnügen, sondern Daten zu vielleicht drei oder vier (semantisch) äquivalenten empiri- 152 Ausführlich diskutieren Rippl und Seipel (2008) die Schwierigkeiten und Fallstricke der kulturvergleichenden Sozialforschung. 153 Etwa mit Hilfe des statistischen Modells der Analyse latenter Klassen (als Überblick Bacher/ Vermunt 2010) oder durch Korrelationsrechnungen oder Faktorenanalysen (als Überblick Wolff/ Bacher 2010). Auswahl von Indikatoren Indexbildung Messung mit mehreren Indikatoren <?page no="179"?> 180 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 180 schen Sachverhalten zu erheben. In der Analysephase können dann die „besten“ 154 Indikatoren selektiert und unter Umständen noch zu einem Index zusammengefasst werden. Einerseits geschieht dies, um Redundanz zu vermeiden: Jeder Indikator zeigt ja von der Operationalisierungsabsicht her die gleiche latente Dimension an, ist also im Prinzip durch den jeweils anderen austauschbar. Andererseits hofft man, durch die Indexbildung Mess-Ungenauigkeiten auszugleichen: Dahinter steckt die Vorstellung, dass zwar keiner der Indikatoren hundertprozentig exakte Messwerte liefert, dass aber auftretende Abweichungen vom „wahren Wert“ der angezielten Dimension unsystematisch in unterschiedliche Richtungen weisen, so dass sie sich „im Durchschnitt“ ausgleichen. Mit dem Arbeitsschritt (4) endet die Spezifik der Operationalisierung theoretischer Konstrukte. Es folgt lediglich noch-- ebenso wie für direkte Beobachtungstermini-- die Festlegung der Messvorschriften (s. o., Beispiel „Körpergröße“). Die bisherigen Überlegungen beschränkten sich auf die Operationalisierung einzelner Begriffe, z. B.: Das theoretische Konstrukt A werde operationalisiert durch die Messung der Indikatoren a 1 , a 2 , a 3 ; oder das theoretische Konstrukt B durch die Indikatoren b 1 bis b 4 : Nur noch geringfügige Ergänzungen in unseren Überlegungen sind erforderlich, um zur Operationalisierung von Aussagesystemen zu kommen, dem Normalfall eines empirischen Forschungsprojekts-- sei es die Prüfung von Hypothesen oder Theorien oder sei es die Diagnose eines empirischen Gegenstandsbereichs, die auf der Basis eines durch die dimensionale Analyse gewonnenen deskriptiven Modells in Angriff genommen wird (vgl. Abschnitt 2.4.2 und 2.4.5). 154 Ein „guter“ Indikator zeigt trennscharf nur „seine“ latente Dimension an, weist auf der Datenebene also auch nur in dem Maße mit Indikatoren für andere Dimensionen eine Korrelation auf, wie die latenten Dimensionen selbst miteinander in Beziehung stehen. Falls zwei voneinander unabhängige latente Dimensionen operationalisiert worden sind, bedeutet das für die Datenebene: Die Indikatoren für jeweils eine Dimension sollten untereinander hoch korrelieren und zugleich zu den Indikatoren der anderen Dimension keine Korrelation aufweisen. Lesen Sie gegebenenfalls noch einmal das Kapitel 4.2. Operationalisierung von Aussagesystemen B A a 1 a 2 a 3 b 1 b 2 b 3 b 4 Abbildung 4.3: Operationalisierung von Konstrukten durch Indikatoren <?page no="180"?> 181 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 181 Zur Illustration sei nochmals auf die Blau/ Duncan-Fragestellung zum Zusammenhang von sozialer Herkunft mit der Bildung und dem Berufserfolg (Kapitel 3.2) zurückgegriffen. 155 Wollen wir diese „Mini-Theorie“ in Forschungsoperationen umsetzen, so haben wir es im Prozess der Operationalisierung mit drei Aussageebenen zu tun: 156 Erste Ebene-- Kerntheorie bzw. substanzielle Theorie: Sie besteht aus einer Menge theoretisch relevanter und theoretisch definierter Begriffe (Konstrukte, theoretische Begriffe), die über theoretische Postulate (Hypothesen) miteinander verbunden sind. Die Begriffe werden demnach in einem theoretischen Modell zueinander in Beziehung gesetzt; etwa: „X verursacht Y“ oder „Wenn X, dann auch Y“ oder „X führt zu Y, wenn gleichzeitig Z vorliegt“. Im obigen Beispiel lauten die theoretischen Postulate: „Die soziale Herkunft (H) beeinflusst die Bildung (B) der Söhne; diese wiederum wirkt sich auf deren späteren beruflichen Erfolg (E) aus.“ Und: „Die soziale Herkunft (H) hat darüber hinaus auch einen direkten Effekt auf den späteren beruflichen Erfolg (E) der Söhne.“ Sobald die in den theoretischen Postulaten vorkommenden Begriffe operationalisiert sind (durch Zuordnung direkt erhebbarer empirischer Sachverhalte als Indikatoren, s. o.), lassen sich analoge Aussagen für die „Beobachtungsebene“ formulieren. Dies ist die zweite Sprachebene-- die Ebene der Beobachtungsaussagen: Empirische Untersuchungen liefern zunächst nur Beschreibungen über beobachtbare Eigenschaften von Untersuchungseinheiten (UE). 157 155 Für den weiteren Vorgang der Operationalisierung dieses Aussagesystems ist es lediglich eine Frage der Perspektive, ob wir es als eine empirisch zu überprüfende „Theorie“ (=-ein System von Hypothesen) betrachten, oder ob es ein im Zuge der dimensionalen Analyse ad hoc aufgestelltes gedankliches Modell des Untersuchungsgegenstandes ist, das die gezielte Datenerhebung für eine empirische Beschreibung des interessierenden Sachverhalts ermöglichen soll. 156 Die folgende Darstellung orientiert sich an Esser 1979b sowie an Esser 1984, I. 157 Beispiel: Die erste befragte Person (UE 1 ) macht auf entsprechende Fragen die Angabe, sie stamme aus einem Vier-Personen-Haushalt in einer Stadtrand-Eigenheimsiedlung, ihr Vater sei Beamter im gehobenen Dienst, ihr höchster Schulabschluss sei das Abitur, und gegenwärtig sei sie stellvertretender Abteilungsleiter in der Gehaltsbuchhaltung eines mittelgroßen Industriebetriebs.-- Solche auf die einzelne Untersuchungseinheit bezogenen Beschreibungen (=- elementare Beobachtungssätze) sind zunächst als noch losgelöst von der „theoretischen Ebene“, als noch nicht mit dem theoretischen Modell verbunden anzusehen. BEISPIEL drei Aussageebenen 1. Ebene: substanzielle Theorie BEISPIEL 2. Ebene: Beobachtungsaussagen mit: H = „soziale Herkunft“ B = „Bildung“ E = „beru icher Erfolg“ = „...beein usst...“ oder „...wirkt sich aus auf...“ H B E Abbildung 4.4: Zusammenhang von Bildung und Berufserfolg <?page no="181"?> 182 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 182 Es sei die soziale Herkunft operationalisiert durch die Indikatoren „Berufsprestige des Vaters“ (h 1 ), „Bildung des Vaters“ (h 2 ) und „Status der elterlichen Wohngegend“ (h 3 ); die Bildung der Söhne durch die Indikatoren „Schulische Bildung vor Berufsbeginn“ (b 1 ) und „Weiterbildung nach Berufsbeginn“ (b 2 ); der berufliche Erfolg schließlich durch „Prestige der gegenwärtigen Berufsposition“ (e 1 ). Dann wären die theorie-implizierten (d. h. deduktiv aus obigen theoretischen Postulaten ableitbaren) empirischen Postulate: „h 1 , h 2 und h 3 sind positiv korreliert 158 mit b 1 und b 2 sowie mit e 1 “ sowie: „b 1 und b 2 sind positiv korreliert mit e 1 .“ Da in den theoretischen Postulaten (Hypothesen) ohne weitere Differenzierung generell eine Auswirkung der sozialen Herkunft auf z. B. die Bildung behauptet wurde und da die drei Indikatoren für soziale Herkunft sowie die zwei Indikatoren für Bildung als jeweils gleichwertige und gegeneinander austauschbare Operationalisierungen „ihrer“ Konstrukte gelten (s. o.), implizieren die Hypothesen also z. B. auch eine Korrelation des Indikators „Status der elterlichen Wohngegend“ mit den Indikatoren für Bildung (b 1 und b 2 ) sowie mit dem Indikator für den späteren Berufserfolg der Söhne (e 1 ). Gleiches gilt für den Indikator „Bildung des Vaters“. Auf der Datenebene möge sich nun herausstellen, dass dies nicht der Fall ist. So zeigen etwa die im Kapitel 3.2 referierten Befunde, dass zwar der berufliche Status des Vaters Auswirkungen auf den späteren Berufserfolg der Söhne hat („delayed effect“), nicht jedoch die Bildung des Vaters. Die Hypothese H-+→ E wird auf der Beobachtungsebene zwar durch h 1 ←+→ e 1 159 bestätigt, durch h 2- ←/ →e 1 jedoch widerlegt. Die Hypothese scheint in dieser Form zu pauschal zu sein. Man könnte daraus folgern: Die Theorie muss umformuliert werden; „soziale Herkunft“ muss schon auf der Theorie-Ebene differenzierter konzipiert werden (vgl. die Abschnitte 1.3.2 und 2.4.2). Die für die Bundesrepublik von Müller berichteten Befunde (vgl. Kapitel 3.2) deuten des weiteren darauf hin, dass der Indikator „Weiterbildung nach Berufsbeginn“ anscheinend völlig aus dem Rahmen (der obigen „Mini-Theorie“) fällt: Bei Personen, deren formale Bildung mit Eintritt in die Berufstätigkeit endgültig abgeschlossen ist, existieren relativ starke Korrelationen zwischen den Modellvariablen. Bei Personen mit zusätzlicher Weiterbildung nach Berufsbeginn finden sich dagegen nur vergleichsweise schwache Korrelationen; für diese hat jedoch die „Weiterbildung“ deutliche Konsequenzen für den späteren Berufserfolg. Folgt daraus auch eine schematische Widerlegung unserer „Mini-Theorie“? Vermutlich werden Sie vor dieser Schlussfolgerung zögern und vielleicht argumentieren, dass „Weiterbildung“ eigentlich gar nicht die „von der Theorie gemeinte“ 158 Zum statistischen Begriff der Korrelation wird auf Kapitel 8.3 verwiesen. „Positiv“ korreliert soll hier heißen: Der Korrelationskoeffizient hat ein positives Vorzeichen; bzw. für den Trend der Daten gilt: Je höher die gemessenen Werte für h 1 (bzw. h 2 , h 3 ), desto höher sind tendenziell die gemessenen Werte bei b 1 (bzw. b 2 ). 159 Der Doppelpfeil ←+→ soll symbolisieren, dass aus dem Korrelationskoeffizienten lediglich die Stärke des statistischen Zusammenhangs, nicht jedoch die Wirkungsrichtung ablesbar ist. BEISPIEL <?page no="182"?> 183 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 183 Bildung sei: In den theoretischen Postulaten gehe es schließlich insgesamt um die Rolle von Elternhaus und traditionellem Bildungssystem bei der Zuweisung von Lebenschancen. Bezogen auf diesen Zusammenhang könnten die späteren individuellen Weiterbildungsbemühungen eher als „Störfaktor“ betrachtet werden, als eine zusätzliche Wirkungsgröße, die den Einfluss von Elternhaus und Schule überlagert. Ihre Konsequenz wäre dann: Nicht die Theorie ist falsch (sie ist allenfalls unvollständig), sondern die Operationalisierung ist misslungen. „Weiterbildung nach Berufsbeginn“ ist-- so würden Sie vielleicht weiter argumentieren-- kein Indikator für das Konstrukt „Bildung“, sondern für ein anderes Konstrukt, z. B. für eine dispositionale Eigenschaft der Person, die man „Aufstiegsorientierung“ nennen könnte. Sie motiviert zu individuellen Anstrengungen, sich die für eine bessere berufliche Position erforderlichen Qualifikationen anzueignen. Die Disposition „Aufstiegsorientierung“-- so könnten Sie weiter überlegen-- ist vermutlich kein angeborenes Merkmal eines Menschen, sondern wird selbst wieder durch die Sozialisation im Elternhaus geprägt. Sie ist also ihrerseits von der sozialen Herkunft determiniert, aber möglicherweise nicht so sehr von der faktisch erreichten Position des Vaters, sondern von dessen Karrierewunsch oder/ und von der „gesellschaftlichen“ Erfolgsorientierung der Mutter („Unser Sohn soll es mal zu etwas bringen! “). Bildungsforscher sprechen in diesem Zusammenhang von „Aspirationsniveau“. Unter der Hand sind Sie im Lichte der empirisch gewonnenen neuen Informationen zur Revision Ihrer Theorie gekommen, die jetzt möglicherweise so aussieht: Kehren wir zurück zu unserer „Konfrontation der Theorie mit der Realität“. Im ersten Beispiel des Widerspruchs zwischen Daten und theorie-implizierter Beobachtungsaussage (keine Korrelation zwischen h 2 und e 1 , obwohl diese laut Hypothese H-+→ E existieren müsste) „glauben“ Sie den Daten. In diesem Fall sind Sie bereit, die betreffende Hypothese in der hier formulierten Form zurückzuweisen und sie als Konsequenz dimensional zu spezifizieren. Im zweiten Beispiel des Widerspruchs zwischen Theorieebene und Beobachtungsebene („Weiterbildung nach Berufsbeginn“ weist mit den übrigen Indikatoren ein anderes Beziehungsmuster auf als das theorie-implizierte) reagieren Sie anders: Sie weisen nicht flugs Bildung Berufseinstieg Berufskarriere Aufstiegsorientierung Weiterbildung soziale Herkunft Berufsstatus Bildungsstatus Aspirationsniveau Abbildung 4.5: Modifiziertes Theoriemodell <?page no="183"?> 184 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 184 die ganze „Mini-Theorie“ zurück, sondern vermuten, dieser Indikator messe „etwas anderes als das mit dem Konstrukt Bildung Gemeinte“, nämlich eine bisher nicht berücksichtigte theoretische Variable „Aufstiegsorientierung“. Mit anderen Worten: Sie verwerfen nicht die theoretische Hypothese, sondern bezweifeln deren Operationalisierung. 160 Damit sind wir bei der dritten Ebene der Operationalisierung theoretischer Aussagen, der Verknüpfung der Begriffe von Theorie- und Beobachtungssprache durch Korrespondenzregeln: Hypothesen und Theorien (das theoretische Modell, Ebene 1) müssen, um empirisch überprüfbar bzw. empirisch kritisierbar zu sein, mit den Beobachtungsaussagen (Indikatoren, Ebene 2) verbunden werden. Dies geschieht im Zuge der Operationalisierung eines Konstrukts durch Postulate darüber, 161 welche elementare Beobachtungsaussage 162 welchen Zustand eines empirischen Phänomens anzeigt, das im theoretischen Modell durch einen Begriff bezeichnet wird. Solche Postulate heißen Korrespondenzregeln. Sie legen fest, welcher beobachtbare Sachverhalt als Hinweis (als „Indikator“) auf den theoretisch gemeinten Sachverhalt gelten soll, oder mit anderen Worten: welcher empirische Sachverhalt mit dem theoretischen Sachverhalt „korrespondiert“. Korrespondenzregeln nehmen also die Zuordnung von Indikatoren zu Begriffen vor. Erst durch solche Herstellung der „Korrespondenz“ wird ein empirisch beobachtbarer Sachverhalt zu einem „Indikator für“ etwas begrifflich Gemeintes. Korrespondenzregeln geben somit Anweisungen für den Arbeitsschritt Datenerhebung. Als Indikator für „beruflichen Erfolg“ sollen die Antworten von Personen auf Fragen nach ihrer gegenwärtigen beruflichen Tätigkeit in Verbindung mit einer Skala des gesellschaftlichen Prestiges von Berufspositionen gelten. Zuordnungsregel: Je höher das gesellschaftliche Prestige der vom Befragten genannten Berufsposition, desto höher ist deren „beruflicher Erfolg“. 160 Das unvorhergesehene Ergebnis war aber dennoch hochwillkommen, weil „theoretisch fruchtbar“: Es veranlasste Sie, Ihre Theorie weiter auszubauen und deren Informationsgehalt zu vergrößern.- - Sie können diesen Fall als ein Illustrations-Beispiel für die Forderung des Kritischen Rationalismus sehen, Theorien im Wechselspiel von Theorie und Empirie zu prüfen und weiterzuentwickeln. 161 Solche Postulate können sowohl durch „bewährte“ Theorien als auch durch vorliegende empirische Einzelbefunde als auch durch „Alltagstheorien“ des Forschers begründet werden; sie können aber auch-- etwa im Falle definitorischer Indikatoren-- rein definitorische Festlegungen sein. In den zuerst genannten Fällen spricht man auch von „empirischer Interpretation“ theoretischer Terme (durch Interpretativsätze), im letzteren Fall von „Zuordnungsdefinitionen“ (vgl. Hempel 1974). 162 „Elementare Beobachtungssätze“ beziehen sich auf die einzelnen Untersuchungseinheiten. Die systematisierte Gesamtheit der „elementaren Beobachtungssätze“ stellt die Datenmatrix dar (vgl. Kapitel 5.3.3). Aus ihr können durch Auszählung und andere statistische Auswertungen „zusammengesetzte“ Beobachtungssätze über die Gesamtheit der Untersuchungseinheiten gewonnen werden (Anteilswerte, Durchschnitte, Trends, Korrelationen usw.). 3. Ebene: Korrespondenzregeln theoretischer Sachverhalt-- beobachtbarer Sachverhalt BEISPIEL <?page no="184"?> 185 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 185 Diese Zuordnung ist, um dies noch einmal in Erinnerung zu rufen, nicht gleichbedeutend mit einer Definition in dem Sinne, dass die Indikatoren den im theoretischen Modell verwendeten Begriff vollständig „ausmachen“. Sie ist vielmehr eine (mehr oder weniger sichere) Vermutung, dass die Indikatoren in der angegebenen Weise „wirklich“ mit dem theoretisch definierten Begriff zusammenhängen. Lediglich im Falle der Verwendung „definitorischer Indikatoren“ (vgl. Kapitel 4.1) sind Begriff und Indikatoren bedeutungsgleich. Die Korrespondenzregeln (die Hypothesen über die Korrespondenz von Indikatoren und theoretisch definiertem Begriff ) gehören damit zwingend zur Gesamttheorie. Empirisch zu interpretieren sind aber nicht nur die einzelnen Begriffe, sondern auch die theoretischen Postulate der Kerntheorie (die „Hypothesen“). Aus ihnen sind unter Verwendung der Indikatoren die theorie-implizierten Zusammenhangspostulate für die Beobachtungsebene zu deduzieren; es ist abzuleiten, welche „zusammengesetzten“ (d. h. durch Analyse der Daten gewinnbaren) Beobachtungsaussagen die empirische Untersuchung erbringen sollte, falls die theoretischen Hypothesen zutreffen. Empirisch interpretierte Theorien bestehen aus theoretisch definierten Begriffen und theoretischen Postulaten (Hypothesen über den Zusammenhang der Begriffe) und Korrespondenzregeln und Indikatoren und theorie-implizierten Beobachtungsaussagen (theoretischen Basissätzen). 4.3.2 Gültigkeit-- ein „Gütekriterium“ für die Operationalisierung Die vorstehende Darstellung verdeutlicht in besonderer Weise das Problem der Gültigkeit der operationalen Vorschriften. Operationale Vorschriften sind gültig, wenn bei Ausführung der vorgeschriebenen Forschungsoperationen das gemessen wird, was gemessen werden soll; d. h. wenn der Transfer von der theoretischen Ebene zum Gegenstandsbereich (Beobachtungsebene) gelingt. Korrespondenzregel ist Hypothese Gütekriterium: Gültigkeit (Validität) mit: h 1 = Berufsprestige des Vaters h 2 = Bildung des Vaters h 3 = Status der elterlichen Wohngegend b 1 = Bildung des Befragten vor Berufsbeginn b 2 = Weiterbildung nach Berufsbeginn e 1 = Prestige der gegenwärtigen Berufsposition Kerntheorie Korrespondenzregeln (Hilfstheorien) Indikatoren und Aussagen über empirische Zusammenhänge H B E h 2 h 1 h 3 b 2 b 1 e 1   Abbildung 4.6: Ebenen der Operationalisierung <?page no="185"?> 186 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 186 Ein Teilproblem davon ist die schon behandelte Frage der Indikatoren-Gültigkeit (Kapitel 4.1). In der einschlägigen Literatur wird eine Vielzahl von Dimensionen des Problems Gültigkeit (Validität) beschrieben. 163 Für unsere Zwecke genügt zunächst eine Unterscheidung zwischen semantischer (sprachlogischer) und empirischer Validität. Im ersten Fall-- semantische Gültigkeit-- richtet sich der Blick auf die Verknüpfung von Konstrukt und Indikatorbegriffen durch Korrespondenzregeln. Das Gültigkeitsproblem auf dieser Stufe entspricht dem in Kapitel 1.3 sowie im Abschnitt 2.4.2-- Theorietest-- bereits angesprochenen „Korrespondenzproblem“. Im zweiten Fall-- empirische Gültigkeit-- geht es darum, ob als Ergebnis der Datenerhebung genau das gemessen worden ist, was durch das Konstrukt bezeichnet wird; anders ausgedrückt: ob als Ergebnis der Datenerhebung die „wahren Werte“ über die Indikator-Sachverhalte vorliegen. 164 Das Gültigkeitsproblem auf dieser Stufe entspricht dem in Kapitel 1.3 behandelten Basissatzproblem. Die (sprach-)logische bzw. semantische Gültigkeit einer operationalen Vorschrift „betrifft die Beziehung zwischen Sätzen, die die Vorschrift beschreiben, und solchen, die die Definition angeben. (…) Der besondere Charakter einer idealen Gültigkeitsbeziehung ist sehr schwierig zu formulieren, aber im Wesentlichen bedeutet die vollkommene Gültigkeit einer operationalen Definition, dass die operationale Definition [gemeint ist: empirische Interpretation durch Indikator-Begriffe; H. K.] denselben Inhaltsbereich hat wie die nominelle Definition“ (Zetterberg 1973, 119). Die Frage ist also: Wird die Begriffsdefinition korrekt in operationale Vorschriften „übersetzt“? Haben die gewählten Indikatoren den gleichen Bedeutungsgehalt, d. h. sind sie semantisch äquivalent? Auf den ersten Blick scheint es nicht problematisch zu sein, die semantische (sprachlogische) Gültigkeit sicherzustellen. Wollen wir etwas über die Arbeitszufriedenheit der Beschäftigten in der Montan-Industrie erfahren, dann stellen wir den dort Beschäftigten Fragen nach ihrer Arbeitszufriedenheit. Wollen wir wissen, wie Personen in Stresssituationen reagieren, dann beobachten wir Personen in Stresssituationen. Die Überlegungen in Kapitel 4.1 (Indikatoren) haben aber schon gezeigt, dass es nicht immer einfach ist, die bestmöglichen Indikatoren für einen begrifflich bezeichneten Sachverhalt zu finden. Die Überprüfung der semantischen Gültigkeit operationaler Vorschriften kann zu fünf möglichen Ergebnissen führen (nach Zetterberg 1973, 120 f.): 1) Gegeben sei eine Nominaldefinition von „Arbeitszufriedenheit“ (für unsere Überlegungen ist es gleichgültig, wie diese lauten möge). Die dazugehörige Ope- 163 Vgl. etwa Falter 1977; Hülst 1975, 32 ff. 164 Man geht also davon aus, dass die untersuchten Objekte eine unabhängig von der Messung existierende „wahre“ Eigenschaftsausprägung auf der mit dem Konstrukt bezeichneten Dimension aufweisen, so dass es bei der Messung lediglich darum geht, diesen „wahren Wert“ richtig abzubilden. semantische-- empirische Gültigkeit semantische Gültigkeit: Korrespondenzproblem empirische Gültigkeit: Erhebungsergebnis semantische Gültigkeit mögliche Ergebnisse der Prüfung <?page no="186"?> 187 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 187 rationalisierung soll aus Fragen zur Arbeitszufriedenheit bestehen, und zwar wird zu jeder Bedeutungsdimension des definierten Begriffs eine präzise Frage gestellt. In diesem Fall ergibt eine logische Prüfung des Bedeutungsumfangs von nominal definiertem Begriff und operationaler Vorschrift, dass der Inhaltsbereich von beiden identisch ist. Aus semantischer Sicht ist in diesem Fall vollständige Validität gegeben. 2) Gegeben sei wieder die Nominaldefinition von „Arbeitszufriedenheit“ sowie eine Operationalisierung, die sich diesmal lediglich mit einer Reaktion „Ich bin zufrieden mit der Lüftung am Arbeitsplatz“ begnügt. Ein Vergleich mit der Nominaldefinition dürfte in einem solchen Falle sicher zeigen, dass der Begriff „Arbeitszufriedenheit“ mehr umfasst als nur Zufriedenheit mit der Lüftung, bzw. dass die Operationalisierung zu eng ist. Anders ausgedrückt: Der Bedeutungsumfang der Nominaldefinition ist weiter als der der Operationalisierung; die Definition umfasst zwar (u. a.) die o. g. operationale Vorschrift, aber darüber hinaus noch weitere Aspekte. 3) Diesmal sei als Operationalisierung die Aussage gegeben (zu der die Befragten Stellung nehmen sollen): „Ich fühle mich wohl.“ Ein semantischer Vergleich mit der Nominaldefinition von „Arbeitszufriedenheit“ zeigt in diesem Fall, dass die Operationalisierung zu weit ist; hier wird offensichtlich mehr angesprochen als nur der Aspekt „Arbeitszufriedenheit“. Also: Diesmal umfasst der Bedeutungsumfang der operationalen Vorschrift zum einen die Nominaldefinition, aber darüber hinaus noch weitere Aspekte: 4) Nun sei als Operationalisierung die Aussage gegeben: „Ich schätze meine Freunde und Bekannten hier in X-Stadt.“ Natürlich sind damit auch die Arbeitskollegen angesprochen; insofern ist der Bereich „Arbeitszufriedenheit“ berührt. Aber zusätzlich bezieht sich die Aussage auf Freunde und andere Bekannte, die für die vollständige Validität Operationalisierung zu eng Operationalisierung zu weit De nition Operationalisierungsregel Abbildung 4.7: Semantische Gültigkeit: zu enge Operationalisierung De nition Operationalisierungsregel Abbildung 4.8: Semantische Gültigkeit: zu weite Operationalisierung <?page no="187"?> 188 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 188 Herausbildung von „Arbeitszufriedenheit“ keine Rolle spielen. Mit anderen Worten: Die Operationalisierung ist nicht trennscharf; sie vermischt Aspekte allgemeiner Lebenszufriedenheit mit solchen der Arbeitszufriedenheit. Der Bedeutungsumfang der operationalen Vorschrift umfasst die Nominaldefinition teilweise (und umgekehrt): 5) Schließlich kann zumindest hypothetisch noch der Fall auftreten, dass der Bedeutungsumfang der Nominaldefinition und der der operationalen Vorschrift überhaupt keine Schnittmenge aufweist. In diesem Fall besteht gar keine semantische Gültigkeit. Beispielsweise könnte es passieren, dass bei der Übersetzung eines schriftlichen Fragebogens in die Heimatsprachen ausländischer Arbeitnehmer Worte gewählt werden, die zwar lexikalisch „richtig“ zu sein scheinen, bei den zu befragenden Arbeitnehmern im Kontext ihrer Lebenswelt jedoch völlig andere Bedeutungsassoziationen hervorrufen. Um solche Fehler zu vermeiden, müssen in eine Fremdsprache übersetzte Fragebögen einer ausgesprochen sorgfältigen semantischen Kontrolle unterzogen werden, beispielsweise indem sie von einem Angehörigen der Zielkultur ins Deutsche zurückübersetzt werden. Unterstellt, der erste Schritt der Validitätsprüfung habe ergeben, dass die semantische (sprachlogische) Validität gewährleistet ist. Wie aber steht es- - zweiter Schritt der Validitätsprüfung- - mit der empirischen Gültigkeit? Wird auch durch die Erhebung genau das gemessen, was durch das Konstrukt bezeichnet worden ist? Ideal wären Erhebungsstrategien, die den jeweiligen Indikator-Sachverhalt völlig unverfälscht abbilden und ihn zugleich durch den Messvorgang vollkommen unverändert lassen. In diesem (idealtypischen) Fall beschränkte sich das Gültigkeitsproblem allein auf die Angemessenheit der Korrespondenzregeln für die Zuordnung der Indikatoren (semantische Gültigkeit). Diese Situation wäre z. B. gegeben, wenn für die Feststellung des Berufsstatus von Personen die Personalakten beim Arbeitgeber eingesehen werden könnten oder wenn die auf Video vorliegende Aufzeichnung einer öffentlichen Diskussionsveranstaltung zu kodieren oder die Häufigkeit des Auf- Operationalisierung nicht trennscharf keine semantische Gültigkeit empirische Gültigkeit ideale Opera tionalisierung De nition Operationalisierungsregel Abbildung 4.9: Semantische Gültigkeit: nicht trennscharfe Operationalisierung De nition Operationalisierungsregel Abbildung 4.10: Keine semantische Gültigkeit <?page no="188"?> 189 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 189 tretens bestimmter Schlüsselwörter in literarischen Schriften zu zählen wäre. Meist ist es jedoch entweder gar nicht möglich oder aber zu mühsam, nach solchen „idealen“ operationalen Vorschriften vorzugehen. Wenn wir an der Feststellung interessiert sind, in welchem Ausmaß Studenten Bücher aus der Bibliothek entleihen, wäre die Auswertung der Bibliotheksaufzeichnungen eine ideale operationale Vorschrift. Falls das nicht möglich ist (Datenschutz), wäre es ein praktikabler Ausweg, die Studierenden selbst zu fragen, wie viele Bücher sie während einer bestimmten Periode ausgeliehen haben. Das ist relativ leicht machbar. Ist aber ein solches Vorgehen empirisch gültig (d. h. stimmen die Antworten auf die Frage nach der Ausleihhäufigkeit mit der Zahl der tatsächlich ausgeliehenen Bücher überein)? Die sprachlogische (semantische) Gültigkeit dürfte gegeben sein, wenn wir Ausleihhäufigkeit nominal als Anzahl entliehener Bücher in einer bestimmten Periode definieren und als Operationalisierung die Antwort auf die Frage nach der Anzahl der entliehenen Bücher in dieser Periode vorsehen. Die empirische Gültigkeit ist natürlich nur empirisch zu überprüfen. Wir machen also, um sicherzugehen, eine Stichprobe an Ort und Stelle; an dieser wollen wir feststellen, ob unser operationales Vorgehen (hier: Protokollierung der Antworten auf die Frage nach der Zahl entliehener Bücher) dieselben Ergebnisse bringt wie die ideale operationale Vorschrift (nämlich Auswertung der Bibliotheksaufzeichnungen für diejenigen Studierenden, die wir befragt haben). Dabei werden wir dann unter Umständen feststellen, dass sieben von acht befragten Studentinnen und Studenten die Zahl der von ihnen entliehenen Bücher überschätzen und dass die „besten“ Studierenden am wenigsten, die „schwächsten“ am meisten übertreiben. 165 Das operationale Vorgehen hat also (obwohl sprachlogisch gültig) nur eine geringe empirische Gültigkeit, und zwar besonders in Bezug auf die „schwachen“ Studentinnen und Studenten. Der Regelfall wird also sein, dass wir nicht mit „idealen“ Operationalisierungen arbeiten können, sondern mit Hilfe mehr oder weniger indirekt messender Verfahren unsere Informationen sammeln müssen. Dabei können zwei Typen von Ursachen für Informationsverzerrungen 166 wirksam werden: einerseits solche, die im Instrument selbst liegen, andererseits solche, die in der Erhebungssituation auftreten. 165 So das Ergebnis eines entsprechenden empirischen Vergleichs von Stocke und Lehmann (vgl. Zetterberg 1973, 121). In einer anderen Untersuchung wurden bei einem Vergleich der Angaben von Personen, die bei Autounfällen verletzt wurden, mit offiziellen Unterlagen und Dokumenten je nach erfragtem Merkmal Übereinstimmungen zwischen nur 23,8 (! ) und 99,6 Prozent festgestellt (nach Scheuch 1973, 140; dort findet man weitere Beispiele). 166 Von einer Beeinträchtigung der Gültigkeit wird man aus der hier eingenommenen Perspektive der Operationalisierung genau genommen nur dann sprechen, wenn „systematische“ Abweichungen zwischen den „wahren“ Eigenschaftsausprägungen und den Messwerten auftreten, wenn somit das Bild der Realität bei Zusammenfassung einer größeren Zahl von Fällen „verzerrt“ wiedergegeben wird. Unsystematische Schwankungen der Messwerte um den „wahren“ Wert werden dann unter dem Stichwort „Zuverlässigkeit“ als ein spezifisches Güte- BEISPIEL zwei Typen von Verzerrungen <?page no="189"?> 190 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 190 Vom Messinstrument verursachte systematische Fehler sind zum einen jene, die ihre Wurzel in mangelnder semantischer Gültigkeit haben. Ist ein Indikator gewählt worden, der nicht trennscharf die eigentlich anvisierte Dimension trifft, dann setzt sich dieser Fehler in der Datenerhebung fort: Das Instrument bildet in den Messwerten systematisch nicht (nur) die theoretisch gemeinte Dimension ab, sondern (auch) etwas anderes. Beispiele hierfür wären die Operationalisierungen (3) und (4) für „Arbeitszufriedenheit“ bei der obigen Abhandlung der sprachlogischen (semantischen) Gültigkeit. Als weiteres Beispiel sei auf den Indikator „Weiterbildung nach Berufsbeginn“ als teilweiser Operationalisierung des Begriffs „Bildung“ im Abschnitt 4.3.1 verwiesen. Daneben kann aber das Messinstrument, selbst bei semantischer Gültigkeit der Indikatoren, Auslöser von systematischen Verzerrungen sein; bei Fragebögen z. B. durch Benutzung von (nur bestimmten Personengruppen geläufigen) Fremdwörtern oder Fachausdrücken, durch schwer verständliche oder gar durch suggestive Frageformulierungen, durch die Reihenfolge der Fragen und der angeschnittenen Themen und durch manches mehr (ausführlicher dazu Kapitel 7.3 und 7.4). Von der Erhebungssituation ausgehende systematische Fehler resultieren aus der Spezifik der Forschungskontaktsituation: So sind bei teilnehmender Beobachtung die Beobachter abhängig von der realen Definition der Situation, in die sie sich als unerkannte Beobachter einpassen müssen und die ihnen nur bedingt unbeeinflusste Beobachtungen ermöglicht, die sie zudem durch ihre eigene Anwesenheit im Feld mehr oder weniger stark verändern (die Daten können dann niemals vollständig das widerspiegeln, was „wirklich“ gewesen wäre, wenn kein Beobachter eine Rolle im Untersuchungsfeld eingenommen hätte). Im Falle des mündlichen Interviews können systematische Verzerrungen durch das Interviewer-Verhalten sowie durch den Kontext, in dem das Interview steht, initiiert werden; etwa wenn die Interviewerin/ der Interviewer die vorgesehenen Fragen nicht bei jeder befragten Person in gleicher Weise stellt oder wenn während des Interviews andere Personen hinzukommen. Verzerrungen können auch in spezifischen Reaktionsweisen der befragten Person begründet sein; etwa wenn jemand bei ihm unklaren Fragen lieber mit „ja“ als mit „weiß ich nicht“ antwortet, oder wenn jemand sich dem Interviewer/ der Interviewerin gegenüber in besonders positivem Licht darstellen möchte. 167 Eine weitere Illustration für diesen Typ von Gültigkeits-Beeinträchtigung ist das vorn skizzierte Beikriterium der Messung gesondert behandelt (vgl. Kapitel 5.6; ausführlicher Esser 1984, II, 31 ff.). Natürlich ist die Zuverlässigkeit der Messung für das übergreifende Kriterium der Gültigkeit der Operationalisierung eine notwendige, aber keine hinreichende Bedingung. 167 So haben Auswertungen von Bevölkerungsumfragen gezeigt, dass männliche Berufstätige ihr Einkommen um durchschnittlich rund 250 Euro nach oben „aufbesserten“, wenn sie von Interviewerinnen befragt wurden (im Vergleich zur Forschungskontaktsituation: männlicher Befragter und männlicher Interviewer). vom Messinstrument verursachte Fehler BEISPIELE von der Erhebungssituation ausgehende Fehler <?page no="190"?> 191 4.4 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 191 spiel der Erhebung der Ausleihhäufigkeit in der Universitätsbibliothek. (Auch diese Thematik wird in den Kapiteln 7.3 und 7.4 ausführlicher behandelt.) Ist die Beurteilung der semantischen Validität durch Vergleich der Definition des zu operationalisierenden Begriffs mit den im Zuge der Operationalisierung verwendeten Korrespondenzregeln noch relativ leicht möglich (semantische Analyse des theoretischen Begriffs und der Indikatorbegriffe), so gilt dies nicht mehr für die Prüfung der empirischen Validität. Entsprechend den für die Beurteilung gewählten Strategien unterscheidet man üblicherweise zwischen Inhalts-, Kriteriums- und Konstruktvalidität (Zeller/ Carmines 1980, 78 ff.). Bei der Inhaltsvalidität beschränkt sich die Prüfungsfrage im Wesentlichen darauf, ob die Untersuchungsergebnisse plausibel erscheinen; insbesondere ob alle untersuchungsrelevanten Dimensionen in der Operationalisierung berücksichtigt wurden und ob die gewählten Vorgehensweisen (und Resultate! ) mit dem bisherigen „State of the Art“ sowie mit dem bisher akzeptierten Wissen kompatibel sind.-- Der Anspruch der Kriteriumsvalidität ist insofern höher, als für deren Test der Vergleich mit einem unabhängigen Vergleichswert vorzunehmen ist. Man benötigt also einen zweiten Satz empirischer Daten über einen Sachverhalt, der inhaltlich mit dem operationalisierten Begriff hinreichend stark zusammenhängt und der deshalb als externes Prüfkriterium verwendet werden kann. Die Kriteriumsvalidität gilt dann als hoch, wenn die Kriteriumsdaten mit den eigentlich interessierenden Daten hoch korrelieren.-- Das Konzept der Konstruktvalidität schließlich geht von der Überlegung aus, dass der zu operationalisierende theoretische Begriff („Konstrukt“) in mehreren empirisch prüfbaren Zusammenhangshypothesen verwendet werden kann, anders ausgedrückt: dass er als „Wenn-Komponente“ in Hypothesen mit unterschiedlicher „Dann-Komponente“ erscheinen kann (siehe H-O-Schema, Kapitel 2.4.1). Falls sich empirisch nachweisen lässt, dass die gemessenen abhängigen Variablen (die „Dann-Komponenten“) hinreichend hoch korrelieren, kann dies als Hinweis auf eine valide Messung des Konstrukts gewertet werden (vgl. das Beispiel zum Begriff „Einstellung“ in Kapitel 4.1, S. 167). 4.4 Annotationen aus der Perspektive qualitativinterpretativer Methoden Operationalisierung und Indikatorenauswahl im engeren Sinne finden in der qualitativ-interpretativen Forschung nicht statt, daher erübrigen sich umfangreichere Ausführungen dazu. Hinzuweisen ist an dieser Stelle aber auf die im Kontext qualitativer Verfahren immer wieder geführte und in den Annotationen zu den vorangegangenen Kapiteln bereits erwähnte Diskussion um den Stellenwert theoretischen Vorwissens, also darum, woher die Begriffe und Aussagen stammen, die als Ergebnis qualitativer Forschung präsentiert werden. Die Grundproblematik besteht darin, dass eine rein induktive empirische Forschung erkenntnislogisch unmöglich ist, weil allein die Erfassung und Benennung empirischer Phänomene immer schon theoriehaltiger Symbolsysteme bedarf. Umgekehrt zielt aber qualitativ-interpretative Forschung explizit und in kritischer Abgrenzung von hypothetiko-deduktiven Verfahren Inhaltsvalidität Kriteriumsvalidität Konstruktvalidität <?page no="191"?> 192 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 192 gerade darauf, in theoretisierender Absicht Aussagen über empirische Phänomene zu treffen, die nicht schon durch theoretisches Vorwissen präformiert oder- - wie es mitunter etwas weniger freundlich heißt- - ‚kontaminiert‘ sind. Herbert Blumer (1954) hat dazu schon früh den Vorschlag unterbreitet, theoretisches Vorwissen nicht per se zu diskreditieren, sondern genauer darauf zu achten, welcher Stellenwert diesen Konzepten im Forschungsprozess zugewiesen wird. Blumer unterscheidet zwischen „definitiven“ und „sensibilisierenden“ Konzepten. Als definitiv bezeichnet er Theoriebezüge, für deren Konzepte eine feststehende Relation zu einer gegebenen Wirklichkeit vorausgesetzt wird und die den Gang der weiteren Forschung mitbestimmen, weil sie das Wahrnehmungsraster der empirischen Erforschung bilden. „Sensibilisierende“ Konzepte sind solche, die die Forschung nicht strukturieren, sondern offene Fragen oder ergänzende Untersuchungsperspektiven enthalten. Es geht Blumer also um einen anderen Modus des Theoriebezugs. Er war damit wegweisend für ein differenziertes Theorie-Empirie-Verhältnis in der qualitativen Sozialforschung, in der die letztgenannte, sensibilisierende Verwendungsweise theoretischen Vorwissens inzwischen die Regel ist. Vielfach wird also schon vor der empirischen Studie relevantes Wissen über das Feld akquiriert, dieses dann jedoch eher zur Stimulation von Neugier und zur Erschließung zusätzlicher Dimensionen der Forschungsfrage-- und nicht als potenzielle Antwort auf sie-- genutzt. Mitunter ist auch in der qualitativ-interpretativen Forschung von Indikatoren den Rede (etwa in der Grounded Theory; vgl. Kapitel 9.1). Allerdings ist damit ein dynamisches Interdependenzverhältnis zwischen empirischen Instanzen (Fällen, Ereignissen) und ihren theoretischen Referenten gemeint, kein Set von empirischen Prüfsteinen theoretischer Hypothesen. 4.4.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Bohnsack, Ralf, 2014: Rekonstruktive Sozialforschung. Einführung in qualitative Methoden. Opladen, Kap. 2 u. 11, S. 15-32 u. 191-204. (Kap. 2 ist eine kritische Auseinandersetzung mit dem forschungslogischen Paradigma standardisierter, Hypothesen testender Sozialforschung, die hier mit der Perspektive der Rekonstruktion konfrontiert wird; Kap 11 ist eine etwas voraussetzungsvolle, aber auch sehr lehrreiche Diskussion über Vorwissen, implizites Wissen und Wege der Integration von Vorwissen und Empirie.) Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Forschungsdesigns für die qualitative Sozialforschung, in: Baur, N.; Blasius, J. (Hg.): Handbuch Methoden der empirischen Sozialforschung, Wiesbaden, 117-133. Strübing, Jörg, 2014: Grounded Theory. Zur sozialtheoretischen und epistemologischen Fundierung des Verfahrens der empirisch begründeten Theoriebildung. Wiesbaden, Kap. 4, S. 51-64. (In der Grounded Theory gab es zwischen Vertretern unterschiedlicher Richtungen heftige Diskussionen zur Frage des Vorwissens. In diesem Buchabschnitt wird die Problematik für die Grounded Theory erörtert.) definitive vs. sensibilisierende Konzepte <?page no="192"?> 193 www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 193 5 Messung und Datenerhebung in-den-Sozialwissenschaften 5.1 Die Informationsgewinnung im Prozess der-empirischen-Forschung Ging es bisher um die Strukturierung und schrittweise Präzisierung einer Forschungsfragestellung, so widmen sich die folgenden Kapitel den weiteren Konkretisierungen mit dem Ziel der kontrollierten Gewinnung empirischer Informationen. Konnte die Darstellung der Methodologie sich bisher idealtypisch am Modell des Forschungsprozesses mit voneinander abgrenzbaren und zeitlich aufeinander folgenden Arbeitsschritten 168 orientieren, so ist diese Perspektive bei den nächsten Punkten-- Messen, Auswahlverfahren, Erhebungsinstrumente-- nicht mehr aufrechtzuerhalten. Die Entscheidungen über geeignete Instrumente, über den anzustrebenden Differenzierungsgrad der Daten, über das geeignete Verfahren der Auswahl von Untersuchungs-„Objekten“ können weder sukzessive noch unabhängig voneinander getroffen werden. So ist z. B. die Festlegung auf das Verfahren der empirischen Inhaltsanalyse von Zeitungsberichten (etwa mit dem Ziel, die Informationspolitik verschiedener Verlage zu vergleichen) zugleich eine Festlegung auf eine spezifische Art von Untersuchungsobjekten (etwa „Zeitungsartikel“). Die Entscheidung für das Instrument Befragung (bei gleicher Fragestellung der Untersuchung) wäre dementsprechend zugleich eine Entscheidung für eine andere Art von Untersuchungsobjekten (etwa „Redakteure“). Die Festlegung auf eine bestimmte Art von Untersuchungsobjekten wiederum kann Konsequenzen dafür haben, wie präzise die interessierenden Merkmale gemessen werden können. Beispielsweise kann der Forscher für Interviews mit Redakteuren in seinem Fragebogen selbst festlegen, wie differenziert er bestimmte Informationen abfragen will. Bei der Auswertung von Zeitungsberichten dagegen ist er an die dort vorgegebene Tiefe oder Oberflächlichkeit der Argumentation gebunden; möglicherweise wird er-- um überhaupt die Vergleichbarkeit verschiedener Berichte zu gewährleisten-- seine Informationen nur sehr grob erheben können. Zum Verständnis der weiteren Arbeitsschritte in einem empirischen Forschungsprojekt muss daher jetzt die Perspektive des prozessualen Ablaufs einer Untersuchung verlassen werden. Stattdessen knüpfen wir an das im Abschnitt 2.4.5 vorgestellte „Strukturmodell“ für nichtexperimentelle Forschungsprojekte an, das die sachlogischen Zusammenhänge zwischen den einzelnen Arbeitsschritten aufzeigt. 168 Vgl. Kapitel 2.2 verbundene Entscheidungen im Forschungsprozess BEISPIEL <?page no="193"?> 194 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 194 www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 195 In den vorhergehenden Kapiteln sind bisher behandelt worden: die gedankliche Strukturierung des Objektbereichs (dimensionale Analyse, Entwicklung eines Untersuchungsmodells), die abbildende Beschreibung des Objektbereichs mit Hilfe sprachlicher Zeichen (semantische Analyse, Begriffe, Definitionen) sowie die Möglichkeiten der Herstellung der Beobachtbarkeit dieser begrifflich bezeichneten Sachverhalte (Auswahl und Begründung von Indikatoren). Darauf aufbauend ist nun ein weiterer wichtiger Konkretisierungsschritt zu leisten. Diese Konkretisierung bezieht sich zum einen auf den Grad der Differenzierung, mit dem die als Indikatoren benutzten empirischen Sachverhalte gemessen werden sollen. Der Differenzierungsgrad kann von der bloßen Feststellung des Vorhandenseins oder Nicht-Vorhandenseins eines Tatbestands bis zur präzisen Erfassung des Ausmaßes seines Vorhandenseins reichen. Durch die Angabe des Differenzierungs- oder Variabilitätsgrades, der bei der Datenerhebung berücksichtigt werden soll, werden die begrifflich bezeichneten Indikatoren zu „Variablen“. Die Konkretisierung bezieht sich zum anderen auf die Regeln zur Feststellung der zu messenden Sachverhalte an den zu untersuchenden Objekten, d. h. auf die Messvorschriften. Die interessierenden Sachverhalte sollen nicht länger als abstrakte gedankliche Konzepte betrachtet werden, sondern als Merkmale von (konkreten) Untersuchungsobjekten. So kann etwa der mit dem Begriff „Einwohnerzahl“ bezeichnete Sachverhalt nicht als solcher, sondern nur als Merkmal konkreter Dörfer oder Städte oder Länder oder Staaten gemessen werden. Ebenso ist „sozialer Status“ nicht als abstraktes, begrifflich definierbares Phänomen empirisch feststellbar, wohl aber als Merkmal von Personen. Messvorschriften sind also Regeln, nach denen abstrakte gedankliche Konzepte (wie Körpergröße, Gewicht, Geschwindigkeit, Farbe, Geschlecht, Alter, Einkommen, Bildung, Lernerfolg, Zufriedenheit) an konkreten empirischen Objekten festgestellt werden sollen. Mit anderen Worten: Die Messvorschriften geben an, auf welche Weise der Forscher seine gedanklichen Konzepte mit der Realität zu verknüpfen beabsichtigt. Hier-- bei der Strategie der Informationsgewinnung- - zeigt sich einer der grundlegenden methodologischen Unterschiede der standardisiert verfahrenden zur qualitativ-interpretativen Sozialforschung. Standardisierter Forschung geht es darum, Informationen in Form von „Daten“ zu gewinnen. Unter Daten werden Merkmalsmesswerte verstanden, anhand derer die untersuchten Objekte unmittelbar- - ohne weitere Interpretationsschritte − verglichen und z. B. statistisch ausgewertet werden können. Konkretisierung: Grad der Differenzierung Messvorschriften Definition: Daten <?page no="194"?> 195 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 195 So hat beispielsweise Lisa Meyer viele Eigenschaften, aber als Daten halten wir konkret fest: Alter 34 Jahre, Beruf Finanzbuchhalterin, Nettoeinkommen 2.600 €. Bei Hermann Müller halten wir die vergleichbaren Daten fest: Alter 27 Jahre, Beruf Handelsvertreter, Nettoeinkommen 2.400 €). Diese „Daten“ sind so zu erheben, dass sie für jedes Untersuchungsobjekt (im Beispiel: Personen) die interessierenden Merkmale (im Beispiel: Alter, Beruf, Nettoeinkommen) durch die individuell zutreffenden Ausprägungen abbilden (im Beispiel: Lisa Meyer =- 34 Jahre, Finanzbuchhalterin, 2.600 €; Hermann Müller =- 27 Jahre, Handelsvertreter, 2.400 €). Damit dies „objektiv“ (im Sinne von: ausschließlich vom zu messenden Objekt abhängig) geschieht, muss man das ganze Verfahren standardisieren. Das heißt, es ist für jeden Fall und in jeder Erhebungssituation in identischer Weise vorzugehen (vgl. Abschnitt 1.2.4). Qualitative Forschung verfolgt bei der Informationsgewinnung eine deutlich andere Strategie: nicht selektive Erhebung vorab definierter Merkmale, sondern breite Informationssammlung aus möglichst vielfältigen Perspektiven; nicht Objektivierung durch Standardisierung, sondern situationsflexible, offene Erhebung. Die Konsequenz ist, dass die untersuchten Fälle nicht unmittelbar anhand von „Daten“ für präzise definierte Merkmale verglichen werden können, sondern dass in der Auswertungsphase zunächst die (qualitativen) Informationstexte pro Fall semantisch zu interpretieren sind. Das muss jedoch an dieser Stelle noch nicht weiter vertieft werden; Interessierte werden auf die Annotationen in Kapitel 5.8 und auf Kapitel 9 verwiesen. 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen 5.2.1 Statistik als Modelldenken Wie schon angesprochen, sollen die standardisiert erhobenen Daten in der Auswertungsphase statistisch analysiert werden. Vielleicht kennen Sie die (nicht so ernst gemeinte) Steigerungsform des Begriffs „Lüge“: Lüge-- unverschämte Lüge-- Statistik. Wahrscheinlich aber haben Sie schon einmal den (ernster gemeinten) Ausspruch gehört, mit Statistik könne man alles beweisen-- auch das Gegenteil. Der Kern an Wahrheit, der in solchen Aussagen steckt, ist die leider nicht selten zu beobachtende falsche Anwendung statistischer Modelle bei Fragestellungen, für die diese Modelle nicht entworfen worden sind. Man kann eben nicht mit ungültigen Verfahren-- mit unangemessenen Modellen-- gültige Ergebnisse erzielen. Wenn hier von „falscher Modellanwendung“ die Rede ist, dann sind damit nicht fehlerhafte Berechnungen, also die fehlerhafte Handhabung statistisch-mathematischer Methoden oder Verfahren, gemeint. Vielmehr wird zwischen statistisch-mathe- BEISPIEL Daten: Ausprägungen von-Merkmalen VERTIEFUNG Vergleich mit qualitativer Forschung <?page no="195"?> 196 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 196 matischen Methoden oder Verfahren einerseits und statistischen Modellen andererseits bewusst unterschieden (vgl. Kriz 1973, Kapitel 1). Eine Methode oder ein Verfahren benutzt man, um von einem genau definierten Anfangszustand zu einem definierten Endzustand zu gelangen. So gibt es verschiedene Methoden, um aus 12 Zahlen etwa das arithmetische Mittel zu berechnen (z. B. alle 12 Zahlen addieren, dann durch 12 dividieren; oder jede Zahl zunächst durch 12 dividieren, dann die Ergebnisse addieren). Entscheidend ist, dass unterschiedliche Methoden, auf identische Ausgangsdaten angewandt, zu genau demselben Ziel führen: Der Endzustand ist methodenunabhängig. Bei einem Modell dagegen handelt es sich um ein Abbild einer definierten Ausgangsstruktur unter bestimmten Gesichtspunkten. Als Beispiel möge der Stadtplan als Modell einer Stadt gelten. Man kann ein solches Modell unter verschiedenen Gesichtspunkten erstellen: als maßstabsgetreue Straßenkarte; als Touristenkarte mit Hervorhebung der Sehenswürdigkeiten; als Straßenkarte, in der die Hauptverbindungsstrecken hervorgehoben, andere Straßen allenfalls angedeutet sind. Man kann auch ein dreidimensionales maßstabsgetreues Modell der Stadt erstellen. Jedes dieser Modelle ist für andere Zwecke brauchbar. Modelle werden demnach jeweils für ganz bestimmte Frage- oder Problemstellungen entworfen, sie werden durch die zugrunde liegende Fragestellung (also durch die Anforderungen an das Modell) entscheidend geprägt. Verschiedene Modelle des gleichen Sachverhalts sind daher, wie das Beispiel „Stadt“ zeigt, nur selten direkt miteinander vergleichbar. Modelle können lediglich dahingehend beurteilt werden, ob sie der jeweiligen Frage- oder Problemstellung angemessen sind. Will man die Auswirkungen des geplanten Baus eines neuen Hochhauses auf das Stadtbild am Modell überprüfen, dann ist beispielsweise eine Straßenkarte dafür nicht geeignet. Verschiedene Modelle derselben Ausgangsstruktur verarbeiten und betonen unterschiedliche Informationen, beantworten verschiedene Fragen. Das Ergebnis ist modellabhängig. In der Statistik gibt es unterschiedliche Modelltypen. Es gibt Modelle für Schlüsse von Stichproben auf Grundgesamtheiten; es gibt Modelle, die Beziehungen zwischen Variablen repräsentieren, sowie andere Modelle, die eine Reduktion der vielfältigen Informationen von Daten auf einige wenige besonders „relevante“ Größen bezwecken. Zu den letzteren gehört beispielsweise das arithmetische Mittel: Mit dem arithmetischen Mittel wird die Zahlenvielfalt einer ganzen Reihe einzelner Ausprägungen einer metrischen Variablen auf eine einzige Zahl reduziert (diese Aussage wird später noch zu präzisieren sein). Wendet man nun dieses Modell auf nicht metrische Daten an, dann ist das Ergebnis der Berechnung eines arithmetischen Mittels sinnlos. Man stelle sich vor, man habe in einem Fragebogen die Ja-Antworten auf eine Frage mit der Zahl „1“, die Nein-Antworten mit „0“, Antwortverweigerungen oder ungültige Antworten mit „9“ vercodet. Als „durchschnittliche Antwort“ erhalte man nun über alle Befragten einen Wert von 1,67. Dieser Wert ist natürlich völlig unsinnig, und zwar nicht etwa, weil falsch gerechnet worden wäre, sondern weil ein unangemessenes statistisches Modell (arithmetisches Mittel) angewendet wurde. Methode Modell: Abbild unter bestimmten Gesichtspunkten Entwurf von Modellen für bestimmte Ziele Modelltypen BEISPIEL <?page no="196"?> 197 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 197 In diesem Beispiel ist die Unsinnigkeit unmittelbar einsichtig. In anderen Fällen ist es durchaus nicht immer so offensichtlich, wann Modelle angemessen sind und wann nicht. So führte eine Pressemitteilung des Instituts für Museumskunde, Berlin, wonach im Jahre 1988 über 66 Millionen Museumsbesuche 169 in den Museen der (damaligen) Bundesrepublik und West-Berlins gezählt worden waren, im Kulturteil einer überregionalen Tageszeitung zu der Schlussfolgerung: „Jeder Deutsche ist 1988 mindestens einmal ins Museum gegangen.“ Das ist- - bei Zugrundelegen von über 60 Millionen Einwohnern in der (alten) BRD- - zwar mathematisch richtig gerechnet; alles andere an dieser Schlussfolgerung aber ist falsch: - Erstens wurde dabei die Zahl von 66 Mio. Besuchen auf alle Einwohnerinnen und Einwohner der BRD bezogen, auch auf solche, die keinesfalls „museumsbesuchsfähig“ sind (Säuglinge, ständig Bettlägerige, Inhaftierte etc.). - Zweitens wurde jeder Einwohner der BRD als „Deutscher“ eingestuft (bekanntlich wohnen hier aber auch nicht wenige Ausländer). - Drittens werden (bzw. wurden) Museen in der Bundesrepublik und in Berlin (im damaligen West-Berlin) nicht nur von Einwohnern der (alten) BRD besucht; bei überregional bedeutsamen Ausstellungen dürfte der Anteil von Besuchern aus dem Ausland sogar recht hoch sein. - Viertens schließlich machte sich der Kulturredakteur offenbar keinerlei Gedanken über das „Messobjekt“ und übersah daher völlig, dass es sich bei der Zahl von über 66 Millionen um „Museumsbesuche“ (um Besuchsfälle), nicht um „Besucher“ (um verschiedene Personen) handelte. Diese Oberflächlichkeit führte ihn prompt zu dem-- nun noch unsinnigeren-- weitergehenden Argument, die Zahl belege, dass die öffentlichen Ausgaben für Museen entgegen den Vorhaltungen mancher Kritiker nicht einer Minderheit, sondern allen zugutekämen. Gerade das aber kann diese Zahl nicht belegen; denn selbstverständlich kann eine hohe Zahl von Besuchen dadurch zustande kommen, dass eine geringe Zahl von Personen sehr häufig in Museen gehen. 170 Die Antwort auf die Frage, ob statistische Modelle und auf ihrer Basis berechnete Werte in angemessener Weise benutzt werden, kann niemals die Statistik allein liefern, sondern sie ist in den Eigenschaften des gemessenen Sachverhalts zu suchen. Vor der Entscheidung für ein bestimmtes Modell ist also stets zu prüfen, ob in der Realität die Bedingungen erfüllt sind, die für dessen Anwendung vorausgesetzt werden, bzw.-- falls die Bedingungen nicht in idealer Weise erfüllt sind-- ob gegebene 169 Genauer: 66.377.219; Quelle: Staatliche Museen Preußischer Kulturbesitz (Hg.), 1989: Materialien aus dem Institut für Museumskunde, Heft 28, Berlin, Tab. 19; ausführlicher: Treinen/ Kromrey (1992). 170 Ein anderes Beispiel für eigentlich „sinnlose“ Statistik (vgl. Kapitel 5.4.4) ist die Praxis, das arithmetische Mittel der Abiturnoten für die Entscheidung über die Vergabe von Studienplätzen in Numerus-clausus-Fächern heranzuziehen.-- Für weitere Beispiele vgl. Krämer 1991 (So lügt man mit Statistik) und Beck-Bornholdt/ Dubben 1998 (Der Hund, der Eier legt). Prüfung der Angemessenheit eines Modells <?page no="197"?> 198 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 198 Abweichungen von den Modellannahmen für die jeweilige Fragestellung relativ unerheblich sind, also noch in Kauf genommen werden können. 5.2.2 Ist Soziales „quantifizierbar“? Neben den inhaltlichen Anforderungen im Zusammenhang mit der Auswahl geeigneter statistischer Modelle (Übereinstimmung der Modellstruktur mit der Struktur der Realität) müssen sozialwissenschaftliche Daten gewissen formalen Voraussetzungen genügen, damit statistisch-mathematische Verfahren/ Methoden eingesetzt werden können. So ist häufig zu hören oder zu lesen, Merkmale, auf die sich das statistische Urteil beziehen soll, müssten quantifizierbar sein; Merkmale, die sich nicht quantifizieren ließen, könnten auch nicht statistisch bearbeitet werden. Gibt es denn überhaupt solche Merkmale? Dazu ist zunächst auf begrifflicher Ebene eine Vorklärung nötig. Die empirische Sozialwissenschaft arbeitet-- wie jede Wissenschaft-- mit Begriffen, die bestimmte Sachverhalte oder Objekte sowie Beziehungen zwischen Sachverhalten/ Objekten sprachlich repräsentieren sollen (vgl. Kap. 3.5). Präziser ausgedrückt: Begriffe sind linguistische (sprachliche, schriftliche) Zeichen und zugehörige semantische Regeln (Deutungsregeln; Bedeutungs-Zuordnungsregeln). Diese semantischen Regeln sind entweder implizit (man hat durch Teilhabe an einer Sprachgemeinschaft, an einer gemeinsamen Kultur gelernt, was ein Begriff bedeutet), oder sie werden explizit präzisiert (Begriffsexplikationen, semantische Analyse, Definitionen). Deutungsregeln können von extensionaler Art sein: Die Objekte, die unter den Begriff fallen sollen, werden aufgezählt (z. B. politische Partei =- CDU, SPD, CSU, Bündnis 90/ Die Grünen, Die Linke, FDP, Piraten,-…). Und sie können von intensionaler Art sein: Die Eigenschaften, die den mit dem Begriff zu bezeichnenden Objekten gemeinsam sein sollen, werden angegeben (z. B. politische Partei =-df. jede Organisation mit den Eigenschaften M, dB, W, R; vgl. Kapitel 3.5.3). Klassifikatorische Begriffe Führen wir uns die Extension eines Begriffs wie „politische Partei“ vor Augen, so wird erkennbar, dass der gewählte Begriff eine Einteilung des prinzipiell infrage kommenden Objektbereichs (hier: Organisationen) in solche Objekte erlaubt, die als „politische Partei“ gekennzeichnet sind, und in solche, bei denen dies nicht der Fall ist. Der Begriff führt mit anderen Worten zu einer Zerlegung des Objektbereichs in Teilklassen, die erstens exhaustiv (jedes Objekt gehört in mindestens eine Klasse: nämlich P oder Nicht-P) und zweitens paarweise exklusiv sind (jedes Objekt gehört in höchstens eine Klasse; d. h.- - 1. und 2. zusammengenommen- - in genau eine Klasse). Solche Begriffe, die beobachtbare Objektmengen (lediglich) in Teilmengen zerlegen oder Gibt es nicht quantifizierbare Merkmale? extensionale / intensionale Definition Begriff als Zerlegung des Objektbereichs <?page no="198"?> 199 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 199 anders ausgedrückt in Klassen „gleichartiger“ Objekte einteilen, nennt man klassifikatorische Begriffe. 171 x ist eine politische Partei (oder: nicht politische Partei); x ist autoritär (oder: nicht autoritär); x ist schwarz (oder: nicht schwarz); x interagiert mit y (oder: interagiert nicht); x konkurriert mit y um z (oder: konkurriert nicht). 172 Komparative Begriffe Erlauben Begriffe nicht nur eine Klassifikation der Objektmenge in sich ausschließende Teilklassen (s. o.), sondern implizieren sie zusätzlich noch eine Rangordnung der Teilklassen, also einen Vergleich der Elemente hinsichtlich der Stärke oder Intensität eines Merkmals, dann handelt es sich um komparative Begriffe (oder Ordnungsbegriffe). Schicht: x gehört zur Oberschicht (oder Mittel- oder Unterschicht), x gehört zu einer höheren Schicht als y; Bildung: x hat niedrige Bildung (oder durchschnittliche Bildung oder hohe Bildung), x hat niedrigere Bildung als y; Wärme: x ist warm (oder kalt oder heiß), x ist wärmer als y. Metrische Begriffe Stehen schließlich die Objekte (genauer: die Objektklassen), die von einem Begriff bezeichnet werden, nicht nur in einer eindeutigen Rangordnung, sondern sind zusätzlich noch die Abstände hinsichtlich eines Merkmals angebbar, spricht man von einem metrischen Begriff. Zusätzlich zur Identifizierbarkeit einer Reihenfolge zwischen den Objekten muss also noch eine Maßeinheit verfügbar sein. Länge: x ist soundsoviel km (oder Meilen oder Meter oder inches) lang, x ist um soundsoviel km (Meilen, Meter, inches) länger als y; Einkommen: x hat ein Monatseinkommen von soundsoviel € (oder Dollar oder Rubel), x hat ein um soundsoviel € (Dollar, Rubel) höheres Monatseinkommen als y. Häufig wird nun Quantifizierbarkeit mit der zuletzt genannten Bedingung (Angabe eines Vergleichs-Maßstabs, einer Maßeinheit für ein Merkmal) gleichgesetzt; und daraus wird dann gefolgert, für die Sozialwissenschaften seien quantitative Methoden-- wie sie die Statistik bereitstellt-- nicht angebracht, da es die Sozialwissenschaften selten mit in diesem Sinne quantifizierbaren Merkmalen zu tun hätten. Stattdessen sei „qualitativen Methoden“ der Vorzug zu geben. Diese Auffassung von Quantifizierbarkeit als Voraussetzung für die Anwendung statistisch-mathematischer Verfahren ist jedoch kurzschlüssig; denn so wie es statistische Modelle für metrische Merkmale gibt, so existieren auch solche, die auf komparative oder auf 171 Mit den Funktionen von Begriffen befasste sich der Kapitel 3.5.2. 172 Lies: Das Objekt x (z. B. Egon Müller) konkurriert mit dem Objekt y (z. B. Frieda Meyer) um das Objekt z (z. B. die Abteilungsleitung in der Firma, in der die beiden berufstätig sind). BEISPIELE komparative Begriffe: Rangordnung BEISPIELE anggebbare Abstände: metrische Begriffe BEISPIELE statistische Modelle für verschiedene Merkmale <?page no="199"?> 200 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 200 klassifikatorische Merkmale zugeschnitten sind. Es gibt also „quantitative Verfahren“ für „qualitative Merkmale“. Die Scheinalternative quantitativ versus qualitativ reduziert sich hier auf die Wahl des angemessenen statistischen Modells. Um Missverständnissen vorzubeugen: Diese Argumentation bezieht sich auf die Einsetzbarkeit quantifizierender Auswertungsverfahren als eine sinnvolle Auswertungsmöglichkeit. Davon zu unterscheiden ist die Diskussion um „standardisierte“ versus „qualitative“ Verfahren bei der Informationserhebung und die Debatte zwischen kritisch-rationaler Perspektive (die meist mit standardisierten Instrumenten arbeitet) und der interpretativen Perspektive (die mit unstandardisierten, qualitativen Datenerhebungen arbeitet). 173 Voraussetzung für den Einsatz der Statistik ist jedoch-- statt Quantifizierbarkeit im obigen Sinne-- die Messbarkeit der Merkmale. Es muss natürlich ein für die Sozialwissenschaften geeignetes Messsystem existieren, das es uns ermöglicht, z. B. auch klassifikatorische Merkmale zu „messen“, und das heißt: die durch den Begriff bezeichnete und strukturierte Objektmenge so in eine Menge von Symbolen (im Allgemeinen: Zahlen) abzubilden, dass die Struktur der empirischen Objekte in der Menge der zugeordneten Symbole (Zahlen) erhalten bleibt (Dieses Konzept wird als strukturtreues Messen bzw. Messen als strukturtreue Abbildung bezeichnet; auf den Messbegriff wird in Kapitel 5.3.1 eingegangen; zur Messtheorie siehe Kapitel 5.4). 5.2.3 Statistik und Individualität Manchmal werden gegen die Verwendung statistischer Modelle in den Sozialwissenschaften Argumente vorgebracht wie: a) die Statistik betrachte Menschen oder soziale Organisationen lediglich hinsichtlich einzelner, isolierter Merkmale und zerreiße damit den für das Soziale wesentlichen „ganzheitlichen“ Zusammenhang; und sie rühre b) aus einer Vielzahl von Individuen mit je unterschiedlichen Lebenszusammenhängen einen „Einheitsbrei“ zusammen, in dem der Einzelne in seiner Besonderheit untergehe, so dass das individuell Spezifische verloren gehe. In beiden Argumenten steckt wieder ein wahrer Kern, wenn auch dagegen eingewendet werden kann, dass es a) statistische Modelle gibt, die nicht auf die Analyse isolierter einzelner Variablen beschränkt bleiben, sondern eine größere Zahl von Merkmalen und Zusammenhängen simultan berücksichtigen (multivariate Verfahren, vgl. Kap. 8.4), und dass es b) auch sozialwissenschaftliche Untersuchungsansätze gibt, die die Individualität, das Besondere des einzelnen Falles im Blick behalten (z. B. Einzelfallstudien). Dennoch kann natürlich niemals eine wie auch immer verstandene „Ganzheit“ analysiert werden, sondern jede empirische Untersuchung muss sich auf 173 Vergleiche dazu ausführlicher Kapitel 1.2 und Kapitel 9 sowie die Annotationen zu den einzelnen Kapiteln dieses Buches. strukturtreues Messen multivariate Verfahren: Modell komplexer Einflussbeziehungen <?page no="200"?> 201 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 201 eine begrenzte Zahl von Aspekten der Realität beschränken (vgl. Kapitel 3). Falls durch diese Beschränkung Relevantes oder Wesentliches ausgeblendet wird, ist dafür jedoch nicht die Statistik verantwortlich, sondern dann liegt dies an der Art der Formulierung und Präzisierung der Untersuchungsfragestellung und an deren „Übersetzung“ in ein Forschungsdesign. Statistik ist, ebenso wie andere Möglichkeiten der Informationsgewinnung, an bestimmte Anwendungsvoraussetzungen gebunden, die im Wesentlichen bereits genannt wurden: - Statistische Modelle implizieren im Vergleich zur abgebildeten Realität erhebliche Vereinfachungen und Formalisierungen. Wenn man das Ziel hat, die unübersichtliche Vielfalt der in einer Datenbasis enthaltenen Informationen zu verdichten, Komplexität zu reduzieren, dann geht das eben nur, indem man wesentliche von unwesentlichen Informationen trennt und die wesentlichen Informationen hervorhebt. Was allerdings im gegebenen Zusammenhang „wesentlich“ oder „unwesentlich“ sein soll, lässt sich nur von der Fragestellung der Untersuchung her entscheiden. - Statistische Modelle sind nur auf zähl- und messbare Tatbestände anwendbar. Da aber „Messbarkeit“ nicht mit „Quantifizierbarkeit“ identisch ist (siehe Kapitel 5.2.2), wird es im Wesentlichen eine Frage der Operationalisierung sein, ob und inwieweit damit Einschränkungen ihrer Anwendbarkeit auf soziale Sachverhalte verbunden sind. - Statistische Modelle beziehen sich niemals auf den Einzelfall, sondern immer auf Klassen vergleichbarer Fälle, auf eine irgendwie abgegrenzte „Objektmenge“. „Unter einer Menge verstehen wir eine Gesamtheit gleichartiger Individuen (oder Objekte oder Ereignisse), an denen ein Merkmal oder mehrere Merkmale beobachtet werden. Jedes Individuum heißt Element der Menge“ (Clauss/ Ebner 1975, 15). So könnten z. B. die Schüler der Grundschule in X eine „Menge“ sein. Die Schüler wären dann die Gesamtheit gleichartiger Individuen (gleichartig hinsichtlich der Eigenschaft „Schüler in X“); die Zugehörigkeit zu einer bestimmten Schulklasse, die Körpergröße, die Note im Fach Deutsch usw. wären „beobachtbare Merkmale“; und jeder Schüler wäre „Element“ der definierten Menge. Als „Menge“ können aber auch z. B. Äußerungen oder Handlungen einer einzigen Person (oder Organisation) in einem bestimmten Zeitraum gelten (Einzelfallstudie). Jetzt würde sich die Fragestellung auf beobachtbare (erfahrbare) Merkmale der Menge „Äußerungen der Person P“ oder der Menge „Handlungen der Person P“ beziehen. Besonders zu betonen ist, dass es nur dann sinnvoll und möglich ist, Einzelfälle-- die sich in ihrer spezifischen Kombination von Merkmalsausprägungen jeweils unterscheiden mögen-- zu einer Gesamtheit oder Menge zusammenzufassen, wenn sie nur Anwendungsvoraussetzungen für Statistik angemessene Vereinfachung Messbarkeit Aussagen über Objektmengen Definition: Menge BEISPIEL nur für ausgesuchte Merkmale betrachtet <?page no="201"?> 202 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 202 im Hinblick auf eine begrenzte Zahl von Merkmalen beobachtet werden und alle anderen Merkmale im betrachteten Zusammenhang unberücksichtigt bleiben. Wenn Firmen z. B. nur hinsichtlich ihres Merkmals Beschäftigtenzahl oder Jahresumsatz oder einer Kombination beider Merkmale verglichen werden und alle anderen Merkmale im gegebenen Zusammenhang unberücksichtigt bleiben (etwa Art der produzierten Güter, Standort, Betriebsklima, Rechtsstellung als privatwirtschaftliches oder öffentliches Unternehmen, Mitwirkungsmöglichkeit der Arbeitnehmer an der Unternehmensleitung usw.), dann setzt das voraus, dass Beschäftigtenzahl und Jahresumsatz die für die Untersuchungsfragestellung tatsächlich relevanten Merkmale sind (Frage- oder Problemstellung; vgl. Kapitel 3: Präzisierung des Forschungsproblems und Dimensionsanalyse). Die Statistik selbst ist lediglich Handwerkszeug der Sozialforschung, nicht mehr und nicht weniger; ihre Ergebnisse können niemals besser sein als die Daten, auf die die Statistik angewendet wird. 5.3 Variablenbildung-- Messen-- Datenmatrix 5.3.1 Grundlagen: Messen als strukturtreue Abbildung und Messniveaus Oben wurde bereits der Ausdruck „Messen als strukturtreue Abbildung“ benutzt. Dies ist allerdings nicht die einzige Bedeutung, in der man den Begriff Messen verwendet. So ist in der Alltagssprache damit im Allgemeinen die Vorstellung der Anwendung irgendwelcher Messgeräte oder Messinstrumente verbunden: Zeitmessung durch die Stoppuhr, Gewichtsmessung durch die Waage, Längenmessung mit dem Meterstab, Volumenmessung mit dem Litermaß usw. Messen heißt hier im Wesentlichen: Unbekanntes wird mit normiertem Bekanntem verglichen-- das unbekannte Gewicht eines Gegenstands mit dem bekannten Gewicht eines anderen Gegenstands (etwa Eichgewicht in kg) oder mit der bekannten Ausdehnungsfähigkeit einer Feder (Federwaage). Das Ergebnis solcher Messungen sind Zahlen, die die Ausprägung der gemessenen Eigenschaft symbolisieren (x Sekunden für das Durchlaufen der 100-m-Strecke; x-cm Körpergröße einer Schülerin). Zugleich werden die Verhältnisse zwischen den gemessenen Eigenschaften durch Abstände bzw. Verhältnisse zwischen den Zahlen symbolisiert (etwa die 100-m-Laufzeiten verschiedener Wettkampfteilnehmer, die Körpergrößen verschiedener Schülerinnen). Durchaus ähnlich sind Definitionen für Messen in den Naturwissenschaften. Etwa: Bei der Messung erhalten Zahlen oder allgemeiner Ziffern „die Aufgabe-…, Eigenschaften zu bedeuten“ (Campbell 1952, 110). In solcher Analogie zur Naturwissenschaft wird von einigen Autoren der Begriff „Messen“ auch für die Sozialwissenschaften verwendet, häufig mit der (schon BEISPIEL Messen: Unbekanntes mit Bekanntem vergleichen <?page no="202"?> 203 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 203 erwähnten) ausdrücklichen Feststellung, messbar seien nur solche Eigenschaften, bei denen sich Größenunterschiede oder Unterschiede in der Stärke oder Intensität usw. exakt bestimmen ließen; alles andere seien nicht messbare, nicht quantitative, sondern qualitative Eigenschaften (vgl. Abschn. 5.2.2). Ein solches Verständnis liegt dem hier vertretenen Messbegriff nicht zugrunde. Vielmehr wird Messen in etwa so definiert, wie es der Psychologe Stevens vorgeschlagen hat. Danach geht es beim Messen um „die Zuweisung von Ziffern zu Objekten oder Ereignissen nach Regeln-… Und die Tatsache, dass Ziffern nach unterschiedlichen Regeln zugeordnet werden können, führt zu verschiedenen Arten von Skalen und verschiedenen Messungsarten“ (Stevens 1951, 1). Um Missverständnissen vorzubeugen: Gemessen werden natürlich nicht die „Objekte“, sondern Merkmale (Eigenschaften) von Objekten. Genauer-- und umständlicher-- formuliert müsste es daher heißen: Messen ist „die Zuweisung von Ziffern zu Objekten entsprechend den Ausprägungen der an diesen Objekten betrachteten Merkmale“. Das Messergebnis ist dann die (strukturtreue) symbolische Abbildung der empirischen Merkmalsausprägung. Solche Zuordnungs- oder Abbildungsregeln werden in der axiomatischen Messtheorie entwickelt. Zur Konstruktion einer Theorie des Messens in den Sozialwissenschaften formuliert man zunächst Axiome (=-Sätze, die innerhalb der gleichen Theorie nicht auf andere Sätze zurückführbar sind). Aus diesen Axiomen werden dann die Einzelanforderungen abgeleitet, die zu berücksichtigen sind, um Phänomene der sozialen Realität in einem System von Symbolen strukturtreu abbilden zu können (siehe Kapitel 5.4). Wählt man nun wie üblich für die Symbolisierung einer empirischen Objektmenge eine Teilmenge der reellen Zahlen 174 , dann heißt strukturtreue Abbildung in erster Annäherung nichts weiter, als dass im Falle klassifikatorischer Eigenschaften (vgl. Kapitel 5.2.2) durch die zugeordneten Zahlen lediglich die Gleichheit bzw. Ungleichheit der Objekte hinsichtlich des gemessenen Merkmals repräsentiert wird und sonst nichts, dass bei komparativen Merkmalen nur die Gleichheit/ Ungleichheit sowie die Rangordnung der Objekte durch die zugeordneten Zahlen repräsentiert wird usw. Zwar gelten für die Menge der Zahlen noch zusätzliche Relationen, doch dürfen diese nicht empirisch gedeutet werden. Im Zitat von Stevens (s. o.) wurde bereits angesprochen, dass unterschiedliche Abbildungsvorschriften zu unterschiedlichen „Messskalen“ führen, dass die Messung also, je nach den anwendbaren Zuordnungsregeln, auf unterschiedlichem 174 Damit sind in der Mathematik gemeint: alle rationalen Zahlen (ganze Zahlen und Brüche), ergänzt um die irrationalen Zahlen (Wurzel 2, Wurzel 5 etc., Kreiszahl pi, Eulersche Zahl e). Messen nicht nur-metrische Abbildung Definition: Messen axiomatische Messtheorie Messen als strukturtreue Abbildung <?page no="203"?> 204 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 204 „Niveau“ erfolgen kann. 175 Die eindeutige Bestimmung des realisierten Messniveaus (oder Skalenniveaus) ist wichtig für die Entscheidung, welche statistischen Modelle (vgl. Kapitel 5.2.1) bei gegebenen Daten eingesetzt werden können. Das Messniveau-Konzept wird im Folgenden in erster Annäherung anhand von Beispielen illustriert; eine genauere Herleitung auf der Basis der axiomatischen Messtheorie findet sich in Kapitel 5.4. Von einer Nominalskala (bzw. von nominalem Messniveau) spricht man, wenn von den Beziehungen (Relationen) zwischen den Ziffern der Messskala nur die Gleichheit/ Ungleichheit empirisch interpretiert werden darf. Die Ziffern haben also lediglich die Funktion von Kurzbezeichnungen („Namen“) für die systematisch zu protokollierenden Merkmalsausprägungen. Anstelle von Ziffern könnten daher auch beliebige andere Symbole benutzt werden. Empirischer Objektbereich: Messsystem: a) Klassifikatorisches Merkmal „Konfessionszugehörigkeit“ mit den Ausprägungen römisch-katholisch, evangelisch, jüdisch, übrige Konfessionen, konfessionslos, keine Angabe. Die Merkmalsausprägungen (siehe Kapitel 5.3.2) im empirischen Objektbereich werden durch Ziffern „abgebildet“, wobei lediglich sicherzustellen ist, dass gleichen Merkmalsausprägungen gleiche Ziffern und unterschiedlichen Merkmalsausprägungen unterschiedliche Ziffern zugeordnet werden; z. B. 1, 2, 3, 4, 0, 9. b) Metrisches Merkmal „Alter“, bei dem jedoch lediglich folgende Ausprägungen unterschieden werden: erwerbsfähiges Alter, nicht erwerbsfähiges Alter, keine Angabe. Alter wurde also auf „klassifikatorischer Ebene“ operationalisiert. Abbildung z. B. durch die Ziffern: 1, 0, 9 (oder beliebige andere Ziffern). Im empirischen Objektbereich ist also aufgrund des verwendeten Beschreibungsmerkmals (Fall a) bzw. als Ergebnis der Operationalisierung (Fall b) lediglich die Unterscheidung gleich/ ungleich möglich. Dementsprechend ist auch eine empirische Deutung der Relationen zwischen den Ziffern der Skala, die darüber hinausginge (etwa Rangordnung oder Abstände) auf diesem Messniveau nicht zulässig. Sie hätte mit der „gemessenen“ (d. h. in Ziffern abgebildeten) Realität nichts zu tun, sondern käme nur aufgrund der Überschussbedeutung des verwendeten Symbolsystems zustande. 175 In dem hier benutzten Begriff „Skala“ sind drei Aspekte angesprochen: (1) eine durch die Ausprägungen des interessierenden Merkmals geordnete empirische Menge von Objekten (Merkmalsträger, „empirisches Relativ“), (2) ein für die Abbildung der empirischen Ausprägungen geeignetes System von Symbolen (üblicherweise Zahlen, „numerisches Relativ“), (3) eine Regel, wie diese Abbildung zu erfolgen hat („Zuordnungsvorschrift“). Bestimmung des Messniveaus Nominalskala BEISPIELE <?page no="204"?> 205 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 205 Mag dieses besonders einfache Verfahren des „Messens“ durch (lediglich) Klassifikation der Objekte auf den ersten Blick als besonders unproblematisch erscheinen, so darf doch selbst hierbei ein generelles Problem jeder Überführung empirischer Informationen in Messwerte („Daten“) nicht übersehen werden: Die Daten können eine Eindeutigkeit und Präzision suggerieren, die in der empirischen Realität so nicht existieren. Das gilt nicht nur für Versuche, soziale Sachverhalte metrisch zu messen (siehe das Beispiel der Berufsprestigeskala von Blau/ Duncan in Kap. 4.1). Auch am Beispiel b) in obiger Tabelle ist leicht erkennbar: Die Zuordnung zur Ausprägung „erwerbsfähiges Alter“ ist empirisch alles andere als eindeutig. Falls etwa der Beginn dieser Altersphase mit „Abschluss der schulischen Ausbildung“ definiert würde, begänne sie offenbar für Gymnasiasten später als für Realschüler und für Studierende nochmals später. Ähnliches gilt für jede Definition des Endpunkts dieser Lebensphase. Den späteren „Messwerten“ jedoch sieht man diese Unbestimmtheit der Grenzziehung nicht mehr an. Eine Ordinalskala (ordinales Messniveau) liegt vor, wenn von den Beziehungen zwischen den Zahlen der Messskala neben der Gleichheit/ Ungleichheit auch die Rangordnung (größer/ kleiner) empirisch interpretiert werden darf. Empirischer Objektbereich: Messsystem: a) Komparatives Merkmal „formale Bildungsqualifikation“ (=-höchster Schulabschluss) mit Ausprägungen: Hauptschulabschluss (oder vergleichbar), Hauptschule plus Berufsausbildung, Mittlere Reife (oder vergleichbar), Abitur, Fachhochschulabschluss (oder vergleichbar), Universitätsabschluss; kein Abschluss (trotz beendeter Schulzeit); noch in Schulausbildung, keine Angabe. Für die Abbildung der empirischen Merkmalsausprägungen durch Zahlen muss gelten: Gleiche Merkmalsausprägungen erhalten gleiche Zahlen, geringere Merkmalsausprägungen erhalten niedrigere und höhere Merkmalsausprägungen erhalten höhere Zahlenwerte zugeordnet; z. B. 1, 2, 3, 4, 5, 6; 0; 8, 9. Die beiden Fälle, in denen zum höchsten Schulabschluss keine Information vorhanden ist, werden gesondert gekennzeichnet (hier mit den außerhalb des bisherigen Wertebereichs liegenden Ziffern 8 und 9); entsprechend müssen sie auch bei der Datenanalyse gesondert behandelt werden. 176 b) Metrisches Merkmal „Alter“, bei dem jedoch lediglich folgende Ausprägungen unterschieden werden: bis 6 Jahre, über 6 bis 14 Jahre, über 14 bis 20 Jahre, über 20 bis 35 Jahre, über 35 bis 50 Jahre, über 50 bis 65 Jahre, über 65 Jahre. Abbildung z. B. durch die Zahlen: 1, 2, 3, 4, 5, 6, 7 (oder andere Zahlen, sofern die Rangordnung gewahrt bleibt). 176 Sie stellen für die interessierende Merkmalsdimension keine (ordinalskalierten) Messwerte dar, sondern sind lediglich Angaben darüber, warum hier kein Messergebnis vorliegt (vgl. Kapitel 5.3.3). Ordinalskala BEISPIELE <?page no="205"?> 206 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 206 Im empirischen Objektbereich sind aufgrund des verwendeten Beschreibungsmerkmals (a) bzw. als Ergebnis der Operationalisierung (b) die gemessenen „Objekte“ nur hinsichtlich ihrer Gleichheit/ Ungleichheit sowie hinsichtlich ihrer Rangordnung zueinander einschätzbar (etwa: A hat höhere Bildung als B, oder: A ist jünger als B). Dementsprechend darf auch die empirische Deutung der Relationen zwischen den Zahlen der Skala nicht darüber hinausgehen. Eine Intervallskala ist gegeben, wenn von den Beziehungen zwischen den Zahlen der Messskala auch die Abstände empirisch interpretierbar sind. Empirischer Objektbereich: Messsystem: Metrisches Merkmal „Temperatur“, betrachtet in Bezug auf die Fixpunkte: Gefrierpunkt und Siedepunkt des Wassers; der damit abgegrenzte Temperaturbereich wird eingeteilt in 100 gleichgroße Abschnitte. Zuordnung von Zahlen mit Hilfe des Messinstruments Thermometer, eingeteilt in Celsius-Grade: --273,16 (°C) bis-+… (°C). Von einer Ratioskala (Verhältnisskala) schließlich spricht man, wenn zusätzlich noch der Nullpunkt der Messskala eine empirische Bedeutung hat und wenn dementsprechend auch die Größenverhältnisse zwischen den Zahlen (engl.: ratio) als Verhältnisse zwischen den Merkmalsausprägungen interpretiert werden dürfen. Zum Beispiel bedeuten dann doppelt so hohe Zahlenwerte der Skala eine doppelt so hohe (intensive, starke) Merkmalsausprägung. Der Nullpunkt der Skala hat dann „empirische Bedeutung“, wenn gilt: Dem Skalenwert 0 entspricht in der Realität der gemessenen Merkmalsdimension der Zustand „nicht mehr existent“. Ein Messwert „0 €“ für das Merkmal Einkommen heißt also: „überhaupt kein Einkommen“. Im Falle der Temperaturmessung auf der Celsius-Skala (siehe Beispiel zur Intervallskala) bedeutet dagegen ein Messwert „0 Grad Celsius“ nicht: „überhaupt keine Temperatur“. Auch Werten im negativen Celsius-Skalen-Bereich entsprechen ja noch „Temperaturen“. Der Nullpunkt hat hier keine „empirische Bedeutung“; vielmehr ist mit den Bezugspunkten 0 und 100 der Celsius-Skala lediglich unter pragmatischen Gesichtspunkten ein relativ willkürlicher Ausschnitt aus dem gesamten Temperaturbereich gewählt worden. Die Celsius-Skala misst also nicht auf Ratioskalen-Niveau. Dagegen gilt bei Geldbeträgen, dass 0 € wirklich kein einziges Geldstück ist, Geld also nicht vorhanden ist. Intervallskala BEISPIEL <?page no="206"?> 207 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 207 Empirischer Objektbereich: Messsystem: a) Metrisches Merkmal „Nettomonatseinkommen“. 0 bis-… (Angabe in €, Dollar, Schweizer Franken, Rubel etc.) b) Metrisches Merkmal „Temperatur“, betrachtet mit Bezug auf einen Punkt, an dem das Konstrukt Temperatur aufhört zu existieren (s. u.). 0 bis-… (Zuordnung von Zahlen mit Hilfe eines Temperaturmessgeräts und Angabe in Grad Kelvin). Erst im Falle der Ratioskala ist also-- s. o.-- die Zahl Null der Messskala interpretierbar als: „eine (positive oder negative) Ausprägung des Merkmals ist nicht vorhanden“. Die Kelvin-Skala fußt im Unterschied zur Celsius-Skala auf einer physikalischen Definition des Begriffs „Temperatur“ 177 und setzt als Skalen-Nullpunkt den physikalischen Zustand fest, an dem „keine Temperatur“ (=- keine Bewegungsenergie) mehr feststellbar ist (=-„absoluter Nullpunkt“). „Messen“-- im hier gemeinten Sinn als strukturtreue Abbildung-- ist also die Zuordnung von Symbolen zu Sachverhalten, wobei den zu berücksichtigenden Unterschieden in den Sachverhalten auch Unterschiede in den Symbolen entsprechen müssen und wobei den Beziehungen zwischen Sachverhalten auch Beziehungen zwischen den Symbolen entsprechen müssen. Damit sind drei Festlegungen erforderlich und zu begründen: - Welche Unterschiede in den Sachverhalten sollen berücksichtigt werden? Dieser Punkt wird im nächsten Abschnitt („Variablenkonstruktion“) behandelt. - Welches ist die Maßeinheit? Oder, was meist dasselbe bedeutet, mit welchem Instrument wird gemessen? Hiermit werden sich insbesondere die Kapitel zu den empirischen Erhebungsinstrumenten befassen. Aber auch Probleme der Skalen- und Indexbildung sind angesprochen. - Nach welchen Regeln werden welche Symbole den Eigenschaften zugeordnet? Zu diesem Punkt gehört praktisch alles, was unter das Stichwort „Operationalisierung“ fällt (etwa Indikatorenfestlegung, aber auch Protokollierung der Beobachtungsdaten); gemeint sind damit aber auch die Regeln der angewendeten Messtheorie (Kapitel 5.4). Alles in allem dürfte sichtbar geworden sein, dass ein soziologischer Messbegriff nicht losgelöst vom gesamten sozialwissenschaftlichen Forschungsprozess gebildet werden kann; praktisch ist (bei standardisiert verfahrender Forschung) die ganze empirische Untersuchung als das sozialwissenschaftliche Messinstrument anzusehen. Insbesondere ist-- sofern man diese Perspektive wählt-- zu bedenken, dass bei einer auf theoretische Begriffe bezogenen Messung immer eine doppelte Abbildung vorgenommen werden 177 Laut dtv-Lexikon: „Maß für den Wärmezustand eines Körpers, proportional der mittleren Bewegungsenergie eines völlig ungeordnet bewegten Gasatoms“. BEISPIELE Unterschiede in-Sachverhalten entsprechen Unterschieden in-Symbolen erforderliche Festlegungen Messen als doppelte Abbildung <?page no="207"?> 208 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 208 muss: Auf der ersten Stufe sind zur empirischen Interpretation des theoretischen Begriffs Indikatoren zu bestimmen und durch Korrespondenzregeln mit dem theoretischen Begriff zu verknüpfen (vgl. Kapitel 4.3). Auf der zweiten Stufe-- der Messung im engeren Sinne-- ist das Verfahren anzugeben, durch das die beobachteten Ausprägungen der Indikatoren in das Zahlensystem abgebildet werden. Bei der Beurteilung, welche Relationen zwischen den Zahlenwerten der Skala empirisch interpretierbar sind- - welche statistischen Maßzahlen z. B. auf die theoretische Ebene „rückübersetzt“ werden dürfen--, ist die Berücksichtigung beider Stufen der Operationalisierung obligatorisch (für Beispiele vgl. Kriz 1981, 120 ff.). Eine illustrative Veranschaulichung der bei Messvorgängen zu beachtenden Zusammenhänge zwischen Objekt- und Symbolbereich sowie zwischen Mess- und Interpretationsebene leistet die folgende Darstellung (entnommen aus Wolf 1989, 168; siehe auch Wolf 1994): 5.3.2 Variablenkonstruktion Der Begriff Variable ist schon mehrfach vorgekommen; er ist allerdings- - in der Hoffnung, dass das alltagssprachliche Verständnis zunächst ausreicht-- bisher undefiniert geblieben. Für die folgenden Ausführungen ist jedoch eine semantische Klärung erforderlich, da der Terminus in unterschiedlichen Zusammenhängen in erheblich verschiedener Bedeutung verwendet wird. So ist beispielsweise „Variable“ in der Logik ein Zeichen (eine Leerstelle), für das andere Zeichen (Begriffe, Namen) eingesetzt werden dürfen. Und im Zusammen- 1. Abbildung: Indikatoren und Korrespondenzregeln 2. Abbildung: Messverfahren Messebene Messinstrumente liefern a) unmittelbar b) mittelbar (Kodierung) Welche dieser Interpretationen haben im Objektbereich eine empirische Bedeutung? Objektbereich Objekte Variablen Ausprä gungen Zahlenbereich Messwerte (= Zahlen) Interpretationsebene Zahlen lassen sich im Sinne von - Gleichheit - Ordnung - Vielfachheit interpretieren Quelle: nach Wolf 1989, 168. Abbildung 5.1: Messvorgang im-Überblick <?page no="208"?> 209 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 209 hang mit sozialwissenschaftlichen Theorien sind mit „Variablen“ häufig die in Hypothesen verwendeten allgemeinen, theoretischen Begriffe gemeint, im Unterschied etwa zu Indikatoren. So ist „Alter einer Person“ in diesem Sinne keine (soziologische) Variable, sondern allenfalls ein Indikator z. B. für die theoretisch interessierende Eigenschaft „Lebenserfahrung“ (die Variable wäre in diesem Falle „Lebenserfahrung“, ein möglicher Indikator dafür wäre „Lebensalter“). In der Statistik dagegen wird der Begriff rein formal als Merkmal verwendet, das im Unterschied zur Konstanten mehrere Ausprägungen (mehrere unterscheidbare Zustände hinsichtlich der interessierenden Eigenschaft) annehmen kann, das also Variation aufweist. Wenn in diesem Text bisher von „Variable“ die Rede war, dann (entweder) aus methodologischer Perspektive: Unter einer Variablen wird das Resultat der Operationalisierung eines präzise definierten Begriffs verstanden. Oder (wie in der Statistik): Variablen sind begrifflich definierte Merkmale (Eigenschaften) von Objekten, die mehrere Ausprägungen annehmen können. Erinnert sei auch an die Argumentation im Zusammenhang mit der „dimensionalen Analyse“: Untersuchungsobjekte können niemals in ihrer Gesamtheit empirisch erfasst werden; sie lassen sich immer nur im Hinblick auf bestimmte, für die Fragestellung relevante Eigenschaften beschreiben (bei Personen etwa Nationalität, Alter, Schulbildung, Beruf, Einkommen). Solche Eigenschaften sind nun nicht etwas Punktuelles, sondern sie bezeichnen-- wie wir es genannt haben-- Dimensionen. Mit „Alter“ ist allgemein nicht eine bestimmte Zahl von Jahren, Monaten und Tagen gemeint, sondern die Gesamtheit aller möglichen Alterszustände, unabhängig zunächst davon, ob wir Altersunterschiede in Jahren oder in Monaten oder in Tagen feststellen möchten. Die Zwischenstation unserer Überlegungen ist also jetzt: eine Reihe von Untersuchungsobjekten und eine Reihe von (mit Begriffen bezeichneten) Eigenschafts- oder Merkmalsdimensionen, die wir „messen“ wollen. Damit sind wir aber noch nicht bei „Variablen“ im statistischen Sinne. Was wir bei den Untersuchungseinheiten-- z. B. Personen-- messen, d. h. beobachten oder sonst wie feststellen können, ist nämlich nicht „die Eigenschaftsdimension“, sondern eine einzige, eine ganz spezifische „Ausprägung“ dieser Eigenschaft je Person (je Untersuchungseinheit). So möge z. B. ein Befragter die Merkmalsausprägungen „Italiener“ auf der Dimension Nationalität, „24 Jahre alt“ auf der Dimension Alter, „Hochschulreife“ auf der Dimension Schulbildung, „Facharbeiter“ auf der Dimension Beruf, „2800 €“ auf der Dimension Nettomonatseinkommen aufweisen. Die Ausprägung ist also die konkrete Eigenschaft eines Objektes auf einer Dimension. Die feststellbaren „Ausprägungen“ können die unterschiedlichen Auftretenszustände der interessierenden Eigenschaftsdimensionen je nach begrifflicher Strukturierung und Operationalisierung differenzierter oder gröber nachzeichnen: Die Dimension Nationalität könnte etwa nur hinsichtlich der beiden Ausprägungen „Deutscher“ und „Ausländer“ interessieren, die Dimension Alter könnte differenzierter (etwa in Jahren und Monaten) oder weniger differenziert (etwa: unter 18 J., 18 bis unter 35 J., 35 bis unter 50 J., 50 bis unter 65 J., 65 J. und älter) festgehalten werden. unterschiedliche Verständnisse von-„Variable“ Dimensionen: Gesamtheit möglicher Zustände Ausprägungen <?page no="209"?> 210 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 210 Kommen wir nach diesen Vorüberlegungen zurück zum Begriff der Variablen, der jetzt für unsere Zwecke wie folgt definiert werden kann: Eine Variable ist eine Merkmalsbzw. Eigenschaftsdimension, die mit einem Begriff bezeichnet wird und mehrere Ausprägungen annehmen kann, soll Variable heißen. Oder kürzer: Variable =-Begriff + (mindestens zwei) Ausprägungen. Begriffe mit nur einer einzigen möglichen Ausprägung sind dementsprechend Konstanten (sie haben keine Variation). Variablen können im Prinzip eine Vielzahl möglicher Werte annehmen. Die Anzahl der möglichen Werte (Ausprägungen) hängt dabei nicht in erster Linie von dem Objekt ab, das mit der Variablen beschrieben werden soll, sondern vor allem von der Differenziertheit der begrifflichen Strukturierung und von der Methode der Datengewinnung. Häufig wird zwischen quantitativen und qualitativen Variablen unterschieden: quantitativ, wenn die Variable mathematisch interpretierbare Zahlenwerte annimmt; qualitativ, wenn die Variable als Ausprägung entweder verbale Bezeichnungen oder Buchstaben aufweist, bzw. wenn bei zugeordneten Zahlen nicht deren mathematische Relationen interpretiert werden dürfen. Obwohl diese Unterscheidung auf den ersten Blick einleuchtend scheint, sagt sie- - anders als die Unterscheidung zwischen klassifikatorischen, komparativen und metrischen Begriffen- - kaum etwas über Unterschiedlichkeiten der empirischen Objekte und der Merkmalsdimensionen aus. Vielmehr ist sie hauptsächlich eine Funktion der begrifflichen Strukturierung und Operationalisierung sowie der Qualität der angewendeten Messverfahren: z. B. Alter in Jahren =- quantitativ; Alter in den Ausprägungen jugendlich-erwachsen-alt =-qualitativ. Oder: Haarfarbe in den Ausprägungen blond-braun-schwarz-rot usw. =-qualitativ; Haarfarbe gemessen über die Wellenlänge des reflektierten Lichts =-quantitativ (vgl. Kapitel 5.3.1). Welche Ausprägungen unterschieden, wie differenziert Merkmalsunterschiede beschrieben werden sollen, hängt außer von der zu beschreibenden Merkmalsdimension und von der Art des zur Verfügung stehenden Messinstruments auch von der Differenziertheit der Fragestellung ab, die der Untersuchung zugrunde liegt. Wir haben es hier mit einer weiteren wichtigen Entscheidung im Forschungsprozess zu tun: Wie differenziert sollen Unterschiede im zu untersuchenden Gegenstandsbereich durch Messungen abgebildet werden? Genügt für die symbolische Repräsentation etwa des Begriffs „soziale Schicht“ eine Variable, die lediglich zwischen Ober-, Mittel- und Unterschicht unterscheidet? Reicht eine Variable „Temperatur“, die nur die Ausprägungen heiß, lauwarm und kalt aufweist? Die Beantwortung solcher Fragen hat entscheidende Konsequenzen für die zu erzielenden Forschungsergebnisse; und: Solche Fragen sind nicht ohne Bezug zur Problemstellung der Untersuchung zu entscheiden. Soll etwa das Verhalten von Wasser in Abhängigkeit von der Temperatur untersucht werden, dann wird eine Temperatureinteilung in heiß, lauwarm und kalt überhaupt nichts nützen; denn die für die Definition: Variable mögliche Ausprägungen als Festlegung qualitative und quantitative Variablen Ergebnis des Messverfahrens gemessene Ausprägung ist Entscheidung im Forschungsprozess folgenreiche Entscheidung <?page no="210"?> 211 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 211 Untersuchungsfrage wichtigen Temperaturpunkte 0 Grad Celsius (Gefrierpunkt, Übergang in die Zustandsform Eis) und 100 Grad Celsius (Siedepunkt, Übergang in die Zustandsform Dampf ) können von dieser Skala nicht dargestellt werden: Temperaturen unterhalb sowie oberhalb des Gefrierpunkts sind „kalt“, Temperaturen unterhalb und oberhalb des Siedepunkts sind „heiß“. Eine Variable „Temperatur“ mit den Ausprägungen kalt-- lauwarm-- heiß würde verhindern, dass wir die interessierende Fragestellung überhaupt untersuchen können. Als eine Gefahr bei der Variablenkonstruktion bleibt also festzuhalten: Die Variable ist möglicherweise nicht differenziert genug, um wichtige Unterschiede des Untersuchungsgegenstands abzubilden. Eine andere Gefahr bei der Variablenkonstruktion kann in der entgegengesetzten Tendenz liegen, dass mit der Variablen möglicherweise nur scheinbare Unterschiede des Untersuchungsgegenstandes abgebildet werden, Unterschiede, die lediglich ein Produkt des Messverfahrens sind, aber keine Entsprechung in der Realität haben (=-Messartefakte). Als Beispiel hierfür sei auf die Berufsprestige-Skala von Blau und Duncan (1967) zurückverwiesen (vgl. Kapitel 4.1). Aufgrund von Regressionsanalysen aus Daten verschiedener Befragungen konstruierten die Autoren einen Prestige-Index, der Werte von 0 bis 96 Punkte annehmen kann und ganz unten z. B. Hilfskräfte und Arbeiter in Kohlengruben, ganz oben z. B. Architekten, Richter, Chirurgen einordnet. Mit diesem Messinstrument wird eine Präzision und Widerspruchslosigkeit der Ordnung von Berufen auf einer Prestige-Skala sowie eine Genauigkeit der Unterscheidbarkeit von gesellschaftlichem Prestige aller Berufe suggeriert, die in dieser Form kaum eine Entsprechung im empirischen Gegenstandsbereich (im Bewusstsein der Befragten) haben dürfte. Die scheinbar präzise Unterscheidbarkeit des gesellschaftlichen Prestiges von Berufen ist nichts anderes als ein Produkt der Anwendung des statistischen Modells Regressionsanalyse, das im Rahmen der Modellvoraussetzungen, d. h. unter der Voraussetzung der Gültigkeit der Modellannahmen, eben immer rechnerisch eindeutige und präzise Resultate liefert (siehe dazu in Kapitel 5.3.1/ Nominalskala die Anmerkung zum Beispiel „erwerbsfähiges Alter“). 5.3.3 Die Datenmatrix; Prinzipien der Datensammlung Um sozialwissenschaftliche Hypothesen unter Verwendung statistischer Modelle überprüfen oder um einen Gegenstandsbereich in übersichtlicher Weise mit Hilfe statistischer Kennziffern beschreiben zu können, benötigt man „Daten“ über den empirischen Gegenstandsbereich (=- standardisiert erhobene Messwerte). Für die elektronische Datenverarbeitung müssen diese nach einem bestimmten Schema geordnet werden („Datenmatrix“). Bis zur Gewinnung von Daten sind, ausgehend von der Forschungsfragestellung, eine Reihe von Schritten zu durchlaufen: a) Bereits behandelt wurden die Aufgaben: Präzisierung des Forschungsproblems, gedankliche Strukturierung des Gegenstandsbereichs (dimensionale Analyse, semantische Analyse, Begriffsbildung); Operationalisierung der definierten Be- Gefahr der Variablenkonstruktion: zu geringe Differenzierung Gefahr der Variablenkonstruktion: zu starke Differenzierung Daten: standardisiert erhobene Messwerte Rückblick: Schritte zur Datengewinnung Präzisierung und Operationalisierung <?page no="211"?> 212 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 212 griffe (Festlegung der Forschungs- und Messoperationen, Entscheidung über die Differenziertheit der zu sammelnden Informationen =-Variablenkonstruktion). b) Die Objekte, an denen die Untersuchung vorgenommen werden soll, sind zu definieren („Untersuchungseinheiten“, z. B. Personen oder Haushalte oder Gemeinden oder Organisationen oder Wahlbezirke oder Zeitungsartikel oder Beobachtungssituationen) und auszuwählen (siehe dazu Kapitel 6: Auswahlverfahren). c) Für die ausgewählten Untersuchungseinheiten sind die gewünschten Informationen empirisch zu ermitteln („Feldarbeit“; z. B. sind die ausgewählten Personen oder Haushalte anhand eines standardisierten Interviewbogens zu befragen). Jeder dieser Schritte impliziert (das sei noch einmal ins Gedächtnis gerufen) theoretische Annahmen über den zu untersuchenden Gegenstandsbereich, die ihrerseits in der Untersuchung nicht geprüft werden können. So sind theoretische Annahmen über den Untersuchungsgegenstand notwendig, um a) die „relevanten“ Dimensionen zu bestimmen, die „richtigen“ Indikatoren auszuwählen, den Grad an Differenziertheit für die zu beobachtenden Merkmalsunterschiede „in geeigneter Weise“ festzulegen (Variablenkonstruktion), um b) die Untersuchungseinheiten zutreffend zu definieren und auszuwählen, um c) die „geeigneten“ Datenerhebungsinstrumente zu entwickeln und anzuwenden. Daten über die (soziale) Wirklichkeit kommen also immer nur unter Zuhilfenahme von Theorien verschiedenster Art zustande. Was ist nun präzise mit Daten gemeint? Die bisherige Argumentation war bis zu den Problemen der Variablenkonstruktion vorgedrungen (als „Variable“ wurde eine mit einem präzise definierten Begriff bezeichnete Eigenschaftsdimension von Untersuchungsobjekten verstanden, für die zusätzlich die möglichen Ausprägungen festgelegt worden sind). Mit der definitorischen Konstruktion von Variablen hat man jedoch noch keine Daten. Auch die Antworten von Befragten auf Fragen in einem Interview oder die akustischen oder visuellen Wahrnehmungen eines Beobachters in einer Beobachtungssituation sind noch keine Daten. Daten sind vielmehr erst die vom Interviewer protokollierten Antworten bzw. die Eintragungen des Beobachters im Beobachtungsbogen. „Die auf der Grundlage begrifflicher Strukturierungen gemachten Beobachtungen von manifesten Eigenschaften werden zu Daten über ein Untersuchungsobjekt erst dadurch, dass sie in standardisierter Form registriert werden“ (Mayntz/ Holm/ Hübner 1971, 34). Daten sind also die in geeigneter Form festgehaltene und abrufbare symbolische Repräsentation der bei den Untersuchungseinheiten beobachteten Merkmale. Obwohl der empirische Sozialforscher es entsprechend der Unterschiedlichkeit möglicher Forschungsfragestellungen mit den unterschiedlichsten Arten von Daten zu tun haben kann, besitzen diese eine vergleichbare formale Struktur (Galtung 1967, 9 ff.): a) Die erhobenen Daten beziehen sich auf Untersuchungseinheiten (UE). Die Untersuchungseinheiten sind diejenigen „Objekte“ (im weitesten Sinne), auf die sich Auswahl Informationssammlung (Feldarbeit) Definition: Daten formale Struktur von Daten Untersuchungseinheiten <?page no="212"?> 213 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 213 die untersuchungsleitenden oder zu prüfenden Hypothesen richten. Anders ausgedrückt: Untersuchungseinheiten sind diejenigen Objekte, für die die Messwerte gelten sollen. b) Die Daten beschreiben die Untersuchungseinheiten nicht in ihrer gesamten Komplexität, in ihrer „Ganzheit“, sondern lediglich im Hinblick auf ausgewählte Merkmale bzw. genauer: auf Variablen (X). c) Beobachtet werden auf den interessierenden Merkmalsdimensionen die jeweiligen „Ausprägungen“ für die Untersuchungseinheiten, also die Variablenwerte oder Variablenausprägungen (x). Durch die spezifischen Ausprägungen (c) je Untersuchungseinheit auf allen interessierenden Eigenschafts- oder Merkmalsdimensionen (b) wird die Untersuchungseinheit (a) „datenmäßig“ charakterisiert. Man kann sich jede Untersuchungseinheit als Punkt in einem m-dimensionalen Koordinatensystem vorstellen (man spricht in diesem Zusammenhang von Merkmalsraum): Variablen Variablenausprägungen Die Punkte repräsentieren Untersuchungseinheiten; beispielsweise ist die mit 1) gekennzeichnete Untersuchungseinheit charakterisiert durch die Merkmalskombination: Alter 45 Jahre, Einkommen 2000 €). 1) 2500 2000 1500 500 1000 Einkommen (€) Alter (Jahre) 60 45 30 15 75 0 Abbildung 5.2: Beispiel eines 2-dimensionalen Merkmalsraums (Alter und Einkommen). Eigene Abbildung. Die Untersuchungseinheit UE 1 wird charakterisiert durch die Merkmalskombination: Alter 45 Jahre -A 1 -, Einkommen 2000 € -E 1 - und Bildung Mittlere Reife -B 1 -) UE 1 (E 1 , B 1 , A 1 ) St. Ab MR HS 2000 E 1 2500 1500 500 1000 Bildung B 1 E 1 A 1 B 1 A 1 Alter (Jahre) 60 45 30 15 75 0                         Einkommen (€) Abbildung 5.3: Beispiel eines 3-dimensionalen Merkmalsraums (Alter, Einkommen, Bildung). Eigene Abbildung. <?page no="213"?> 214 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 214 Schon bei nur vier Merkmalsdimensionen lässt sich der Ort der einzelnen Untersuchungseinheiten im (vierdimensionalen) Merkmalsraum grafisch nicht mehr veranschaulichen. Für die symbolische Darstellung wird deshalb die Form einer Datenmatrix gewählt. Diese erhält man dadurch, dass a) die protokollierten Variablenwerte (Messwerte) für jede Untersuchungseinheit in einer festgelegten Reihenfolge in einer Zeile notiert werden (=-Datenvektor) und b) jede Untersuchungseinheit durch einen solchen Datenvektor repräsentiert wird. Beispiel einer Datenmatrix (formale Struktur): X 1 X 2 ……… X j ……… X m (Variablenliste) UE 1 UE 2 . . . . UE i . . . . UE n x 11 x 21 . . . . x i1 . . . . x n1 x 12 x 22 . . . . x i2 . . . . x n2 ……… ……… . . . . ……… . . . . ……… x 1j x 2j . . . . x ij . . . . x nj ……… ……… . . . . ……… . . . . ……… x 1m x 2m . . . . x im . . . . x nm (Variablenwerte, Daten) In diesem Schema ist x ij z. B. die in standardisierter Form protokollierte Antwort des Befragten Nr. i auf die Frage Nr. j; allgemeiner: x ij =-der Wert für Untersuchungseinheit i auf der Variablen j. Die Struktur der Datenmatrix ist identisch mit einer großen Tabelle: Jeder Untersuchungseinheit entspricht eine Zeile in der Tabelle, und jedem Variablenwert entspricht ein fester Platz innerhalb dieser Zeile (z. B. Identifikations-Nr. =- Spalte 1; Nationalität =-Spalte 2; Alter =-Spalte 3; -…; Einkommen der/ des Befragten =-Spalte 9 usw.). Datenmatrix BEISPIEL Struktur der Datenmatrix <?page no="214"?> 215 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 215 Beispiel: Auszug aus einer so strukturierten, mit empirischen Daten gefüllten Matrix (z. B. ist die Datentabelle in einem Tabellenkalkulationsprogramm so aufgebaut): IdNr Nation Alter Geschl FamStd Bildung BerufB BerufP EinkB EinkHh 1710 6 20 2 1 1 1 88 850 850 1711 3 27 1 2 2 98 9 0 3200 1712 1 36 2 2 4 5 4 1600 2900 1713 1 18 2 1 5 2 88 1300 1300 1714 5 42 1 3 3 4 88 1300 1450 1715 2 24 2 1 2 1 88 890 890 1716 1 60 1 2 2 98 12 0 7600 1717 4 28 2 1 3 11 88 2600 2600 1718 1 62 2 2 6 12 98 12800 12800 1719 1 27 1 1 4 8 88 2400 2400 1720 6 48 2 2 2 1 1 940 1820 1721 3 32 1 2 2 1 2 910 2450 1722 1 54 2 3 7 6 88 2700 2700 1723 1 33 2 2 2 4 7 1600 3300 1724 5 99 1 2 2 1 2 720 1890 1725 2 27 1 1 2 11 88 2330 2330 1726 1 64 2 2 5 3 98 2800 2800 1727 4 41 2 2 9 10 8 4100 6600 1728 1 19 1 1 2 4 88 1200 1200 1729 1 18 2 1 5 2 88 1300 1300 1730 5 42 1 3 3 4 88 1300 1450 1731 1 54 2 3 7 6 8 2700 2700 1732 1 62 2 2 6 12 98 12800 12800 1733 4 28 2 1 3 11 5 2600 2600 1734 7 56 2 2 3 99 99 99999 99999 1735 6 48 2 2 2 1 1 940 1820 1736 3 32 1 2 2 1 2 910 2450 1737 1 33 2 2 2 4 7 1600 3300 1738 5 99 1 2 2 1 2 720 1890 <?page no="215"?> 216 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 216 Codeplan (zur Datenmatrix auf der vorigen Seite) Variablenkurzbezeichnung Bedeutung Variablenausprägungen vorgesehene Spalten-Nr. IDNr Identifikationsnummer der/ des Befragten lfd. Nr. 1 Nation Nationalität der/ des Befragten 1-- Deutsche 2-- Griechen 3-- Italiener 4-- Schweizer 5-- Spanier 6-- Türken 7-- Sonstige 9-- keine Angabe 2 Alter Alter der/ des Befragten Jahre (aufbzw. abgerundet) 98-- Alter 98 u. mehr Jahre 99-- keine Angabe 3 Geschl Geschlecht 1-- weiblich 2-- männlich 9-- keine Angabe 4 FamStd Familienstand 1-- ledig 2-- verheiratet 3-- verwitwet, geschieden 9-- keine Angabe 5 Bildung Schulabschluss der/ des Befragten 1-- kein Abschluss 2-- Pflichtschule 3-- weiterführende Schule 4-- Hochschulreife 5-- Berufsschule 6-- Fachbzw. Fachhochschule 7-- Universität 9-- keine Angabe 6 BerufB Berufsposition der/ des Befragten 1-- un- oder angelernter Arbeiter 2-- Facharbeiter 3-- Meister 4-- unterer Angestellter 5-- mittlerer Angestellter 6-- leitender Angestellter 7-- Beamter (einf./ mittl. Dienst) 8-- Beamter (gehobener Dienst) 9-- Beamter (höherer Dienst) 10-- Freiberufler 11-- Selbstständiger (Kleinbetrieb) 12-- Selbstständiger (Mittel- oder Großbetrieb) 13-- Landwirt 98-- nicht berufstätig 99-- keine Angabe 7 BerufP Berufsposition des Lebenspartners wie bei BerufB, außerdem: 88-- entfällt, da allein lebend 8 EinkB Netto-Monatseinkommen der/ des Befragten €-Beträge 99999-- keine Angabe 9 EinkHh Netto-Haushaltseinkommen wie bei EinkB 10 <?page no="216"?> 217 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 217 Aus einer anderen Perspektive präsentiert sich die Datenmatrix als die Menge möglicher Kombinationen (UE i , X j ) mit der zusätzlichen Bedingung, dass für die Variable X j aus der Anzahl ihrer möglichen Ausprägungen jeweils nur der für die Untersuchungseinheit UE i zutreffende Wert eingesetzt wird. Mit anderen Worten: Die einfache Idee ist, dass für jede Kombination (UE i , X j ) genau ein Wert gefunden werden soll. Aus dieser Definition und aus der Struktur der Datenmatrix lassen sich drei wichtige Prinzipien der Datensammlung herauslesen (Galtung 1967, 11 ff.): 1. das Prinzip der Vergleichbarkeit (principle of comparability), 2. das Prinzip der Klassifizierbarkeit (principle of classification), 3. das Prinzip der Vollständigkeit (principle of completeness). Das Prinzip der Vergleichbarkeit besagt erstens, dass die Untersuchungsbedingungen für alle UE i gleich sein müssen (z. B. sind allen Befragten die gleichen Fragen in der gleichen Reihenfolge zu stellen; oder beim Experiment: alle Untersuchungsobjekte sind den gleichen experimentellen Stimuli auszusetzen; oder bei der Inhaltsanalyse von Texten: für die Vercodung der Inhalte ist bei allen Texteinheiten das gleiche Kategorienschema nach den gleichen Regeln anzuwenden). Es besagt zweitens, dass alle Kombinationen (UE i , X j ) empirisch sinnvoll sein müssen, d. h. dass die Eigenschaftsdimensionen X j in der Datenmatrix auch tatsächlich Eigenschaftsdimensionen der Untersuchungseinheiten sind (wenn Untersuchungseinheiten etwa Wahlbezirke sind, dann ist „Beruf“ keine empirisch sinnvolle Eigenschaftsdimension der Untersuchungseinheiten, wohl aber z. B. Arbeiteranteil oder Anteil der Freiberufler). Es besagt schließlich drittens, dass die UE i immer nur sinnvoll hinsichtlich einer einzigen Merkmalsdimension miteinander verglichen werden können (sinnlos wäre etwa eine vergleichende Aussage: UE 1 hat ein Monatseinkommen von 2000 €, wogegen UE 2 als höchsten Schulabschluss Abitur aufweist). Will man Untersuchungseinheiten hinsichtlich mehrerer Merkmale gleichzeitig in Beziehung setzen, dann ist zuvor aus diesen Merkmalsdimensionen eine neue eindimensionale Variable- - ein Index-- zu bilden (etwa aus den Variablen Beruf, Einkommen und Bildung der Index „sozialer Status“ oder aus den Variablen Wohnzufriedenheit und Anteil Bekannter im Stadtteil der Index „Stadtteilbindung“; vgl. Kapitel 4.2). Das Prinzip der Klassifizierbarkeit bedeutet, dass für jedes Paar (UE i , X j ) genau ein Wert existieren muss. Präziser: Jeder Untersuchungseinheit muss erstens eine Variablenausprägung zugewiesen werden können (es darf also nicht der Fall auftreten, dass von den vorgesehenen möglichen Werten überhaupt keiner für die Untersuchungseinheit zutrifft), und zugleich darf zweitens keiner UE i mehr als eine Ausprägung auf jeder Variablen zugewiesen werden können (d. h. es muss für alle Fälle eindeutig entscheidbar sein, welcher Wert zutrifft; diese Forderung ist etwa bei den Verfahren Textanalyse und Beobachtung nicht leicht zu erfüllen). Formal ist das Prinzip der Klassifizierbarkeit immer erfüllbar durch Prinzipien der Datensammlung Prinzip der Vergleichbarkeit gleiche Untersuchungsbedingungen Kombinationen empirisch sinnvoll Vergleiche hinsichtlich einer Merkmalsdimension Prinzip der Klassifizierbarkeit <?page no="217"?> 218 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 218 Aufnahme der Kategorien „Sonstiges“ und „nicht entscheidbar“ in die Liste der möglichen Variablenausprägungen. Das Prinzip der Vollständigkeit heißt zunächst einmal ganz einfach: Es dürfen in der Datenmatrix keine Zellen x ij leer bleiben. Da aber die Daten das Resultat empirischer Erhebung sein sollen, ist die Forderung zu erweitern: Keine Zellen der Matrix dürfen leer bleiben, und: Alle Werte müssen empirisch bestimmt werden. In dieser Formulierung ist allerdings die Forderung in der Praxis fast nie erfüllbar. In der Feldarbeit (bei der Datenerhebung) werden fast immer Fälle auftreten, in denen Angaben fehlen, weil etwa der Befragte auf eine Frage die Antwort verweigert oder der Interviewer es im Eifer des Gefechts versäumt, die Antwort zu protokollieren. Weitere Formen fehlender Angaben sind, dass der Befragte die Antwort nicht weiß, oder dass eine Frage für seine Person nicht zutrifft. Solche fehlenden Werte (engl.: missing values, missing data) beeinträchtigen-- sofern sie häufig vorkommen-- die Gültigkeit der Auswertung der erhobenen Daten. 178 Das Prinzip der Vollständigkeit muss deshalb für die Forschungspraxis weniger eng gefasst werden: Keine Zelle der Matrix darf leer bleiben, und: In den Fällen, in denen auf einer Merkmalsdimension ein Wert nicht empirisch ermittelt werden konnte, ist der Grund kenntlich zu machen (vgl. Beispiele in 5.3.1). Das aber bedeutet wiederum nichts anderes, als dass dieses Prinzip lediglich formal erfüllt wird, nämlich durch Formulierung zusätzlicher Variablenausprägungen wie „weiß nicht“, „keine Antwort“, „trifft nicht zu“, „nicht entscheidbar“. Dabei muss man wissen (und dies bei der Datenauswertung berücksichtigen), dass solche Variablenwerte keine Messwerte sind; sie sind nicht Aussagen über die Untersuchungseinheiten auf den interessierenden Eigenschaftsdimensionen, sondern Informationen darüber, warum kein Messwert vorliegt (z. B.: „Die Frage konnte nicht beantwortet werden“ oder: „Ein beobachtetes Ereignis war nicht eindeutig einer Beobachtungskategorie zuzuordnen“). 178 Bei bivariater oder multivariater Auswertung (vgl. Kapitel 8.3) sind Fälle mit fehlenden Angaben entweder aus der Analyse auszuschließen, oder die fehlenden Werte sind unter Einführung zusätzlicher Annahmen und auf der Basis anderer, vorliegender Angaben zu schätzen. Für Hinweise auf diesbezügliche statistische Techniken siehe zum Beispiel als Überblick Lück/ Landrock 2014, Spieß 2010. Details zu diesem großen Thema gibt es bei Allison 2002, Messingschlager 2008, Rubin 2004 und Schnell 1985. Prinzip der Vollständigkeit fehlende Angaben <?page no="218"?> 219 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 219 5.4 Vertiefung: Die axiomatische Messtheorie 5.4.1 Grundbegriffe 179 In Kapitel 5.3.1 haben wir Messen folgendermaßen definiert: Messen ist die systematische, d. h. nach bestimmten Regeln, Vorschriften, Verfahren erfolgende Zuordnung einer Menge von Zahlen oder Symbolen zu den Ausprägungen einer Variablen (mithin auch zu den Objekten), und zwar so, dass die Relationen unter den Zahlenwerten den Relationen unter den Objekten entsprechen. Aus diesem Verständnis heraus spricht man von Messen als strukturtreuer Abbildung eines empirischen relationalen Systems in ein numerisches relationales System. 180 Dieses Konzept soll im Folgenden über die bisherige Illustration an Beispielen hinaus auch formal konkretisiert werden. Dazu zunächst ein paar „Vokabeln“: Als Relation bezeichnet man generell die Beziehung zwischen Elementen von Mengen. Im speziellen Zusammenhang soll „Relation“ eine Vorschrift sein, durch die ein Element x einem Element y zugeordnet wird (abgekürzte Schreibweise: xRy =-Relation R zwischen den Elementen x und y). x hat den gleichen Beruf wie y (zweistellige Relation); Ort x ist vom Ort y genauso weit entfernt wie Ort w vom Ort z (vierstellige Relation); Beruf a hat ein höheres Prestige als Beruf b (zweistellige Relation). Relationen kann man hinsichtlich ihrer Eigenschaften genauer kennzeichnen. Eine Relation heißt symmetrisch, wenn sie mit ihrer Umkehrrelation übereinstimmt, d. h. die Elemente können vertauscht werden, ohne dass die Aussage falsch wird: xRy ↔ yRx. x ist verwandt mit y; a hat den gleichen Beruf wie b; Peter ist genauso alt wie Karin. 179 Für den eiligen Leser sind die in den Kapiteln 5.4.1 bis 5.4.3 skizzierten formalen Grundlagen der axiomatischen Messtheorie entbehrlich. Wer es im Gegenteil ausführlicher und grundlegender möchte, sei verwiesen auf Saint-Mont 2011, Kapitel 2: Messtheorie. 180 Ein numerisches relationales System (kürzer: „numerisches Relativ“), also ein Zahlensystem, ist „eine abstrakte Theorie, ein uninterpretiertes axiomatisches System ohne empirischen Bezug“ (Hülst 1975, 33). Diese „abstrakte Theorie“ erhält erst dadurch empirische Bedeutung, dass sie durch explizite Abbildungsvorschriften mit einem empirischen relationalen System (kürzer: „empirisches Relativ“) in Beziehung gesetzt wird. Man sagt, die abstrakte Theorie wird „empirisch interpretiert“. Beispiele dafür folgen auf den nächsten Seiten. Messen: strukturtreue Abbildung Definition: Relation BEISPIELE symmetrische Relation BEISPIELE <?page no="219"?> 220 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 220 Zwei Elemente, die durch eine asymmetrische Relation miteinander verknüpft sind, kann man dagegen nicht umkehren, ohne dass die Aussage falsch würde: xRy ←/ → yRx. x ist stärker als y; der Montblanc ist höher als der Kahle Asten; Maria ist die Ehefrau von Otto. Eine Relation heißt reflexiv, wenn sie aus zwei gleichen Komponenten bestehen kann, ohne falsch zu sein: xRx. Identität: x ist identisch mit x (trivial; jedes Ding ist identisch mit sich selbst); „mögen“: x mag x (nicht trivial, kann empirisch falsch sein: „ich mag mich selbst“ gilt nur bei positiver Selbsteinschätzung). Die Relation heißt irreflexiv, wenn xRx nicht gilt. … ist verheiratet mit-…; -… ist größer als-…; -… hat Schulden bei-…; -… ist Kind von-… Eine Relation wird transitiv genannt, wenn aus xRy und yRz auch xRz folgt: xRy ∧ yRz → xRz. a ist älter als b, und b ist älter als c; dann ist a auch älter als c. Dagegen kann die folgende Aussage empirisch falsch sein: Peter ist befreundet mit Paul, Paul ist befreundet mit Karl; dann ist Peter auch befreundet mit Karl. Die Freundschafts-Relation ist nur dann transitiv, wenn die Norm gilt: Deine Freunde sind auch meine Freunde. Dementsprechend ist eine Relation intransitiv, wenn aus xRy und yRz nicht folgt: xRz. Aus ‚a ist Vater von b‘ und ‚b ist Vater von c‘ folgt nicht ‚a ist Vater von c‘, sondern ‚a ist Großvater von c‘. Eine zugleich symmetrische, reflexive und transitive Relation heißt Äquivalenzrelation (äquivalent =-gleichwertig, von gleicher Geltung). x hat das gleiche Elternpaar wie y; a hat den gleichen sozialen Status wie b; der Beruf w wird genauso gut bezahlt wie der Beruf z. Als Zeichen für die empirische Äquivalenzrelation wird ≈ benutzt; das Zeichen für die mathematische Äquivalenzrelation ist =. Ist eine Relation zugleich irreflexiv, asymmetrisch und transitiv, dann handelt es sich um eine Ordnungsrelation. asymmetrische Relation BEISPIELE reflexive Relation BEISPIELE irreflexive Relation BEISPIELE transitive Relation BEISPIELE intransitive Relation BEISPIEL Äquivalenzrelation BEISPIELE Ordnungsrelation <?page no="220"?> 221 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 221 x ist kleiner (größer) als y; Beruf w hat ein höheres (niedrigeres) Prestige als Beruf z. Als Zeichen für die empirische Ordnungsrelation werden  -und-  benutzt; die entsprechenden Zeichen für die mathematische Ordnungsrelation >-und-<. Ist über einer Menge von Objekten eine Relation definiert, dann sagt man, ihr sei eine Struktur aufgeprägt. Personen in einem Betrieb mit der Relation „… ist Untergebener von-…“ (die Struktur heißt „Betriebshierarchie“); Berufe mit der Relation „… hat das gleiche Prestige wie-…“ (wir erhalten eine Berufsklassifikation nach dem Merkmal Prestige). „Objekte“ können auch Symbole sein, etwa die natürlichen Zahlen mit der Relation „… ist größer als-…“ (y > x); die Zahlen weisen eine Ordnungsstruktur auf. Strukturierte Mengen können aufeinander (ineinander) abgebildet werden. Die Abbildung muss mit der Struktur beider Mengen verträglich sein. Solche strukturverträglichen Abbildungen (f ) nennt man Morphismen. w, x, y, z seien Berufe, für deren Prestige gelte: w  x  y  z; die Menge der Berufe und die zwischen ihnen definierten Relationen stellen unser empirisches relationales System dar; allgemein A =- (A, R). Diese strukturierte Menge empirischer Elemente kann strukturtreu in eine Teilmenge der natürlichen Zahlen abgebildet werden, z. B. 1, 2, 3, 4 mit den Relationen 4->-3->-2->-1. Wir sprechen in diesem Zusammenhang vom numerischen relationalen System; allgemein: N =-(N, S). Zur Abbildung des empirischen Relativs auf das numerische Relativ benötigen wir eine Vorschrift (eine Abbildungsregel f ). Diese kann etwa lauten: Dem Beruf mit dem niedrigsten Prestige ist die niedrigste Zahl aus der Teilmenge der natürlichen Zahlen zuzuordnen, dem Beruf mit dem zweitniedrigsten Prestige die zweitniedrigste Zahl usw., also: f(w) =-1, f(x) =-2, f(y) =-3, f(z) =-4. Die Vorschrift könnte aber auch lauten: Die Berufe sind entsprechend ihrem Prestige in eine Rangordnung zu bringen; einem hohen Prestige entspricht eine niedrige Rangziffer, einem niedrigen Prestige eine hohe Rangziffer, also: f(z) =-1, f(y) =-2, f(x) =-3, f(w) =-4. Kurzschreibweise für strukturverträgliche Abbildungen: f =-A → N. BEISPIELE Struktur BEISPIELE strukturierte Mengen Morphismen BEISPIEL Abbildungsregel <?page no="221"?> 222 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 222 Eine umkehrbar eindeutige (d. h. für beide Richtungen geltende) Abbildung heißt Isomorphismus: w  4 bzw. f(w) =-4 x  3 bzw. f(x) =-3 y  2 bzw. f(y) =-2 z  1 bzw. f(z) =-1 Eine nur in einer Richtung eindeutige (also nicht umkehrbar eindeutige) Abbildung heißt Homomorphismus w  4 bzw. f(w) =-4 x  3 bzw. f(x) =-3 y  2 bzw. f(y) =-2 (so gelte z. B. im empirischen Relativ zusätzlich: zwei Berufe z 1 und z 2 seien im Hinblick auf ihr Prestige äquivalent: z 1 ≈ z 2 ): 181 z 1  1 bzw. f(z 1 ) =-1 z 2  und f(z 2 ) =-1 Das Konzept „strukturtreue Abbildung“ ist also von der Vorstellung geleitet, dass als Ergebnis der Messung ein numerischer Wert steht, der nicht willkürlich festgelegt wurde, sondern der auf der empirischen Realität basiert und deren existierende Strukturen respektiert. Anders formuliert: Die Messwerte repräsentieren die realen Verhältnisse. Man spricht deshalb auch von der „repräsentationalen Theorie des Messens“ (Saint-Mont 2011, 23). 5.4.2 Die Messskala Eine Skala ist definiert als das geordnete Tripel aus einem empirischen relationalen System A, dem numerischen relationalen System N und dem Morphismus f: A → N, also durch (A, N, f ). Ausführlicher geschrieben: Skala =-[(A; R 1 ,-…, R n ), (N; S 1 ,-…, S n ), f ]. Hierbei sind A eine Menge empirischer Objekte, für die die Relationen R i gelten, N eine Teilmenge der reellen Zahlen mit den Relationen S i und f die Abbildungsvorschrift (der Morphismus). Inwieweit die Relationen R i im empirischen Relativ gelten, ist vor allem eine empirische Frage (es sei erinnert an die Relation „… ist befreundet mit-…“, die nur dann eine Zerlegung in Äquivalenzklassen erlaubt, wenn empirisch für alle Untersuchungseinheiten gilt: „Deine Freunde sind auch meine Freunde“). Bei den S i im numerischen Relativ handelt es sich um mathematische Relationen, von denen insbesondere =-und > bzw. < von Bedeutung sind. Strukturtreu ist die Abbildung eines empirischen relationalen Systems in ein numerisches relationales System dann, wenn die empirischen Relationen R i zwischen der Objektmenge A durch mathematische Relationen S i zwischen der Teilmenge N der Zahlen korrekt wiedergegeben werden können. 181 Hier ist zwar die Abbildung vom empirischen in das numerische Relativ eindeutig, aber vom zugeordneten „Messwert“ kann nicht mehr rückgeschlossen werden, ob die Ziffer 1 für den Beruf z 1 oder für den Beruf z 2 steht. BEISPIEL Definition: Skala strukturtreue bei-einander entsprechenden Relationen <?page no="222"?> 223 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 223 Aus der Definition von „Skala“ folgt, dass vor dem Messvorgang drei Probleme zu lösen sind (Kreppner 1975, 107 ff.; Orth 1974, 21 ff.): 1) Klärung, ob die Relationsaxiome einer Skala im empirischen Relativ erfüllt sind; 2) Rechtfertigung für die Zuweisung von Zahlen zu Objekten (Repräsentationsproblem); 3) Bestimmung des Grades, bis zu dem diese Zuweisung eindeutig ist (Eindeutigkeitsproblem). zu 1): Die Relationsaxiome der Skala müssen im empirischen relationalen System (A; R 1 ,…, R n ) erfüllt sein. Ob dies der Fall ist, hängt von der Art und Weise ab, wie die zu messende Eigenschaft operationalisiert worden ist. „Temperatur“ etwa kann so operationalisiert werden, dass das Messergebnis Ratioskalenniveau erreicht (Kelvin- Skala) oder dass es Intervallskalenniveau erreicht (Celsius-Skala) oder gar dass die Messung Ordinalskalenniveau nicht übersteigt 182 (etwa wenn durch die-- nicht zu empfehlende-- Operation „Hand ins Wasser halten“ die Wassertemperatur daraufhin überprüft wird, ob sie den Eigenschaftsausprägungen „kalt“ oder „lauwarm“ oder „warm“ oder „heiß“ entspricht). Erst unter Berücksichtigung der Operationalisierung kann entschieden werden, welche der für ein bestimmtes Messniveau nötigen Relationen unter den empirischen Objekten bestehen und welche davon aus empirischen Gründen gelten oder schon aufgrund der Operationalisierung erfüllt sind. Werden etwa bei einem klassifikatorischen Begriff alle Merkmalsausprägungen unabhängig voneinander definiert, dann muss es sich erst empirisch erweisen, ob z. B. die definierten Merkmalsausprägungen sich gegenseitig ausschließen; etwa: „Geschlecht“ mit den Ausprägungen „männlich“ sowie Angabe einer Reihe sekundärer Geschlechtsmerkmale und „weiblich“ sowie Angaben einer weiteren Reihe sekundärer Geschlechtsmerkmale. Empirisch könnten nun Fälle auftreten, die Geschlechtsmerkmale beider Ausprägungen aufweisen („Hermaphrodit“). Die Axiome der Skala wären bei gegebener Operationalisierung empirisch nicht erfüllt. Werden dagegen nur n-1 der möglichen Ausprägungen unabhängig definiert und die Ausprägung n ist dadurch gekennzeichnet, dass die übrigen Ausprägungen nicht vorliegen, dann ergibt sich die Erfülltheit der Relationsaxiome schon aus der Operationalisierung (etwa: „Geschlecht“ mit den Ausprägungen „männlich“, wenn sekundäre Merkmale m und nicht w; „weiblich“, wenn sekundäre Merkmale w und nicht m; „Sonstige“). zu 2): Das Repräsentationsproblem gilt als das zentrale Problem der Messtheorie und bezieht sich auf die Frage, ob zu einem gegebenen empirischen relationalen System (A, R i ) ein numerisches relationales System (N, S i ) und ein Morphismus f: A → N existiert. Zwar bestehen in den Sozialwissenschaften im Allgemeinen keine spezifischen Schwierigkeiten. Doch können Probleme bei mehrdimensionalen Ordnungsstruk- 182 Zum Skalen- oder Messniveau vgl. Kapitel 5.3.1 und 5.4.3. Relationsaxiome Relationen empirisch oder logisch Repräsentationsproblem <?page no="223"?> 224 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 224 turen entstehen. So sei z. B. eine Präferenzstruktur von Personen im Hinblick auf bestimmte Filmtypen gegeben. Person P ziehe etwa amerikanische Filme italienischen Filmen vor: F a  F i , diese wiederum französischen Filmen: F i  F f . Andererseits ziehe die Person P in jedem Fall einen Krimi einem Musical vor: F k  F m . Gegeben seien jetzt als Film 1 ein amerikanisches Musical (F am ), als Film 2 ein italienisches Melodrama (F id ) und als Film 3 ein französischer Krimi (F fk ). Hinsichtlich der Herkunft der Filme gilt nun: aus F a-  F i und F i  F f folgt auch F a  F f . Aus F am  F id und F id  F fk jedoch folgt nicht F am  F fk , da in jedem Fall ein Krimi einem Musical vorgezogen wird. Ein numerisches Relativ und eine Abbildungsvorschrift, die diese mehrdimensionale Ordnungsstruktur wiedergeben können, existieren offensichtlich nicht-- ein Problem, mit dem man es bei der Indexbildung immer wieder zu tun hat. Eine „Notlösung“ für die Formulierung des Morphismus kann in solchen Fällen darin bestehen, dass bestimmte-- im Hinblick auf die Untersuchungsfrage „weniger relevante“-- empirische Relationen unberücksichtigt bleiben. zu 3): Selbst wenn es gelungen ist, das Repräsentationsproblem zu lösen, also die Existenz einer Skala zur strukturtreuen Abbildung nachzuweisen, haben wir damit noch nicht die Einheit der Messung definiert; denn diese ist nicht im empirischen relationalen System angelegt. Wir können die Länge einer Strecke in Meter oder Kilometer oder in Meilen, die Temperatur in Celsius- oder Kelvin-Graden messen; wir können das Einkommen in Euro oder Dollar oder Schweizer Franken angeben. Ob wir nun die Länge in m oder km, die Körpergröße in m oder cm protokollieren, ändert bekanntlich nichts an der Strukturtreue der Abbildung. Je nach Art der Relationen im empirischen relationalen System können bestimmte mathematische Transformationen am numerischen relationalen System vorgenommen werden (in obigen Beispielen Multiplikation und Division), ohne dass die Strukturtreue der Abbildung darunter leidet. Genau um diese Frage geht es beim Eindeutigkeitsproblem: Wie viele verschiedene Morphismen f: A → N existieren, so dass (A,-N,-f ) eine Skala-- im oben definierten Sinn-- ist. Das numerische relationale System als Abbildung der Berufsprestigeordnung (4,-3, 2, 1) kann überführt werden: - durch Addition einer Konstanten +2 in (6, 5, 4, 3), - durch Multiplikation mit einer Konstanten +3 in (12, 9, 6, 3), - durch Quadrieren der Skalenwerte in (16, 9, 4, 1), ohne dass die Rangordnung geändert würde. Die Abbildung ist weiterhin hinsichtlich der Rangordnung strukturtreu; die neue Teilmenge von Zahlen ist also wiederum ein Morphismus. Transformationen, die einen Morphismus in einen anderen Morphismus überführen, nennt man zulässige Transformationen. Gegenüber zulässigen Transformationen ist die jeweilige Skala invariant. Die Entscheidung, welche Transformationen zulässig sind und welche nicht, hängt von den Eigenschaften des empirischen relationalen Einheit der Messung strukturtreue mathematische Transformationen BEISPIEL zulässige Transformation <?page no="224"?> 225 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 225 Systems ab. Dementsprechend wird das Messniveau einer Skala durch die Relationen definiert, die zwischen den empirischen Objekten bestehen. Man kann aber auch umgekehrt das Messniveau einer Skala mit Hilfe der Angabe der zulässigen Transformationen definieren und daraus ableiten, welche Relationen auf der Menge empirischer Objekte gelten müssen, damit diese Skala angewandt werden kann. Mit diesen „Vokabeln“ ausgerüstet, können wir uns nun erneut und diesmal etwas formaler den in Kapitel 5.3.1 bereits kurz behandelten Skalentypen zuwenden. 5.4.3 Messniveaus/ Skalentypen Nominalskala: Die einfachste Skala ist die Nominalskala; sie definiert sich durch das geordnete Tripel (A, ≈; N, =; f ). (A, ≈) ist ein empirisches relationales System, dessen Objektmenge eine Äquivalenzstruktur „aufgeprägt“ ist; d. h. die Äquivalenzrelation zerlegt die Objektmenge vollständig in sich ausschließende und damit sich nicht überschneidende Klassen. Stehen zwei Objekte zueinander in einer Äquivalenzrelation (x-≈-y), dann gehören sie der gleichen Klasse an und erhalten den gleichen Skalenwert im numerischen Relativ (N, =), wobei die Skalenwerte sozusagen nur Namen für die Eigenschaftsausprägungen sind (daher: Nominalskala; vgl. die Beispiele in Kapitel 5.3.1). Die Relationsaxiome der Nominalskala besagen, dass für alle empirischen Objekte a, b, c gelten muss: 1) a ≈ a (Reflexivität) 2) aus a ≈ b folgt b ≈ a (Symmetrie) 3) aus a ≈ b und b ≈ c folgt a ≈ c (Transitivität). Die Abbildungsvorschrift ist: f(a) =-f(b) ↔ a ≈ b bzw. f(a) ≠ f(b) ↔ a ≉ b. Die Nominalskala ist invariant gegenüber allen umkehrbar eindeutigen (=- eineindeutigen) Transformationen. Ordinalskala: War bei nominalem Messniveau eine Abbildung der Objektmenge in eine Menge von Zahlen an und für sich nicht erforderlich-- die Eigenschaftsausprägungen können auch durch Zeichen der natürlichen Sprache repräsentiert werden (bei der Eigenschaftsdimension ‚Nationalität‘ etwa durch ‚Deutscher‘, ‚Spanier‘, ‚Italiener‘ usw.)--, so erweist sich die numerische Form der Abbildung als notwendig, sobald alle empirischen Objekte hinsichtlich der Stärke oder der Intensität der Ausprägung auf einer Merkmalsdimension verglichen werden sollen. Eine Skala, die Informationen über die Rangordnung von Objekten im Hinblick auf das gemessene Merkmal gibt, nennt man Ordinalskala. Sie ist definiert durch das Nominalskala Ordinalskala <?page no="225"?> 226 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 226 Tripel (A, ≈,  ; N, =, >; f ). Über der empirischen Objektmenge A ist neben der Äquivalenzrelation ≈ noch eine Ordnungsrelation  definiert. Die Relationsaxiome der Ordinalskala fordern also für die Menge empirischer Objekte A: 1) Auf A muss eine Äquivalenzrelation ≈ gegeben sein (wie bei der Nominalskala). 2) Weiter muss für eine Relation  gelten: (a) entweder a ≈ b oder a  b oder b  a für alle a, b aus A (Gesetz der Trichotomie), (b) aus a  b und b  c folgt a  c für alle a, b, c aus A (Transitivität). Die Abbildungsvorschrift (Morphismus) lautet jetzt: 1) f(a) =-f(b) ↔ a ≈ b 2) f(a) > f(b) ↔ a  b Die gegenüber der Nominalskala neu hinzugekommenen Axiome 2(a) und 2(b) erlauben eine informationsreichere Realitätsbeschreibung; sie setzen aber auch eine feinere Strukturierung der Wirklichkeit voraus. Welche der fünf Relationshypothesen als empirische Hypothesen aufzufassen sind und welche „definitionsgemäß“ erfüllt sind, lässt sich erst aufgrund der Operationalisierung des zu messenden Merkmals entscheiden (s. o.). Was kann geschehen, wenn nun bei einer bestimmten Operationalisierung und einer bestimmten empirischen Interpretation der Relationen (etwa: ≈ „… ist befreundet mit-…“;  „… hat ein höheres Prestige als-…“) eines der fünf Axiome sich als empirisch nicht erfüllt erweist? Man kann 1. die Interpretation von ≈ und  abändern (im Filmbeispiel etwa könnte die Präferenzrelation ohne Berücksichtigung der Art des Films- - Musical, Krimi- - definiert werden) oder eine neue Operationalisierung suchen, 2. auf die Verwendung dieses Begriffs (jedenfalls auf diesem Messniveau) verzichten oder 3. das fragliche Axiom als Idealisierung der Wirklichkeit ansehen und kleinere Abweichungen als für die Fragestellung der Untersuchung unerheblich betrachten. Die Ordinalskala ist invariant gegenüber allen sogenannten streng monotonen Transformationen (neben der Addition, Multiplikation und dem Quadrieren auch Logarithmieren und Wurzelziehen). Intervallskala: Noch genauere Informationen über die Ausprägungen einer Eigenschaft bei den Untersuchungseinheiten (im Vergleich zur Ordinalskala) ermöglicht die Messung mit Hilfe einer Intervallskala. Sie bringt nicht nur zum Ausdruck, dass etwa bei einem Objekt b ein Merkmal x in stärkerem Maße vorhanden ist als beim Objekt a, sondern zusätzlich, um wie viel stärker das Merkmal x ausgeprägt ist, ausgedrückt in Einheiten einer Vergleichsgröße. mögliche Reaktionen auf Abweichung Intervallskala <?page no="226"?> 227 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 227 Das bedeutet, dass zur Konstruktion von Intervallskalen zusätzlich zu den Relationen ≈ und  zwischen den Objekten im empirischen Relativ noch Aussagen über Differenzen der Merkmalsausprägungen zwischen Objektpaaren empirisch sinnvoll sind. Es muss also angebbar sein, ob Differenzen zwischen den geordneten Objekten gleich groß oder größer/ kleiner sind. Auf die formale Definition der Intervallskala (etwa durch Angabe aller Relationsaxiome) wird hier verzichtet. Die Abbildungsvorschriften lauten jetzt: 1) f(a) =-f(b) ↔ a ≈ b 2) f(a) > f(b) ↔ a  b 3) [f(a)-f(b)] =-[f(c)-f(d)] ↔ ab ≈ cd 4) [f(a)-f(b)] > [f(c)-f(d)] ↔ ab  cd Dadurch, dass Differenzen zwischen den Messwerten empirisch sinnvoll als Differenzen zwischen Merkmalsausprägungen bei den Objekten interpretiert werden können, sind jetzt elementare Rechenoperationen mit den Messwerten zulässig: bei den Messwerten sind Addition und Subtraktion, bei Messwert-Differenzen sind darüber hinaus Multiplikation, Division etc. erlaubt. Intervallskalen unterscheiden sich von höherrangigen Messniveaus dadurch, dass sie keinen empirisch eindeutig festgelegten (keinen „empirisch sinnvollen“) Nullpunkt haben. Somit sind Intervallskalen bis auf die Maßeinheit und die Wahl des Skalenursprungs (Nullpunkts) eindeutig bestimmt. Anders ausgedrückt: Intervallskalen sind invariant gegenüber sogenannten affinen Transformationen der Form: x′=-α · X + β (für alle α > 0), bzw. auf die Messwerte bezogen: f(x) =-a · x + b. Ratioskala (Verhältnisskala): Dieser Skalentyp hat zusätzlich zu den Merkmalen der Intervallskala noch einen „absoluten Nullpunkt“, d. h. einen empirisch sinnvollen oder empirisch eindeutig festgelegten Nullpunkt. Dadurch wird auch für die einzelnen Messwerte (und nicht erst für die Messwert-Differenzen) die Anwendung sämtlicher mathematischer Rechenoperationen empirisch sinnvoll und somit zulässig. Längenmessung in m, cm, Zoll, Meilen etc.; Altersangaben in Jahren, Monaten, Jahrzehnten usw.; Einkommensangaben in €, Dollar, Franken usw.; Temperaturmessung in Grad Kelvin (vgl. Kapitel 5.3.1). Die Ratioskala ist also, wie die Beispiele zeigen, bis auf die Wahl der Maßeinheit eindeutig bestimmt; sie ist somit invariant nur noch gegenüber sogenannten Ähnlichkeitstransformationen (=-linearen Transformationen) der Form: x′=-α · X (für α >- 0), bzw. auf die Messwerte bezogen: f(x) =- a · x. Im Gegensatz zu den anderen Skalen niedrigerer Ordnung sind keine Nullpunkttransformationen zulässig (nimmt man an einer Ratioskala eine Nullpunkttransformation vor, erhält man eine Intervallskala). Zusätzlich zu den Aussagen über die Äquivalenz von Objekten (Nominalskala), über die Rangordnung der Objekte (Ordinalskala) und über Differenzen Nullpunkt und Maßeinheit nicht bestimmt Ratioskala BEISPIELE <?page no="227"?> 228 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 228 zwischen Objektpaaren (Intervallskala) sind hier auch Aussagen über die Verhältnisse (Quotienten) bzw. über das Vielfache von Messwerten empirisch sinnvoll. Der Vergleich der für die einzelnen Skalentypen zulässigen Transformationen zeigt im Übrigen, dass mit zunehmendem Skalenniveau (Messniveau) die Zahl der zulässigen Transformationen abnimmt. Das liegt daran, dass mit zunehmendem Skalenniveau immer mehr der im numerischen Relativ geltenden Relationen auch einen empirischen Sinn haben. Absolutskala In dem Grenzfall, dass überhaupt keine Transformationen der Skalenwerte mehr zulässig sind, haben wir es mit einer absoluten Skala zu tun. Hier sind nicht nur sämtliche Relationen sowie der Nullpunkt empirisch sinnvoll, sondern auch die Maßeinheit ist empirisch vorgegeben. Alle Skalen, die auf Abzählen basieren, sind absolute Skalen (Anzahl, Anteile; z. B. Geburts- oder Todesraten). 5.4.4 Skalentypen und zulässige Aussagen; empirisch sinnvolle/ sinnlose Statistik Folgende Arten numerischer Aussagen wurden bisher unterschieden: 1) Äquivalenzaussage-: f(x) =-f(y) 2) Ordnungsaussage: f(x) > f(y) 3) Distanzaussage-: f(x)-f(y) ≥ f(w)-f(z) 4) Verhältnisaussage: f(x) =-a · f(y) Danach, ob solche Aussagen über Relationen zwischen Skalenwerten zulässig (empirisch sinnvoll) sind oder nicht, lassen sich die Skalentypen folgendermaßen darstellen: (‚+‘ bedeutet „empirisch sinnvoll“, ‚-‘ bedeutet „empirisch sinnlos“): Typ der Aussage: Skalentyp: Äquivalenz-A. Ordnungs-A. Distanz-A. Verhältnis-A. Nominalskala + - - - Ordinalskala + + - - Intervallskala + + + - Ratiou. Absolut-Skala + + + + Was bedeutet nun im Einzelnen „empirisch sinnlose“ und damit „nicht zulässige“ Aussage aufgrund der Skalen-Messwerte? Allgemein gilt: Nur diejenigen Aussagen über Relationen zwischen Skalenwerten sind zulässig (d. h. sind auch empirisch sinnvoll), deren Wahrheitswert sich nicht gegenüber legitimen Skalentransformationen verändert. Überführt also eine zulässige Transformation einer Skala eine wahre Aussage in eine falsche Aussage und umgekehrt, dann ist diese Art statistischer Aussage empirisch sinnlos. Absolutskala empirisch sinnvolle Aussagen empirisch sinnlose Aussagen <?page no="228"?> 229 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 229 Werden Personen nach ihrem Geschlecht auf einer Nominalskala mit den Werten 1 =-weiblich und 2 =-männlich abgebildet, dann wäre eine empirisch sinnlose Interpretation der Skalenwerte etwa die: „Person a hat die Eigenschaft ‚Geschlecht‘ in einem doppelt so hohen Ausmaß wie Person b, denn ihr Skalenwert f(a) =-2 ist doppelt so hoch wie der Skalenwert von b: f(b)- =- 1“. Eine für Nominalskalen zulässige Transformation ist die eindeutige Zuordnung beliebiger anderer Werte, etwa: weiblich =- 1, männlich =- 0. Vergleichen Sie nun die obige- - nicht zulässige-- Interpretation. Werden Berufe nach ihrem Prestige in eine Rangordnung gebracht (s. o.) und auf einer Ordinalskala abgebildet mit f(w) =-4, f(x) =-3, f(y) =-2, f(z) =-1, dann wäre die folgende Aussage empirisch nicht sinnvoll: „Der Prestigeunterschied zwischen w und y ist größer als der zwischen y und z, denn die Differenz zwischen den Skalenwerten für w und y ist größer als die zwischen y und z: f(w)-f(y) > f(y)-f(z) bzw. (4-2) > (2-1).“ Eine Transformation, der gegenüber Ordinalskalen invariant sind, ist zum Beispiel die eindeutige Zuordnung anderer Skalenwerte, solange die bisherige Rangordnung erhalten bleibt: etwa f(w) =-10, f(x) =-8, f(y) =-6, f(z) =-2. Dies könnte z. B. sinnvoll sein, weil noch weitere Berufe existieren, deren Prestige zwischen den genannten liegt. Vergleichen Sie nun die obige Interpretation. In beiden Fällen wurde aus einer logisch wahren Aussage über Relationen zwischen den Skalenwerten durch eine für die gewählte Skala zulässige (legitime) Transformation eine logisch falsche Aussage über Relationen zwischen den (transformierten) Skalenwerten. Was hier für die Zulässigkeit der Interpretation von Einzelmesswerten in Abhängigkeit vom Messniveau der Skala gesagt wurde, gilt analog für statistische Aussagen, also für Aussagen, die durch Anwendung statistischer Modelle auf die Messwerte gewonnen werden. Auch hier ist zu prüfen, ob Aussagen über Aggregate von Messwerten (z. B. arithmetisches Mittel, Varianz) durch zulässige Transformationen der Einzelmesswerte verändert werden oder nicht. Nur solche Aussagen über Beziehungen zwischen statistischen Maßzahlen sind zulässig und empirisch sinnvoll, deren Wahrheitswert nicht durch legitime Transformationen der Skalenwerte verändert wird. Die Ordnungsaussage x 1 > x 2 (das arithmetische Mittel der Stichprobe 1 ist größer als das arithmetische Mittel der Stichprobe 2) ist nur dann zulässig, wenn die Einzelmesswerte x i mindestens intervallskaliert sind. Das Gleiche gilt für eine Äquivalenzaussage x 1 =-x 2. x 1 sei der Durchschnitt der Abiturnoten von Person 1: (2+2+2+3+3)/ 5 =- 2,4; x 2 - sei der Durchschnitt der Abiturnoten von Person 2: (1+1+1+4+4)/ 5 =- 2,2. Danach würde gelten: Das arithmetische Mittel der Noten von Person 1 ist höher („schlechter“) als das von Person 2. Da Schulnoten nach übereinstimmender Auffassung- - allenfalls- - ordinalskalierte Werte sind, ist die Transformation des Quadrierens der Skalenwerte zulässig (die Rangordnung wird dadurch nicht verändert), also x 1 =-(4+4+4+9+9)/ 5 =-6,0 und x 2 =-(1+1+1+16+16)/ 5 =-7,0. Jetzt ist BEISPIELE sinnvolle statistische Modelle BEISPIEL <?page no="229"?> 230 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 230 das arithmetische Mittel von Person 1 (berechnet aufgrund der legitim transformierten Skalenwerte) niedriger („besser“) als das von Person 2. Durch eine legitime Transformation der Messwerte ist der Wahrheitswert der Ordnungsaussage über die Mittelwerte verändert worden: Der Vergleich von Abiturnoten durch Berechnung eines arithmetischen Mittels ist eine empirisch sinnlose statistische Aussage, auch wenn dies, z. B. bei der Zuteilung von Studienplätzen in Numerus- Clausus-Fächern, gängige Praxis geworden ist. 5.5 Messen durch Indizes (Indexmessung) Neben der Unterscheidung von Messungen nach dem Skalenniveau ist eine Charakterisierung auch nach der Art der Messverfahren sinnvoll. Die Arten des Messens unterscheiden sich in ihren Zuordnungsregeln. Bei der bisher dargestellten Strategie des Messens als strukturtreuer Abbildung können aus den Relationen zwischen den zugeordneten Skalenwerten testbare Hypothesen über die Relationen zwischen den Objekten abgeleitet werden und umgekehrt. 183 Die Zuordnung von Messwerten zu Eigenschaftsausprägungen geschieht also nicht willkürlich, sondern nach Regeln, die ihre Begründung in der Struktur des empirischen Gegenstandsbereichs finden. Weiter differenzieren lässt sich diese Strategie noch einmal in „fundamentales“ und „abgeleitetes“ Messen. Beim fundamentalen (oder direkten) Messen geschieht die Zuweisung von Zahlen zu Objekten nach Regeln, die sich direkt aus den Eigenschaften des Objekts ergeben (etwa Ablesen der Körpergröße einer Person am Zentimeterstab). Beim abgeleiteten (oder indirekten) Messen wird eine theoretisch definierte Zuordnungsregel angewandt, um aus direkt gemessenen Eigenschaften den interessierenden Merkmalswert zu bestimmen (z. B. Berechnung der Geschwindigkeit aus zurückgelegter Strecke und dafür benötigter Zeit). Im weiteren Sinn kann auch das grundlegende und intuitiv einfach erscheinende Messen durch Abzählen (measurement by counting) hierzu gerechnet werden. Voraussetzung für die Anwendbarkeit dieses Verfahrens-- Zählen der Häufigkeit des Auftretens gleichartiger „Objekte“ in einem bestimmten Zeitabschnitt und einem bestimmten Raum (etwa bei der Datenerhebung per Beobachtung)-- ist eine theoretische Definition, die die Bildung als homogen anzusehender Klassen von Ereignissen erlaubt. In den Sozialwissenschaften gibt es jedoch auch eine Reihe von Messverfahren, deren Begründung nicht in der Art der Abbildung der empirischen Merkmale, sondern in der Messvorschrift selbst besteht, d. h. in der Definition des Verfahrens, nach dem den einzelnen Objekten Zahlen zugeordnet werden. 184 Beispiele hierfür sind 183 Vgl. vorn: die Relationsaxiome der Skala müssen im empirischen relationalen System gelten. 184 Messkonzepte dieser Art werden daher oft als „willkürliches Messen“ bezeichnet oder als „measurement by fiat“ oder auch, freundlicher formuliert, als „Messen durch zweckmäßiges Definieren und Vereinbaren einer Zuordnungsregel“ (Engel u. a. 2001, 20). fundamentales Messen abgeleitetes Messen <?page no="230"?> 231 5.5 Messen durch Indizes (Indexmessung) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 231 sogenannte Rangordnungsverfahren 185 , semantische oder Eindrucksdifferentiale 186 und die meisten Indexkonstruktionen, 187 wie sie in Kapitel 4.2 kurz vorgestellt wurden. Bei der Messung durch Indizes ist nicht empirisch prüfbar, ob zwischen zwei Untersuchungseinheiten mit demselben Skalenwert auch hinsichtlich der „gemessenen“ Eigenschaftsdimension eine Äquivalenz besteht oder ob die Gleichheit sich auf die Identität der Skalenwerte beschränkt. Das Gleiche gilt für eine Rangordnung, die sich aus den Skalenwerten herauslesen lässt. Eine Unterscheidung verschiedener Messniveaus ist damit im bisherigen Sinne nicht möglich, da sich ja das Messniveau aus den im empirischen Relativ geltenden Relationen herleitet. Es existiert somit auch kein Kriterium für eine Trennung von legitimen (zulässigen, da strukturerhaltenden) und nicht legitimen (da strukturzerstörenden) Transformationen der Skalenwerte, weil die zu der Skala gehörende empirische Struktur unbekannt ist. 188 Das bedeutet jedoch nicht, dass aus messtheoretischen Gründen auf die genannten Verfahren der Skalierung und Indexbildung insgesamt verzichtet werden müsste (oder könnte). Während aber beim Messen als strukturtreuer Abbildung gewisse Regelmäßigkeiten im empirischen relationalen System unterstellt werden und dementsprechend die Gültigkeit des Vorgehens im Prinzip empirisch überprüft werden kann, ist dies bei der Indexbildung nicht der Fall. Ihre Rechtfertigung muss theoretisch begründet werden; d. h. die durch den Index „gemessene“ Variable muss sich in einer Vielzahl von Hypothesen, in denen Zusammenhänge mit anderen Merkmalen von Untersuchungsobjekten behauptet werden, konsistent verwenden lassen. Da ein vom Messvorgang unabhängiger Vergleich mit der empirischen Realität bei vielen durch Indexmessung operationalisierten theoretischen Konstrukten (wie ‚Zufriedenheit‘ oder ‚subjektiver Grad der Belästigung durch Lärm-Emissionen‘ oder ‚Bewertung der Qualität der Lehre durch die Studierenden‘) nicht möglich ist, sind zusätzlich besonders hohe Anforderungen an die Ausgestaltung und den Pre-Test der Datenerhebungsinstrumente zu stellen. 189 Sieht man von den Besonderheiten der für jeweils spezielle sozialwissenschaftliche Fragestellungen entwickelten Index- und Skalierungsverfahren ab, so können wir allgemein festhalten: 185 Bei Rangordnungsverfahren legt man beispielsweise in der Marktforschung den Befragten mögliche Gründe für die Entscheidung zum Kauf eines Produkts vor und bittet sie, diese nach der Wichtigkeit in eine Rangreihenfolge zu bringen 186 Vgl. Döring/ Bortz 2016, Kap. 8.6; Bergler 1975; Borg/ Staufenbiel 1989; Gerich 2010a, 2010b; Hennig, in: Friedrich/ Hennig 1975; Scheuch/ Zehnpfennig 1974; Schnell/ Hill/ Esser 1999, Kapitel 4.4.2; Sixtl 1976 und 1982. 187 Die Begriffe „Index“ und „Skala“ werden häufig uneinheitlich verwendet. Näherungsweise kann „Index“ als der allgemeinere Begriff verstanden werden, während „Skala“ für Spezialfälle steht, in denen für die Konstruktion ein bereits eingeführtes, methodisch getestetes und in der wissenschaftlichen Literatur dokumentiertes Verfahren existiert. 188 Für Einzelheiten wird auf die Übersicht bei Besozzi/ Zehnpfennig (1976) verwiesen. 189 Probleme, die in diesem Zusammenhang methodisch kontrolliert zu lösen sind, werden in vorbildlicher Weise von Rohrmann (1978) dargestellt. Obwohl der Erscheinungstermin schon recht lange zurückliegt, kann dieser Artikel immer noch jedem mit Umfragen arbeitenden Sozialwissenschaftler empfohlen werden. nicht empirisch prüfbare Struktur Indexbildung theoretisch begründet <?page no="231"?> 232 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 232 Indexmessung ist die Zuordnung von Zahlen zu Ausprägungen einer Eigenschaft von Objekten derart, dass der Skalenwert sich als Funktionswert von k Indikatorvariablen errechnet. Mathematisch ausgedrückt bedeutet das: I(a) =-i[f 1 (a),-…, f k (a)]. Hierbei bezeichnet a ein Objekt, I(a) seinen Index-Skalenwert, f j (a) seinen Messwert auf dem Indikator j (der gemessenen Variablen j); mit „i“ sei die Funktionsvorschrift bezeichnet, anhand derer aus den Indikatorwerten der Indexwert bestimmt wird. In den meisten Fällen von Indexmessung haben wir es mit additiven Indizes zu tun, so dass „i“ eine additive, gewichtete Kombination der Indikatoren bezeichnet. Es gibt aber auch multiplikative Modelle der Indexkonstruktion. Das Modell der additiven Indexkonstruktion unterstellt, dass sich die Werte auf den als Indikatoren herangezogenen Variablen gegenseitig kompensieren, dass also ein niedriger Wert auf Indikator 1 durch einen hohen Wert auf Indikator 2 ausgeglichen werden kann. Diese Annahme erweist sich aber nur dann als richtig, wenn die k Indikatoren sämtlich unabhängig voneinander auf die durch den Index zu messende Eigenschaft einwirken. Die arithmetische Operation „Addition“ stellt weiter an das Messniveau der Indikatorvariablen die Anforderung, dass sämtliche Indikatoren mindestens auf Intervallskalen-Niveau gemessen worden sind. Die Gewichtung der Indikatoren kann willkürlich oder unter Rückgriff auf Theorien/ Hypothesen geschehen. Im Zuge der Gewichtung muss in jedem Fall eine Vereinheitlichung der Maßeinheit erfolgen; man kann nicht z. B. für einen Index „soziale Schicht“ Monatseinkommen in Euro mit Bildung in Schuljahren und Berufsprestige in Punkten einer Prestigeskala addieren. Die Gewichtung kann aber auch unter Benutzung komplexer statistischer Modelle wie der multiplen linearen Regressionsrechnung vorgenommen werden (Vereinheitlichung der Maßeinheit über die Merkmalsvariation). Allerdings benötigt man dann zur Berechnung der Gewichte im Regressionsmodell zusätzlich zu den k Indikatorvariablen noch eine „Kriteriumsvariable“, auf die die Indikatorvariablen zurückgeführt werden können, d. h. eine Variable, die stellvertretend für die durch den Index zu messende Eigenschaft stehen soll. Dies wirft die Frage auf, warum die Indikatoren überhaupt gemessen werden und ein Index konstruiert wird, wenn das fragliche Merkmal (die durch den Index zu messende Eigenschaft) schon über die Kriteriumsvariable erfassbar ist. 190 190 Beispiel für eine sinnvolle Anwendung dieses Verfahrens: Die „eigentlich“ zu messende Eigenschaft ist nur mit sehr großem Erhebungsaufwand erfassbar; es existieren jedoch leicht erhebbare Indikatoren für Teildimensionen der interessierenden Eigenschaft. Ausgehend von den bei einer kleinen Stichprobe gewonnenen Daten (Indikatoren und Kriteriumsvariable) wird deshalb die Konstruktionsvorschrift für einen Index gewonnen, der in umfangreicheren Untersuchungen die Kriteriumsvariable ersetzt. Definition: Indexmessung additive Indexkonstruktion Messung mindestens intervallskaliert Gewichtung der Indikatoren Indexbildung durch Regression <?page no="232"?> 233 5.5 Messen durch Indizes (Indexmessung) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 233 Dieses Problem taucht bei einem anderen statistischen Modell, das ebenfalls zur Indexgewichtung und zur Berechnung von Indexwerten benutzt werden kann, nicht auf: der Faktorenanalyse. Bei diesem Verfahren werden die Indikatoren auf die „hinter den gemessenen Variablen“ stehenden „latenten Dimensionen“ zurückgeführt. Das heißt: An die Stelle einer empirisch messbaren Kriteriumsvariablen tritt ein nicht direkt messbares Konstrukt (Faktor genannt), von dem angenommen wird, dass es die Ausprägungen der Indikatorvariablen bewirkt (Kriterium der Variablenbündelung zu Dimensionen ist die Korrelation zwischen den Indikatorvariablen). Die für die ermittelten „Dimensionen“ (Faktoren) auf der Basis eines additiven Modells berechenbaren Ausprägungen je Untersuchungseinheit gelten dann als Indexwert der Untersuchungseinheiten: I(a). 191 Die Unterschiede des „Messens durch Indexbildung“ zum „strukturtreuen Messen“ seien noch einmal an einem ausführlicheren Beispiel verdeutlicht. Der Ausgangspunkt für die strukturtreue Abbildung ist ein eindimensionales empirisches Merkmal (z. B. Körpergröße), das in der Realität an einem Objekt (z. B. Person als Merkmalsträger) beobachtet werden kann. Dieses Merkmal wird durch einen präzise definierten Begriff sprachlich bezeichnet und durch geeignete Messvorschriften operationalisiert (Überführung in eine „Variable“ durch Festlegung der abzubildenden „Ausprägungen“, Angabe des zu verwendenden Messinstruments einschließlich der Protokollierungsvorschriften). Die Messwerte (Daten) kommen dadurch zustande, dass eine Person das Messinstrument in standardisierter Weise auf die „Messobjekte“ anwendet: 192 Vergegenwärtigen Sie sich also: Beim „strukturtreuen Messen“ werden die empirischen Eigenschaften von Objekten sowie die (unabhängig von der Messung vorhandene) Klassifikation dieser Objekte strukturerhaltend in Daten überführt. 191 Das Modell der Regressiongsrechnung wird in Kapitel 8.3 dargestellt. Zur Einführung in die Faktorenanalyse vgl. Kapitel 8.4.1, Wolff und Bacher (2010) sowie das psychologische Standardwerk von Pawlik (1967 etc.), zur Validität von Faktorenanalysen siehe Holz-Ebeling (1995). 192 Die messenden Personen können Feld- oder Laborforscher sein, die die Resultate der Anwendung spezifischer Instrumente (etwa für die Zeit-, Größen- oder Intensitätsmessung) in Protokollbögen notieren; oder Beobachter, die eingetretene Ereignisse auf standardisierte Weise festhalten; oder Interviewer, die die Reaktionen von Befragten in standardisierten Fragebögen ankreuzen. Im Falle von Befragungen können aber auch die Befragten selbst die messenden Personen sein, die als Informanten Auskünfte über die Ausprägung interessierender Merkmale geben (etwa Wohnungsgröße, Haushaltseinkommen, Häufigkeit von Nachbarschaftskontakten etc.) oder sie gegebenenfalls (bei schriftlichen Befragungen) sogar selbst in die Erhebungsbögen eintragen. Indexbildung durch Faktorenanalyse <?page no="233"?> 234 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 234 In den Fällen, in denen durch Indizes gemessen wird, existiert jedoch eine solche (in Messwerte abzubildende) eindimensionale empirische Struktur nicht. Vielmehr wird durch einen mehrdimensionalen Begriff eine theoretische Struktur definiert, in welche die Objekte anhand ihrer Ausprägung auf mehreren Merkmalen einzuordnen sind; anders ausgedrückt: Erst die Messung konstruiert die empirische Struktur. Anders ausgedrückt: Beim Konzept „Messen als strukturtreue Abbildung“ wird eine existierende empirische Struktur durch die Messwerte abgebildet. Beim Messen durch Indexbildung dagegen wird zunächst eine theoretisch begründete Struktur definiert, in die dann im Zuge der „Messung“ die empirischen Objekte anhand ihrer Merkmalsausprägungen eingeordnet werden. Bei der seinerzeit umstrittenen Volkszählung 1987 interessierte die Frage, in welchem Maße die bei der Erhebung eingesetzten Zähler diese Aufgabe freiwillig wahrnahmen oder lediglich „zwangsverpflichtet“ in die zu befragenden Haushalte gingen. Ein Hintergrund für dieses Interesse war die Befürchtung, dass „zwangsverpflichtete“ Zähler qualitativ schlechtere Arbeit leisten könnten: mehr Verweigerungen, unvollständig ausgefüllte Bögen etc. theoretische Struktur für Index entwerfen BEISPIEL Abbildung 5.4: Schematischer Ablauf des Messens Messinstrument u. Messvorschrift Variable Begri MESSUNG durch messende Person Daten Objekt / „Merkmalsträger“ zu messendes Merkmal M e r k m a l e <?page no="234"?> 235 5.5 Messen durch Indizes (Indexmessung) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 235 In einer im Anschluss an die Volkszählung durchgeführten schriftlichen Stichprobenerhebung bei eingesetzten Zählern lautete dementsprechend eine zentrale Frage: „Wie kam es dazu, dass Sie Zähler wurden? “ Die Antworten auf diese Frage können als Indikator für die dispositionale Eigenschaft „Freiwilligkeit“ gewertet werden. 193 Zusätzlich wurde gegen Ende des Fragebogens nach dem vermutlichen künftigen Verhalten gefragt: „Wenn Sie in Zukunft wieder vor die Frage gestellt würden, sich als Zähler an einer Volkszählung zu beteiligen: Wie würden Sie sich verhalten? “ 194 Auch die Antworten hierauf können als (weiterer) Indikator für die interessierende Disposition gewertet werden. Beide Indikatoren nähern sich dem Konstrukt jedoch aus unterschiedlicher Perspektive: Erhoben wird auf der einen Seite ein manifestes Verhalten in der aktuellen Situation, auf der anderen Seite eine unverbindliche Absichtserklärung mit Bezug auf eine extrem hypothetische künftige Situation. Theoretisch könnte argumentiert werden, dass die Disposition zur Übernahme staatsbürgerlicher Pflichten sich in manifestem Verhalten wie in hypothetischen Antworten jeweils „teilweise“ zu erkennen gibt und dass eine Kombination beider Aspekte die „bessere“ Annäherung an das Konstrukt sein dürfte. Damit wäre eine Antwort auf die bei jeder Indexkonstruktion zu beantwortende Frage gegeben: Welche Dimensionen soll der Index repräsentieren? (Hier: manifestes Verhalten und hypothetische Bereitschaft). Kombiniert man die Antworten auf beide Fragen in einer Kreuztabelle, so ergibt sich die folgende Verteilung (gerundete Werte): Zähler bei jetziger VZ Zähler bei evtl. zukünftiger VZ? Gesamt freiwillig nur bei Zwang dagegen wehren freiwillig 1400 160 40 1600 freiwillig nach Appellen 480 100 20 600 zu Teilnahme gedrängt 60 150 10 220 zwangsverpflichtet 60 240 30 330 2000 650 100 2750 Quelle: -H.-Kromrey,-H.-Treinen: Begleitforschung zur Volkszählung 1987. Zusatzuntersuchung: Erhebungsstellenund- Zählerbefragung, Bochum 1988 (im Auftrag des Statistischen Bundesamts, Wiesbaden); Häufigkeiten leicht gerundet. 193 Antwortvorgaben: 1. Ich habe mich aus eigener Initiative freiwillig gemeldet; 2. Ich habe mich nach Appellen zur Mitwirkung freiwillig gemeldet; 3. Ich bin mehr oder weniger zur Mitwirkung gedrängt worden; 4. Ich bin zwangsverpflichtet worden. 194 Antwortvorgaben: 1. Ich würde mich freiwillig als Zähler beteiligen; 2. Ich würde nur mitmachen, wenn ich als Zähler zwangsweise verpflichtet wurde; 3. Ich würde nicht wieder mitmachen und mich notfalls gegen eine zwangsweise Verpflichtung wehren. <?page no="235"?> 236 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 236 Die zweite zu beantwortende Frage der Indexkonstruktion lautet: Wie werden die repräsentierten Dimensionen kombiniert? Die Antwort ist im Idealfall theoretisch herleitbar, häufig jedoch nur nach Plausibilitätsgesichtspunkten zu begründen. Problemlos ist im obigen Beispiel lediglich die Zuordnung des höchsten Indexwertes bei den 1400 Befragten, die auf beide Fragen „freiwillig“ geantwortet haben. Für das andere Ende der Skala liegt es nahe, diejenigen 270 Personen, die bei der aktuellen VZ als zwangsverpflichtete Zähler mitwirkten und auch künftig allenfalls unter Zwang teilnehmen oder sich gar widersetzen würden, unter der Ausprägung „gar nicht freiwillig“ zusammenzufassen (niedrigster Indexwert). Für die restlichen 1080 Befragten drängt sich die Anordnung auf einer Dimension „Freiwilligkeit“ zumindest nicht auf. Im Falle der hier angesprochenen Untersuchung gab die Überlegung den Ausschlag, ob sich im Vollzug der Zählertätigkeit die Bereitschaft zur Teilnahme entweder im Positiven oder im Negativen verändert hatte. So finden sich in der linken Tabellenspalte 600 Personen, die künftig uneingeschränkt freiwillig eine solche Aufgabe übernehmen würden, obwohl sie sich diesmal allenfalls hatten überreden lassen oder gar zwangsverpflichtet werden mussten (Indexausprägung: positiver gewordene Bereitschaft). Übrig bleiben 480 Zähler, die diesmal mehr oder weniger freiwillig mitgewirkt haben, dies aber für die Zukunft ausdrücklich ausschließen (geringer gewordene Bereitschaft). Nach diesen Überlegungen ergäbe sich somit folgender Index „Freiwilligkeit“: Indexwert Beschreibung Zahl der Fälle 0 gar nicht freiwillig 270 1 geringer gewordene Bereitschaft 480 2 positiver gewordene Bereitschaft 600 3 konstant freiwillig 1400 Bei genauerem Hinsehen weist der Index aber noch eine für Zwecke der Datenauswertung wenig wünschenswerte Eigenschaft auf: mehr als der Hälfte der Personen musste die gleiche Ausprägung zugewiesen werden (3 =-konstant freiwillig). Der Informationswert fiele höher aus, wenn diese große Gruppe noch weiter untergliedert werden könnte. In der Tat bietet der Fragebogen die Möglichkeit dazu anhand der Antworten auf die Frage: „Falls Sie sich freiwillig gemeldet haben: War die Aussicht, mit der Tätigkeit als Zähler ein wenig Geld zu verdienen, ein wichtiger Grund für Ihre Entscheidung? “ 195 Korrespondenzhypothese: Bei Zählern, die aus innerer Überzeugung mitwirken, ist die dispositionale Eigenschaft „Freiwilligkeit“ stärker ausgeprägt als bei Personen, für die finanzielle Motive im Vordergrund standen. 195 Antwortvorgaben: 1. Das war für mich der Hauptgrund; 2. Das war für mich auch ein Grund, aber nicht der wichtigste; 3. Das hatte für meine Entscheidung keine Bedeutung. <?page no="236"?> 237 5.5 Messen durch Indizes (Indexmessung) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 237 Nach dieser Differenzierung erhalten wir jetzt die folgende Verteilung: Indexwert Beschreibung Zahl der Fälle 0 gar nicht freiwillig 270 1 geringer gewordene Bereitschaft 480 2 positiver gewordene Bereitschaft 600 3 freiwillig mit finanzieller Motivation 730 4 uneingeschränkt freiwillig 670 Zurück zum Vergleich mit dem Konzept „strukturtreues Messen“: Die Richtung der Zuordnung von Symbolen zu Messobjekten ist hier- - das soll das obige Beispiel illustrieren-- entgegengesetzt. Es wird nicht ein (unabhängig vom Forschungsinteresse gegebenes) empirisches relationales System in ein numerisches relationales System abgebildet, sondern es wird ein (theoretisch zu begründendes) numerisches relationales System konstruiert, dem im Zuge des „Indexmessens“ die Messobjekte zugeordnet werden (im obigen Beispiel etwa: wenn Person i bei einer künftigen VZ sich freiwillig als Zähler melden würde und diese Person i bei der jetzigen VZ freiwillig teilgenommen hat und für diese Person i finanzielle Motive im Vordergrund standen, dann gehört die Person zur Gruppe 3). 196 Alltagssprachlich formuliert: Die befragten Zähler werden während der Datenaufbereitung in „theoretische Schubladen“ einsortiert. Über die „Gültigkeit“ (Kapitel 4.3.2) dieser Operationalisierung kann bei diesem Messkonzept nicht mehr empirisch, sondern muss anhand der Überzeugungskraft der zu Grunde gelegten theoretischen Prämissen entschieden werden; denn die Struktur im empirischen Gegenstandsbereich existiert nicht unabhängig von der Messung, sondern wird durch die Messung konstruiert. Analoges gilt für das „Messniveau“, das ebenfalls nicht aus dem empirischen relationalen System herleitbar ist. Im obigen Beispiel ist natürlich das Nominalskalenniveau gesichert, denn jeder Befragte kann anhand der Klassifikationsvorschriften eindeutig genau einer Indexausprägung zugeordnet werden. Zweifelhaft ist dagegen schon, ob auch eine Rangordnung nach dem Grad der Freiwilligkeit hergestellt wurde. Voraussetzung für die Annahme eines Ordinalskalenniveaus wäre hier, dass man zum einen die Korrespondenzhypothese für die Differenzierung in finanziell Motivierte und uneingeschränkt Freiwillige akzeptiert sowie zum anderen der Überlegung zustimmt, eine Veränderung in Richtung höherer (niedrigerer) Teilnahmebe- 196 Gerade die weitere Ausdifferenzierung der ursprünglichen Kategorie „konstant freiwillig“ illustriert, dass bei der Indexkonstruktion weniger die Funktion „abbildende Messung eines Merkmals“ im Vordergrund steht als das Ziel, die untersuchten Personen differenziert und damit informationsreich zu klassifizieren. Anders ausgedrückt: Es wird nicht das Merkmal (hier: Freiwilligkeit) skaliert, sondern es werden die Objekte (hier: Zähler) klassifiziert. Indexmessung als Entwurf des-relationalen Systems Messniveau theoretisch festgelegt <?page no="237"?> 238 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 238 reitschaft korrespondiere mit stärkerer (geringerer) Ausprägung der Disposition „Freiwilligkeit“. Das hier dargestellte Beispiel für die Strategie Messen durch Indizes ist durchaus typisch für die Konstruktion von Daten in der empirischen Sozialforschung (siehe in ähnlicher Weise die Skizze für eine Indexmessung von „sozialer Schicht“ bei Schnell/ Hill/ Esser 1999, Kap. 4.4.1). Die Bildung solcher „Ad-hoc-Indices“ hat für die Datenanalyse insbesondere bei anwendungsorientierten Forschungsprojekten den unbestreitbaren Vorzug, dass die Befunde für die spezifischen Fragestellungen und Erkenntnisinteressen des jeweiligen Projekts passgenau aufbereitet sowie in anschaulicher und auch für Nichtstatistiker nachvollziehbarer Weise übersichtlich präsentiert werden können. Für sozialwissenschaftliche Forschung ist diese Praxis allerdings aus zweierlei Gründen problematisch: 197 - Zum einen werden solche ad hoc vorgenommenen Indexkonstruktionen selten auf ihre methodologischen Gütekriterien (Gültigkeit, Zuverlässigkeit) getestet und oft auch nicht so präzise dokumentiert, dass sich ihre messtheoretische Qualität nachprüfen ließe. - Zum anderen wird die Repräsentations- und die Kommunikationsfunktion der in empirischen Studien verwendeten sozialwissenschaftlichen Begriffe (siehe Kapitel 3.5) durch die prinzipielle Beliebigkeit solcher Operationalisierungen beeinträchtigt. Wenn Aussagen verschiedener Studien nicht mehr ohne Weiteres miteinander vergleichbar sind, wenn einander widersprechende Befunde zum gleichen Gegenstandsbereich auch aus unterschiedlichen Operationalisierungen resultieren können, dann leidet darunter das generelle Ziel empirischer Wissenschaft, nämlich Erkenntnisfortschritt (siehe Kapitel 1.3). 198 Für viele theoretische Konzepte der Sozialwissenschaft existieren mittlerweile methodologisch entwickelte und getestete Indizes und Skalen, die wissenschaftlichen Ansprüchen genügen. Sie stehen als „Zusammenstellung sozialwissenschaftlicher Items und Skalen (ZIS)“ im Internetangebot der Gesellschaft Sozialwissenschaftlicher Infrastruktureinrichtungen GESIS (http: / / zis.gesis.org) für interessierte Forscherinnen und Forscher zur Verfügung. Umfassend dokumentiert und erläutert werden hier über 200 in der Forschungspraxis erprobte Operationalisierungen aus vielfältigen Untersuchungsfeldern (Arbeit und Beruf, Gesundheit, Individuum/ 197 Ausführlich und mit vielen methodenkritischen Hinweisen wird die Problematik bei Wienold 2000 (Kap. 8: Wie religiös sind die Kölner? Zur Skalierung „christlicher Religiosität“) abgehandelt-- eine Pflichtlektüre für jeden, der sich selbst an die Operationalisierung eines theoretischen Konstrukts durch Indizes heranwagen möchte! 198 Allerdings ist die Bestätigung von Befunden mit unterschiedlichen Operationalisierungen, also beispielsweise unterschiedlichen Indizes, ein Vorteil, denn so sind wir uns sicher, dass die Ergebnisse nicht allein durch eine (möglicherweise falsche) Operationalisierung zustande gekommen sind (Roose 2013). Allerdings sollte man nicht den zweiten Schritt vor dem ersten machen. Entsprechend ist die Nutzung von etablierten Indizes zu bevorzugen, gerade für weniger erfahrene Sozialforscherinnen und Sozialforscher. Ad-hoc-Indices verfügbare, getestete Indizes <?page no="238"?> 239 5.5 Messen durch Indizes (Indexmessung) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 239 Persönlichkeit, Kultur/ Religion/ Bildung, politische Einstellungen und Verhalten, soziale Gruppen, soziale Netzwerke, soziale Probleme, Sozialisation und Familie, Umwelteinstellungen und Umweltverhalten). Sie bieten Anwendungsbeispiele für die in den Sozialwissenschaften gängigen Strategien der Konstruktion von Skalen zur Messung theoretischer Konstrukte, mehrdimensionaler Beurteilungen, latenter Persönlichkeitsmerkmale, Einstellungen etc. So enthält z. B. der Bereich „Individuum/ Persönlichkeit“ Skalen, die sich am Konzept „alienation“ von Seeman (siehe das Beispiel zur semantischen Analyse im Kapitel 3.3) orientieren. Für die Konstruktion von Skalen existieren unterschiedliche Strategien, von denen insbesondere die Ansätze des Ingenieurs und Psychologen Louis L. Thurstone (Methode der gleicherscheinenden Intervalle), des Organisationspsychologen Rensis Likert (Methode der summierten Einschätzungen) und des Sozialwissenschaftlers Louis Guttman (Skalogrammanalyse) für die Forschung einflussreich geworden sind. Die Likert-Skala ist die gegenwärtig wohl am häufigsten verwendete Strategie der Messung von Meinungen, Einschätzungen und Beurteilungen. Den Befragten werden zu einem Thema mehrere Aussagen vorgelegt, zu denen sie auf einer fünfstufigen Ratingskala angeben sollen, in welchem Ausmaß sie zustimmen (z. B. „stimme überhaupt nicht zu [1]“ bis „stimme voll und ganz zu“ [5] bei Meinungsbefragungen). In einer anderen Variante sollen die Befragten angeben, inwieweit ein behaupteter Sachverhalt zutrifft (z. B. „trifft überhaupt nicht zu“ [1] bis „trifft voll und ganz zu“ [5] bei der Erhebung von Bewertungen). Der Messwert der Likert-Skala ergibt sich aus der Addition der Werte der Einzel-Items (daher die Bezeichnung: Methode der summierten Einschätzungen) oder als deren Durchschnitt. Zu beachten ist, dass sich alle vorgelegten Aussagen auf die gleiche Dimension des zu messenden Konstrukts beziehen müssen. Bei mehrdimensionalen Konstrukten sind entsprechend mehrere Teilskalen zu konstruieren. Die Berechnungsstrategie für den Likert-Skalenwert (Addition und Mittelwertbildung) setzt metrisches Messniveau der einzelnen Ratings voraus. Damit wird unterstellt, dass die Befragten in der Lage sind, ihre Einstellung (a) in einen abgestuften Grad der Zustimmung zur vorgelegten Aussage (ihr subjektives relationales System) zu übersetzen und diesen dann (b) „korrekt“ in die Werte von 1 bis 5 (das numerische Relativ) abzubilden. Sofern diese Annahme berechtigt ist, erreichen die Likert-Messwerte Intervallskalenniveau. Angesichts dieser angestrebten hohen Messqualität muss eine neu zu entwickelnde Likert-Skala einen fest definierten Konstruktionsprozess durchlaufen. Dabei gilt es, zunächst rund 100 mögliche Aussagen zu sammeln. Diese gehen in einen Pretest ein, werden also in einer Vorstudie Personen zur Beantwortung vorgelegt. Die Ergebnisse werden statistisch analysiert, um herauszufinden, welche Items das Konstrukt besser abbilden als andere. Auf der Basis dieser Ergebnisse werden 10 bis 20 Aussagen für die endgültige Skala ausgewählt (ausführlich siehe Döring/ Bortz 2016, 269 f.). Auch bei der Guttman-Skala zur Messung eines Konstrukts (z. B. einer latenten Variable wie Bereitschaft zu politischer Beteiligung) liegen den Befragten eine Reihe von Aussagen vor, die jedoch jeweils nur mit ja oder nein zu beantworten sind, bei denen es also nicht um den Grad der Zustimmung geht. Stattdessen wird die „Stärke“ Konstruktion von-Skalen Likert-Skala Konstruktion der-Likert-Skala Guttman-Skala <?page no="239"?> 240 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 240 der Ausprägung des zu messenden Konstrukts, ob es also ein wenig oder sehr stark bei einer befragten Person vorliegt, durch die verschiedenen Aussagen selbst ausgedrückt. Sie sind so formuliert und dann sortiert, dass sie schrittweise eine immer stärkere Ausprägung repräsentieren. Für die Messung der „Bereitschaft zu politischer Beteiligung“ könnten z. B. die Items vorgegeben sein: (1) Ich werde zur Wahl gehen [ja/ nein]- - (2) Ich werde Geld für den Wahlkampf einer Partei spenden [ja/ nein]-- (3) Ich werde im Wahlkampf aktiv für eine Partei werben [ja/ nein]-- (4) Ich werde selbst für ein Mandat kandidieren [ja/ nein]. Der Skalenwert ergibt sich aus der jeweils höchsten noch befürworteten Aussage. Die Schwierigkeit der Konstruktion einer solchen Skala besteht darin, eine Anordnung von Aussagen zu finden, die für alle Befragten eine schrittweise Steigerung bedeuten (Döring/ Bortz 2016, 272 f.). Auch die Thurstone-Skala ist eine Sammlung von teils positiv, teils negativ formulierten Aussagen, die sich auf dasselbe Konstrukt beziehen und die von den Befragten befürwortet oder abgelehnt werden können. Während aber die Items der Guttman-Skala so formuliert sind, dass sie unmittelbar die Intensität des Merkmals zum Ausdruck bringen sollen, erfolgt bei der Konstruktion des Thurstone-Instruments die Intensitätsgewichtung durch Experten auf einer 11-stufigen Ratingskala (z. B. von -5 bis +5). Bei der Anwendung der Skala erhalten die Befragten die Items „unsortiert“ vorgelegt. Ihr Skalenwert ergibt sich aus der Addition der Gewichte der von ihnen bejahten Aussagen. (Döring/ Bortz 2016, 274 f.). 5.6 Der sozialwissenschaftliche Spezialfall: Messen durch Befragung Der standardisierte Fragebogen (siehe Kapitel 7.3) gilt als eines der typischen Messinstrumente der empirischen Sozialforschung. Man kann ihn-- im Vergleich zu spezifischen und spezialisierten Messwerkzeugen wie Meterstab für die Längenmessung, Waage zur Gewichtsfeststellung oder Uhr zur Zeitmessung- - als ein generalisiertes Messinstrument der Sozialforschung charakterisieren: Prinzipiell alle Sachverhalte können Gegenstand standardisierter Datenerhebung (=-„Messung“) sein. Das Instrument Fragebogen impliziert auch keine Beschränkungen dahingehend, welches Messmodell (Messen als strukturtreue Abbildung oder Messen durch Indizes) realisiert werden soll. Zu differenzieren ist allerdings nach der Funktion, die Befragter und Interviewer in der Messsituation ausüben. Man unterscheidet: 1) direktes Messen von Merkmalen am Befragten als Untersuchungsobjekt (der Befragte reagiert auf „verbale Stimuli“; Interviewer als „messende Person“, siehe Abbildung 5.4 in Kap. 5.5, S. 234): 2) indirektes Messen durch den Befragten (Befragter gibt standardisierte Auskünfte und ist somit zugleich die „messende Person“). BEISPIEL Thurstone-Skala Fragebogen: generalisiertes Messinstrument direktes Messen durch Befragung indirektes Messen durch Befragung <?page no="240"?> 241 5.6 Der sozialwissenschaftliche Spezialfall: Messen durch Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 241 zu 1): Konstruiert man die Befragungssituation, wie in der Demoskopie üblich, im Sinne eines „Reaktions-Experiments“ (Noelle-Neumann/ Petersen 1998; ausführlich dargestellt im Kapitel 7.3.1), gelten die Befragten als Versuchspersonen, deren Antworten auf die „Testfragen“ als Indikatoren für die an ihnen zu messenden Merkmale durch die Interviewerin bzw. den Interviewer anhand des entsprechend konstruierten Befragungsinstruments beobachtet und protokolliert werden. Realisiert wird in diesem Fall für die einzelnen Indikatoren das Messmodell „strukturtreue Abbildung“. Berechnet man anschließend (im Kontext des Analyseprozesses) aus den Daten mehrerer Indikator-Variablen zusammenfassende Indexwerte, um damit theoretische Konstrukte abzubilden, haben wir es mit dem Konzept „Messen durch Indizes“ zu tun. zu 2): Werden die Befragten dagegen in der Rolle von „Informanten“ angesprochen (Meulemann 1993), gelten die Antworten als Auskünfte über die Merkmale der interessierenden Objekte. Das jeweils „interessierende Objekt“ kann die befragte Person selbst sein (Selbstauskünfte über persönliche Merkmale wie Alter, Bildung, Einkommen, Parteipräferenz etc.), oder es kann ihr engerer Lebenskontext sein (Anzahl der Mitglieder des Haushalts, Alter und Beruf des Ehepartners, Größe der Wohnung etc.). Der Befragte kann aber auch gebeten werden, Informationen oder Beurteilungen über Sachverhalte zu geben, für die er in unterschiedlicher Weise als „Experte“ gilt: - als Bewohner eines Stadtgebietes ist er „Experte“ für die Beschreibung und Beurteilung der Ausstattung mit Infrastruktur, - als Autofahrer ist er „Experte“ für die Haltbarkeit der benutzten Pkw-Reifen, - als Studierender ist er „Experte“ für Angaben zur Vollständigkeit des Lehrangebots im besuchten Studiengang sowie zur Qualität der Lehre etc. In allen diesen Fällen ist nicht der Interviewer/ die Interviewerin die „messende Person“, sondern diese Funktion übernimmt der/ die Befragte. Er/ sie reagiert nicht auf einen Test-Stimulus, sondern teilt mit, welche „Messwerte“ für die interessierenden Merkmale bei den interessierenden Objekten zutreffen bzw. durch ihn/ durch sie zugewiesen werden. Damit diese Wertezuweisung durch die befragte Person als Messung gelten kann, muss streng genommen eine Reihe formaler Voraussetzungen erfüllt sein: - Der „Gegenstand“ (das Objekt) der Beurteilung ist eindeutig definiert. - Das zu messende „Merkmal“ (Variable) ist eindeutig definiert und operationalisiert. - Eine „Messskala“ (Vergleichsmaßstab) existiert und ist eindeutig definiert (einschließlich eindeutiger Skalen-Endpunkte sowie unterscheidbarer Abstufungen zwischen den Skalen-Endpunkten). - Die Befragten sind in der Lage, den „Gegenstand“ intersubjektiv übereinstimmend zu identifizieren, das zu messende „Merkmal“ intersubjektiv übereinstimmend zu erkennen und die „Messskala“ in intersubjektiv übereinstimmender Weise anzuwenden. Antworten als Indikatoren Antworten als Auskünfte Wertzuweisung durch Befragte Voraussetzungen für Wertzuweisung durch Befragte <?page no="241"?> 242 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 242 Es dürfte leicht nachzuvollziehen sein, dass diese Bedingungen schwer erfüllbar sind. Dies erklärt die hohe Bedeutung, die der Methodologie der Befragung für eine standardisiert verfahrende Sozialforschung zukommt (dazu ausführlicher Kap. 7.3). Noch anspruchsvoller sind die Voraussetzungen, wenn durch Befragung „evaluiert“, wenn „Qualität gemessen“ werden soll (siehe oben: Befragter als „Experte“; zum Evaluationsdesign siehe Kapitel 2.4.4). Über die genannten formalen Voraussetzungen hinaus, die bei jeder „Messung durch Befragung“ erfüllt sein müssen, ist zusätzlich Folgendes sicherzustellen: - Das „Kriterium” der Beurteilung („Qualitäts-Merkmal”) ist eindeutig definiert (Unter welchem Gesichtspunkt soll der zu evaluierende Gegenstand eingeschätzt werden? ). - Ergänzend ist ein (Vergleichs-)„Standard” vorgegeben (Wann ist etwas „gut”, wann „schlecht”, wann „mittelmäßig”? etc.). - „Kriterium“ und „Standard” werden von allen Evaluierenden in gleicher Weise interpretiert und in intersubjektiv übereinstimmender Weise angewandt. 5.7 Zuverlässigkeit (Reliabilität) der Messung Als ein Gütekriterium empirischer Sozialforschung haben wir bereits die Gültigkeit (Validität) der Operationalisierung genannt. An dieser Stelle führen wir nun die Zuverlässigkeit (Reliabilität) der Messung als ein weiteres Gütekriterium ein. Zur Erinnerung: Fasst man als „Messinstrument“ der empirischen Forschung die gesamte empirische Untersuchung auf (dies gilt insbesondere im Falle von Messung durch Befragung), dann sind deren Ergebnisse in dem Maße gültig, wie im Zuge der Messoperationen (im weitesten Sinne) genau das erfasst wird, worauf die verwendeten und definierten Begriffe in ihrem Bedeutungsgehalt verweisen. Beziehen sich die Begriffe auf nicht direkt erfassbare Sachverhalte, dann ist das Problem der Gültigkeit zweistufig: Zunächst stellt sich die Frage, ob die für die empirische Erfassung des gemeinten Phänomens benutzten Indikatoren (die direkt beobachtbaren Sachverhalte) das Vorliegen des interessierenden Merkmals auch tatsächlich eindeutig anzeigen (d. h. ob sie als Indikatoren gültig sind; vgl. Kapitel 4.1). Zweitens ist die Gültigkeit der Operationalisierung der gewählten Indikatoren zu klären (vgl. Kapitel 4.3.2). Im Unterschied zur übergreifenden und insbesondere semantisch zu prüfenden Frage der Gültigkeit geht es bei der Zuverlässigkeit um ein eher „technisches“ Problem, nämlich in welchem Maße die zur Messung verwendeten Instrumente „fehlerfrei“ arbeiten, also den „wahren Wert“ der Indikatorvariablen korrekt anzeigen. Esser illustriert die mit dem Konzept „Zuverlässigkeit“ angesprochene Fragestellung an einem sehr anschaulichen Beispiel: anspruchsvolle Voraussetzungen Güterkriterium: Zuverlässigkeit (Reliabilität) Gültigkeit Zuverlässigkeit <?page no="242"?> 243 5.7 Zuverlässigkeit (Reliabilität) der Messung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 243 „Es sei ein Gewehr auf einem Schießstand fest montiert und auf eine Scheibe ausgerichtet. Das Gewehr sei das ‚Messinstrument‘ und die Scheibe die ‚angezielte‘ Dimension. Wenn man nun eine Anzahl von Schüssen abfeuert, dann streuen diese- - wegen verschiedener Zufallseinflüsse- - unsystematisch. Diese Streuung entspräche der (Un-)Zuverlässigkeit. Zuverlässigkeit ist-… die Abwesenheit von unsystematischen Messfehlern. Trotz der Streuung konzentrieren sich jedoch relativ viele Einschüsse um einen bestimmten Punkt. Wenn dieser Punkt tatsächlich der angezielte Punkt auf der Scheibe war, dann wird das richtige ‚Ziel‘ getroffen. Dies entspräche der (Un-) Gültigkeit. Gültigkeit ist-… die Abwesenheit von systematischen Messfehlern. 199 Man sieht auch, dass u. U. alle Schüsse auf einen Punkt-- und gleichzeitig (sehr präzise und ohne Streuung) das falsche Ziel treffen können: Zuverlässigkeit ist auch bei Ungültigkeit möglich. Andererseits wird ein unzuverlässiges Instrument nur ausnahmsweise auch genau ‚ins Schwarze‘ treffen- - also gültig sein.“ (Esser 1984, II, 31) Eine umfassende Definition findet sich bei Esser/ Klenovits/ Zehnpfennig (1977, Bd. 1, 93): Zuverlässigkeit ist „die intertemporale, intersubjektive und interinstrumentelle Stabilität erhaltener Messwerte“ (Esser/ Klenovits/ Zehnpfennig 1977, Bd. 1, 93). Sehen wir uns die Formen der Zuverlässigkeit näher an. Intertemporale Stabilität der Messwerte bedeutet, dass bei wiederholter Messung desselben Phänomens das Messinstrument die gleichen Ergebnisse hervorbringt. Die Überprüfung der intertemporalen Stabilität ist allerdings problematisch. Es müsste nämlich eine Möglichkeit gegeben sein, unabhängig vom verwendeten Messinstrument zu kontrollieren, ob das zu messende Phänomen sich zwischen dem Zeitpunkt der ersten Messung und dem Zeitpunkt der Messwiederholung nicht 199 Zur Erläuterung: Esser formuliert hier aus der Perspektive der Operationalisierung. Aus diesem Blickwinkel manifestiert sich „Ungültigkeit“ als systematische Abweichung vom „wahren Wert“ des zu operationalisierenden Konstrukts, „Unzuverlässigkeit“ des Messinstruments dagegen als unsystematische Messwerte-Streuung um den Erwartungswert der Indikatorvariablen. Aus der Perspektive der gemessenen Daten ist dagegen jede Abweichung eines (einzelnen) Messwerts auch eine Beeinträchtigung der Gültigkeit. Während aus der ersten Perspektive analytisch eindeutig zwei verschiedene Gütekriterien (Gültigkeit und Zuverlässigkeit) abgrenzbar sind, ist aus der Sicht der gemessenen Daten die Zuverlässigkeit ein Teilaspekt der (allgemeineren) Gültigkeit. BEISPIEL Definition: Zuverlässigkeit intertemporale Zuverlässigkeit Problem der Prüfung intertemporaler Zuverlässigkeit <?page no="243"?> 244 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 244 verändert hat, ob also die Situation in t 2 hinsichtlich der interessierenden Eigenschaft identisch ist mit der Situation in t 1 . Auch große Differenzen zwischen den Messergebnissen zu verschiedenen Zeitpunkten müssen noch kein Beweis für mangelnde intertemporale Stabilität des Messinstruments sein. So könnten etwa geäußerte Meinungen von Befragten in einer zweiten Befragung sich von den in der ersten Befragung geäußerten Meinungen aufgrund tatsächlich vollzogener Meinungsänderungen unterscheiden. Diese Meinungsänderung kann sogar dadurch eingetreten sein, dass die erste Befragung Anlass war, „sich die Sache nochmals durch den Kopf gehen zu lassen“; damit hätte das Messinstrument selbst die Veränderung der Situation hervorgerufen. Die Identität der Situation zu verschiedenen Messzeitpunkten unterstellt, hängt die intertemporale Stabilität eines Messinstruments von seiner Genauigkeit, (seiner Präzision) ab: Vage formulierte Fragen können einmal so, ein anderes Mal ganz anders beantwortet werden (oder auch: Sie können von dem einen Befragten so, von dem anderen Befragten ganz anders verstanden werden, vgl. Rohrmann 1978); eine ungenau gearbeitete mechanische Zeigerwaage kann trotz gleicher Masse eines Gegenstandes bei verschiedenen Messungen unterschiedliche Gewichte anzeigen. Intersubjektive Stabilität der Messwerte heißt: Wenn verschiedene Personen dasselbe Phänomen mit Hilfe desselben Instruments messen, dann erzielen sie die gleichen Ergebnisse. Auch die Überprüfung dieser zweiten Zuverlässigkeitsdimension ist bei sozialwissenschaftlichen Messinstrumenten (etwa Befragung) problematisch, weil in den wenigsten Fällen verschiedene Personen denselben Sachverhalt messen können, ohne dass die im vorigen Abschnitt (intertemporale Stabilität) genannten Schwierigkeiten auftauchen. Wo allerdings parallele Anwendungen desselben Instruments auf dieselben Sachverhalte durch verschiedene Personen möglich sind (bei bestimmten Formen der Beobachtung, bei der Inhaltsanalyse), kann die Zuverlässigkeit des Instruments getestet und verbessert werden. Die intersubjektive Stabilität wird manchmal auch als „Objektivität des Messinstruments“ bezeichnet. Damit wird betont, dass die erzielten Ergebnisse von dem das Instrument benutzenden Forscher (von der Person des Messenden) unabhängig sein sollen. Der dritte Aspekt, die „interinstrumentelle Stabilität der Messwerte“, verweist darauf, dass die gleiche Merkmalsdimension durchaus mit Hilfe unterschiedlicher Instrumente gemessen werden kann. Präzision als Bedingung intertemporaler Stabilität intersubjektive Stabilität Problem der Prüfung interpersonaler Zuverlässigkeit Objektivität des Messinstruments interinstrumentelle Stabilität <?page no="244"?> 245 5.7 Zuverlässigkeit (Reliabilität) der Messung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 245 Das Alter von Personen lässt sich durch Befragung oder durch Auswertung geeigneter Akten ermitteln; eine bestimmte Ereignisfolge in der Öffentlichkeit kann mit Hilfe eines standardisierten Beobachtungsbogens an Ort und Stelle erfasst oder auf Videorecorder aufgezeichnet und später ausgewertet werden. Diese dritte Dimension von Zuverlässigkeit ist allerdings kaum von der Frage der Gültigkeit der Operationalisierung zu trennen. In den Sozialwissenschaften verwendete unterschiedliche Messinstrumente bilden im Allgemeinen nicht genau den gleichen Ausschnitt der Realität ab, sondern erfassen mehr oder weniger unterschiedliche Aspekte desselben Sachverhalts: Die Beobachtung von Verhalten bringt andere Informationen-- nämlich Informationen über andere Ausschnitte aus dem Komplex „Verhalten“- - als die Frage nach demselben Verhalten. Schon aus diesem Grunde können und werden die Ergebnisse differieren und im Hinblick auf den gemeinten Sachverhalt mehr oder weniger „gültig“ sein. Was den Vergleich der Zuverlässigkeit mehrerer Messverfahren angeht, so besteht das Problem u. a. darin, einwandfreie „Vergleichsgrößen“ zu finden. Es werden sich kaum Testsituationen konstruieren lassen, in denen man entscheiden könnte, welches Instrument „zuverlässiger“ ist-- wie dies etwa bei dem Vergleich der Messergebnisse zweier Waagen anhand von Eich-Gewichten möglich ist. Wie steht es nun mit den Beziehungen zwischen den beiden Gütekriterien Gültigkeit und Zuverlässigkeit? Wenn man sagt, dass durch „gültige“ Operationen genau das in der Realität erfasst wird, was mit den in der Forschung verwendeten Begriffen gemeint ist, dann kann die Gültigkeit niemals höher sein als die Zuverlässigkeit des verwendeten Messinstruments. Denn in dem Maße, wie unterschiedliche Messwerte nicht Unterschiede des gemessenen Merkmals zum Ausdruck bringen, sondern Resultat mangelnder Stabilität der Messergebnisse sind, sind auch die Forschungsergebnisse insgesamt nicht „gültig“. Zuverlässigkeit ist somit eine notwendige Bedingung für Gültigkeit; sie ist aber keine hinreichende Bedingung. Messwerte können in noch so hohem Maße intertemporale, intersubjektive und interinstrumentelle Stabilität aufweisen, also „zuverlässig“ sein: Sobald unangemessene („falsche“) Indikatoren ausgewählt und gemessen werden, sind die Resultate nicht gültig in Bezug auf das, was mit den theoretischen Begriffen gemeint war. Das Messinstrument misst dann „zuverlässig“ falsch: Es misst etwas anderes, als es messen soll. BEISPIEL Problem der Prüfung interinstrumenteller Zuverlässigkeit Vergleich fehlt Vergleichsgröße Beziehung Gültigkeit und Zuverläsigkeit Gültigkeit nie höher als Zuverlässigkeit Zuverlässigkeit notwendige Bedingung für Gültigkeit <?page no="245"?> 246 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 246 5.8 Annotationen aus der Perspektive qualitativinterpretativer Methoden Bei aller Wichtigkeit von Daten für die empirische Sozialforschung sollte nicht in Vergessenheit geraten, dass das analytische Bemühen qualitativ-interpretativer Sozialforscher sich auf das Untersuchungsfeld selbst bezieht: auf soziale Situationen, Prozesse, Institutionen etc. ‚Daten‘ als Aufzeichnungen aus diesen Untersuchungsfeldern erlauben es den Forschenden, sich vom Handlungsdruck der untersuchten Situationen zu entlasten, um räumlich-zeitlich unabhängig davon analytisch werden und die „Kunst der Interpretation“ (Bude 2000) zur Entfaltung bringen zu können. Das macht es erforderlich, analytisch relevante Ausschnitte der zu untersuchenden ‚flüchtigen‘ Situation in eine dauerhafte Form zu überführen: Bandmitschnitte, Videoaufzeichnungen, Transkripte, ethnografische Protokolle etc.-- das also, was wir gemeinhin ‚Daten‘ nennen. Auch die in der Literatur zu standardisierten Methoden dominierende Sichtweise, dass ‚Daten‘ Informationen sind, die einer universell existierenden Realität unter Einsatz geeigneter Instrumente im Sinne eines Messvorgangs abzugewinnen sind, wird in der qualitativ-interpretativen Sozialforschung überwiegend abgelehnt. Die Kritik speist sich aus den erkenntnis- und wissenschaftstheoretischen Grundsätzen qualitativ-interpretativer Methodologien (vgl. Kap. 2.5: Annotationen) und bezieht sich zunächst auf den Status dessen, was wir als ‚Daten‘ bezeichnen, sowie auf die Rolle der Forschungssubjekte im Prozess der Datengenese. Wenn wir Realität nicht im Sinne einer universellen, für alle Handelnden identischen Gegebenheit auffassen, sondern die Beobachterperspektive als integralen Bestandteil der Wirklichkeitskonstitution ansehen, dann ergibt sich schlüssig, dass dies auch für die wissenschaftliche Beobachtung gelten muss: Auch Forscher-- so wäre hier das Argument- - sind in die Konstitution ihrer Realität permanent involviert. Die Datenerhebungstechniken der standardisierten Sozialforschung ignorieren das Argument der Involviertheit zwar nicht, sie gehen aber anders damit um: Subjektivität der Forschenden wird dort nicht als notwendiger und-- reflektiert eingesetzt-- auch nützlicher Bestandteil des Forschungsprozesses verstanden, sondern als potenzielle Störung des Messvorgangs. In dieser Perspektive sind Messtechniken und Messinstrumente Mittel zur Ausschaltung oder Minimierung dieser Störgröße im Prozess der Datenerhebung. 200 Das Gütekriterium der Objektivität spiegelt diese Intention wieder, denn im Sinne der axiomatischen Messtheorie (siehe Kapitel 5.4) ist eine Messung dann objektiv, wenn das Ergebnis bei ansonsten gleicher Messsituation trotz wechselnder Beobachter gleich bleibt. Qualitativ-interpretative Forscher verstehen den Prozess der Datengewinnung hingegen eher als einen Dialog mit der Empirie, d. h. mit dem ‚Feld‘ bzw. mit den Informanten. Instrumente und Techniken werden dazu nicht primär in der Perspektive vergleichbarer Messergebnisse entwickelt, sondern mit Blick auf eine möglichst intensive, die Spezifität, Kontextualität und Tiefgründigkeit des Falles erfassende 200 Vgl. kritisch dazu Cicourel (1974) und Devereux (1984). Datenmaterial als-Handlungsentlastung Beteiligung der Forschenden an-Wirklichkeitskonstitution <?page no="246"?> 247 5.8 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 247 Situation des Informationsgewinns. Wichtigstes Mittel qualitativ-interpretativer Forschung sind die Forschenden selbst: Ihre Fähigkeit, eine intensive und vertrauensvolle Situation mit Informantinnen und Informanten herzustellen und sich in die befragten oder beobachteten Personen hineinzuversetzen (Empathie), ohne deren Perspektive unreflektiert zu übernehmen, sind zentrale Leistungsmerkmale dieser Form der Datengewinnung. 201 Sie setzen die persönliche Präsenz der Forschenden im Feld voraus-- anders als in der standardisierten Forschung, in der Datengewinnung und Analyse sehr häufig organisatorisch und personell deutlich voneinander getrennt sind und viele Forschende ihr Feld nicht aus eigener Anschauung kennen. Ein weiterer zentraler Aspekt der Datengewinnung in der qualitativ-interpretativen Sozialforschung betrifft die Verschränkung von Genese und Analyse des Datenmaterials. Der Prozess der Datengewinnung wird nicht damit als abgeschlossen betrachtet, dass ein Interview durchgeführt und verschriftlicht oder ein Protokoll einer Beobachtung oder eines Feldforschungsaufenthaltes geschrieben ist. Transkripte oder Protokolle sind vielmehr nur ein-- wichtiger-- Zwischenschritt, eine Etappe auf dem Weg der allmählichen Verfertigung des Datenmaterials. Denn im fortschreitenden analytischen Prozess wird dieses Material weiter zugerichtet, indem die Forschenden Teile davon unter Bezug auf ihre Forschungsfragen auswählen, um sie genauer zu interpretieren und zu analysieren. 202 Mit der Auswahl als zu analysierendes Materialstück ist immer eine Bedeutungszuweisung, also eine Abstraktion verbunden, die sich aus der Orientierung an einer Forschungsfrage speist. Ein Grundgedanke standardisierter Methoden besteht darin, einzelne Informationseinheiten dadurch miteinander vergleichbar zu machen, dass sie unter (idealtypisch) identischen Kontextbedingungen erhoben wurden: Die identisch formulierte Frage in einem Fragebogen, die allen Befragten vorgelegt wird, oder die immer wieder identisch reproduzierte Form eines Experiments mit einer größeren Zahl von Teilnehmenden. All dies zielt auf Daten, deren mögliche Varianz eben nicht auf differente Untersuchungssituationen zurückzuführen sein soll (dann wäre es ein Forschungsartefakt), sondern auf systematische Unterschiede im untersuchten Realitätsausschnitt verweisen soll. Diese Idee von Vergleichbarkeit spielt in der qualitativ-interpretativen Sozialforschung eine untergeordnete Rolle. Zwar wird auch hier systematisch Datenmaterial produziert und verglichen, aber im Vordergrund der Datengewinnung steht die Erarbeitung eines möglichst umfassenden und detaillierten Fallverständnisses, auf dessen Basis dann erst fallvergleichende Typisierungen und Generalisierungen ansetzen. So 201 Weil in diesem Sinne die Daten nicht einfach in der Realität gesammelt, sondern interaktiv hervorgebracht oder ‚gewonnen‘ werden, ist hier der Begriff der „Datengewinnung“ angemessener als der der „Datenerhebung“. Auch der Begriff „Daten“ selbst ist durchaus problematisch, weil er eher auf partikularisierte und dekontextualisierte Informations“stücke“ zielt. Als ein Kompromiss zwischen begrifflicher Genauigkeit und Anschlussfähigkeit wird daher hier vorwiegend der Begriff „Datenmaterial“ verwendet 202 Mead schreibt dazu: “But facts are not there to be picked out. They have to be dissected out, and the data are the most difficult of abstractions in any field. More particularly, their very form is dependent upon the problem within which they lie” (Mead 1938, 98). persönliche Präsenz der Forschenden im-Feld Daten als Prozess detailliertes Fallverständnis statt Vergleichbarkeit <?page no="247"?> 248 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 248 ist es in vielen Forschungsdesigns qualitativer Provenienz durchaus üblich, den Leitfaden eines qualitativen Interviews im Verlauf des Forschungsprozesses weiter zu entwickeln und etwa neu entdeckte Themenbereiche mit einzubeziehen oder Themen nicht mehr abzufragen, die sich nach den Erfahrungen mit ersten Interviews als weniger zielführend erwiesen haben. Auch werden Fragen im Interview oder Beobachtungsperspektiven in der Ethnografie fallweise so variiert, dass sie eine möglichst gute Chance für eine umfassende und tiefgründige Erforschung des einzelnen Falles bieten. Mit anderen Worten: Es werden nicht lauter gleiche Interviews mit verschiedenen Menschen geführt, sondern die Interviews oder auch die Beobachtungperspektiven passen sich der Unterschiedlichkeit der einzelnen Fälle und der sich weiter entwickelnden Forschungsfrage der Untersuchung an. Auch wenn in den letzten Jahren audiovisuelle Medien eine stärkerer Rolle in der Datengewinnung einer qualitativ-interpretativen Sozialforschung spielen: der gebräuchlichste Datentyp ist hier- - aus methodologischen wie aus pragmatischen Gründen-- weiterhin der Text. Denn das analytische und interpretative Bemühen qualitativ-interpretativer Ansätze richtet sich durch die produzierten Daten hindurch vorrangig auf die semantische Struktur des Untersuchungsfeldes. Und auch dort wo, etwa in ethnografischen, praxeologischen Forschungen, die Handlungspragmatik des Feldes im Vordergrund steht, erfordert die systematischen Analyse in der Regel Formen der Verschriftlichung der flüchtigen sozialen Prozesse in Form von Protokolltexten. Die im Datenmaterial manifestierte Bedeutungsaufschichtung gilt es, mit interpretativen und analytischen Mitteln herauszuarbeiten. Dazu eignet sich die Textform besonders gut, weil Sprache die uns am besten verfügbare Repräsentationsform von Bedeutungen und Wissen ist. Zwar wird mit dem Text gegenüber der ursprünglichen Interaktionssituation (z. B. der Interview- oder der Beobachtungssituation) eine bedeutende Reduktion der situativ möglichen Sinneserfahrungen allein auf verbale Äußerungen vorgenommen, doch angesichts der zentralen Rolle sprachlicher Kommunikation nimmt man dies in der Regel in Kauf. Die produzierten und verarbeiteten Textsorten unterscheiden sich jedoch teilweise erheblich voneinander: Eine sehr grundlegende Form ist die Abschrift (Transkription) von Interviews, die auf Band (bzw. heute üblicher: in digitalen Dateien) aufgezeichnet wurden. Aber auch verbale Interaktionen, in die die Forschenden nicht einbezogen sind, werden teilweise aufgezeichnet und verschriftlicht (etwa Gespräche bei Tisch; vgl. Keppler 1994). Diese verbreitete Form der Aufzeichnung verbaler Daten geht allerdings mit einer wesentlichen Einschränkung einher: Es werden auf diese Weise eben ausschließlich die verbalisierten Bestandteile von Handlungen, Interaktionen und Bewusstseinsinhalten in die analytische Situation der qualitativ-interpretativen Datenanalyse transportiert. Dabei darf allerdings nicht in Vergessenheit geraten, dass die im Transkript nicht erfassten nicht sprachlichen Bestandteile von Interaktionssituationen oft wesentlich zu deren Gelingen oder Misslingen (bzw. in analytischer Perspektive: zu deren Aufklärung) beitragen: Körperhaltungen, Blicke, Gerüche, räumliche Arrangements entgehen der Aufmerksamkeit einer nur vermeintlich exakten und vollständigen Aufzeichnung. Datenmaterial ‚Text‘ Rolle von Transkriptionen <?page no="248"?> 249 5.8 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 249 Davon zu unterscheiden sind die Protokolle, die in der qualitativen Beobachtung und Ethnografie von den Forschenden verfasst und später analytisch weiter bearbeitet werden; denn hier handelt es sich nicht einfach um Abschriften stattgehabter verbaler Interaktionen, sondern um Beschreibungen und damit immer schon um Interpretationsleistungen der Forschenden, die ihr Erleben der beobachteten Situation zu Papier bringen. Der Übergang vom Protokollieren beobachteter Ereignisse zur sozialwissenschaftlichen Interpretation und Analyse ist bei diesem Datentyp fließend. Die Verschriftlichung des Beobachteten in der Ethnografie ist-- gerade unter dem Einfluss konstruktivistischer Ansätze-- zum Gegenstand wichtiger Debatten in der qualitativen Sozialforschung geworden. Mit der „Krise der Repräsentation“ stellt sich die Frage nach dem Wert einer sich als Repräsentation verstehenden Be-Schreibung von Realität ebenso wie die nach der Rolle der schreibenden Ethnografen: Wenn Realität im fortwährenden Handeln entsteht und an dieses perspektivisch gebunden ist: Welche Bedeutung kommt dann einer Beschreibung zu, die diese Realität dokumentieren will? Reichertz etwa betont, dass ethnografische Berichte als „Deutung der zurückliegenden Deutungs- und Forschungspraxis“ verstanden werden müssen und daher sowohl die Praxis des Schreibens als auch die Wissenschaftlichkeitsstandards, die an sie anzulegen sind, besonderer Beachtung bedürfen (Reichertz 1992, 342). In etwas anderer Perspektive fragt Stefan Hirschauer, ob nicht das ethnografische Schreiben etwas leistet, das alle anderen Formen textorientierter Sozialforschung nicht zu leisten vermögen, nämlich die Verschriftlichung des Vor- und Außersprachlichen, und ob diese Art des Schreibens sich dann nicht auch offensiv als ein analytisches Schreiben definieren und an diesem Anspruch bemessen lassen muss (Hirschauer 2001). Auch er stellt damit den rein dokumentarischen Charakter ethnografischer Berichte in Abrede und betont die Rolle des ethnografischen Beobachters als ein Drittes zwischen Ereignis und Repräsentation. Einen dritten textuellen Datentypus schließlich stellen Dokumente dar, die im untersuchten Feld gesammelt werden, seien es Selbstdarstellungen von Unternehmen, Familienchroniken, Organigramme, Liebesbriefe, oder E-Mail-Archive. Diese Texte zeichnet aus, dass sie nicht erst im Kontext der Forschung produziert wurden, sondern der Forschung bereits vorangingen, in diesem Sinne also ‚Verhaltensspuren‘ darstellen. In der qualitativen Forschung liegt ihre Bedeutung allerdings nicht in ihrer-- sieht man vom Prozess der Auswahl einmal ab-- Unabhängigkeit vom Forschungsprozess, sondern darin, dass sie Vergegenständlichungen (Objektivationen) von Kulturen, Politiken, Einstellungen und Interaktionsbeziehungen, von sozialer Praxis also darstellen. Ihre Analyse kann uns daher Aufschluss über eben diese Praktiken geben. Gerade mit der Zunahme computervermittelter Interaktionen (etwa über verschiedene Internetdienste) nimmt sowohl die Verfügbarkeit als auch die Bedeutung von Dokumentendaten in der qualitativen Sozialforschung zu (Bergmann/ Meier 2000). Neben textuellen Daten gewinnt audiovisuelles Datenmaterial an Bedeutung. Mit den ersten Tonbandaufzeichnungen von Interviews entwickelte sich auch die Idee einer fast naturalistischen Konservierung und Dokumentation sozialen Geschehens. Die Verfügbarkeit und Präzision der Aufzeichnung zunächst auditiver und Beobachtungsprotokolle als Interpretationsleistung Krise der Repräsentation Dokumente als Datenmaterial audiovisuelles Datenmaterial <?page no="249"?> 250 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 250 später-- mit der Verbreitung der Video-Technologie-- auch visueller Daten brachte nicht nur neue analytische Möglichkeiten in die Sozialforschung, sie warf auch methodologische Fragen mit neuer Schärfe auf: Handelt es sich bei diesen zum Teil auch als „natürliche“ Daten bezeichneten Materialien (Bergmann 1985) nun um Abbilder der Realität, und liegen diese gewissermaßen vor dem interpretatorischen Eingriff des Forschers? Bei aller Genauigkeit der Aufzeichnungstechnik zeigt sich aber auch bei diesen Materialien schnell ein konstruierendes Moment: Der Interviewmitschnitt versucht Hintergrundgeräusche auszublenden, und gelegentlich wird die Aufzeichnung auch, z. B. für vertrauliche Informationen, unterbrochen; Videokameras werden auf bestimmte Geschehnisse, auf Zitate von Situationen gerichtet, wobei die Auswahl der Perspektiven und Detaillierungen den Eingriffen der Forschenden unterliegt. Auch hier also stellt sich die Repräsentationsfrage: Wenn Forscher/ innen Tonbandprotokolle und Videodateien bzw. deren Transkriptionen bearbeiten, analysieren sie dann Ton-, Bild- oder Textdokumente oder die Situationen, in denen sie entstanden sind? Die Rolle audiovisueller Medien wird insbesondere in der Ethnografie kontrovers diskutiert: Während etwa Knoblauch (2001, 2002) für eine den Feldaufenthalt der Ethnografen ergänzende videografische Datenproduktion eintritt, die die Selektivität ihres Zugriffs aus dem ‚fokussierten‘ Erkenntnisinteresse der mit dem Feld bereits vertrauten Forscher legitimiert, kritisieren Breidenstein und Hirschauer (2002) den partiellen Ersatz des Ethnografen durch die Kamera als reduktionistisch (vgl. dazu auch die Annotationen zur qualitativen Datengewinnung: Kapitel 7.5). Allerdings sind Video und Fotografie gerade in ethnografischen Studien zunehmend genutzte Medien (Breckner 2003, Tuma/ Schnettler/ Knoblauch 2013), die die ethnografische Beobachtung nicht ersetzen, sondern um neue Zugänge erweitern. Der Etabliertheit und Dominanz textueller Datentypen entsprechend, aber auch ihrer Unterschiedlichkeit Rechnung tragend, ist das analytische Repertoire der qualitativ-interpretativen Sozialforschung hier besonders ausdifferenziert und vielfältig. Einige Verfahren setzen eine spezialisierte Datengewinnung voraus, wie etwa die Narrationsanalyse, deren analytischer Ansatz das Zustandekommen einer ausführlichen lebensgeschichtlichen Stegreiferzählung voraussetzt, wie sie das narrative Interview erbringt (Schütze 1983, Küsters 2006, Fischer-Rosenthal/ Rosenthal 1997). Die Konversationsanalyse (Bergmann 1994, Eberle 1997) wiederum benötigt ‚natürlichsprachliche‘ Interaktionsprotokolle, also von aktiven Rekonstruktionsleistungen der Forschenden weitestgehend freie Mitschnitte verbaler Interaktionen (z. B. Telefonmitschnitte von Service-Hotlines) von besonders hoher Genauigkeit, die dann-- lautgetreu transkribiert-- eine wesentlich detailreichere und technischere Textform ergeben als etwa die Abschrift eines Experteninterviews. Dies ist erforderlich, weil die Konversationsanalyse auf die formalen Regeln der Herstellung und Aufrechterhaltung von Alltagskommunikation abzielt und diese Regelhaftigkeit im Vollzug sich nur in der minutiösen Analyse noch der kleinsten Elemente von Interaktionssequenzen rekonstruieren lässt. Ein sehr viel weniger spezialisiertes Verständnis zulässiger Daten vertritt dagegen die Grounded Theory, die ihren Ursprung in der soziologischen Ethnografie Aufzeichnung auch konstruiert Diskussion über Verwendung audiovisueller Medien Vielfalt von Verfahren der Datengewinnung <?page no="250"?> 251 5.8 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 251 hat und daher ebenso wie diese eher permissiv bei der Auswahl und Nutzung von Material vorgeht. 5.8.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Die Frage, was „Daten“ aus der Perspektive qualitativ-interpretativer Methoden sind, ist in der Methodenliteratur kaum explizit behandelt worden, so dass spezielle Literaturhinweise für diesen Abschnitt wenig sinnvoll erscheinen. Auch für die Darstellung von Pendants zum Konzept des Messens lassen sich weniger geschlossene Texte als vielmehr verstreute Hinweise in stärker integrierten Texten finden. Die Diversität der Datenbegriffe und der Verständnisse des Zusammenhangs von Untersuchungsfeld, Daten, Analyse und Theorie haben dazu geführt, dass entweder spezialisierte Darstellungen der methodologischen und analytischen Perspektive einzelner Ansätze publiziert werden oder aber Überblicksdarstellungen, die vor allem damit befasst sind, die Vielfalt der Ansätze und Methoden in geordneter Form zu präsentieren. Einige wenige Hinweise müssen hier genügen: Bergmann, Jörg, 1985: Flüchtigkeit und methodische Fixierung sozialer Wirklichkeit. Aufzeichnungen als Daten der interpretativen Soziologie, in: Bonß, W./ Hartmann, H. (Hg.), Entzauberte Wissenschaft. Zur Relativität und Geltung soziologischer Forschung, Göttingen, 299-320. (Bergmann diskutiert hier besonders vor dem Hintergrund der von ihm vertretenen Konversationsanalyse den Stellenwert technischer Aufzeichnungen zur Fixierung „natürlicher“ Daten zum Zweck einer detaillierten, sozusagen mikroskopischen Analyse) Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Qualitative Sozialforschung. Ein Arbeitsbuch, München, 4. Aufl. (hier Kap. 3, S. 39-175, zur Gewinnung qualitativen Datenmaterials) Strübing, Jörg, 2013: Qualitative Sozialforschung. Eine komprimierte Einführung für Studierende, München (hier Kap. 3 und 4, S. 53-107 zur Gewinnung qualitativen Datenmaterials) Strübing, Jörg, 2008: Pragmatismus als epistemische Praxis. Der Beitrag der Grounded Theory zur Empirie-Theorie-Frage, in: Kalthoff, H., Hirschauer, S., Lindemann, G. (Hg.), Theoretische Empirie, Frankfurt/ M., 279-311. (Der Text befasst sich mit dem Daten- und dem Theoriebegriff einer pragmatistischen Fassung des Forschungsstils der Grounded Theory.) <?page no="251"?> www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 252 <?page no="252"?> 253 www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 253 6 Auswahlverfahren Im vorigen Kapitel ging es um die Konkretisierung der Vorstellungen über die zu erhebenden Daten durch die Angabe des Differenzierungsgrades, in dem die interessierenden Eigenschaften beschrieben werden sollen, sowie durch Formulierung der Vorschriften für die Messung der Merkmalsausprägungen. Der nun noch ausstehende weitere Konkretisierungsschritt besteht in der Angabe der Untersuchungseinheiten, für die die interessierenden Merkmale tatsächlich festgestellt werden sollen (Merkmalsträger). Die kognitiven Vorstellungen des Forschers über untersuchungsrelevante Merkmale (z. B. Körpergröße) und geeignete Messverfahren (z. B. Ablesen der Körpergröße an einer in cm eingeteilten Messlatte) sowie über die in Betracht kommenden Untersuchungseinheiten (z. B. Schüler der vierten Grundschulklasse) werden dann im eigentlichen Messvorgang (Anwenden der Messvorschriften auf z. B. den Schüler Peter Krause) zusammengebracht und ergeben das konkrete „Datum“ (Eintragung im Erhebungsbogen hinter dem Namen Peter Krause: 147 cm). Allerdings stellt sich in dieser Phase des Projekts nicht nur die Frage, für welche Art von Objekten Daten erhoben, wie also die Untersuchungseinheiten zu definieren sind. Weiter ist festzulegen, über welche Grundgesamtheit 203 von Objekten die Untersuchung Aussagen liefern soll und ob man zweckmäßigerweise die Datenerhebung für die Gesamtheit aller Fälle vornimmt oder ob man sich auf eine Teilmenge der Grundgesamtheit (eine „Auswahl“) beschränken kann. Erstreckt sich die Datenerhebung auf sämtliche Elemente der Grundgesamtheit, führt man eine Vollerhebung oder Totalerhebung durch; werden nur für eine Teilmenge der möglichen Fälle Daten gesammelt, dann ist dies eine Teilerhebung. Der Grenzfall, dass nur ein einziges Objekt Untersuchungsgegenstand ist, heißt Einzelfallstudie. Werden für die Teilerhebung die Untersuchungsobjekte nach vorher festgelegten Regeln aus der Grundgesamtheit ausgewählt, dann spricht man von einer Auswahl oder-- häufig synonym-- von einer Stichprobe (engl.: sample). Ziel der Durchführung einer systematischen Teilerhebung ist es, über die aktuellen Untersuchungsfälle hinaus Aussagen über die Gesamtheit der interessierenden Fälle zu erhalten. „Auswahlverfahren ermöglichen-… die Lösung eines alten Problems: bei der Beschränkung der Untersuchung auf das intensive Studium einer relativ kleinen Zahl von Fällen dennoch zu gesicherten Verallgemeinerungen zu kommen“ (Scheuch 1974, 1 f.). Die 203 Statt von Grundgesamtheit sprechen Statistiker häufig vom „Universum“ der Fälle. In der aktuellen Fassung der erstmals 1963 erschienenen „Umfragen in der Massengesellschaft“ von Elisabeth Noelle-Neumann (jetzt Noelle-Neumann/ Petersen 2000) findet sich synonym die Bezeichnung „Urmenge“. Eine Grundgesamtheit von Personen wird auch „Population“ genannt. Untersuchungseinheit Grundgesamtheit VERTIEFUNG Vollerhebung/ Teilerhebung Stichprobe <?page no="253"?> 254 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 254 Verknüpfung von Stichprobendaten mit Aussagen über die Grundgesamtheit ist in unterschiedlicher Absicht und in zweierlei Richtung möglich: 1) Man kann anhand der Ergebnisse der Teilerhebung Verallgemeinerungen von der Stichprobe auf die Grundgesamtheit vornehmen, also beispielsweise von den empirischen Stichprobendaten ausgehend generelle Hypothesen entwickeln oder deskriptive Aussagen für die Grundgesamtheit formulieren. Man nennt dies den Repräsentationsschluss. 2) Der Ausgangspunkt kann aber auch- - umgekehrt - eine vorhandene generelle Theorie oder Hypothese sein, die getestet werden soll, und zwar anhand der Resultate einer Stichprobe. Hier wird von vermuteten (in manchen Fällen auch: bekannten) Merkmalsverteilungen und/ oder -zusamenhängen in der Grundgesamtheit auf zu erwartende Werte in der Stichprobe geschlossen. Diese Argumentationsrichtung nennt man den Inklusionsschluss. 204 Vollerhebungen sind eigentlich nur dann sinnvoll, wenn die Zahl der Einheiten der Gesamtheit relativ klein ist. Die Vorteile von Stichproben gegenüber Vollerhebungen sind: - Kosten (Zeit, Geld, Arbeitsaufwand) werden gesenkt; die Wirtschaftlichkeit steigt überproportional mit der Größe der Grundgesamtheit. - Ergebnisse liegen wesentlich schneller vor; beispielsweise kann es bei Großerhebungen wie den (eigentlich) alle zehn Jahre stattfindenden Volkszählungen 205 bis zu drei Jahre dauern, bis die Ergebnisse vorliegen-- die dann nicht mehr besonders aktuell sind. Der Mikrozensus des Statistischen Bundesamts (eine jährlich durchgeführte Stichprobenerhebung auf der Basis von 1 % der Bevölkerung) 206 liefert demgegenüber wesentlich aktuellere und damit für viele Zwecke nützlichere Informationen. 204 Ein dritter Typ von Schlussfolgerungen ergibt sich aus den beiden vorgenannten: Werden mehrere Stichproben aus derselben Grundgesamtheit gezogen, so ist auch der Schluss von bekannten Werten einer Stichprobe auf zu erwartende Werte weiterer Stichproben möglich. Die weniger bekannte Bezeichnung dafür lautet: „statistischer Transponierungsschluss“ (Noelle-Neumann/ Petersen 2000, 231). Häufiger wird diese Schlussfolgerungslogik eingesetzt, wenn es um die Frage geht, ob zwei verschiedene Stichproben aus derselben Grundgesamtheit stammen können. Es seien beispielsweise zwei repräsentative Umfragen bei Wahlberechtigten in Schleswig-Holstein und in Sachsen durchgeführt worden: Erlauben die-- voneinander abweichenden-- Ergebnisse zur Parteienpräferenz noch die Annahme, es handele sich bei den Wahlberechtigten in diesen beiden Ländern der Bundesrepublik Deutschland um Teile derselben Grundgesamtheit? Oder sind die Unterschiede so groß, dass man von zwei verschiedenen Grundgesamtheiten ausgehen muss? 205 Die letzte Volks-, Gebäude- und Wohnungszählung als Vollerhebung wurde in der (alten) Bundesrepublik 1987, in der ehemaligen DDR 1981 durchgeführt. Eine Wiederholung wird es voraussichtlich nicht geben. Stattdessen hat sich Deutschland an einem „Zensus“ beteiligt, der in allen Mitgliedstaaten der Europäischen Union 2011 durchgeführt wurde. Dieser beruhte auf einer Stichprobe, wenn auch einer sehr großen. Details zum Zensus 2011 finden sich online: www.zensus2011.de. 206 Vgl. Statistisches Bundesamt 1997; www.destatis.de/ DE/ ZahlenFakten/ GesellschaftStaat/ Bevoelkerung/ Mikrozensus.html; www.forschungsdatenzentrum.de/ bestand/ mikrozensus/ Repräsentationsschluss Inklusionsschluss Vergleich Stichprobe / Vollerhebung <?page no="254"?> 255 6.1 Zentrale Begriffe www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 255 - Im Allgemeinen ist auch die Genauigkeit der Stichprobenergebnisse im Vergleich zur Vollerhebung bei großer Grundgesamtheit höher: wegen besserer Möglichkeiten der Kontrolle, präziserer Datenerhebung, intensiverer Auswertung (ausführlicher siehe Kish/ Verma 1986). - In manchen Fällen ist eine Vollerhebung grundsätzlich nicht möglich, weil sie den Untersuchungsgegenstand entscheidend verändern oder sogar zerstören würde (z. B. Qualitätskontrolle in der Industrieproduktion). 6.1 Zentrale Begriffe: Grundgesamtheit, Auswahl-, Erhebungs- und Untersuchungseinheiten Wie die anderen Entscheidungen im Forschungsprozess, so können auch die für die Stichprobenkonstruktion erforderlichen Festlegungen nicht isoliert vorgenommen werden, sondern müssen im Zusammenhang mit der zu untersuchenden Fragestellung, den verwendeten Datenerhebungs- und den beabsichtigten Auswertungsverfahren gesehen werden. Die Klärung der im Folgenden einzuführenden Begriffe soll deshalb anhand eines hypothetischen Untersuchungsproblems geschehen. Nehmen wir an, wir wollten die „Effektivität der politischen Bildung“ in einem Land der Bundesrepublik untersuchen. Bei der Präzisierung der Problemstellung habe man sich entschieden, dass mit „Effektivität der politischen Bildung“ in irgendeiner Weise die Ergebnisse des politischen Bildungsprozesses gemeint sein sollen, wie sie sich bei den „Bildungs-Objekten“-- bei den „politisch gebildeten“ (oder auch nicht gebildeten) Personen-- zeigen. Damit scheiden solche Gesichtspunkte wie Effizienz der Bildungsorganisation oder „Nützlichkeit“ von Bildungsinhalten im Hinblick auf bestimmte politische Werte (etwa Werte der „freiheitlich-demokratischen Grundordnung“) aus. Mit dieser Festlegung ist aber bisher nur gesagt, dass die Untersuchungsobjekte „Personen“ sein sollen, mehr nicht. Welcher Personenkreis aber soll als „Grundgesamtheit“ infrage kommen? Und: Auf welche Gesamtheit von Personen sollen sich die zu formulierenden Untersuchungsergebnisse („Repräsentationsschlüsse“) beziehen: - auf alle Einwohner des Bundeslandes? - nur auf diejenigen Einwohner, die mindestens am Abschluss der Schulbildung stehen? 207 - nur auf diejenigen Einwohner, die genau am Abschluss der Schulbildung stehen? 208 207 Begründung: Andere Personen haben keine nennenswerte politische Bildung genossen. 208 Begründung: Bei noch mitten in der Schulbildung stehenden Personen ist die „politische Bildung“ noch nicht beendet. Bei bereits von der Schule abgegangenen Personen andererseits sind neben der formalen politischen Bildung auch andere Einflüsse wirksam geworden; außerdem haben ältere Einwohner evtl. eine ganz andere politische Bildung erfahren, so dass eine Vermengung das Ergebnis verfälschen könnte. Entscheidungen im Zusammenhang BEISPIEL <?page no="255"?> 256 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 256 - oder nur auf die Schüler der letzten Klasse einer ganz bestimmten Schulart? 209 Eine Antwort lässt sich in jedem Fall nur aufgrund des explizit gemachten Erkenntnisinteresses finden. Vor einer Entscheidung ist aber noch weiter zu klären, wie denn (d. h. mit welchen Mitteln) die „Effektivität der politischen Bildung“ erfasst werden soll: - etwa durch Beobachtung der Schüler der letzten Schulklassen hinsichtlich ihres politischen Verhaltens (Mitgliedschaft in Organisationen, Mitarbeit bei der Schülerselbstverwaltung usw.)? - oder durch Befragung der Schüler oder der Lehrer oder der Eltern? Je nach der getroffenen Entscheidung wird die Grundgesamtheit, über die wir mit den zu erhebenden Daten Aussagen machen können, eine andere sein: „alle Einwohner des Bundeslandes-…“ bis hin zu: „alle Schüler des Schultyps-… in Abschlussklassen“. Dies führt uns zur ersten Definition: Unter Grundgesamtheit ist diejenige Menge von Individuen, Fällen, Ereignissen zu verstehen, auf die sich die Aussagen der Untersuchung beziehen sollen und die im Hinblick auf die Fragestellung und die Operationalisierung vorher eindeutig abgegrenzt werden muss. Genau genommen handelt es sich hierbei um die angestrebte Grundgesamtheit. Um diese Differenzierung klarer zu machen, sei das begonnene Beispiel fortgeführt. Nehmen wir an, die Effektivität der politischen Bildung solle durch die Untersuchung politischer Einstellungen, Aktivitäten und Kenntnisse von Schülern sowie durch deren Beurteilung des politischen Unterrichts ermittelt werden. Und zwar habe man sich dafür entschieden, die aufgeführten Merkmale mit Hilfe einer standardisierten mündlichen Befragung zu erheben. Nehmen wir weiter an, man habe sich entschlossen, die Schüler der letzten Schulklassen zu befragen; und zwar sei der Kreis der insgesamt infrage kommenden Personen weiter auf die Schüler der letzten Oberstufenklassen von Gymnasien und Gesamtschulen eingegrenzt worden. Begründung: Die zu behandelnde Problemstellung sei sehr komplex, es seien u. a. sehr schwierige Fragen zu stellen, so dass bei einer anderen Personengruppe das Instrument der standardisierten Befragung vermutlich nicht hinreichend gültige Resultate liefere. 209 Begründung: In den einzelnen Schularten wird politische Bildung in unterschiedlicher Intensität betrieben. Grundgesamtheit BEISPIEL <?page no="256"?> 257 6.1 Zentrale Begriffe www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 257 Sie sehen an dieser Begründung, dass die obige Definition von Grundgesamtheit-- aus pragmatischen Gründen-- relativ stark eingeschränkt wurde. Nicht mehr pauschal von derjenigen „Menge von Individuen- …“ ist die Rede, „auf die sich die Aussagen der Untersuchung beziehen sollen“, sondern stattdessen von derjenigen Menge von Individuen, die für die Fragestellung der Untersuchung am ehesten gültige Aussagen liefern kann. Noch deutlicher würde diese aus pragmatischen Gründen vorgenommene Verschiebung, wenn wir uns entschieden hätten, statt der Schüler deren Eltern oder Lehrer als Informanten über die Schüler zu befragen (Begründung: Gefahr subjektiver Verzerrungen bei Selbstbeurteilungen). In diesem Fall hätten wir eine Grundgesamtheit von Informanten definiert. Solche pragmatischen Überlegungen sind im Übrigen nicht der seltene Ausnahmefall, will man zu einer für die Forschungsfrage möglichst angemessenen Abgrenzung der Grundgesamtheit kommen, aus der die Stichprobe gezogen werden soll. 210 Anders formuliert: Es gibt nicht die Grundgesamtheit per se, sondern sie wird erst durch und für die jeweiligen Untersuchungsfragen konkretisiert und operational abgegrenzt. Die angestrebte Grundgesamtheit „umreißt den Raum der möglichen Generalisierbarkeit von Untersuchungsbefunden, [sie] schließt ihn für die Zwecke einer bestimmten Untersuchung ab“ (Wienold 2000, 131). Damit ist nun der Kreis der „Objekte“, für die die Aussagen der Untersuchung gelten sollen, aufgrund theoretischer und pragmatischer Überlegungen abgegrenzt worden. Was die Datenerhebung angeht, scheint der Fall auf den ersten Blick unproblematisch zu sein: Die Grundgesamtheit ist die Menge aller Oberstufenschüler in dem betreffenden Bundesland im Jahr der Untersuchung. Bei einer Vollerhebung wären demnach alle so gekennzeichneten „Elemente“ dieser Menge zu befragen, bei einer Teilerhebung dementsprechend eine Stichprobe von ihnen. Auf den zweiten Blick jedoch stößt man bereits auf ein schwerwiegendes Problem: Um bei einer Totalerhebung kontrollieren zu können, ob alle Elemente erfasst worden sind, oder um bei einer Stichprobe die Auswahl systematisch vornehmen zu können, müsste im Idealfall die Grundgesamtheit vollzählig physisch anwesend sein. Bei kleinen Grundgesamtheiten mag das eventuell noch gehen, etwa bei Belegschaften von Betrieben oder Schülern einer Schule; aber auch hier werden zu jedem Zeitpunkt zumindest einige Belegschaftsmitglieder oder Schüler wegen Krankheit oder 210 Unter der Überschrift „Warum man manchmal die falschen Leute befragen muss“ widmen Noelle-Neumann/ Petersen (2000, 233 ff.) diesem Thema einen eigenen Abschnitt ihres Buches. Ihr Beispiel: Wenn ein Hersteller von Fotoapparaten wissen möchte, „warum viele Menschen nicht fotografieren, und was man tun müsste, um diese Leute als Kunden zu gewinnen“, dann seien dafür nicht diejenigen Personen die besten Informanten, die nicht fotografieren, sondern diejenigen, die bereits einen Fotoapparat besitzen (a. a. O., 233 f.). Ähnliches gelte im Hinblick auf alle Fragen, die künftiges Verhalten betreffen. Ihre Regel lautet, „dass man bei Untersuchungen über zukünftiges Verhalten, zukünftige Entscheidungen, oft sozusagen die ‚Falschen‘ befragen muss, nicht diejenigen, die sich in der nächsten Zukunft entscheiden werden, sondern diejenigen, die sich vor Kurzem bereits entschieden haben. Von ihnen erfährt man in bester, wirklichkeitsgetreuer Annäherung, was die zukünftigen Käufer tun werden“ (a. a. O., 234). pragmatische Entscheidungen Problem: Zugang zur Grundgesamtheit <?page no="257"?> 258 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 258 Urlaub fehlen. Bei großen Grundgesamtheiten jedoch ist dies im Allgemeinen überhaupt nicht realisierbar. Statt vollzähliger physischer Anwesenheit fordert man also sinnvollerweise, dass als Auswahlgrundlage (engl.: frame) die Grundgesamtheit zumindest symbolisch repräsentiert sein muss, z. B. durch eine Kartei oder durch eine Liste, auf der die Adressen der infrage kommenden Personen verzeichnet sind. Aber auch solche Karteien oder Listen haben-- sofern sie überhaupt existieren-- Nachteile: Sie sind nicht immer vollständig und/ oder nicht mehr aktuell und/ oder fehlerhaft. So können einige Elemente der Grundgesamtheit (noch) fehlen, andere sind möglicherweise noch in der Kartei enthalten, obwohl sie nicht mehr zur Grundgesamtheit gehören. Auch können Fälle doppelt oder mit fehlerhaften Angaben in der Kartei oder Liste enthalten sein. Fehlerhafte Auswahlgrundlagen können also zu einer Überund/ oder Untererfassung (over-/ undercoverage) der angestrebten Grundgesamtheit führen. Einwohnermeldedatei: Zwischen dem Zuzug einer Person oder eines Haushalts in einem Ort und dessen Anmeldung vergeht im Allgemeinen einige Zeit; zwischen Anmeldung im Amt und Aufnahme in die Datei liegt wiederum einige Zeit. Konsequenz: Nicht alle Einwohner des Ortes zum Zeitpunkt t 1 sind zu diesem Zeitpunkt in der Datei erfasst. Gleiches gilt für den Fall des Wegzugs einer Person oder eines Haushaltes: Nicht alle Personen, die zum Zeitpunkt t 1 in der Meldedatei als Einwohner geführt werden, sind tatsächlich (noch) „Einwohner“. Zusammengefasst: Die angestrebte Grundgesamtheit (engl.: target population)-- d. h. die Menge der Fälle, für die die Aussagen der Untersuchung gelten sollen 211 -- ist für die Erhebung kaum vollständig und korrekt erfassbar. Dies gilt sowohl für den Fall, dass Auswahl und Erhebung der Daten unmittelbar auf die Untersuchungseinheiten gerichtet sind (z. B. bei „Einwohnern einer Stadt“; prinzipiell erreichbar sind die tatsächlichen Einwohner abzüglich der im Erhebungszeitraum verreisten oder aus sonstigen Gründen nicht anwesenden Personen zuzüglich der in der Gemeinde anwesenden Personen, die nicht „Einwohner“ sind). Dies gilt aber auch für den Fall einer symbolischen Repräsentation der angestrebten Grundgesamtheit, wie das Beispiel „Einwohnermeldekartei“ zeigt. Wir können damit eine weitere Definition einführen: Von der angestrebten Grundgesamtheit zu unterscheiden ist die Erhebungs-Grundgesamtheit (Auswahl-Grundgesamtheit; frame population). Darunter versteht man diejenige Gesamtheit von Fällen, aus der faktisch die Stichprobe gezogen wird. 211 Oder: die Menge der Fälle, die für die Untersuchung als potenzielle Informanten infrage kommen (siehe Fußnote 210). symbolisch repräsentierte Grundgesamtheit BEISPIEL angestrebte Grundgesamtheit kaum vollständig Erhebungs- Grundgesamtheit <?page no="258"?> 259 6.1 Zentrale Begriffe www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 259 Erhebungs-Grundgesamtheit (Auswahl-Grundgesamtheit) ist entweder a) die im Zeitraum des Auswahlverfahrens prinzipiell erreichbare Gesamtheit der Untersuchungsbzw. Erhebungseinheiten, falls das Auswahlverfahren direkt auf die Untersuchungseinheiten gerichtet ist, oder b) die tatsächlich repräsentierte Grundgesamtheit, falls das Auswahlverfahren sich auf eine symbolische Repräsentation der angestrebten Grundgesamtheit stützt. Zur Veranschaulichung weiterer begrifflicher Differenzierungen führen wir zunächst das oben eingeführte Untersuchungsbeispiel fort: In dem betreffenden Bundesland möge es zum Zeitpunkt der Untersuchung 11.000 Oberstufenschüler geben; an Zeit, Geld und Personal jedoch stehe lediglich eine Kapazität zur Verfügung, um 1000 Schüler zu befragen. Konsequenz: Es sind 1000 Schüler so auszuwählen, dass die gewonnenen Ergebnisse nicht nur für diese 1000, sondern auch für die 10.000 nicht Befragten gelten, also auf alle 11.000 Fälle verallgemeinerbar sind. Mit anderen Worten: Die Ergebnisse der Stichprobe (n =-1000) sollen repräsentativ 212 sein für die Grundgesamtheit (N =-11.000). In diesem Zusammenhang ist die eingeführte Unterscheidung zwischen angestrebter Grundgesamtheit und Erhebungs-Grundgesamtheit bedeutsam: Beide können unter Umständen erheblich voneinander abweichen; und je größer diese Abweichungen sind, umso schwerer wiegen die Konsequenzen für die Repräsentativität der Untersuchungsergebnisse. Auch ein noch so korrektes Auswahlverfahren kann schließlich zu einer repräsentativen Stichprobe lediglich im Hinblick auf diejenige Gesamtheit von Fällen führen, auf die das Stichprobenverfahren angewendet wurde (Erhebungs- Grundgesamtheit), nicht jedoch im Hinblick auf die theoretisch definierte, auf die angestrebte Grundgesamtheit. Zu unterscheiden ist aber nicht nur zwischen angestrebter Grundgesamtheit und (tatsächlicher) Erhebungs-Grundgesamtheit (sowie deren Elementen, z. B. Oberstufenschüler), sondern auch zwischen Erhebungseinheiten und Auswahleinheiten: - Auswahleinheiten sind diejenigen Einheiten, auf die sich der Auswahlplan konkret bezieht. - Erhebungseinheiten sind diejenigen Einheiten, bei denen Informationen erhoben werden; diese sollen in der Stichprobe repräsentativ vertreten sein. Mit anderen Worten: Die Anweisungen des Auswahlplans müssen sich auf genau definierbare und im Auswahlverfahren „zugreifbare“ Einheiten beziehen (etwa Unternehmen, Stimmbezirke, Personen, Dateieinträge in der Mitgliederdatei einer Gewerkschaft). 212 „Repräsentativität“ ist neben Gültigkeit und Zuverlässigkeit ein weiteres Gütekriterium empirischer Forschung; es wird im Kapitel 6.2 behandelt. BEISPIEL Repräsentativität Auswahleinheiten Erhebungseineiten <?page no="259"?> 260 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 260 Eine Auswahlanweisung könnte lauten: „Beginne mit dem dritten Eintrag in der Datei und wähle dann jeden zehnten weiteren Eintrag aus“. Die Gesamtheit aller Einheiten, aus denen ausgewählt wird, sind die für die Auswahl zur Verfügung stehenden Einheiten: die Auswahleinheiten-- nicht zu verwechseln mit den ausgewählten (d. h. in die Stichprobe aufgenommenen) Einheiten, die erst feststehen, nachdem der Auswahlplan auf die zur Verfügung stehende Gesamtheit der Auswahleinheiten angewendet wurde. Im Unterschied dazu bezieht sich der Begriff Erhebungseinheit nicht auf den Vorgang des Auswählens (z. B. Auswahl von Adresseinträgen), sondern auf das Ziel des Auswahlverfahrens (z. B. die Personen, die unter den ausgewählten Adressen erreichbar sein sollen): Man will auf kontrollierbare Weise erreichen, dass „am Schluss“ bei präzise definierbaren Einheiten Informationen erhoben werden können und dass diese Einheiten eine repräsentative Abbildung der angestrebten Grundgesamtheit sind. Zurück zu unserem Beispiel: Es ist nicht möglich, die 11.000 Schüler der Oberstufenklassen des betreffenden Bundeslandes zu einem Zeitpunkt an einem Ort zu versammeln (physische Anwesenheit der Grundgesamtheit), wie dies bei „Einwohnern einer Stadt“ oder „Belegschaft eines Betriebes“ immerhin denkbar wäre. Also ist eine symbolische Repräsentation in Form einer Schülerkartei oder Schülerliste als Auswahlgrundlage erforderlich. Eine solche existiert jedoch nicht zentral an einem Ort, sondern es gibt lediglich je Schule und Klasse solche Listen. Also wird man sich die Adressen der Gymnasien und Gesamtschulen heraussuchen. Dann schreibt man die Schulen an und bittet um Zusendung der Schülerlisten der infrage kommenden Klassen. Anhand der so erhaltenen Angaben erstellt man eine Kartei der Schüler als symbolische Repräsentation der Grundgesamtheit. Wird nun die Auswahl der zu befragenden Schüler aufgrund dieser Kartei vorgenommen, dann sind Auswahleinheiten alle Einträge in dieser Kartei und potenzielle Erhebungseinheiten die Personen, die durch diese Einträge bezeichnet werden. Betrachtet man das skizzierte Vorgehen nicht formal, sondern inhaltlich, dann sind in diesem Fall Auswahl- und Erhebungseinheiten identisch: Der Auswahlplan wird auf die Schüler (repräsentiert durch je einen Kartei-Eintrag) angewendet, und die entsprechenden Schüler der Stichprobe (als zu befragende Personen) sollen auch eine repräsentative Teilmenge der Grundgesamtheit sein. Aus verschiedenen Gründen wäre jedoch ein solches Vorgehen (vollständige Kartei der Grundgesamtheit erstellen) nicht sehr zweckmäßig: erstens ist es ein sehr aufwändiges Verfahren, zweitens sind erhebliche Abweichungen zwischen Erhebungs- Grundgesamtheit (Schülerkartei) und angestrebter Grundgesamtheit zu befürchten. So werden z. B. mit Sicherheit nicht alle Schulen bereit sein, ihre Schülerlisten herauszugeben. Man wird sich deshalb vermutlich dafür entscheiden, mehrstufig vorzugehen. Aufgrund der recherchierten Informationen über die existierenden Gymnasien könnte man zunächst eine Liste aller Oberstufen erstellen und nach einem Auswahlplan eine Teilmenge dieser Klassen auswählen (erste Stufe). Dann könnten Interviewer die Auswahleinheiten/ ausgewählte Einheiten BEISPIEL mehrstufige Auswahl <?page no="260"?> 261 6.1 Zentrale Begriffe www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 261 Schulen aufsuchen, von denen Klassen in der Stichprobe enthalten sind und dort an Ort und Stelle die Schülerlisten dieser Klassen erbitten (durch den persönlichen Kontakt werden wahrscheinlich die „Ausfälle“ vermindert). Aufgrund dieser Listen erstellt man eine Kartei der so „in die engere Wahl“ gekommenen Schüler und zieht aus dieser Kartei eine Stichprobe der zu befragenden Schüler (zweite Stufe). Auf der ersten Stufe sind nun Auswahleinheiten und Erhebungseinheiten nicht nur formal verschieden. Der Auswahlplan wird auf Schulklassen angewendet (Auswahleinheiten), repräsentativ in der endgültigen Stichprobe sollen aber Oberstufenschüler vertreten sein (Erhebungseinheiten). Um diese Repräsentativität nicht zu gefährden, wird man in den Auswahlplan eventuell Gewichtungsfaktoren (Klassengrößen) einführen müssen. Auf der zweiten Stufe sind dann wieder Auswahl- und Erhebungseinheiten (inhaltlich) identisch. Dass Auswahl- und Erhebungseinheiten nicht identisch sind, kommt jedoch nicht nur bei mehrstufigen Auswahlen vor. Häufig tritt etwa der Fall auf, dass Einzelpersonen befragt werden und auch repräsentativ in der Stichprobe vertreten sein sollen, als symbolische Repräsentation der Grundgesamtheit „Bevölkerung“ aber lediglich eine Haushaltskartei zur Verfügung steht. Der Auswahlplan kann dann nur auf die Haushalte (Auswahleinheiten) angewendet werden, d. h. auf eine je unterschiedliche Zahl von Einzelpersonen; Repräsentativität dagegen wünschen wir für die Einzelpersonen, deshalb wird man wieder mit Gewichtungsfaktoren im Auswahlplan arbeiten müssen. Oder nehmen wir unseren Fall einer Schülerkartei. Angenommen, es besteht die Absicht, zusätzlich zu den Schülern auch deren Eltern zu befragen: Auswahleinheiten sind dann auf der letzten Auswahlstufe weiterhin die Schüler, Erhebungseinheiten aber sind jetzt auch die Eltern. Um die Repräsentativität der Stichprobe im Hinblick auf die Grundgesamtheit „Eltern von Schülern in der Oberstufe“ zu gewährleisten, müssen wir vor der Auswahl sicherstellen, dass Eltern nicht mehrfach in der Schülerkartei repräsentiert sind (falls nämlich zum Zeitpunkt der Untersuchung mehrere Kinder Oberstufenschüler sind), d. h. wir müssen die Kartei „bereinigen“. Beispiele für Nichtidentität von Auswahl- und Erhebungseinheiten: Auswahleinheit: Erhebungseinheit: Personen Haushalte, Familien, Freundschaftsnetze Haushalte Einzelpersonen, Wahlberechtigte, Hausfrauen, Familienfeste Betriebe Mitarbeiter, Produktionsprozesse, Betriebshierarchie Gemeinden Einwohner, Wohnblocks, homogene Wohngebiete Stadtteile Kaufhäuser, Verkehrsströme, Kulturdenkmäler Straßenkreuzungen Verkehrsunfälle, Verstöße gegen die Straßenverkehrsordnung möglicher Unterschied: Auswahl- und Erhebungseinheit BEISPIEL <?page no="261"?> 262 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 262 Friedrichs (1982, 126 ff.) führt noch eine weitere Unterscheidung ein, die für das Verständnis der Anwendung von Datenerhebungsinstrumenten (also Inhaltsanalyse, Befragung, Beobachtung etc.) bedeutsam ist. Wenn als Erhebungseinheiten diejenigen Einheiten verstanden werden, die man durch die Stichprobe repräsentativ abbilden will und bei denen die Informationen erhoben werden, so können in manchen Fällen davon die Untersuchungseinheiten unterschieden werden, über die die Ergebnisse einer Studie Aussagen machen sollen, also für die die Messwerte gelten sollen (siehe Kapitel 5.3.3: Datenmatrix). Anders formuliert: Erhebungseinheit =-die Einheit, auf die sich die Auswahl bezieht; Untersuchungseinheit =-die Einheit, auf die sich die Untersuchung bezieht (Friedrichs 1982, 126). 213 Stellen wir uns vor, wir wollten eine Hypothese testen: „Frauen in Haushalten mit Kleinkindern sind stärker in ihrem Verhalten und ihren Bedürfnissen auf die Wohnung bezogen als Frauen in Haushalten mit größeren Kindern; letztere wiederum sind stärker auf die Wohnung bezogen als Frauen in kinderlosen Haushalten.“-- Für die Konstruktion der Stichprobe würde sich daraus die Konsequenz ergeben, dass Erhebungseinheiten die Haushalte sein müssten: Haushalte mit ihren unterschiedlichen Bedingungskonstellationen für die „Hausfrauen“ sollen in der Stichprobe repräsentativ vertreten sein; mit anderen Worten: Die Studie soll „situationsrepräsentativ“ sein; die Struktur aller Haushalte (in z. B. der Bundesrepublik) soll sich in der Stichprobe unverzerrt widerspiegeln. Untersuchungseinheiten-- also die Einheiten, für die Daten ausgewertet werden sollen-- wären dagegen „Hausfrauen“. Die jeweiligen Haushaltssituationen würden in diesem Fall als „Kontextmerkmale“ für die dort lebenden Hausfrauen aufgefasst. Natürlich wären auch Daten über diese Kontexte zu erheben, aber nicht als Selbstzweck, sondern als Information über die jeweilige Lebensumwelt der „Untersuchungseinheit Hausfrau“. Man kann diese Überlegungen mit den Worten von Friedrichs auch so formulieren: Die Erhebungseinheit ist das Stichprobenkriterium, die Untersuchungseinheit ist das Kriterium der Hypothesenprüfung. In vielen Fällen werden Erhebungseinheit und Untersuchungseinheit identisch sein; gerade bei komplexeren Fragestellungen jedoch ist dies oft nicht der Fall. 213 Friedrichs differenziert zwar noch weiter zwischen Untersuchungs- und Aussageeinheit. Darauf wird hier aber verzichtet. Untersuchungseinheiten BEISPIEL <?page no="262"?> 263 6.2 Anforderungen an die Stichprobenkonstruktion www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 263 Da die Differenzierung der verschiedenen Typen von „Einheiten“ anfangs manchen Studierenden schwerfällt, hier noch ein weiterer Versuch der Klärung: Auf die Auswahleinheiten wird nach pragmatischen Gesichtspunkten der Auswahlplan angewandt mit dem Ziel, eine repräsentative Stichprobe von „Objekten“ zusammenzustellen, bei denen untersuchungsrelevante Informationen erhoben werden können (Erhebungseinheiten). Die erhobenen Informationen wiederum sollen sich auf diejenigen „Objekte“ beziehen, die Gegenstand der empirischen Untersuchung sind (Untersuchungseinheiten). Falls die „Informanten“ über sich selbst Auskunft geben, sind sie natürlich zugleich die Untersuchungseinheiten. 6.2 Anforderungen an die Stichprobenkonstruktion Friedrichs (1982, 125) formuliert vier Voraussetzungen, die erfüllt sein müssen, damit Teilerhebungen auf die Grundgesamtheit verallgemeinert werden dürfen: „1. Die Stichprobe muss ein verkleinertes Abbild der Grundgesamtheit hinsichtlich der Heterogenität der Elemente und hinsichtlich der Repräsentativität der für die Hypothesenprüfung relevanten Variablen sein. 2. Die Einheiten oder Elemente der Stichprobe müssen definiert sein. 3. Die Grundgesamtheit sollte angebbar und empirisch definierbar sein. 4. Das Auswahlverfahren muss angebbar sein und Forderung (1) erfüllen.“ Mit anderen Worten: Die Grundgesamtheit muss eindeutig empirisch abgegrenzt sein (=-3.). Probleme ergeben sich bei „unendlichen Grundgesamtheiten“, z. B. der zu einer nomologischen Hypothese gehörigen Grundgesamtheit von Fällen. Für den Test einer solchen Hypothese müssen wir die „hypothetische“ Grundgesamtheit auf eine empirisch angebbare, d. h. räumlich und zeitlich abgegrenzte Zahl von Fällen reduzieren (die Verifikation der Hypothese wäre natürlich anhand von Daten über eine in dieser Weise zeitlich und räumlich konkretisierte Grundgesamtheit nicht möglich; für das Falsifizierbarkeits-Postulat treten dadurch jedoch keine Probleme auf; siehe Kapitel 1.3.2). Diese konkretisierte Grundgesamtheit sollte aber nicht nur empirisch definiert sein, sondern ihr sollte auch eine Erhebungs-Grundgesamtheit (Auswahl-Grundgesamtheit) zugeordnet werden können, die möglichst weitgehend mit ihr übereinstimmt (siehe Kapitel 6.1). Nur so kann ein Auswahlplan für eine repräsentative Stichprobe erstellt werden. Weiter müssen die Stichproben-Elemente definiert sein (=- 2.), d. h. man muss eindeutig festlegen, ob ein Element der Grundgesamtheit zur Stichprobe gehört oder nicht. 214 Schließlich muss intersubjektiv nachvollziehbar sein, auf welche Weise 214 Dies kann etwa durch eindeutige Kennzeichnung einer Person mit Namen und Adresse geschehen. Es darf nicht vorkommen, dass in der Grundgesamtheit mehrere Fälle mit gleicher Kennzeichnung existieren, so dass nicht einwandfrei entscheidbar wäre, welche Person zur Stichprobe gehört und welche nicht. Voraussetzungen der Verallgemeinerbarkeit Grundgesamtheit eindeutig empirisch abgegrenzt Definition der Stichproben-Elemente <?page no="263"?> 264 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 264 (nach welchem Verfahren) eine Stichprobe zustande gekommen ist (=-4.), und die Stichprobe muss repräsentativ sein (=-1.). Bei den in den folgenden Abschnitten darzustellenden Auswahlverfahren wird zu prüfen sein, ob und in welchem Ausmaß die verschiedenen Verfahren den genannten Anforderungen gerecht werden. Zunächst aber bleibt zu klären, was das mehrfach genannte Gütekriterium „Repräsentativität“ im Einzelnen bedeutet. Auf die Notwendigkeit der präzisen definitorischen Abgrenzung der Grundgesamtheit wurde bereits hingewiesen, und zwar zusammen mit der (impliziten) These: Nur wenn genau angebbar ist, durch welche Merkmale die Elemente der Grundgesamtheit gekennzeichnet sind (intensionale Definition) und wer alles zur Grundgesamtheit gehört (extensionale Definition), kann ein Auswahlplan entworfen werden, der eine repräsentative Stichprobe gewährleistet. Repräsentativität heißt in diesem Zusammenhang: Es besteht Kongruenz zwischen theoretisch definierter („angestrebter“) Gesamtheit und tatsächlich durch die Stichprobe repräsentierter Gesamtheit; oder: Die Stichprobe ist ein „verkleinertes Abbild“ einer angebbaren Grundgesamtheit. 215 Aus dieser Definition folgt, dass es kein Sample (keine Stichprobe) geben kann, das „überhaupt nichts abbildet“, das also für überhaupt keine Gesamtheit repräsentativ wäre. Jede beliebige Teilmenge von Fällen ist ein repräsentatives Abbild für irgendeine Gesamtheit von Fällen; die Frage ist: für welche Gesamtheit? Die Fragestellung im Zusammenhang mit dem „Gütekriterium Repräsentativität“ darf daher nicht lauten, ob ein Sample eine Grundgesamtheit abbildet, sondern welche Grundgesamtheit es abbildet. Ohne präzise Angabe der angestrebten Grundgesamtheit kann somit über die Repräsentativität einer Stichprobe nicht entschieden werden. Erst durch die Orientierung an einer definierten angestrebten Grundgesamtheit (Zielpopulation, target population) lässt sich die Frage nach der Repräsentativität einer Stichprobe bejahen oder verneinen. Bei empirischen Untersuchungen, in denen nicht sichtbar wird, für welche Grundgesamtheit ihre Aussagen gelten sollen, kann somit nicht entschieden werden, ob die Ergebnisse als repräsentativ gelten können oder nicht. Will man trotzdem deren Repräsentativität abschätzen, wird man versuchen, die Zielgesamtheit aus 215 Dies ist eine vereinfachte, jedoch häufig verwendete Formulierung des Repräsentativitätskonzepts (detaillierter siehe Kromrey 1987), unter operationalen Gesichtspunkten allerdings eher eine Leerformel. So kritisiert Quatember (1996, 236), in der Öffentlichkeit sei Repräsentativität „ein viel verwendeter statistischer Fachausdruck, dessen Suggestion in keinem Verhältnis zu seiner tatsächlichen inhaltlichen Leere“ stehe, und hebt hervor, keine Stichprobe könne für die Objekte einer Grundgesamtheit schlechthin repräsentativ sein, sondern ausschließlich hinsichtlich bestimmter Merkmale. Sein Definitionsvorschlag: „Eine Stichprobe heißt hinsichtlich-… eines Merkmals exakt repräsentativ, wenn-… das Merkmal in ihr exakt wiedergegeben wird“. Sie heißt „repräsentativ nach Erwartungswert, wenn- … das Merkmal aus ihr erwartungstreu geschätzt werden kann“ (Quatember 1996, 237). präzise definitorische Abgrenzung notwendig Repräsentativität Passung repräsentative Stichprobe mit Grundgesamtheit unklare Repräsentativität <?page no="264"?> 265 6.3 Typen von Auswahlverfahren (Überblick) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 265 anderen verfügbaren Informationen über die Studie zu rekonstruieren: Vom Erkenntnisinteresse der Untersuchung (Problemformulierung), von der Operationalisierung, von den verwendeten Datenerhebungsinstrumenten und den Ergebnis-Interpretationen ausgehend, lässt sich oft erschließen, welches die angestrebte Grundgesamtheit sein soll. Bitte beachten Sie: Die bisherige Argumentation bezog sich ausschließlich auf die geplante Stichprobe. Doch selbst wenn der Auswahlplan keine die Repräsentativität gefährdenden Mängel aufweist, garantiert er noch nicht, dass die realisierte Stichprobe tatsächlich repräsentativ ist: Bei der Feldarbeit (insbesondere bei Befragungen) treten immer Fälle auf, in denen angegebene Anschriften nicht auffindbar oder zu Befragende nicht erreichbar sind oder in denen die Zielperson das Interview verweigert. Ob die schließlich erzielten Ergebnisse einer Studie tatsächlich als repräsentativ für die angestrebte Grundgesamtheit gelten können, ist also eigentlich erst anhand der verarbeiteten Datenmatrix abschätzbar. Bei Schnell/ Hill/ Esser findet sich als Pendant zu der mit Daten dokumentierten Stichprobe ein Konzept der Inferenzpopulation als „diejenige Grundgesamtheit, über die auf der Basis der vorliegenden Stichprobe tatsächlich Aussagen gemacht werden können“ (1999, 254). Mit anderen Worten: Repräsentativ ist jede Stichprobe für „ihre“ Inferenzpopulation. Sie ist jedoch unbekannt, da über die „Ausfälle“ definitionsgemäß detaillierte Informationen fehlen,. Man kann allenfalls durch Vergleich von Stichprobendaten mit einigen bekannten Grundgesamtheitsverteilungen versuchen, die Inferenzpopulation und damit die empirische Reichweite der Untersuchungsbefunde zu rekonstruieren. 6.3 Typen von Auswahlverfahren (Überblick) Ganz grob ist zunächst zu unterscheiden zwischen a) nicht zufallsgesteuerten Auswahlen und b) zufallsgesteuerten Auswahlverfahren. Bei nicht zufallsgesteuerten Auswahlen wird Repräsentativität (im Sinne von: Stichprobe =-verkleinertes Abbild der Grundgesamtheit) dadurch angestrebt, dass bestimmte Merkmale der Erhebungseinheiten und eventuell ihre Verteilung in der Grundgesamtheit als Auswahlkriterien benutzt werden (Auswahl „typischer Fälle“, Quotierung). Bei zufallsgesteuerten Auswahlen wird die Entscheidung darüber, ob ein Element der Grundgesamtheit auch Element der Stichprobe wird, der Entscheidung des Forschers/ der Forscherin entzogen und durch einen kontrollierten „Zufallsprozess“ ersetzt. Während die Stichprobe aufgrund eines nicht zufallsgesteuerten Auswahlverfahrens Repräsentativität lediglich hinsichtlich der Merkmale bzw. der Merkmalskombinationen beanspruchen kann, die als Auswahlkriterien benutzt wurden, sind zufallsgesteuerte Auswahlen (kontrollierte Zufallsauswahlen) tendenziell repräsentativ im Hinblick auf sämtliche Merkmale und sämtliche Merkmalskombinationen der Erhebungseinheiten, und zwar im Rahmen angebbarer (Zufalls-)Fehlergrenzen und Fehlerwahrscheinlichkeiten. Differenz: geplante und realisierte Stichprobe VERTIEFUNG Inferenzpopulation zufallsgesteuerte/ nicht-zufallsgesteuerte Auswahlen <?page no="265"?> 266 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 266 Von den existierenden Verfahren der Stichprobenkonstruktion werden die folgenden Typen in den Kapiteln 6.4 und 6.5 erläutert. 6.4 Nicht zufallsgesteuerte Auswahlverfahren 6.4.1 Willkürliche Auswahl Im Alltagsverständnis wird häufig „Zufallsauswahl“ mit dem Auswahl-“Verfahren“ gleichgesetzt, das hier die Bezeichnung willkürlicher Auswahl oder Auswahl aufs Geratewohl (manchmal auch Gelegenheitsauswahl) trägt. Die Willkürauswahl ist eine Auswahl, die auf einer willkürlichen, d. h. durch keinen Auswahlplan kontrollierte, Entscheidung der Person, die die Auswahl vornimmt. „Schneeball-Verfahren“ willkürliche Auswahl (Auswahl aufs Geratewohl, Gelegenheitsauswahl) bewusste Auswahl (gezielte Auswahl, Auswahl nach Gutdünken) Quoten-Auswahlverfahren (geschichtete willkürliche Auswahl) Auswahl „typischer Fälle“ Auswahl nach dem „Konzentrationsprinzip“ Abbildung 6.1: Nicht zufallsgesteuerte Auswahlverfahren (Kapitel 6.4) Abbildung 6.2: Zufallsgesteuerte Auswahlverfahren (Kapitel 6.5) komplexe Wahrscheinlichkeitsauswahl Klumpenauswahl (cluster sample) geschichtete Auswahl mehrstu ge Auswahl proportional geschichtet disproportional geschichtet reine Zufallsauswahl systematische Zufallsauswahl einfache Wahrscheinlichkeitsauswahl Gebietsauswahl Karteiauswahl reine Zufallsauswahl systematische Zufallsauswahl reine Zufallsauswahl systematische Zufallsauswahl  <?page no="266"?> 267 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 267 Es entscheidet also gerade nicht ein „kontrollierter Zufallsprozess“ darüber, ob ein Element der Grundgesamtheit in die Stichprobe kommt oder nicht. Der Interviewer oder Beobachter greift sich nach Belieben (aufs Geratewohl) an einem beliebigen Ort und zu einem beliebigen Zeitpunkt Personen oder Ereignisse heraus, die er befragt bzw. beobachtet. So kann eine Interviewerin sich etwa an einer belebten Straßenkreuzung aufstellen und die bei roter Ampel wartenden Passanten ansprechen. Oder sie kann Haltestellen öffentlicher Verkehrsmittel aufsuchen und dort „die Gelegenheit nutzen“, die auf den nächsten Bus oder die nächste Bahn wartenden Fahrgäste anzusprechen. Der Interviewer kann sich auch zum Hauptbahnhof begeben, oder er geht in eine Kneipe oder in ein Warenhaus-… Um solche willkürlichen Auswahlen handelt es sich in der Regel, wenn im Fernsehen kurze Statements „des Mannes auf der Straße“ zu aktuellen Ereignissen eingeblendet werden. Prüfen wir, ob die in Kapitel 6.2 geforderten vier Voraussetzungen einer Stichprobe erfüllt sind, so stellen wir fest, dass die willkürliche Auswahl keiner einzigen der genannten Anforderungen gerecht wird. Die Stichprobe kann schon deshalb kein verkleinertes Abbild einer definierten Grundgesamtheit sein, weil weder die Grundgesamtheit angebbar ist noch die Stichprobenelemente genau definiert sind: Handelt es sich um die Grundgesamtheit aller Fußgänger, aller Straßenbahnfahrer, aller Eisenbahnfahrer, aller Kaufhausbesucher, aller Kneipengäste? Da die Stichprobenelemente von der interviewenden bzw. beobachtenden Person willkürlich, also ohne vorher festgelegten Plan bestimmt werden, ist auch das Auswahlverfahren nicht angebbar. Konsequenz: Willkürliche Auswahlen sind für statistisch kontrollierte wissenschaftliche Aussagen wertlos. Varianten der willkürlichen Auswahl sind die Selbstrekrutierung und die Auswahl nach Zugänglichkeit (das sogenannte „convenience sample“). Bei der Selbstrekrutierung wird beispielsweise für eine Befragung breit geworben und es nimmt teil, wer immer Lust dazu hat. Bei der Auswahl nach Zugänglichkeit stehen praktische Fragen der (einfachen) Erreichbarkeit der zu befragenden Personen im Vordergrund. In beiden Fällen gibt es kein systematisch durchdachtes Verfahren, wie eine repräsentative Auswahl gefunden werden kann. Liegt dieser Auswahl Bequemlichkeit zugrunde, etwa wenn eigene Freundinnen und Freunde befragt werden, weil das am wenigsten Mühe bereitet, dann wird dadurch die Studie weitgehend entwertet. Dominiert die Auswahl nach Zugänglichkeit, weil der Zugang ausgesprochen schwierig ist und sonst keine Möglichkeiten bestehen, überhaupt eine Studie zu realisieren, dann kann es sich um eine legitime „Notlösung“ handeln. Die Verallgemeinerbarkeit der Befunde ist gleichwohl hoch problematisch. willkürliche Auswahl willkürliche Auswahlen sind ungeeignet Auswahl nach Zugänglichkeit <?page no="267"?> 268 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 268 6.4.2 Bewusste Auswahlen Bei der bewussten Auswahl wird die Auswahl planvoll, aufgrund vorheriger Überlegungen nach angebbaren und intersubjektiv nachvollziehbaren Kriterien gezielt vorgenommen. Man spricht deshalb auch von gezielter Auswahl oder Auswahl nach Gutdünken, d. h. nach Kriterien, die dem Forscher für bestimmte Zwecke sinnvoll erscheinen. Ob ein Element der Grundgesamtheit ausgewählt wird, hängt nicht mehr von der willkürlichen Entscheidung der Interviewerin oder des Beobachters ab, sondern vom Zutreffen vorher festgelegter Kriterien. Solche Kriterien können sein: Es werden nur „Expert/ innen“ zu einem bestimmten Thema befragt (Expertengespräche); es kommen nur „durchschnittliche Fälle“ (z. B. 4-Personen-Haushalte mittleren Einkommens) oder in anderer Weise „typische Fälle“ in die Auswahl; es werden nur Extremgruppen (Extremfälle) untersucht, etwa Personen mit besonders niedrigem und solche mit besonders hohem Einkommen oder Quartiersbewohner mit besonders langer und solche mit besonders kurzer Wohndauer oder Familien mit besonders autoritärem oder besonders liberalem Erziehungsstil etc. Das Merkmal zur Bestimmung der „Extrem“-Fälle kann nicht ohne Rückgriff auf bestimmte Hypothesen festgelegt werden. Der Grad der Differenziertheit der Kriterien für die gezielte Auswahl kann sich bis zur Entwicklung eines theoretisch begründeten repräsentativen Modells der Gesamtheit erstrecken (z. B. Modell typischer Stimmbezirke für die Hochrechnung von Wahlergebnissen). Je nach der spezifischen Ausgestaltung bewusster Auswahlen sind die in Kapitel 6.2 formulierten Anforderungen mehr oder weniger vollständig erfüllt. So muss z. B. die (angestrebte) Grundgesamtheit angebbar sein, um überhaupt die Kriterien für eine gezielte Auswahl entwickeln zu können; die Erhebungs-Grundgesamtheit dagegen bleibt weitgehend unbestimmt. Damit ein Element der Grundgesamtheit in die Stichprobe aufgenommen werden kann, muss es bestimmte Merkmale oder Merkmalskombinationen aufweisen; damit scheidet die vollständige Willkür durch Interviewer oder Beobachter aus. Das Auswahlverfahren selbst ist angebbar; es erfüllt allerdings die Forderung, ein verkleinertes Abbild der Grundgesamtheit zu konstruieren, nur insofern, als lediglich einige wenige vorher festgelegte Merkmale oder Merkmalskombinationen in der Stichprobe repräsentiert werden. Die Festlegung dieser Merkmale richtet sich nach der Relevanz für die Fragestellungen der Untersuchung. Bewusste Auswahlen eignen sich insbesondere bei hypothesen-/ theorietestenden Untersuchungen (z. B. Auswahl solcher Fälle, die für die zu prüfende Hypothese als besonders harter Test gelten können). Im Falle deskriptiver Forschung bieten sie sich vor allem für Analysen mit eng eingegrenzten Fragestellungen an sowie für Vorklärungen in Problembereichen, in denen noch relativ wenig Basiskenntnisse vorhanden gezielte Auswahl nach Kriterien BEISPIEL Eignung abhängig von den Kriterien Eignung der bewussten Auswahl <?page no="268"?> 269 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 269 sind: Durch die Analyse „typischer Fälle“ wird die Entwicklung eines endgültigen Forschungsdesigns erleichtert. Von den bewussten Auswahlen stellt die typische Auswahl (bzw. die Auswahl typischer Fälle) vom Prinzip her die einfachste Variante dar; zugleich ist sie aber auch die problematischste aller Formen von bewussten Auswahlen. Die Grundüberlegung besteht darin, dass die Analyse auf relativ wenige Elemente der Grundgesamtheit beschränkt werden soll, die als besonders charakteristisch, als besonders „typisch“ für die Grundgesamtheit angesehen werden. Die Hypothese lautet: Wenn Untersuchungseinheiten hinsichtlich bestimmter zentraler Merkmale für eine größere Gesamtheit von Fällen „typisch“ sind, dann sind auch ihre Reaktionen (z. B. Antworten in einem Interview) für die größere Gesamtheit von Fällen typisch. 216 Das erste Problem bei diesem Vorgehen wurde oben bereits genannt: Es ist zunächst anzugeben, hinsichtlich welcher Kriterien die Elemente „typisch“ sein sollen; denn „typische Elemente an sich“ gibt es nicht. Diese Kriterien können nur vom Untersuchungsziel, d. h. von den angestrebten Erkenntnissen her definiert werden. Damit definiert aber das Untersuchungsziel bereits in einem nicht abzuschätzenden Ausmaß die Untersuchungsergebnisse; nämlich indem per Auswahl „typischer“ Untersuchungsfälle möglicherweise zugleich die Erhebung „untypischer“, also abweichender Informationen weniger wahrscheinlich wird. 217 Das zweite Problem besteht darin, dass eine typische Auswahl immer schon entsprechende Vorkenntnisse über die Grundgesamtheit voraussetzt. Man muss vorher wissen, wie die relevanten Merkmale, nach denen die typischen Fälle definiert werden, in der Grundgesamtheit verteilt sind. Das schränkt die Anwendbarkeit dieses Verfahrens für „explorative“ Studien im Rahmen der Logik standardisierter Forschung, also für Voruntersuchungen zur Konzipierung eines endgültigen Designs, ein. 218 Meist werden die erforderlichen Vorkenntnisse über die Verteilung der (theoretisch) eigentlich angemessenen Merkmale in der Grundgesamtheit entweder nicht vorhanden sein, oder die relevanten Merkmale sind-- selbst bei Kenntnis ihrer Ver- 216 Das gedankliche Konzept der „Repräsentativität“ wird hier in seiner extremsten Form angewandt: Jeder einzelne ausgewählte Fall soll eine große Zahl „gleichartiger“ Fälle repräsentieren. Um Verwechselungen mit dem für die gesamte Stichprobe geltenden Gütekriterium Repräsentativität zu vermeiden, wurde hier der Begriff „Auswahl typischer Fälle“ (statt: „Auswahl repräsentativer Fälle“) gewählt. 217 Beim sogenannten „theoretical sampling“ im Rahmen des von Glaser und Strauss entwickelten Forschungsansatzes zur Entwicklung einer „gegenstandsbezogenen Theorie“ (grounded theory; Glaser/ Strauss 1979, Strauss 1984, Strauss/ Corbin 1996) handelt es sich um eine methodisch fundierte Variante von bewusster Auswahl, die diese Gefahr minimiert: Die Kriterien dafür, welche Merkmale die weiteren auszuwählenden Fälle aufweisen sollen, ergeben sich im Zuge der fortlaufenden Analyse aufgrund des sich dabei konkretisierenden Informationsbedarfs (siehe die Annotationen aus der Perspektive qualitativ-interpretativer Methoden in Kapitel 6.7). 218 Auch dieses Defizit gilt nicht für die Strategie des „theoretical sampling“ im Rahmen qualitativer Exploration. Auswahl typischer Fälle Probleme der Auswahl typischer Fälle abhängig von Qualität der Kriterien Vorkenntnisse erforderlich <?page no="269"?> 270 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 270 teilungen-- nicht ohne Weiteres feststellbar und können deshalb nicht als Bestimmungsgrößen für eine gezielte Auswahl herangezogen werden. 219 Daraus entsteht als drittes Problem, dass sich die Auswahl nicht an den eigentlich interessierenden Merkmalen ausrichten kann, sondern zur Bestimmung „typischer“ Fälle Ersatzmerkmale heranzuziehen sind. Über solche Ersatzmerkmale müssen a) ausreichende Kenntnisse vorhanden sein, sie müssen b) zugleich leicht für den Auswählenden erkennbar sein und man muss c) wissen, dass sie mit den eigentlich interessierenden Merkmalen so hoch korrelieren, dass die Annahme gerechtfertigt ist: Die anhand der Ersatzmerkmale ausgewählten typischen Fälle sind auch hinsichtlich der eigentlich interessierenden Merkmale typisch für die Grundgesamtheit (vgl. Kops 1977, 179 f.). Eine andere Form der bewussten Auswahl, die mit der Auswahl typischer Fälle gewisse Ähnlichkeiten aufweist, ist die Auswahl nach dem Konzentrationsprinzip. Hierbei beschränkt man die Erhebung auf die für den Untersuchungsgegenstand besonders „ins Gewicht fallenden“ Fälle. 220 Auch hier sind vorab Informationen über die Auswahleinheiten notwendig, insbesondere über deren Bedeutsamkeit, gemessen an den jeweils im Vordergrund stehenden Untersuchungsmerkmalen. Hohen Stellenwert gewinnt die Auswahl nach dem Konzentrationsprinzip dann, wenn ein relativ kleiner Teil der Grundgesamtheit einen großen Einfluss auf die untersuchten Merkmale ausübt. „Großer Einfluss“ oder „Bedeutsamkeit“ ist also das Kriterium, nach dem für diese Fälle zu bestimmen ist, ob sie in die Auswahl kommen. „Bedeutsamkeit“ kann nun heißen: bedeutsam im Hinblick auf zu untersuchende Wirkungen bestimmter Einheiten auf andere Einheiten (etwa: „die Machtelite“ übt großen politischen Einfluss aus, oder: bestimmte Publikationen spielen eine führende Rolle, sind z. B. Meinungsführer). „Bedeutsamkeit“ kann aber auch heißen: weite Verbreitung (z. B. Auflagenstärke bei Zeitungen) oder großer Anteil an der Gesamtausprägung des Merkmals (z. B. Beschäftigtenzahl von Unternehmen). Das „Konzentrationsprinzip“ wird in der amtlichen Statistik häufig angewendet. Will man die Umsätze in der Bauwirtschaft sowie die Entwicklung der Auftragseingänge in dieser Branche untersuchen, kann man sich getrost auf die Erhebung von Daten bei Betrieben mit 20 oder mehr Beschäftigten beschränken. Diese machen 9,5 % aller Unternehmen im Bauhauptgewerbe aus; sie vereinigen 219 Beispiel: Man wolle die Anpassungsbereitschaft von Jugendlichen an gesellschaftliche Normen und deren politische Partizipation in Abhängigkeit von den Erziehungsstilen im Elternhaus untersuchen: Die inhaltlich (theoretisch) angemessenen Merkmale für eine typische Auswahl wären Haushalte mit je spezifischen, klar abgrenzbaren Erziehungsstilen. Um diese für die Auswahl relevanten Informationen zu erhalten, müsste man praktisch die Grundgesamtheit zunächst auf ihre Erziehungsstile untersuchen und könnte erst dann eine typische Auswahl vornehmen. 220 Zum statistischen Modell der „Konzentrationsmessung“ vgl. Abschnitt 8.2.5. Orientierung an Ersatzmerkmalen Auswahl nach dem Konzentrationsprinzip Kriterium: Bedeutsamkeit BEISPIEL <?page no="270"?> 271 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 271 jedoch 66,5 % aller Umsätze der Branche auf sich. 221 Indem man also die Untersuchung auf nur knapp 10 % aller Elemente der Grundgesamtheit konzentriert, erfasst man dennoch zwei Drittel des gesamten Umsatzvolumens und kann z. B. zuverlässige Prognosen über den Konjunkturverlauf in der Bauwirtschaft abgeben. 6.4.3 Quoten-Auswahl (quota-sample) Ein in der kommerziellen Forschung oft benutztes Auswahlverfahren ist das Quoten-Sample. Es handelt sich hier um eine Zwischenform von bewusster und willkürlicher Auswahl. „Bewusst“ bzw. gezielt werden den Interviewenden Quoten von Merkmalen vorgegeben, die die befragten Personen aufweisen müssen; etwa Alter, Geschlecht, Wohnlage. Im Rahmen dieser Quoten allerdings hat die Interviewerin/ der Interviewer freie Hand, wen sie/ er befragt. Die Auswahl ist also im Hinblick auf ihre Planung partiell „gezielt“ (Vorgabe von Quoten für einige Merkmale der auszuwählenden Einheiten), sie ist darüber hinaus im Zuge ihrer Realisierung partiell „willkürlich“: Beim Quotenverfahren beruht „die Bestimmung der in eine Erhebung einzubeziehenden Einheiten letztlich auf Ermessen. Kennzeichnend ist, dass hierbei diese Ermessensentscheidungen im Stadium der Feldarbeit von den Erhebungssubjekten (meist Interviewern) selbst getroffen werden“ (Scheuch 1974, 15). Da die Quotierung dem Verfahren der Schichtung bei der geschichteten Zufallsauswahl (vgl. Kapitel 6.5) entspricht, kann man die Quoten-Stichprobe auch als eine „geschichtete willkürliche Auswahl“ bezeichnen. Die Festlegung der Quoten geschieht anhand der bekannten Verteilung der relevanten Merkmale (Quotierungsmerkmale) in der Grundgesamtheit; es werden also wiederum Kenntnisse über die Grundgesamtheit vorausgesetzt. An unserem Beispiel der aus der Grundgesamtheit von 11.000 Oberstufenschülern zu ziehenden Stichprobe vom Umfang n =-1000 (siehe Kapitel 6.1) sei das Vorgehen erläutert. Nehmen wir an, der Forscher sieht sich aufgrund vorliegender Kenntnisse zu der Annahme berechtigt, dass für die Problemstellung „politische Bildung“ die Merkmale Schichtzugehörigkeit und Geschlecht der Schüler besonders relevant sind. Aus einer Statistik des Kultusministeriums möge außerdem hervorgehen, dass an den Oberstufen des Landes die Arbeiterkinder mit 20 %, Mittelschichtkinder mit 50 % und Oberschichtkinder mit 30 % vertreten sind und dass 35 % der Oberstufenschüler weiblichen, 65 % männlichen Geschlechts sind. Auf die Stichprobe übertragen bedeutet dies: Es sind 200 Arbeiterkinder, 500 Mittelschichtkinder und 300 Oberschichtkinder zu befragen; und: Unter den 1000 Befragten müssen 350 Mädchen und 650 Jungen sein. Hätten die Interviewer jeweils 10 Befragungen durchzuführen, dann könnte ein Quotenplan so aussehen: 221 Statistisches Bundesamt 2009: Fachserie 4, Reihe 5.1: Tätige Personen und Umsatz der Betriebe im Baugewerbe 2008, Wiesbaden Quoten-Auswahl partiell bewusst, partiell willkürlich geschichtete willkürliche Auswahl BEISPIEL <?page no="271"?> 272 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 272 Beispiel: Quotenplan Interviewer Interviews gesamt Schichtzugehörigkeit G e s c h l e c h t Arbeiter Mittel- schicht Oberschicht weiblich männlich 01 10 2 5 3 4 6 02 10 1 6 3 3 7 03 10 3 5 2 2 8 04 10 3 4 3 5 5 100 10 2 5 3 3 7 Gesamt 1000 200 500 300 350 650 In diesem Quotenplan hat nicht jeder Interviewer die gleichen Quoten, etwa Schichten-Schlüssel je Interviewer 2 : 5 : 3. Dies entspricht der häufig formulierten Empfehlung, dass im Rahmen der für die gesamte Stichprobe zu realisierenden Anteile die Vergabe der Quotenanweisungen an die einzelnen Interviewer nach einem Zufallsschlüssel vorzunehmen sei (vgl. Kaplitza 1975, 161): Die 200 zu befragenden Arbeiterkinder, die 500 Mittelschicht-Kinder usw. sind „zufällig“ auf die 100 Interviewer zu verteilen. Im Rahmen der vorgegebenen Quoten können diese sich nun beliebig ihre Interviewpartner aussuchen. Um Doppelbefragungen derselben Schüler zu vermeiden, wird man allenfalls das „Revier“ der verschiedenen Interviewer räumlich gegeneinander abgrenzen. Im Falle genauer Festlegung des Erhebungs-„Reviers“ ist zugleich eine kontrollierte Schichtung nach raumstrukturellen Gesichtspunkten möglich, z. B. nach „städtisch/ ländlich“. An dem Beispiel lässt sich ein zentrales Problem der Quotenauswahl ablesen: Die Quoten für die Quotierungsmerkmale werden meist unabhängig voneinander vorgegeben. In der Grundgesamtheit kommen jedoch diese Merkmale kombiniert vor; so könnte unter den Arbeiterkindern in der Oberstufe der Anteil der Mädchen drastisch geringer als 35 % sein, während er in der Oberschicht höher liegt. In „verfeinerten“ Quotenplänen wird daher die Quotenanweisung anhand von Merkmalskombinationen formuliert. Allerdings sind solchen Verfeinerungsstrategien sehr enge Grenzen gesetzt. Zum einen sind über die Verteilung untersuchungsrelevanter Merkmalskombinationen in der Grundgesamtheit selten Kenntnisse vorhanden. Außerdem-- selbst wenn entsprechende Kenntnisse existierten-- würde eine differenzierte Berücksichtigung von Merkmalskombinationen für die Quotierung den Auswahlplan komplizieren und es den Interviewern erheblich erschweren, die Quotenvorgaben zu erfüllen. Im obigen Quotenplanbeispiel könnte Interviewer 02 sämtliche drei weiblichen Befragten aus der Oberschicht wählen und müsste nicht etwa je eine Oberstufenschülerin aus einem Arbeiterhaushalt, einem Mittelschichtsowie einem Oberschichthaushalt suchen. Quotenplan nach Merkmalskombinationen <?page no="272"?> 273 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 273 Einen verfeinerten Quotenplan mit Berücksichtigung von Merkmalskombinationen benutzt das folgende Institut für Demoskopie Allensbach (Noelle-Neumann/ Petersen 2000, 257, Abb. 44). Quotenanweisung des Instituts für Demoskopie Allensbach Name des Interviewers: L. Mahler Wohnort: Berlin Insgesamt: 5 Interviews Im Wohnort/ in: Berlin Umfrage 1767 Fragebogen Nr.: 51-55 Gemeindegröße: Gemeinden unter 2000 Einwohner∗ 1 2 3 4 5 6 7 8 9 10 2000-- unter 5000 Einwohner∗ 1 2 3 4 5 6 7 8 9 10 5000-- unter 20000 Einwohner∗ 1 2 3 4 5 6 7 8 9 10 20000-- unter 100000 Einwohner∗ 1 2 3 4 5 6 7 8 9 10 100000-- unter 500000 Einwohner∗ 1 2 3 4 5 6 7 8 9 10 500000 und mehr Einwohner∗ 1 2 3 4 5 • 7 8 9 10 Alter: 2 männlich 3 weiblich 16-- 29 Jahre 1 2 3 4 5 1 • 3 4 5 30-- 44 Jahre 1 • 3 4 5 1 2 3 4 5 45-- 59 Jahre 1 2 3 4 5 1 • 3 4 5 60 Jahre und älter 1 • 3 4 5 1 • 3 4 5 Berufstätige: Landwirte und mithelfende Familienangehörige in der Land- und Forstwirtschaft (auch Gartenbau und Tierhaltung) 1 2 3 4 5 1 2 3 4 5 Arbeiter (auch Landarbeiter, Facharbeiter, nicht selbständige Handwerker und Auszubildende) 1 2 3 4 5 1 • 3 4 5 Angestellte und Beamte (auch Auszubildende und Soldaten) 1 • 3 4 5 1 2 3 4 5 Selbständige und mithelfende Familienangehörige in Handel und Gewerbe (auch freie Berufe) 1 • 3 4 5 1 2 3 4 5 Nichtberufstätige (auch Arbeitslose): (Bei Rentnern [-innen] frühere Berufsstellung, bei Arbeitslosen letzte Berufsstellung, bei Hausfrauen, Schülern [-innen], Studenten [-innen] usw. Berufsstellung des-Ernährers) Landwirte (auch Gartenbau, Tierhaltung) 1 2 3 4 5 1 2 3 4 5 Arbeiter (auch Landarbeiter, Facharbeiter usw.) 1 2 3 4 5 1 2 3 4 5 Angestellte und Beamte 1 2 3 4 5 1 • 3 4 5 Selbständige in Handel und Gewerbe (auch freie Berufe) 1 2 3 4 5 1 • 3 4 5 Anmerkung: Gültig sind die Zahlen vor jedem Punkt. Wäre zum Beispiel in der Zeile „Arbeiter, weiblich“ die Zahl 3 gestempelt, so wären in diesem Falle zwei Arbeiterinnen zu interviewen. Im Übrigen streichen Sie bitte die zutreffenden Angaben der Statistik nach jedem Interview ab, damit Sie gleich übersehen können, wie viel Interviews in der betreffenden Kategorie noch weiterhin durchzuführen sind. ∗ Maßgebend ist die Einwohnerzahl der gesamten Gemeinde, nicht die Größe von Ortsteilen oder eingemeindeten Vororten. BEISPIEL <?page no="273"?> 274 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 274 Die in diesem Plan vorgenommene Quotierung sichert eine repräsentative Abbildung der Merkmalskombinationen Gemeindegrößen mit Geschlecht und Alter sowie mit Geschlecht und Berufstätigkeit der Befragten. Die Schichtung nach Gemeindegrößenklassen geschieht institutskontrolliert dadurch, dass jeder Interviewerin/ jedem Interviewer ein genau definiertes Erhebungsgebiet zugeteilt wird. Die Realisierung der Kombination Geschlecht/ Alter und Geschlecht/ Berufstätigkeit erfolgt zwar durch die jeweilige Interviewerin bzw. den jeweiligen Interviewer. Deren Gestaltungsspielraum (also die „willkürliche“ Auswahlkomponente) wird jedoch dadurch eingeschränkt, dass ihnen je Merkmalskombination nur genau ein zu realisierendes Interview vorgegeben wird. So haben die Interviewer (anders als im obigen Schülerbeispiel) keine Möglichkeit, „leichte“ Merkmalskombinationen zu kumulieren. Mit einer den Interviewern vorgegebenen jeweils zweidimensionalen Merkmalsquoten-Kombination dürfte allerdings der zumutbare Rahmen an Differenzierung ausgeschöpft sein. Andernfalls, d. h. bei faktisch nicht umsetzbaren Vorgaben, sähen sich die Interviewer gezwungen, ihr Soll lediglich durch „passende“ Eintragungen auf dem Papier (statt real) zu erfüllen. 222 Darüber hinausgehende Schichtungen sind allenfalls durch differenziertere Zuteilung von Erhebungsgebieten an den Interviewerstab zu erreichen (im zitierten Allensbach-Beispiel: nach Gemeindegrößenklassen; im Falle von Unternehmensuntersuchungen könnten dies Betriebsgrößen, bei freizeitbezogenen Fragestellungen auch „Situationen“ wie zu Hause, Park, Freibad, Ausflugsziel, Theater etc. sein). Die in das Verfahren gesetzte Hoffnung ist herkömmlicherweise, dass sich bei einer Vielzahl eingesetzter Interviewer trotz getrennter Vorgabe von Quoten für einzelne Merkmale auch die Merkmalskombinationen auf die Werte in der Grundgesamtheit einpendeln. 223 Die gleiche Hoffnung gilt im Hinblick auf den Ausgleich des Aspekts der willkürlichen Auswahl von Zielpersonen: Wenn die Zahl der Interviewer relativ groß und die Zahl der Interviews je Interviewer relativ klein ist, dann hat der einzelne Interviewer nur sehr geringen Einfluss auf die Zusammensetzung der Gesamtstichprobe. Vorlieben und Abneigungen der Interviewer, die sich auf die Wahl der Zielpersonen auswirken können, werden sich dann-- so die Annahme-- insgesamt ausgleichen. Soll durch die Quotierung die Repräsentativität der Stichprobe insgesamt gesichert werden, gelten für die Festlegung der Quotierungsmerkmale durch den Forscher die gleichen Überlegungen wie für die Bestimmung von „Ersatzmerkmalen“ bei der Auswahl typischer Fälle: 222 Darauf weisen auch Noelle-Neumann/ Petersen hin: „Der Bogen [der Quotierungsanweisungen, H. K.] sollte aber nicht überspannt werden. Durch gar zu komplizierte Vorschriften kann man die Interviewer leicht zum Fälschen erziehen, indem sie auf den Gedanken verfallen, die statistischen Daten ihrer Befragten kurzerhand der Quote ‚anzupassen‘“ (2000, 260). 223 Diese optimistische Hoffnung kann sich allerdings- - wie Quatember (1997) nachweist- - schon aus mathematisch-logischen Gründen nicht erfüllen. realisierbare Merkmalskombinationen beschränkt Einsatz vieler Interviewerinnen und Interviewer Probleme bei Festlegung der Quotierungsmerkmale <?page no="274"?> 275 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 275 a) die Verteilung der Quotierungsmerkmale in der Grundgesamtheit muss bekannt sein; b) die Merkmale müssen mit den Untersuchungsmerkmalen ausreichend hoch korrelieren, damit aus der Repräsentativität im Hinblick auf die Quotierungsmerkmale auch auf Repräsentativität hinsichtlich der eigentlich interessierenden Variablen geschlossen werden kann; c) die Quotierungsmerkmale müssen relativ leicht erfassbar sein. Daraus resultieren als Nachteile für das Verfahren: Um bei großen Sample-Umfängen den Auswahlplan nicht unrealistisch kompliziert werden zu lassen und um das Zustandekommen der Auswahl nicht zu sehr zu verteuern, muss man sich bei den Quotierungsvorgaben auf eine begrenzte Zahl von zudem leicht erkennbaren oder erfragbaren Merkmalen beschränken. Leicht erkennbar oder erfragbar sind bei Personen z. B. demografische Merkmale wie Alter und Geschlecht sowie Familienstand und vielleicht noch Beruf. Bei kommerziellen Umfragen werden zudem in einem Interviewbogen gleichzeitig mehrere Themen behandelt („Omnibus“-Befragungen), so dass die Quotierungsmerkmale gleichzeitig mit einer Vielzahl „eigentlich interessierender“ Untersuchungsvariablen hoch korrelieren müssen. Außerdem kann auch die Zuteilung kombinierter Quoten systematische Stichprobenverzerrungen dann nicht ausschließen, wenn den Interviewern ansonsten freie Hand bei der Auswahl ihrer Zielpersonen gelassen wird. Befragen sie beispielsweise ausschließlich Personen aus ihrem eigenen Bekanntenkreis, dann reduziert sich die Erhebungsgrundgesamtheit auf eine Population „Bekannte von Interviewern“, die selbstverständlich nicht repräsentativ sein kann für eine angestrebte Grundgesamtheit „Bevölkerung der Bundesrepublik“. Und schließlich sind aus der amtlichen Statistik nur für relativ wenige Personenmerkmale Informationen über die Verteilung in der Grundgesamtheit verfügbar, und diese sind meist schon ziemlich alt (etwa wenn als Informationsquelle Daten einer veralteten Volkszählung zur Verfügung stehen) oder nicht mehr zuverlässig (wenn sich die Daten aus Fortschreibungen ergeben). Die hier vorgetragene Argumentation wird vom Institut für Demoskopie Allensbach, das weitgehend die Quotenmethode zur Sicherung der Repräsentativität von Stichproben einsetzt, ausdrücklich nicht geteilt. Nach Noelle-Neumann/ Petersen dient die Festlegung von Quoten für einige Schlüsselmerkmale nicht unmittelbar, sondern nur indirekt dem Ziel, die Repräsentativität der Stichprobe zu sichern. Die Quotenanweisungen erfolgen nicht in erster Linie zu dem Zweck, die Stichprobe für untersuchungsrelevante Merkmale zu „schichten“, sondern sie sollen vor allem das generelle Interviewerverhalten steuern. Der Sinn der Quotenanweisungen ist es, „den Interviewer zu einer Zufallsauswahl [zu] veranlassen, bei der jedes Mitglied der Grundgesamtheit praktisch die gleiche Chance hat, in die Stichprobe zu gelangen“ (2000, 258). Wie kann man sich dies vorstellen? Ähnlich wie bei dem später (Abschnitt 6.5.3) zu schildernden „Random-Route“-Verfahren soll es die spezifische Art der Quo- Nachteile der Quotenauswahl begrenzte Quotierungsvorgaben schwierig bei Mehrthemenumfragen Einfluss der Willkürauswahl Information zur Grundgesamtheit begrenzt VERTIEFUNG <?page no="275"?> 276 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 276 tierung den Interviewerinnen und Interviewern unmöglich machen, „willkürlich“, also nach ihren Vorlieben, Personen für Interviews auszuwählen (etwa nach dem Kriterium leichter Erreichbarkeit oder der Zugehörigkeit zum eigenen sozialen Kontext). Die Interviewer müssen-- so Noelle-Neumann/ Petersen-- durch die zu realisierenden Quoten „gezwungen werden, aus [ihrer] eigenen sozialen Schicht oder Alters- oder Geschlechtsgruppe herauszugehen sowie Personen zu befragen, die seltener zu Hause sind, wie beispielsweise Berufstätige, insbesondere jüngere Menschen“ (2000, 256 f.). Darüber hinaus ist die gesamte Konstellation der durchzuführenden Studie so anzulegen, dass für die Interviewer nur eine „neutrale Auswahl“ infrage kommt. Dazu gehört neben dem „richtigen Schwierigkeitsgrad“ der Quote („Weder zu leicht noch zu schwer“) auch ein insgesamt thematisch neutraler Fragebogen: „Die Fragebogen müssen eine Themenmischung enthalten; denn die Interviewer haben-… eine unbewusste Tendenz, bei Befragungen, die sich auf nur ein Thema konzentrieren, Personen auszuwählen, die ihnen besonders sachverständig erscheinen.- … Um eine statistisch neutrale Auswahl der Versuchspersonen bei Anwendung der Quotenmethode zu sichern, empfiehlt es sich daher, entweder den Gegenstand der Untersuchung durch Vorschaltung einiger thematisch anderer Fragekomplexe zu tarnen oder die zu klärenden Fragen in einen sogenannten ‚Omnibus‘, eine Mehr-Themen-Umfrage einzuschließen“ (2000, 259). Natürlich wird durch die Quotenvorschriften der gleiche Effekt bewirkt wie bei einer „geschichteten“ Zufallsauswahl (siehe Kapitel 6.5.2): In der Stichprobe wird hinsichtlich der quotierten Merkmale die Verteilung der Grundgesamtheit reproduziert. Dieser-- durchaus erwünschte-- Effekt ist hier allerdings zweitrangig. Das eigentlich angestrebte Ziel ist vielmehr etwas, was man vielleicht die Simulation von Zufall in der individuellen Willkür nennen könnte. Wenn nämlich die Rahmenbedingungen für die freie Wahl der Interviewpartner in der geschilderten Weise so gestaltet werden, dass sich ein individuell willkürliches Vorgehen nicht mehr lohnt, dann wird-- so Noelle-Neumann/ Petersen-- innerhalb der durch die Quoten definierten Schichten „offenbar ein Zufallsmechanismus wirksam, indem die Interviewer angesichts der Schwierigkeit, die in ihre Quoten passenden Personen zu finden, von persönlichen Vorlieben und Bequemlichkeiten abgehen müssen, und damit wird praktisch die gleiche Auswahlchance für jeden gesichert.“ (2000, 259 f.) Auch wenn sich ein methodologischer, theoretisch-statistischer Nachweis für die Richtigkeit dieser Annahme nicht führen lässt, scheinen empirische Ergebnisse die hier skizzierte Verfahrensphilosophie zumindest dieses Typs von Quotenmethode 224 zu bestätigen. Allensbach berichtet über Erhebungen, die vergleichend mit Zufalls- und mit Quotensamples zum selben Zeitpunkt mit demselben Fragebogen durchgeführt wurden und die sogar leichte Vorteile für das Quotenverfahren ergeben (2000, 265 f.). 224 Im Detail dargestellt bei Noelle-Neumann/ Petersen 2000, 255-281. Eine Zusammenfassung der wichtigsten Anwendungsbedingungen in acht Punkten findet sich dort auf S. 278 f. <?page no="276"?> 277 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 277 Was die Anforderungen an die Stichprobenkonstruktion betrifft (Kapitel 6.2), so ist für die Quotenauswahl festzuhalten: Wie bei den bewussten Auswahlen (Abschnitt 6.4.2) ist die angestrebte Grundgesamtheit bei diesem Verfahren zwar abgegrenzt, die Erhebungsgesamtheit jedoch wird weder auf irgend eine Weise physisch fixiert noch (etwa durch Kartei oder Liste) symbolisch repräsentiert. Die Erhebungs-Grundgesamtheit kann erheblich kleiner sein als die angestrebte Grundgesamtheit (im Extremfall „Bekannte von Interviewern“, s. o.). In unserem Schulbeispiel hätten zumindest alle abwesenden Schüler keine Chance, befragt zu werden; außerdem könnten durch Verkehrsmittel schlecht erreichbare Schulen systematisch von den Interviewern ausgeklammert, Schulen in der Nähe ihres eigenen Wohnsitzes systematisch bevorzugt werden. Das Auswahlverfahren ist nur zum Teil angebbar (Quotierung), zu einem anderen Teil überhaupt nicht (nach welchen Gesichtspunkten wählt die Interviewerin/ der Interviewer die Zielpersonen aus? ). Die Stichprobe ist schließlich allenfalls hinsichtlich der Quotierungsmerkmale und ihrer möglicherweise vorgegebenen Kombinationen ein verkleinertes Abbild der Grundgesamtheit; hinsichtlich aller anderen Merkmale ist die Erfüllung dieser Forderung nicht mehr gesichert. Inwieweit das Allensbach-Modell einer „repräsentativen Quotenauswahl“ tendenziell auch Ansprüchen an eine Zufallsstichprobe gerecht wird, ist auf der methodologischen Ebene nicht abschätzbar. Bestandteil des Auswahlverfahrens beim Quoten-Sample dürfte häufig das sogenannte Schneeball-Verfahren sein. Hierbei wählt der Interviewer die erste Zielperson im Rahmen seines Quotenplans willkürlich aus. Am Schluss des Interviews fragt er dann nach „geeigneten“ weiteren Zielpersonen aus dem Bekanntenkreis des Befragten, die erstens vermutlich auskunftsbereit und zweitens erreichbar sind. Bei der zweiten Zielperson fragt er nach weiteren usw. Diese Strategie wird sich für den Interviewer insbesondere dann anbieten, wenn er sich der Gesamtzahl der zu erbringenden Interviews nähert; auch ohne Vorgabe von Merkmalskombinationen verbleiben nämlich am Schluss Restfälle mit eindeutigen Kombinationen der Quotierungsmerkmale. So könnte nach neun von zehn Interviews noch eine Befragung ausstehen mit einer Person im Alter zwischen 30 bis 40 Jahren, einer Person in leitender beruflicher Position, einer Person weiblichen Geschlechts. Diese Merkmale müssen sich jedoch jetzt in einer einzigen Person vereinigen; und ohne Auskünfte bisheriger Zielpersonen wird der Interviewer in einer ihm fremden Umgebung kaum die gewünschte, noch fehlende Zielperson finden. Inwieweit das Schneeballv erfahren sich auf die Qualität der Quotenstichprobe neutral auswirkt, ob es positive oder negative Auswirkungen hat (also etwa-- positiv-- Interviewervorlieben weiter zurückdrängt oder eher-- negativ-- einseitig leicht erreichbare Personen bevorzugt), lässt sich theoretisch nicht abschätzen. Es muss daher ein zentrales Ziel der Forschungsinstitute sein, die mit dem Quotenverfahren arbeiten, die Freiheit der Befrager bei der Auswahl der Zielpersonen über die Quotenvorgaben hinaus einzuschränken (durch zentrale Leitung des Interviewer-Stabes, Schulung und Kontrolle der Befrager, geringe Anzahl der Befragungspersonen pro Interviewer; siehe Quatember 1997, 8). <?page no="277"?> 278 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 278 6.5 Zufallsgesteuerte Auswahlverfahren Bewusste (gezielte) Auswahlen sind immer dann vom Prinzip her nicht möglich, wenn keine oder nur sehr wenig gesicherte Kenntnisse über die Struktur der Grundgesamtheit vorliegen. Für Wahrscheinlichkeitsauswahlen (im einfachsten Fall: für die sogenannte einfache Zufallsstichprobe) gilt dagegen, dass-- innerhalb berechenbarer Fehlergrenzen und mit angebbarer Wahrscheinlichkeit- - Repräsentativität für alle Elemente, für alle Merkmale und Merkmalskombinationen sichergestellt werden kann, ohne dass Kenntnisse über die Struktur der Grundgesamtheit vorhanden sein müssen. Dies wird durch die Wahrscheinlichkeitsauswahl gewährleistet, denn: Bei der Wahrscheinlichkeitsauswahl werden die Auswahleinheiten „kontrolliert zufällig“ aus der Grundgesamtheit (genauer: aus der Erhebungsgesamtheit) auf eine Weise entnommen, 225 dass für alle Einheiten die gleiche Chance (bei komplexen Auswahlverfahren: eine bekannte Chance) besteht, in die Auswahl aufgenommen zu werden. Diese gleiche Chance wird durch Kontrollen im Auswahlverfahren sichergestellt; jede Willkür bei der Auswahl, jede Möglichkeit für den Forscher, einzelne Untersuchungsobjekte bewusst auszuwählen, wird ausgeschaltet. Wenn nun durch Kontrollen gesichert ist, dass jede Einheit der Grundgesamtheit die gleiche Chance hat, in die Auswahl zu gelangen (einfache Zufallsstichprobe), dann werden Einheiten mit Merkmalen, die häufig in der Grundgesamtheit vorkommen, auch in der Stichprobe öfter erfasst als Einheiten mit Merkmalen, die in der Grundgesamtheit nur selten vertreten sind. Entsprechendes gilt für Merkmalskombinationen. Die Häufigkeit des Auftretens von Einheiten mit bestimmter Merkmalsausprägung und mit bestimmter Kombination von Merkmalsausprägungen in der Stichprobe ist also allein davon abhängig, wie stark diese Merkmalsausprägungen (Merkmalskombinationen) in der Grundgesamtheit vertreten sind. Solange die Auswahl nicht in einer bestimmten Weise verzerrt ist (deshalb die Formulierung: durch Kontrolle gesicherte gleiche Chance), kann bei hinreichend großem Stichprobenumfang angenommen werden, dass alle möglichen Merkmale mehr oder weniger entsprechend ihrer Häufigkeit in der Grundgesamtheit auch in der Auswahl vertreten sind. Dies gilt auch für die Häufigkeitsverteilung solcher Merkmale, an deren Auftreten man zunächst gar nicht gedacht hatte, und die deshalb bei gezielter Auswahl überhaupt nicht bei der Stichprobenkonstruktion berücksichtigt worden wären. 225 Unter „Zufall“ wird in diesem Zusammenhang das Ergebnis einer Vielzahl gleichzeitig wirkender und voneinander unabhängiger Faktoren verstanden, die in einer nicht vorhersehbaren und nicht berechenbaren Weise- - teils gegenläufig, teils gleichläufig- - auf ein Ereignis einwirken. „Nicht zufällig“ wären dagegen solche Faktoren, die eine systematische Beeinflussung des Ergebnisses bewirken (Beispiel: gezielte Auswahlen). Wahrscheinlichkeitsauswahl Auswahl kontrolliert zufällig gleiche Auswahlchance Ähnlichkeit Stichprobe und Grundgesamtheit <?page no="278"?> 279 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 279 Zusammengefasst: Je größer die Stichprobe (und-- dies sei vorweggenommen-- je geringer die Streuung der Merkmalsausprägungen in der Grundgesamtheit), um so eher kann man eine ziemlich genaue Übereinstimmung zwischen Stichprobenwerten und Parametern der Grundgesamtheit erwarten. 226 Für Wahrscheinlichkeitsauswahlen gilt das sogenannte Gesetz der großen Zahl (Cournot, 1843), dessen Formulierung auf Wahrscheinlichkeitsüberlegungen über das Auftreten einzelner Ereignisse sowie auf Überlegungen über Eigenschaften einer Serie unabhängiger Ereignisse beruht. Vereinfacht formuliert: 1. Ereignisse, deren Wahrscheinlichkeiten sehr klein sind, treten sehr selten auf. 227 Mit anderen Worten: Beim Ziehen einer Zufallsstichprobe wird es sehr selten vorkommen, dass eine Einheit mit einer Merkmalsausprägung gezogen wird, die in der Grundgesamtheit nur sehr selten vorkommt (=- Aussage über die Wahrscheinlichkeit des Auftretens einzelner Ereignisse). 2. Die Wahrscheinlichkeit dafür, dass die relative Häufigkeit eines Merkmals (oder eine andere statistische Maßzahl) in der Stichprobe beträchtlich (d. h. um mehr als einen vorgegebenen Betrag) von dem entsprechenden Parameter der Grundgesamtheit abweicht, wird um so geringer, je größer der Umfang der Beobachtungsserie ist, bei der diese Maßzahl ermittelt wurde, d. h. je größer die Stichprobe ist (=-Wahrscheinlichkeitsaussage über Eigenschaften der Stichprobe). Die zweite Formulierung muss in der wörtlichen Bedeutung verstanden werden: Wenn ein Anteilswert für eine Merkmalsausprägung in der Stichprobe berechnet wird, dann ist es nicht ausgeschlossen, dass dieser Anteilswert von dem „wahren“ Wert der Grundgesamtheit erheblich abweicht. Aber dieser Fall ist sehr unwahrscheinlich; die meisten Stichproben werden Anteilswerte bringen, die in der Nähe der wahren Anteilswerte liegen. Und je größer der Stichprobenumfang ist, desto unwahrscheinlicher wird es, dass überhaupt beträchtliche Abweichungen von den Anteilswerten der Grundgesamtheit auftreten. Die Formulierung bedeutet dagegen nicht: Je größer die Stichprobe, desto geringer die Abweichungen der Stichprobenstatistiken von den Parametern der Grundgesamtheit. Würde eine sehr große Zahl von Zufallsstichproben unabhängig voneinander aus der gleichen Grundgesamtheit gezogen und würde für jede gezogene Zufallsstichprobe der Anteil eines Merkmals bestimmt (in dem bei Statistikern beliebten Urnenbeispiel, das noch auftauchen wird, z. B. der Anteil gezogener Kugeln mit einer 226 Für die Stichprobe berechnete Maßzahlen (etwa Mittelwerte) werden im Allgemeinen als „Statistiken“ bezeichnet, die entsprechenden Maßzahlen für die Grundgesamtheit heißen „Parameter“. 227 „Statistische Wahrscheinlichkeit“ =- relative Häufigkeit in der Grundgesamtheit (empirisch: relative Häufigkeit in der Erhebungs-Grundgesamtheit); „Ereignis“ =-Ziehung einer Stichprobeneinheit mit einer bestimmten Merkmalsausprägung oder -kombination. Gesetz der großen-Zahl erhebliche Abweichung nicht ausgeschlossen Verteilung für viele Stichproben <?page no="279"?> 280 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 280 bestimmten Farbe), dann könnte in einem Koordinatensystem grafisch die Häufigkeit des Auftretens der berechneten Anteilswerte dargestellt werden. Im Falle unabhängiger Zufallsstichproben würde sich dabei das folgende Bild (sogenannte Gaußsche „Normalverteilung“) ergeben: Sehr häufig erhielte man Anteilswerte, die nur wenig oder gar nicht vom „wahren“ Anteilswert (dem Anteilswert des Merkmals in der Grundgesamtheit) abweichen; relativ oft würden die Stichproben auch noch Anteilswerte aufweisen, die nicht allzu sehr vom „wahren“ Wert nach oben oder unten abweichen; relativ selten dagegen würden Anteilswerte auftreten, die stark vom Wert der Grundgesamtheit abweichen, und sehr selten kämen Stichproben vor, für die der Anteilswert des interessierenden Merkmals sehr stark vom Parameter der Grundgesamtheit abweicht. In statistischen Werten ausgedrückt: Rund zwei Drittel aller denkbaren Stichproben würden Anteilswerte aufweisen, die vom wahren Anteilswert P höchstens um den Betrag eines „Standardfehlers“ 228 nach oben oder unten abweichen, rund 95 Prozent aller Stichproben-Anteilswerte würden höchstens um den Betrag von zwei Standardfehlern nach oben oder unten differieren. Wegen dieser Eigenschaft von Zufallsstichproben ist es möglich, aufgrund der Stichproben-Ergebnisse ein Intervall zu nennen, in dem sich der Anteilswert (oder der Mittelwert) für eine Merkmalsausprägung in der Grundgesamtheit mit angebbarer Wahrscheinlichkeit befindet. So wäre etwa aufgrund der Befragung einer Zufallsstichprobe von Wahlberechtigten die Aussage möglich: Wenn am nächsten Sonntag Bundestagswahl wäre, dann würde mit 95prozentiger Sicherheit (d. h. die Irrtumswahrscheinlichkeit für diese Aussage 228 In der deskriptiven Statistik ist die „Standardabweichung“ eine Maßzahl für die Variation der einzelnen Beobachtungswerte um den Stichprobenmittelwert (vgl. Abschnitt 8.2.4). Darauf aufbauend ist in der schließenden Statistik (vgl. Kapitel 8.1) der „Standardfehler“ als ein Maß für die Variation von Stichprobenmaßzahlen um den „wahren“ Parameter der Grundgesamtheit entwickelt worden. Verlässlichkeit von Zufallsstichproben relative Häu gkeit der Anteilswerte in der Stichprobe Anteilswerte der Stichproben Abweichungen nach oben Abweichungen nach unten "wahrer" Wert P Abbildung 6.3: Verteilung von Anteilswerten in der Stichprobe <?page no="280"?> 281 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 281 beträgt 5 %) eine bundesweit kandidierende Partei der „Linken“ einen Stimmenanteil von 10 % ± 0,5 % (d. h. zwischen 9,5 und 10,5 %) erhalten. 229 Vorsicht: Dieser Wert ist frei erfunden! 6.5.1 Verfahren zur Erstellung einfacher Zufallsauswahlen Karteiauswahl Bei einer Karteiauswahl im Rahmen eines einfachen Wahrscheinlichkeits-Samples wird der Auswahlplan auf die durch eine Kartei (oder Liste) repräsentierten Elemente der Grundgesamtheit angewendet (Kartei =- symbolische Repräsentation der Erhebungs-Grundgesamtheit). Je nach dem Auswahlverfahren kann zwischen „reiner“ Zufallsauswahl und „systematischer“ Zufallsauswahl auf der Basis der karteimäßig repräsentierten Erhebungsgesamtheit unterschieden werden. Reine Zufallsauswahl Von einer reinen (oder uneingeschränkten) Zufallsauswahl spricht man dann, wenn jedes einzelne Element der Stichprobe unabhängig durch einen Zufallsprozess aus der Erhebungsgesamtheit „gezogen“ wird. Man stelle sich etwa als Erhebungsgesamtheit die Gesamtzahl der richtigen Einsendungen bei einem Preisausschreiben vor (repräsentiert durch die eingesandten Postkarten). Diese seien in eine hinreichend große Lostrommel gelegt worden und würden durch Drehen der Trommel gemischt. Dann möge eine „Glücksfee“ mit verbundenen Augen in die Trommel greifen und eine Karte „zufällig“ herausholen, d. h. ohne Möglichkeit einer systematischen Auswahl nach irgendwelchen Auswahlkriterien. Danach werde die Trommel wieder gedreht, so dass die Karten erneut durchmischt werden, und wieder werde eine Karte gezogen. Dieser Vorgang werde so oft wiederholt, bis die vorgesehene Zahl der Preisträger (=-Stichprobe aus der Gesamtheit richtiger Einsendungen) erreicht ist. Ein Notar möge das ganze Verfahren überwachen, damit die Preisträger auch wirklich nach dem vorgesehenen Auswahlsystem zufällig bestimmt werden. Im geschilderten Beispiel sind sämtliche vorher genannten Bedingungen einer Zufalls-Stichprobe erfüllt: Jede „richtige Lösung“ hat eine bekannte (hier: die gleiche) Chance, als Preisträger (=-Element der Stichprobe) gezogen zu werden, da jede richtige Lösung durch genau eine Karte in der Erhebungsgesamtheit repräsentiert ist. Diese „gleiche Chance“ wird dadurch gewährleistet, dass die Bestimmung der Gewinner „durch Zufall“ geschieht und dass dieser „Zufall“ 229 Auf die Verfahren des Erschließens von Grundgesamtheits-Parametern auf der Basis von Zufallsstichproben-Ergebnissen wird im vorliegenden Text nicht weiter eingegangen. Darstellungen, die auch für Nicht-Mathematiker nachvollziehbar sind, findet man etwa bei Diaz- Bone (2013), Kühnel/ Krebs (2001), Sahner (1971), Thome (1990). Karteiauswahl reine Zufallsauswahl BEISPIEL <?page no="281"?> 282 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 282 durch Kontrollen gesichert wird: Der „Glücksfee“ werden die Augen verbunden, vor jeder Ziehung werden die Karten erneut gemischt, ein Notar überwacht den ganzen Prozess. Es wird also keine eingesandte Lösung systematisch bevorzugt oder benachteiligt. Dieser Typ einer reinen Zufallsauswahl wird auch als Lotterieprinzip oder „Monte- Carlo-Verfahren“ bezeichnet. Ein weiteres, jedem bekanntes Beispiel dieser Art von Zufallsziehung ist die wöchentliche Ziehung der Lottozahlen. Das Prinzip „reine Zufallsauswahl“ liegt auch den Überlegungen zugrunde, die im Rahmen wahrscheinlichkeitstheoretischer Argumentationen am Beispiel eines Urnenmodells angestellt werden, im Allgemeinen zur Veranschaulichung statistischtheoretischer Verteilungen. Man stelle sich einen Behälter (Urne) vor, in dem, je nach Vorliebe, etwa schwarze und weiße oder rote und schwarze oder rote und weiße Kugeln sind, so dass der Anteilswert der Kugeln mit einer bestimmten Farbe (z. B. Anteil schwarzer und Anteil roter Kugeln) durch Auszählen leicht bestimmbar ist. Nun werden die Kugeln in der Urne gründlich durchmischt; dann wird „zufällig“ (also ohne Hineinsehen) eine herausgenommen, die Farbe notiert, die Kugel wieder zurückgelegt, wieder durchmischt, wieder eine herausgenommen, die Farbe notiert usw. Durch das Zurücklegen der gezogenen Kugeln und neues Durchmischen wird jeweils der ursprüngliche Zustand wiederhergestellt. Dadurch sind prinzipiell unendlich viele unabhängige Zufallsziehungen möglich, so dass durch diese Konstruktion eine unendlich große Grundgesamtheit modellhaft abgebildet wird. Mit Hilfe dieses Modells kann man nun z. B. die Aussage prüfen, dass bei einer genügend großen Zahl von Zufallsziehungen die Anteilswerte der Merkmalsausprägungen für die gezogenen Kugeln ziemlich genau den „wahren“ Anteilswerten entsprechen (der Grenzwert des Stichprobenwertes, d. h. sein „Erwartungswert“, entspricht dem Anteil in der Grundgesamtheit) 230 . Oder man kann die Behauptung prüfen, dass bei einer großen Zahl unabhängiger Stichproben die Abweichungen der Stichprobenanteilswerte vom Anteilswert der Grundgesamtheit die Verteilungsform aufweisen, die oben (Kapitel 6.5) kurz geschildert wurde: So lassen sich etwa jeweils zehn Urnenziehungen als eine Stichprobe (n =-10) betrachten; der Anteil z. B. der schwarzen Kugeln wäre dann als Anteilswert p der jeweiligen Stichprobe zu notieren. Nun wird jedoch die Forderung des „gründlichen Durchmischens“ der symbolischen Elemente der Erhebungsgesamtheit zur Sicherung des „Zufalls“ nicht immer erfüllbar sein. Bei Ziehung einer Stichprobe etwa aus der Einwohnermeldekartei einer Gemeinde wäre ein „gründliches Durchmischen“ dieser Kartei sicher nicht empfehlenswert. In solchen Fällen wird man den Prozess der Zufallsauswahl stellvertretend an einem anderen Medium durchführen. 230 Allgemeiner ausgedrückt: Uneingeschränkte Zufallsauswahlen sind hinsichtlich aller Merkmale repräsentativ nach Erwartungswert (siehe Fußnote 215). Veranschaulichung durch Urnenmodell <?page no="282"?> 283 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 283 Falls die Einwohnerdatei z. B. 100.000 Einträge umfasst (je Person ein Eintrag), könnte man die Datei fortlaufend durchnummerieren 231 und zugleich Lose mit den Zahlen 1 bis 100.000 erstellen, die in eine Lostrommel gefüllt werden. Die Auswahl wäre dann wie oben geschildert durchzuführen. Anhand der gezogenen Losnummern wären die ausgewählten Personen eindeutig identifizierbar. Diese Überlegung ist die Basis für die Verwendung von Zufallszahlen zur Realisierung einer reinen Zufallsauswahl. Statt selbst Lose mit den Zahlen 1 bis 100.000 herzustellen und daraus die gewünschte Zahl von Losen (z. B. 1000) zufällig zu ziehen, lässt man mit Hilfe eines geeigneten Computer-Programms die benötigte Menge von „Zufallszahlen“ bestimmen oder entnimmt sie einer der existierenden (für solche Zwecke erstellten) statistischen Zufallszahlen-Tabellen. Anschließend werden die zu den gezogenen Zufallszahlen gehörenden Dateieinträge herausgesucht und dadurch die Personen bestimmt, die in die Auswahl kommen. Dieses Verfahren der Konstruktion einer reinen Zufallsauswahl mit Hilfe von Zufallszahlen ist immer dann leicht realisierbar, wenn vom Auswahlprogramm direkt auf eine elektronische Datei zugegriffen werden kann und man die zufällig ausgewählten Personen und Anschriften direkt ausdrucken kann. Andernfalls empfiehlt es sich, bei großen Erhebungsgesamtheiten statt einer „reinen Zufallsauswahl“ eine systematische Zufallsauswahl zu konstruieren. Systematische Zufallsauswahl Bei einer systematischen Zufallsauswahl wird nur der erste zu ziehende Fall (Bei einer systematischen Zufallsauswahl wird nur der erste zu ziehende Fall (die erste zu ziehende Karte einer Kartei oder der erste zu berücksichtigende Fall in einer Liste) „zufällig“ bestimmt, etwa durch Würfeln oder durch Herausgreifen einer Zufallszahl aus einer entsprechenden Tabelle. Bei allen weiteren in die Stichprobe kommenden Einheiten erfolgt die Bestimmung systematisch. Bei einem Auswahlsatz von 1 % (Stichprobe: n =- 1000 bei einer Erhebungsgesamtheit mit N =- 100.000) etwa würde zufällig eine Zahl zwischen 1 und 100 bestimmt (vielleicht 57); danach würde systematisch jeder weitere 100. Fall in die Stichprobe aufgenommen (also die Fälle 57, 157, 257, 357,-…, bis 99.957). Hat man es mit langen (physischen) Karteikästen zu tun (etwa in Archiven), könnte man sich sogar das Durchzählen ersparen, wenn man etwa bei einer 10 m (=- 10.000 mm) langen Kartei mit Hilfe eines Millimeter-Stabes jeweils im Abstand von 10 mm eine Karte heraussucht. 232 231 Im Allgemeinen wird eine Kennzeichnung durch Identifikationsziffern bereits vorhanden sein. 232 Das Prinzip „systematische Zufallsauswahl“ ist sogar dann problemlos anwendbar, wenn überhaupt keine Kartei oder Liste existiert, sondern die Stichprobenelemente unmittelbar ausgewählt werden sollen. Beispielsweise seien in einer Museumsuntersuchung die Besucher einer Ausstellung am Ende ihres Besuchs zu befragen. Bei einem Auswahlsatz von 10 % könnte (beginnend zu einem zufällig bestimmten Zeitpunkt) systematisch jeder 10. Besucher beim Verlassen der Ausstellungsräume angesprochen und um ein Interview gebeten werden. BEISPIEL systematische Auswahl BEISPIEL <?page no="283"?> 284 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 284 Es sind selbstverständlich noch eine Reihe anderer Auswahlsysteme denkbar und entwickelt worden. Allen ist gemeinsam, dass der Anfangspunkt der systematischen Auswahlprozedur „durch Zufall“ bestimmt wird und dann systematisch nach vorher festgelegten Regeln weiter ausgewählt wird. Auch bei diesem Verfahren ist sichergestellt, dass für jedes Element der Erhebungsgesamtheit vor Beginn des Auswahlprozesses die gleiche Wahrscheinlichkeit besteht, in die Stichprobe zu kommen. Ebenfalls wird durch ein kontrolliertes Verfahren ausgeschlossen, dass der Forscher oder die Interviewerin gezielt nach bestimmten Auswahlkriterien die Stichprobeneinheiten festlegt. Allerdings existiert die Gefahr einer systematischen Verzerrung (Verstoß gegen das Zufallsprinzip) immer dann, wenn die Kartei systematisch organisiert ist und das Auswahlsystem Elemente des Karteiordnungssystems enthält: etwa bei einer Kartei-Ordnung nach Anfangsbuchstaben von Familiennamen und einem sich ebenfalls darauf stützenden Auswahlsystem. Um solche Verzerrungen nach Möglichkeit auszuschalten, benötigt man bei der Konstruktion eines Auswahlplans mit systematischer Zufallsauswahl Kenntnisse über das Organisationsprinzip der Kartei (oder Datei), aus der ausgewählt werden soll. Gebietsauswahl (Flächenstichprobe) Erhebungseinheiten müssen, wie oben am Beispiel Museumsbesuch gezeigt wird, nicht unbedingt durch eine Kartei (oder Liste oder elektronischer Datei) symbolisch repräsentiert werden, um eine Zufallsauswahl realisieren zu können. Geeignet sind für diesen Zweck auch räumliche Bezugspunkte. Personen und Haushalte z. B. lassen sich durch den Ort, an dem sie wohnen (Arbeitnehmer durch den Ort, an dem sie arbeiten) symbolisch repräsentieren. 233 Bei Ereignissen, die beobachtet werden sollen (z. B. „Verstöße gegen die Straßenverkehrsordnung“), ist dies durch die Orte, an denen sie passieren-- etwa Straßen oder Kreuzungen-- möglich. In einem Sanierungsgebiet soll eine Zufallsauswahl von Bewohnern über ihre Lebenssituation, ihre Wohnwünsche, ihre Beurteilung der Wohnsituation und ähnliches befragt werden, um Kriterien für eine beabsichtigte vollständige Erhebung in diesem Gebiet zu gewinnen („Vorbereitende Untersuchung“ nach dem Städtebauförderungsgesetz). Im Prinzip wäre natürlich eine Karteiauswahl- - anhand der Meldedatei für dieses Gebiet-- möglich. Doch ist bekannt, dass gerade für Sanierungsgebiete die Adressendatei der Stadtverwaltung nicht sehr zuverlässig ist: Die räumliche Mobilität der Bewohner ist besonders groß, die Datei also niemals auf dem neuesten Stand; es wohnen dort viele Ausländer, die sich nicht vollzählig anmelden (immer dann, wenn keine Aufenthaltsgenehmigung vorliegt); in der Datei sind noch viele Ausländer erfasst, die dort nicht mehr 233 Problem: Wählt man „Bevölkerung“ als Grundgesamtheit, so umfasst die Erhebungsgesamtheit, repräsentiert durch „Wohnsitz“, nicht die Personen ohne festen Wohnsitz und enthält solche Personen mehrfach, die mehrere Wohnsitze haben. zufälliger Startpunkt, systematische weitere Auswahl Verzerrung möglich Gebietsauswahl BEISPIEL <?page no="284"?> 285 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 285 wohnen (keine Abmeldung bei Rückkehr ins Heimatland). Die Adressendatei scheidet also aus. Als Informationsquelle bietet sich aber noch eine andere Datei an: die Datei der Baubehörde über Wohnungen in diesem Gebiet. Diese ist ziemlich zuverlässig und könnte als symbolische Repräsentation für Haushalte herangezogen werden. Die angestrebte Grundgesamtheit wären dann die im Sanierungsgebiet wohnenden Haushalte; die Erhebungs-Gesamtheit wären Gruppen von Personen, die in je einer Wohnung leben (das können mehrere Haushalte je Wohnung sein); Auswahleinheiten wären die Wohnungen, die in der Datei erfasst sind; Erhebungs-Einheiten schließlich wären wieder einzelne Haushalte (vgl. Kapitel 6.1). Allerdings ist auch der Rückgriff auf eine solche Wohnungsdatei nicht immer möglich (insbesondere bei großräumigen Gebieten). In diesem Fall besteht eine Alternative darin, statt einer Karteiauswahl eine Gebietsauswahl zu ziehen. Bei einer Gebietsauswahl wird der Auswahlplan nicht auf eine Kartei als symbolische Repräsentation der Grundgesamtheit angewandt, sondern stattdessen auf räumliche Einheiten, die geeignet sind, die interessierenden Erhebungseinheiten zu bestimmen. Auswahleinheiten sind dann definierte und abgegrenzte Gebiete (Flächen), auf denen Personen oder Haushalte wohnen (oder Ereignisse stattfinden); Auswahlgrundlagen könnten dann etwa Landkarten oder Stadtpläne sein. Im obigen Beispiel könnte man ein Rasternetz über den Straßenplan für das Sanierungsgebiet legen und Planquadrate einer bestimmten Größe (vielleicht 50 x 50 Meter) festlegen, durchnummerieren und aus diesen Planquadraten eine Zufallsstichprobe ziehen; entweder eine „reine“ oder eine „systematische“ Stichprobe. Zu den ausgewählten Planquadraten können eindeutig die Adressen von Wohnungen zugeordnet werden. Man hat jetzt die Möglichkeit, in den gezogenen Planquadraten alle dort wohnenden Haushalte zu befragen (vgl. „Klumpenauswahl“) oder nach einem Zufallsverfahren eine Teilmenge der dort wohnenden Haushalte zu bestimmen (vgl. „mehrstufige Auswahl“). Eine mögliche Strategie wäre, in den ausgewählten Flächen zunächst alle dort wohnenden Haushalte aufzulisten (repräsentiert etwa durch die Namen auf den Türklingeln) und danach eine Zufallsauswahl aus dieser Liste zu ziehen. Eine andere Strategie wäre die des sogenannten Zufallswegs, um aus der Menge der in einer räumlichen Einheit lebenden Haushalte die zu befragenden auszuwählen, ohne dass die Entscheidung dem Belieben des Interviewers überlassen wird (vgl. Abschnitt 6.5.3). Bitte beachten Sie: In den obigen Beispielen waren die räumlichen Auswahleinheiten (z. B. Planquadrate) nicht identisch mit den Erhebungseinheiten (z. B. Haushalte, die dort wohnen). Sie waren lediglich das Instrument, um die eigentlich interessierenden Einheiten zu identifizieren. Selbstverständlich können aber- - bei entsprechender Fragestellung der Untersuchung-- auch die räumlichen Einheiten selbst (die Flächen, Gebiete) Erhebungseinheiten sein: Für städtebauliche Entscheidungen oder für räumliche Grundgesamtheit und räumliche Auswahleinheiten BEISPIEL <?page no="285"?> 286 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 286 stadtsoziologische Untersuchungen können durchaus die Merkmale der Flächen (etwa der Planquadrate) von Interesse sein, um z. B. Aussagen über die Bausubstanz und die Infrastruktur in der Stadt oder über städtische Entwicklungsprozesse zu machen. Räumliche Einheiten, die zugleich als Auswahl- und als Erhebungseinheiten von Interesse sein können, wären etwa Straßen, Kreuzungen, Plätze bei verkehrspolitischen Fragestellungen; landwirtschaftliche Flurstücke, landwirtschaftliche Flächen, Flussabschnitte, Waldstücke etc. bei landschaftsplanerischen Fragestellungen; Stadtteile, Stadtbezirke, Wohnquartiere, Wohnbzw. Baublöcke bei stadtplanerischen Fragestellungen. 6.5.2 Verfahren zur Erstellung komplexer Zufallsauswahlen Einfache Wahrscheinlichkeitsauswahlen weisen einige Nachteile auf: 1) Bei regional sehr weit gestreuten Grundgesamtheiten ist das Verfahren mühsam und aufwendig; die zufällig ausgewählten Erhebungseinheiten sind weit über das gesamte Gebiet verteilt, die Erhebung fordert dementsprechend viel Zeit und Geld. 2) Interessante Untergruppen der Grundgesamtheit, die nur geringe Anteile an der Gesamtheit aufweisen (etwa Randgruppen wie Obdachlose), werden im Allgemeinen in der Stichprobe mit zu geringen Fallzahlen vertreten sein, um gesondert ausgewertet werden zu können. Allgemein gilt: Falls bestimmte Teilgruppen der Gesamtheit in der Analyse gegenübergestellt werden sollen, ist es nachteilig, wenn deren Anteile im Rahmen von Zufallsschwankungen in der Stichprobe zu hoch oder zu niedrig ausfallen. 3) Manchmal ist es von Interesse, auch den Kontext eines Befragten in die Untersuchung einzubeziehen (Mehrebenenstudie; vgl. Kapitel 2.4.6). Die Aussagen sollen sich nicht auf die eigentlichen Merkmale z. B. der befragten Personen oder Haushalte beschränken, sondern auch die Gegebenheiten der sozialen und/ oder materiellen Umwelt berücksichtigen. Bei einfachen Wahrscheinlichkeitsauswahlen bleibt der Kontext üblicherweise außer Betracht, da es zu aufwendig wäre, zu jedem der räumlich weit verstreuten Erhebungseinheiten auch noch den jeweiligen sozialen und/ oder materiellen Kontext mit zu erheben. Durch Verfahren der mehrstufigen, der geschichteten sowie der Klumpen-auswahlen können diese genannten Nachteile ausgeräumt werden. Für solche komplexen Wahrscheinlichkeitssamples wird nicht mehr die Forderung aufrechterhalten, jede Einheit der Grundgesamtheit müsse die gleiche Chance haben, in die Auswahl aufgenommen zu werden. Die abgewandelte Forderung lautet: Jede Einheit muss eine bekannte Chance haben, gezogen zu werden. Nachteile einfacher Wahrscheinlichkeitsauswahlen oft aufwändig kleine Untergruppen schlecht repräsentiert Kontexte meist nicht abgedeckt komplexe Wahrscheinlichkeitsauswahl bekannte Chance, gezogen zu werden <?page no="286"?> 287 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 287 Geschichtete Auswahlen Ausgangspunkt für die Konstruktion einer geschichteten Auswahl ist die im Hinblick auf die angestrebte Aussage der Untersuchung bestehende Absicht, die Stichprobendaten auch getrennt für bestimmte Gruppen von Fällen auszuwerten. Gruppen von Befragten sollen nach ihrem Lebensbzw. Familienzyklus gegenübergestellt werden: alleinstehende junge Leute, Jungverheiratete ohne Kinder, junge verheiratete Personen mit Kleinkindern, Haushalte mit älteren Kindern usw. bis hin zur Gruppe der alleinstehenden alten Menschen; oder es sollen unter Kombination der Merkmale Alter und Geschlecht Kontrollgruppen gebildet werden. In solchen Fällen ist es sinnvoll, schon bei der Auswahl sicherzustellen, dass diese Gruppen in der Stichprobe verlässlich repräsentiert sind. Zu diesem Zweck teilt man die Grundgesamtheit in mehrere Teil-Grundgesamtheiten auf: in die Teilgesamtheit der alleinstehenden jungen Leute, die Teilgesamtheit der jungen verheirateten Personen ohne Kinder usw. Aus jeder dieser Teilgesamtheiten wird dann jeweils eine einfache Zufallsstichprobe gezogen (entweder eine reine oder eine systematische Zufallsauswahl). Gilt für jede der definierten Teilgesamtheiten der gleiche Auswahlsatz, dann spricht man von einer proportional geschichteten Stichprobe: Die Anteile der Gruppen in der Stichprobe sind genau so groß wie die Anteile in der Grundgesamtheit. Der Vorteil gegenüber der einfachen Wahrscheinlichkeitsauswahl besteht darin, dass die Anteilswerte der für die Auswertung bedeutsamen Gruppen exakt mit den Werten der Grundgesamtheit übereinstimmen und nicht im Rahmen von Zufallsschwankungen abweichen. Häufig ist es jedoch sinnvoll, Personengruppen mit nur geringem Anteil in der Grundgesamtheit stärker in der Stichprobe zu repräsentieren als Personengruppen mit hohem Anteil in der Grundgesamtheit. Für eine gruppenweise getrennte Auswertung der Daten ist nämlich eine bestimmte Mindestzahl von Fällen erforderlich, um sinnvoll statistische Kennwerte berechnen zu können. Bei genau proportionaler Schichtung könnte die Sicherung einer Mindestzahl von Fällen für alle interessierenden Gruppen die Konsequenz haben, dass durch das Anwachsen des notwendigen Stichprobenumfangs die Untersuchung zu kostspielig wird. Deshalb ist in solchen Fällen eine disproportional geschichtete Auswahl das geeignetere Verfahren. Disproportionale Schichtung ist auch immer dann notwendig, wenn aus irgendwelchen Gründen (etwa tabellenmäßige Auswertung) eine Mindestzahl von Personen je Gruppe erwünscht wird. Man beabsichtige, eine Stichprobe mit n =- 1000 aus einer Gesamtheit von N =- 100 000 zu ziehen. Dabei seien fünf Gruppen (A, B, C, D, E) definiert, die gleichgewichtig mit je 200 Personen in der Stichprobe vertreten sein sollen. Falls nun Gruppe A in der Grundgesamtheit 5 % aller Fälle ausmacht, Gruppe B 40 %, Gruppe C 20 %, Gruppe D 10 % und Gruppe E 25 %, muss zum Errei- BEISPIEL Aufteilung in Teil-Grundgesamtheiten proportional geschichtete Stichprobe disproportional geschichtete Stichprobe BEISPIEL <?page no="287"?> 288 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 288 chen gleicher Fallzahlen pro Gruppe der Auswahlsatz etwa der Gruppe A achtmal so hoch sein wie der Auswahlsatz für Gruppe B. Die Anteile der Gruppen in der Grundgesamtheit und die entsprechenden Auswahlsätze zur Erzielung der gewünschten disproportionalen Schichtung für dieses Beispiel sind in der folgenden Tabelle gegenübergestellt: Grundgesamtheit disproportional geschichtete Stichprobe N Anteil n Auswahlsatz Gruppe A 5000 5 % 200 4,0 % Gruppe B 40000 40 % 200 0,5 % Gruppe C 20000 20 % 200 1,0 % Gruppe D 10000 10 % 200 2,0 % Gruppe E 25000 25 % 200 0,8 % Die Auswahlsätze stellen die bekannte, jedoch nicht für jede Gruppe gleiche Chance dar, in die Stichprobe aufgenommen zu werden. Zum Vergleich: Bei einer proportional geschichteten Auswahl wäre dagegen der Auswahlsatz in jeder Teilgruppe gleichhoch, nämlich 1,0 %. Dabei kämen in die Stichprobe: aus Gruppe A 50 Fälle, aus Gruppe B 400, aus Gruppe C 200, aus Gruppe D 100 und aus Gruppe E 250 Fälle. Für statistische Analysen wäre insbesondere die Gruppe A zu klein, während aus Gruppe B Daten für „unnötig viele“ Fälle erhoben würden. Für (proportional oder disproportional) geschichtete Auswahlen gilt die Aussage nicht mehr, die für einfache Wahrscheinlichkeits-Samples gemacht wurde: dass nämlich Kenntnisse über die Grundgesamtheit nicht erforderlich seien. Was die Probleme bei der Festlegung von Schichtungsmerkmalen angeht, so gelten die Überlegungen, die im Zusammenhang mit den Verfahren der gezielten Auswahl angestellt wurden (vgl. Abschnitt 6.4.2). Ein Effekt der Schichtung ist im Übrigen, dass innerhalb der „Schichten“ (der Gruppen) die Variation des Schichtungsmerkmals (und der damit korrelierten Variablen) verringert wird und dass sich die Variation des Schichtungsmerkmals (und der damit korrelierten Variablen) zwischen den „Schichten“ vergrößert. Da wie schon erwähnt die Fehlerwahrscheinlichkeit eines Schlusses von Stichprobenwerten auf Werte der Grundgesamtheit nicht nur mit zunehmendem Stichprobenumfang, sondern auch mit abnehmender Variation der interessierenden Merkmalsausprägungen geringer wird, ist die Schichtung eine Möglichkeit, die Verlässlichkeit von Verallgemeinerungen zu erhöhen. Dabei ist die Art der Schichtung in den statistischen Modellen zu berücksichtigen, zum Beispiel mit sogenannten robusten Standardfehlern. Daneben bietet die Schichtung auch eine Chance, den notwendigen Stichprobenumfang so klein wie möglich zu halten (Kostenminimierung), wenn man ein vorgegebenes Fehlerrisiko nicht überschreiten will. Kenntnisse über die Grundgesamtheit erforderlich VERTIEFUNG Verlässlichkeit von-Verallgemeinerungen erhöhen <?page no="288"?> 289 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 289 Klumpenauswahl (cluster sampling) Häufig ist die Befragung vereinzelter (isolierter) Personen oder Haushalte-- allgemeiner: die Erhebung von Daten über einzelne (isolierte) Untersuchungsobjekte-- nicht geeignet, Informationen für ein angemessenes theoretisches Modell der sozialen Wirklichkeit zu liefern. In der Realität lebt jede einzelne Person in einem sozialen und in einem räumlichen Kontext, in dem die Person mannigfache Handlungs- und Interaktionsbezüge unterhält. Für den Lernerfolg von Schülern ist sicher der Gesamtzusammenhang in der Schulklasse von Interesse; für betriebssoziologische Fragestellungen dürfte der Zusammenhang der Arbeitsgruppe bedeutsam sein; für Nachbarschaftsuntersuchungen ist die gesamte Nachbarschaft und sind die Bedingungen des Wohngebiets wichtig. In diesen Beispielsfällen reicht es nicht aus, isolierte Informationen über einzelne Personen zu sammeln. Es müssen zusätzlich die Bedingungen erfasst werden, die sich für den Einzelnen aus seiner Einbindung in das jeweilige Teilkollektiv ergeben, um sinnvolle Aussagen machen zu können. Bezieht sich das Auswahlverfahren nicht auf die einzelne Untersuchungseinheit, sondern auf Teilkollektive- - Schulklassen, Arbeitsgruppen, Nachbarschaften, Vereinssportgruppen (in denen dann über jedes einzelne Mitglied dieses Kollektivs Informationen erhoben werden)- -, dann spricht man von Klumpenauswahlen bzw. von Auswahlen nach dem Klumpenverfahren. Dieser etwas eigenartige Ausdruck ist die Folge einer allzu wörtlichen Übersetzung der englischen Bezeichnung „cluster sampling“ (cluster =-Gruppe, Zusammenhang, Gebilde, aber auch Klumpen). Der Auswahlvorgang bei der Klumpenstichprobe orientiert sich also nicht an den Untersuchungseinheiten, sondern an den clustern, den „Klumpen“. Um den Beispielsfall vom Beginn dieses Kapitels wieder aufzugreifen-- Untersuchung der Effizienz politischer Bildung--: Eine durchaus sinnvolle Auswahlstrategie wäre es, jeweils Schüler einer ganzen Klasse zu befragen. In diesem Falle wären die Erhebungseinheiten weiterhin die Schüler (jeweils alle Schüler einer Klasse), Auswahleinheiten jedoch wären Aggregate dieser Erhebungseinheiten, nämlich die Oberstufenklassen in dem betreffenden Bundesland. Grundsätzlich spricht man nur dann von Klumpenauswahl, wenn nicht die Klumpen selbst (z. B. Schulklassen) die Erhebungseinheiten sind, sondern die Bestandteile der Klumpen (z. B. die einzelnen Schüler). Natürlich sind auch Untersuchungen denkbar und sinnvoll, in denen die ganzen Gruppen die Untersuchungseinheiten sind. So könnte eine Analyse sich etwa mit der Situation in Schulklassen befassen: Das soziale Klima, das Lernklima, Schichtenhomogenität oder heterogenität in den Schulklassen, das Schüler-Lehrer-Verhältnis und ähnliches mehr könnten dann interessierende Merkmale dieser Untersuchungseinheiten „Schulklassen“ sein. In diesem Fall hätten wir es aber bei der Stichprobenkonstruktion nicht mit einer Klumpenauswahl zu tun, sondern- - zum Beispiel- - mit BEISPIEL Klumpenauswahl BEISPIEL Klumpen mit mehreren Erhebungseinheiten <?page no="289"?> 290 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 290 einer einfachen Wahrscheinlichkeitsauswahl, falls nämlich die zu untersuchenden Schulklassen anhand eines Schulklassenverzeichnisses nach dem Zufallsprinzip bestimmt wurden. Von einer Klumpenauswahl spricht man auch dann nicht, wenn nicht alle Einheiten der ausgewählten cluster zugleich Erhebungseinheiten sind (z. B. wenn nicht alle Schüler der Klassen befragt werden), sondern nur eine zufällig zu bestimmende Teilmenge davon. In diesem Fall handelt es sich um eine mehrstufige Auswahl (s. u.). Nur wenn das Auswahlverfahren sich auf Teilkollektive bezieht, deren Bestandteile als Untersuchungseinheiten gelten, spricht man von Klumpenauswahlen. 234 Klumpenauswahlen können sowohl als Karteiwie auch als Gebiets-Auswahlen konstruiert werden. Beispiele von cluster samples als Karteiauswahl: Schulklassen (Klassenverzeichnis), Bewohner von Straßenzügen (nach Straßenzügen geordnete Meldedatei), „Zeitklumpen“ bei der Textanalyse (jahrgangsweise geordnetes Verzeichnis von Zeitschriften). − Beispiele für cluster samples als Gebietsauswahl: Häuser mit ihren Bewohnern, Wohnblocks mit ihren Wohnungen, Stadtteile mit ihren gewerblichen Betrieben (symbolisch repräsentiert durch die auf einem Stadtplan verzeichneten Gebiete). Das Cluster-Auswahlverfahren ist immer dann vorteilhaft, wenn sich die Grundgesamtheit in einfach zu unterscheidende, sozusagen „natürliche“ Klumpen zerlegen lässt. Solche Klumpen werden allerdings häufig sehr groß sein (besonders bei Gebietsauswahlen: Stadtteile, Gemeinden oder Stimmbezirke), so dass nicht alle Einheiten innerhalb des Klumpens zugleich Untersuchungseinheiten sein können, ohne dass der Erhebungsaufwand zu groß würde. In den meisten Fällen lassen sich jedoch solche „natürlichen Klumpen“ weiter untergliedern, so dass mehrstufige (s. u.) Cluster-Samples realisierbar sind. Mehrstufige Auswahl Von einer mehrstufigen Auswahl spricht man immer dann, wenn der Auswahlplan nicht direkt auf die „letzten“ Auswahleinheiten angewendet wird (die letzten oder eigentlichen Auswahleinheiten sind häufig mit den Erhebungseinheiten identisch, müssen dies jedoch nicht sein; vgl. z. B. die oben behandelte Klumpenauswahl). Mehrstufig ist eine Auswahl, wenn der Auswahlprozess mehrere „Stufen“, d. h. mehrere Auswahlebenen durchläuft. Es sei eine Fragestellung zu untersuchen, die die gesamte Bevölkerung einer Großstadt betrifft (z. B. „Blitz-Umfrage“ über die Meinungen zu einer vorgeschlagenen Privatisierung der bisher kommunalen Müllabfuhr). Da die Sache 234 Genau genommen handelt es sich bei der Klumpenauswahl um eine Kombination aus Stichprobe und Totalerhebung: Ausgewählt wird eine Stichprobe von Clustern; innerhalb der Cluster jedoch erfolgt eine Totalerhebung aller zu diesem Cluster gehörenden Elemente. Unterschied Klumpenauswahl/ mehrstufige Auswahl BEISPIELE Vorteil von Klumpenauswahl mehrstufige Auswahl BEISPIEL <?page no="290"?> 291 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 291 eilt, lässt sich eine einfache Zufallsauswahl aus der Einwohnerdatei nicht organisieren (oder die an der Befragung interessierte Institution hat keinen Zugriff auf die Datei). Um trotzdem mit relativ wenig Mühe eine Zufallsauswahl zustande zu bringen, könnte man den Auswahlprozess mehrstufig konzipieren: 1. Stufe: Man grenzt zunächst „Klumpen“ ab: auf dem Stadtplan deutlich unterscheidbare Stadtgebiete etwa gleicher Größe (gemessen an der Einwohnerzahl). Aus der Gesamtheit dieser abgegrenzten Gebiete trifft man eine einfache Zufallsauswahl. Die ausgewählten Gebiete sind die Basis für die 2. Stufe: Zunächst werden die ausgewählten „Klumpen“ in Wohnblocks bzw. Gruppen von Wohnblocks etwa gleicher Größe (gemessen an der Bewohnerzahl) unterteilt; aus dieser gewonnenen Zahl von Wohnblocks wird eine Flächenstichprobe gezogen. Die so ausgewählten Kleingebiete sind nun die Basis für die 3. Stufe: Man bestimmt die zu den ausgewählten Wohnblocks gehörenden Häuser (Straßen und Hausnummern) und fasst diese zu Kleineinheiten mit etwa gleich großer Wohnungszahl zusammen. Aus diesen wählt man zufällig einen bestimmten Anteil aus, der die Basis ist für die 4. Stufe: Es ist nun relativ leicht, zu den ausgewählten Gruppen von Wohnungen die dort wohnenden Haushalte zu bestimmen (Aufstellen einer Haushaltsliste auf dieser vorletzten Stufe durch Ablesen der Namen von den Haustürklingeln). Anhand der so erstellten Liste kann dann auf dieser letzten Auswahlstufe eine Zufallsauswahl der zu befragenden Haushalte gezogen werden. Das Beispiel macht deutlich, dass erst auf der letzten (hier: der vierten) Stufe des Auswahlverfahrens eine Liste der Erhebungseinheiten (hier: Haushalte) erforderlich wird und dass dennoch eine Zufallsauswahl aus der Grundgesamtheit „Bevölkerung einer Großstadt“ möglich ist. Die Stufen 1 bis 3 sind ohne großen Aufwand vom Schreibtisch aus durchführbar, sofern mindestens eine Person mit hinreichend guter Ortskenntnis verfügbar ist. Auch die Aufstellung der Haushaltsliste auf der vierten Stufe verursacht keinen sehr großen Aufwand, weil durch die drei ersten Stufen des Auswahlprozesses eine extreme räumliche Streuung der noch in Betracht kommenden Haushalte vermieden wurde. Man kann jedoch auch auf der vierten (der letzten) Auswahlstufe auf das Erstellen einer Haushaltsliste verzichten und sich stattdessen für das „Verfahren des Zufallswegs“ entscheiden (siehe 6.5.3). 6.5.3 Random-Route-Verfahren (Zufallsweg) Mit zunehmender Schwierigkeit, über aktuelle Angaben zur Zielpopulation „Bevölkerung“ verfügen zu können (wiederholte Verschiebung von Volkszählungen, geschärftes Datenschutzbewusstsein), hat- - insbesondere in der kommerziellen Umfrageforschung-- eine Auswahltechnik an Bedeutung gewonnen, die es erlaubt, Zufallsstichproben ohne Rückgriff auf eine Namens- oder Adressendatei zu realisie- Random-Route- Verfahren <?page no="291"?> 292 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 292 ren: das sogenannte Verfahren des Zufallswegs (Random-Route- oder Random-Walk- Verfahren). Die Haushalte als Auswahleinheiten werden hierbei durch ihren Wohnstandort symbolisch repräsentiert. In präzise formulierten Verhaltensanweisungen wird dem Interviewer vorgegeben, wie er-- von einem vorbestimmten Punkt ausgehend (s. o.: Gebietsauswahl)-- seine Zielhaushalte und gegebenenfalls die zu befragende Zielperson im Haushalt zu finden hat. Die Verfahrenslogik hat große Ähnlichkeit mit der systematischen Zufallsauswahl auf der Basis einer Datei oder Liste (Abschnitt 6.5.1): Der Ausgangspunkt (Startpunkt des „Zufallswegs“) wird nach dem Zufallsprinzip ermittelt; die „Ziehung“ der Zielperson erfolgt nach einer Systematik, die für die Interviewenden jeden Ermessensspielraum bei der Bestimmung der zu befragenden Personen ausschalten soll. Das Vorgehen sei an den Random-Route-Verhaltensanweisungen illustriert, wie sie ein Markt- und Sozialforschungsinstitut für seine Feldarbeit formuliert hat (hier in Auszügen zitiert aus dem „Grundwissen für Interviewer“ des Sample-Instituts, o. J.). 235 Im Institut werden nach einem Zufallsverfahren die Ausgangspunkte bestimmt und den Interviewern zugewiesen; im Umkreis eines jeden Ausgangspunktes soll eine vorgegebene Zahl von Befragungen durchgeführt werden. Nehmen wir an, ein solcher Ausgangspunkt sei die Bergstraße 27 im Ort X und die Interviewerin stehe vor dieser Startadresse. Ab hier wird ihr Verhalten durch eine Reihe genauer Vorschriften festgelegt. Diese beziehen sich auf die Identifizierung des Ausgangshaushalts, auf die Laufrichtung der Interviewerin, die Identifizierung der in Betracht kommenden Haushalte und die Zufallsauswahl der zu befragenden Personen im Haushalt: „Der Ausgangshaushalt. Bei einem Einfamilienhaus ist der darin wohnende Haushalt Ihre Ausgangsadresse, bei einem Mehrfamilienhaus der im Parterre links wohnende Haushalt. Hier wird nicht interviewt. Die Laufrichtung. Sie stehen vor dem Haus mit dem Gesicht zum Haus und dem Rücken zur Straße. Nun drehen Sie sich um 90º nach rechts herum, so dass jetzt die Straße rechts und das Haus links von Ihnen liegt. In diese Richtung müssen Sie losgehen. Und zwar so lange weiter, bis Sie die Möglichkeit haben, rechts in eine andere Straße abzubiegen. Bisher gingen Sie ja auf der linken Seite der Straße; wenn Sie rechts abbiegen, wechseln Sie gleichzeitig auf die rechte Straßenseite. Dort gehen Sie so lange 235 Andere Institute stellen für die Ermittlung der Zieladressen durch die Interviewer andere, in ihrer Funktion gleichartige Regeln auf; vgl. z. B. die komplett dokumentierte „Interviewer-Anweisung zur Adressenermittlung“ des Instituts für Demoskopie Allensbach bei Noelle-Neumann/ Petersen (2000, 246-252). Logik der systematischen Zufallsauswahl BEISPIEL <?page no="292"?> 293 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 293 weiter, bis Sie wieder links abbiegen können. Dort gehen Sie dann auf der linken Straßenseite weiter, bis sie wieder rechts abbiegen können. Die Random-Route-Regel lautet also: Links gehen, rechts abbiegen; rechts gehen, links abbiegen. Die Auswahl der Haushalte. Auf diesem Zufallsweg zählen Sie auf der Straßenseite, auf der Sie gerade zu gehen haben, alle Haushalte und tragen jeden n-ten Haushalt (der Zählschritt wird Ihnen im Auftragsschreiben bekannt gegeben) in die Adressenliste ein, bis alle Felder der Adressenliste gefüllt sind. (…) Die Haushaltsabzählregel. Von Ihrer Ausgangsadresse an-… zählen Sie jeweils die erforderliche Anzahl von Haushalten weiter, wobei der Ausgangshaushalt nicht mitzählt, sondern mit „A“ bezeichnet wird. Gezählt wird nach folgender Regel (Sample Institut o. J., 29, 35): Innerhalb eines Mehrfamilienhauses von links nach rechts und von unten nach oben. Von Haus zu Haus nach der vorgegebenen Laufrichtung.“ Sonderregelungen gelten für Sackgassen, für Ortsgrenzen, für nur auf einer Seite bebaute Straßen sowie für Kreisverkehr. Zufallsauswahl im Haushalt. Würde im Zielhaushalt immer diejenige Person befragt, die die Tür öffnet, wäre dies in den allermeisten Fällen entweder die Hausfrau oder ein anderes nicht berufstätiges Haushaltsmitglied. Die Folge wäre ein erheblicher Stichprobenfehler. Gleiches gilt, wenn der Interviewer nur aus denjenigen Personen auswählte, die bei seinem Besuch gerade zu Hause anwesend sind. Es muss also auch hier nach einer Regel vorgegangen werden, die jedem Haushaltsmitglied die gleiche Chance sichert, als Zielperson der Befragung identifiziert zu werden. Dafür gibt es mehrere Möglichkeiten. In dem hier dargestellten Beispiel wird ein „Geburtstagsschlüssel“ verwendet: „Wir fragen, wer als nächster im Haushalt Geburtstag hat. Diese Person muss dann befragt werden. Es ist nicht erlaubt, auf eine andere Person des Haushaltes auszuweichen, sondern es muss genau diejenige befragt werden, deren Geburtstag als nächster bevorsteht.“ (Sample Institut o. J., 37) Das Random-Route-Verfahren hat neben dem Vorteil, ohne Adressenkarteien auszukommen, noch einen weiteren Vorzug: Informationen zur Lebensumwelt der untersuchten Haushalte oder Personen (Sozial- und Infrastruktur, Umweltqualität etc.) können parallel zur Feldarbeit der Interviewer oder auch schon vorher beschafft und-- da der räumliche Startpunkt für jeweils eine Gruppe von Befragten bekannt ist-- leicht zugeordnet werden. Ein Nachteil besteht darin, dass Personen ohne festen Wohnsitz durch das Auswahlraster fallen und dass Haushalte mit mehrfachem Wohnsitz eine höhere Auswahlchance haben. parallel Zugang zu-Kontextinformationen <?page no="293"?> 294 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 294 6.6 Zusammenfassung: Vor- und Nachteile der-verschiedenen Auswahlverfahren Zur Beurteilung der durch die vorgestellten Auswahlverfahren zu erreichenden Repräsentativität der Stichprobe bietet die folgende Gegenüberstellung eine erste Orientierung (nach Kops 1977, 101): 236 Auswahlverfahren Repräsentativität der Auswahl angestrebt durch: Repräsentativität der Auswahl gesichert: willkürliche Auswahl - Nein bewusste Auswahlen Informationen zu Stichprobenelementen und Grundgesamtheit (Typisierung, Klassifikation) mit Einschränkungen oder nur für die direkt oder indirekt (durch Korrelationen) kontrollierten Merkmale Zufallsauswahlen zufällige Entnahmen der Stichprobenelemente ja Als Bedingungen für die „zufällige Entnahme der Stichprobenelemente“ aus der Grundgesamtheit können wir jetzt (u. a. unter Rückgriff auf das hypothetische „Urnenmodell“) zusammenfassen (vgl. Scheuch 1974, 76 f.): 1) Alle Einheiten müssen die gleiche (oder eine vorher angebbare) Chance haben, in die Auswahl zu kommen. 2) Jede Einheit ist im Voraus bestimmbar und gehört dem Universum nur einmal an. 3) Die Auswahl einer Einheit verändert die Chancen anderer Einheiten nicht. 4) Alle potenziellen Einheiten müssen im Moment der Auswahl greifbar (anwesend) sein. zu 1): Die Sicherung, dass die vorher bestimmbare gleiche (oder angebbare) Chance während des Auswahlprozesses realisiert wird, geschieht im Urnenmodell durch wiederholtes Durchmischen vor jedem weiteren Ziehen einer Einheit. Im realen Auswahlverfahren wird dieses „Durchmischen“ durch Verwendung von Zufallszahlen (bei systematischer Auswahl nur zur Festlegung des Startpunktes des Auswahlprozesses) oder durch Einsatz eines Zufallsauswahlprogramms in der EDV simuliert. 236 Diese Einschätzung gilt so uneingeschränkt allerdings nur für den Auswahlplan. Bei der Realisierung des Auswahlplans treten dagegen im Falle der Umfrageforschung nicht zu behebende Probleme auf, soweit sie auf die freiwillige Teilnahme der Zielpersonen an der Befragung angewiesen ist-- und das ist (mit Ausnahme gesetzlich geregelter Auskunftspflicht bei amtlichen Erhebungen) der Normalfall. Angesichts zurückgehender Bereitschaft zur Beteiligung an Interviews (siehe Kapitel 7.4.2: „Ausfälle“) kann man bei zahlreichen realisierten Stichproben nicht mehr von repräsentativen Zufalls-Samples sprechen, sondern von Samples „auf der Suche nach der zugehörigen Grundgesamtheit“ (siehe Kapitel 6.2: „Inferenzpopulation“). Beurteilung der Repräsentativität Kriterien der Zufallsziehung Kontrolle des-Zufalls <?page no="294"?> 295 6.6 Zusammenfassung: Vor- und Nachteile der-verschiedenen Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 295 zu 2): Die Grundgesamtheit und die Elemente der Grundgesamtheit müssen, ausgehend von der Problemstellung der Untersuchung, vor Beginn der Auswahl präzise definiert sein. zu 3): Dass die Auswahl einer Einheit aus der Grundgesamtheit die Auswahlchancen der weiteren Einheiten nicht verändert, gilt genau genommen nur für unendlich große Grundgesamtheiten (vgl. das Urnenmodell „mit Zurücklegen“). Man stelle sich dagegen eine kleine Grundgesamtheit mit N =-100 vor, aus der eine Stichprobe von n =-10 gezogen werden soll: Bei der ersten Ziehung ist die Chance jedes Elements der Grundgesamtheit, ausgewählt zu werden =-1/ 100; bei der zweiten Ziehung ist die Chance der verbliebenen 99 Elemente, ausgewählt zu werden =-1/ 99; -…; bei der zehnten Ziehung ist die Chance der verbliebenen 91 Elemente =- 1/ 91. Diese „bedingte Wahrscheinlichkeit“ (hier: Auswahlchance unter der Bedingung, dass bereits eine bestimmte Zahl von Elementen ausgewählt wurde) verändert sich von der ersten bis zur letzten Ziehung um so stärker, je höher der Auswahlsatz ist, bzw. bei vorgegebenem Stichprobenumfang: je kleiner die Grundgesamtheit ist. Die erste genannte Bedingung-- gleiche oder bekannte Chance für alle Einheiten-- gilt also bei endlichen Grundgesamtheiten nicht für jede einzelne Ziehung eines Elements. Sie gilt vielmehr a) vor Beginn des Auswahlprozesses für alle Elemente und b) für die Gesamtzahl der n Ziehungen, also den gesamten Auswahlprozess (Wahrscheinlichkeit, im 1. oder 2. oder-… oder n-ten Zug ausgewählt zu werden). zu 4): Hierzu wurde in Kapitel 6.1 dargestellt, dass an die Stelle der physischen Greifbarkeit (physische Anwesenheit) aller potenziellen Einheiten im Moment der Auswahl im Normalfall ersatzweise die symbolische Repräsentation aller Einheiten der Grundgesamtheit tritt. Probleme im Hinblick auf die Repräsentativität einer Stichprobe treten dann auf, wenn die symbolisch repräsentierte Grundgesamtheit nicht mit der angestrebten Grundgesamtheit (vollständig) übereinstimmt. Definition der Grundgesamtheit variierende Auswahlchancen bei kleiner Grundgesamtheit symbolische Repräsentation <?page no="295"?> 296 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 296 Übersicht: Vor- und Nachteile der verschiedenen Auswahlverfahren Vorteile: Nachteile: Vollerhebungen tiefe sachliche und räumliche Gliederung möglich; keine Auswahlfehler hoher Aufwand, hohe Kosten; lange Zeitspanne zwischen Vorbereitung und Abschluss der Erhebung: geringe Aktualität; Erfassungsfehler durch mangelnde Kontrollmöglichkeiten bei großen Erhebungen; Beeinflussung der untersuchten Gesamtheit möglich; großer Zeitaufwand für Datenaufbereitung; bei manchen Sachverhalten sind Vollerhebungen überhaupt unmöglich (z. B.-Qualitätskontrolle von Produkten) Auswahlen, Teilerhebungen geringere Kosten, dadurch größere Breite der Fragestellung möglich; schnelle Durchführung; aktuelle Ergebnisse; gründlichere Erhebung und bessere Kontrollen geringe sachliche und räumliche Gliederung; Auswahlfehler (bei zufallsgesteuerten Auswahlen kontrollierbar); räumliche und soziale Bezugssysteme können nur schwer erfasst werden (Ausnahme: Klumpenauswahl) nicht zufallsgesteuerte Auswahlen geringer Aufwand, geringe Kosten; umfangreiche Informationssammlung über besonders „interessante Fälle“ keine statistische Kontrolle des Auswahlfehlers; unsichere Generalisierbarkeit der Ergebnisse Quotenauswahlen schnelle Durchführung: aktuelle Ergebnisse; Einschränkung des Ermessensspielraums der Interviewer bei der Zielpersonenauswahl durch Vorgabe von Quoten (ggf. von Quotierungskombinationen); bei gut geschultem Interviewerstab relativ „repräsentative“ Ergebnisse, sofern Standardprobleme analysiert werden Verzerrung der Auswahl durch Persönlichkeitsmerkmale der Interviewer möglich; Interviewer nicht kontrollierbar (kaum Kontrollinterviews möglich); zur Vorgabe der Quoten sind Informationen über die Grundgesamtheit erforderlich, die häufig nicht vorliegen oder nicht aktuell sind; Quotierungsmerkmale müssten zur Sicherung generalisierbarer Ergebnisse theoretischen Bezug zur Fragestellung haben; üblicherweise können aber nur leicht erkennbare demografische Merkmale herangezogen werden zufallsgesteuerte Auswahlen repräsentative Ergebnisse; Auswahlfehler kann statistisch berechnet und damit kontrolliert werden; Auswahl unabhängig von Ermessensentscheidungen der Interviewer Zufallsstichproben schwierig durchzuführen; Ersetzen von „Ausfällen“ problematisch; längere Vorbereitung und Durchführung, dadurch höhere Kosten, geringere Aktualität einfache Wahrscheinlichkeitsauswahlen leichte Berechnung des Auswahlfehlers durch direkte Schätzung der Größen für die Gesamtheit aus den betreffenden Werten der Stichprobe; keine Informationen über Merkmale in der Grundgesamtheit erforderlich keine Anpassung des Auswahlverfahrens an den Untersuchungsgegenstand, keine Berücksichtigung von „Extremgruppen“ möglich (höhere Kosten, geringere Aussagekraft bei gegebener Stichprobengröße) komplexe Wahrscheinlichkeitsauswahlen Anpassung des Auswahlverfahrens an die Fragestellung der Untersuchung möglich (Verringerung der Kosten, Erhöhung der Aussagekraft) zum Teil komplizierte Berechnung des Auswahlfehlers, da die Einheiten der Gesamtheit unterschiedliche (aber bekannte) Auswahlchancen haben <?page no="296"?> 297 6.7 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 297 6.7 Annotationen aus der Perspektive qualitativinterpretativer Methoden Qualitativ-interpretative Verfahren sind darauf ausgerichtet, Material mit einer hohen Tiefendimension und einer großen Kontextfülle zu analysieren und zu interpretieren. Schon forschungspraktisch ist damit die Gewinnung und Verarbeitung von Daten einer sehr großen Zahl von Fällen ausgeschlossen. Dies heißt nicht, dass hier prinzipiell kleine Datenmengen verarbeitet würden; vielmehr besteht meist der einzelne Fall bereits aus sehr reichhaltigem und dichtem Informationsmaterial, d. h. insbesondere aus ausführlichen Interviewtranskripten, Volltextdokumenten, (ethnografischen) Beobachtungsprotokollen oder gar Fotos und Videos. Wenn große Fallzahlen nicht in Betracht kommen, kann sich die Fallauswahl konsequenterweise auch nicht am wahrscheinlichkeitstheoretischen Ideal der Zufallsauswahl orientieren, denn bei dieser sinkt die Chance einer statistisch repräsentativen Abbildung der Grundgesamtheit im Sample mit der Fallzahl. Studien mit 10, 20 oder 30 Fällen, wie sie in qualitativen Studien durchaus üblich sind, könnten also nie statistische Repräsentativität erreichen. Wichtiger aber ist die Feststellung, dass die statistische Repräsentativität des Samples für eine größere Fallpopulation in qualitativ-interpretativen Studien gar nicht von Interesse ist. Insofern ist der Bezug auf kleinere und anders generierte Samples in der qualitativ-interpretativen Forschung nicht ein Mangel, sondern konsequentes Ergebnis einer anderen Forschungsperspektive. In der Regel geht es in der einen oder anderen Weise um die analytische Erschließung und die theoretische Fassung neuer Phänomene oder gar gänzlich neuer Gegenstandsbereiche der Sozialforschung. Daher dominiert hier das Interesse an der Erarbeitung valider neuer theoretischer Konzepte. Auswahlen orientieren sich dementsprechend an der Aufgabe, kleine Fallzahlen hohe Materialdichte Sampling per Zufallsauswahl unangemessen Vorteile: Nachteile: geschichtete Wahrscheinlichkeitsauswahlen durch Herstellung homogener Teilgesamtheiten vor der Auswahl kann der Auswahlsatz bei gleicher Genauigkeit verringert werden (Zeit-, Kostenersparnis), bzw. bei gleich bleibendem Auswahlsatz wird die Genauigkeit erhöht (Verbesserung der Effektivität) Schichtungsmerkmale (für die Fragestellung relevante, theoretisch bedeutsame Merkmale) müssen für die Grundgesamtheit vorliegen mehrstufige Auswahlen (meist Kombinationen von Flächenstichproben mit Personenstichproben) die Grundgesamtheit muss nicht symbolisch repräsentiert werden (z. B. Karteien oder Dateien); Informationen über Merkmalsverteilungen in der Grundgesamtheit sind nicht erforderlich; Einbeziehung des Raumes als Untersuchungsgegenstand ist möglich; Klumpenbildung (räumliche Ballung der Erhebungseinheiten) möglich; Zeit- und Kostenersparnis, bessere Interviewerkontrolle keine zusätzlichen spezifischen Nachteile erkennbar <?page no="297"?> 298 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 298 Fälle auszuwählen, deren vergleichende Analyse eine systematische und umfassende Konzept- oder Theorieentwicklung erlaubt. So differenziert die Praxis qualitativ-empirischer Forschungsansätze ist, so unterschiedlich sind auch die konkreten Vorgehensweisen bei der Fallauswahl. Dabei bilden allerdings willkürliche Auswahlen eher die Ausnahme, während solche Sampling-Strategien dominant sind, die aus angebbaren und auf analytische Erfordernisse gestützten Gründen in einer bestimmten Weise organisiert sind. Es handelt sich also um bewusste und systematische Auswahlen, gleichviel, ob es sich um die Auswahl von Extremfällen handelt oder um gruppierte Samples, bei denen (alle) als relevant erachteten Falltypen im Untersuchungsfeld mit einer kleineren Anzahl von Fällen berücksichtigt werden. Auch die Auswahl eines einzigen Falles zum Zweck einer expliziten Einzelfallanalyse ist in der qualitativen Sozialforschung bereits früh praktiziert worden (klassisch: Shaw/ Burgess 1930) und findet heute u. a. in der Objektiven Hermeneutik und in der erziehungswissenschaftlichen Forschung gelegentlich noch Anwendung. Viele dieser Auswahlverfahren funktionieren allerdings nur um den Preis einer starken Einschränkung der zu beanspruchenden Reichweite, insbesondere dann, wenn es nicht gelingt, eine über die kleinen und selektiven Samples hinausweisende Geltung methodologisch nachvollziehbar zu begründen. Angesichts von auf Offenheit und Reflexivität abzielenden, kommunikativ organisierten Prozessperspektiven qualitativ-interpretativer Forschung stellt sich zudem das Problem, dass Fallauswahlen, die zu Beginn des Forschungsprojekte vorgenommen werden, zwangläufig blind gegenüber den im Forschungsverlauf neu gewonnenen Erkenntnissen sind. Ihre Angemessenheit mit Blick auf die schlussendlich bearbeitete Untersuchungsfrage kann also schnell prekär werden. Ein wichtiges und mittlerweile weit verbreitetes Verfahren zur Fallauswahl, das dieses Problem umgeht, ist das theoretische Sampling, das im Rahmen der Grounded Theory entwickelt wurde (Glaser/ Strauss 1998, 53-83, Corbin/ Strauss 2008, 143- 157, Strübing 2014, 29-33), aber mittlerweile weit darüber hinaus Anwendung findet. Der Grundgedanke besteht darin, dass die Auswahl der zu analysierenden Entitäten sukzessive und in Abhängigkeit vom Fortschritt des Theoriebildungsprozesses erfolgt. Es wird also nicht von vornherein ein bestimmtes Set von Fällen bestimmt, zu denen dann Informationen gewonnen und schließlich analysiert werden. Vielmehr geht man beim theoretischen Sampling von einem ersten, noch unsystematisch ausgewählten Fall und dessen Analyse nach bestimmten Vergleichsheuristiken (minimaler und maximaler Vergleich) aus, wählt anschließend die nächsten Fälle, die sukzessive in die Analyse und in die Theoriebildung einbezogen werden und die dann wiederum die Kriterien für die weitere Fallauswahl liefern. Weil Fallauswahl und Theoriefortschritt reziprok aufeinander bezogen sind und das Sampling damit Bestandteil eines iterativ-zyklischen Prozesses von Datengewinnung, Analyse, Hypothesenformulierung und empirischer Überprüfung ist, kann hier auf eine externe Begründung der Auswahlentscheidungen verzichtet werden. Auswahlverfahren zielen auf die Auswahl von Fällen, die in Bezug auf die Forschungsfragen zu analysieren sind. Bei variablen Frageperspektiven verändert sich systematisches Sampling relevanter Fallgruppen theoretisches Sampling <?page no="298"?> 299 6.7 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 299 daher im Forschungsgang immer wieder unser Verständnis davon, was jeweils ein Fall ist. So kann etwa eine Untersuchung von Praktiken schulischen Lernens in der Grundschule mit der Auswahl einzelner Schülerinnen und Schüler beginnen, unter dem Eindruck erster empirischer Ergebnisse dann aber auf die Auswahl von Lerngruppen oder ganzer Klassen umschwenken. Ebenso kann sich das Fallverständnis auf Typen von Ereignissen oder auf Prozesse, z. B. Lernprozesse oder Verlaufskurven von Konflikten verschieben. Damit verbunden ist häufig eine Form des Samplings im bereits vorliegenden Material, wenn also z. B. in einem umfangreichen Set von Beobachtungsprotokollen oder Videomitschnitten gezielt Fälle von Schüler-Lehrer-Interaktionen oder von spontanen Unterrichtsunterbrechungen ausgewählt und vergleichend analysiert werden. Insgesamt kann man also sagen, dass in der qualitativ-interpretativen Forschung das Fallverständnis mit Blick auf die Bezugsdimensionen als auch in Bezug auf die zeitliche Organisation dynamisiert wird. 6.7.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Außer im Kontext der Grounded Theory finden sich in der qualitativ-interpretativen Sozialforschung nur wenige ausführlicher Thematisierungen von Auswahlverfahren. Einige wenige Hinweise müssen daher an dieser Stelle genügen: Bauer, Martin W.; Aarts, Bas, 2000: Corpus Construction: A Principle for Qualitative Data Collection, in: Bauer, M. W.; Gaskell, G. (Hg.): Qualitative Researching with Text, Image and Sound: a Practical Handbook, London, 19-37 Gobo, Giampetro, 2007: Sampling, Representativeness and Generalizability, in: Seale, C.; Gobo, G.; Gubrium, J. F.; Silverman, D. (Hg.): Qualitative Research Practice, London, 405-426 Morse, Janice M., 2007: Sampling in Grounded Theory, in: Bryant, A.; Charmaz, K. (Hg.): The Sage Handbook of Grounded Theory, London, 229-244 (Umfassende Darstellung des theoretischen Sampling in der Grounded Theory) Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Qualitative Sozialforschung. Ein Arbeitsbuch, München, 4. Aufl., (hier Kap. S. 177-187 über Sampling) Rosenthal, Gabriele, 2005: Interpretative Sozialforschung: eine Einführung, 85 ff. Strübing, Jörg, 2014: Grounded Theory. Zur sozialtheoretischen und epistemologischen Fundierung eines pragmatistischen Forschungsstils, Wiesbaden (Qualitative Sozialforschung Bd. 15), 29-33. (Hier wird das Verfahren des theoretischen Samplings ausführlich dargestellt) Veränderung der-Auswahl im Forschungsprozess <?page no="299"?> www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 300 <?page no="300"?> 301 www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 301 7 Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung Häufig sind, wenn im Zusammenhang mit empirischer Sozialforschung von „Methoden“ gesprochen wird, die systematischen Erhebungsverfahren wie Befragung, Beobachtung, Inhaltsanalyse, Soziometrie gemeint; so etwa bei Friedrichs (1982), der diese Verfahren und Strategien der Informationsbeschaffung unter der Überschrift „Methoden“ zusammenfasst. Der vorliegende Text benutzt den Begriff allerdings nicht in diesem engeren Sinne. Unter „Methoden“ werden vielmehr sämtliche systematischen, d. h. nach festgelegten Regeln ablaufenden Vorgehensweisen der Sozialforschung von der dimensionalen bzw. semantischen Analyse bis zur Datengewinnung und -auswertung verstanden. Ein Teil dieser Methoden sind die Verfahren oder Strategien der Informationsgewinnung, die sich wiederum bestimmter Erhebungsinstrumente-- wie Fragebogen, Kategorienschema, Beobachtungsbogen-- als „Werkzeuge“ bedienen. Obwohl sie in besonderem Maße im Mittelpunkt stehen, wenn Sozialforschung in die Diskussion gerät, darf doch ihr Stellenwert für das Gelingen eines Forschungsvorhabens nicht größer veranschlagt werden, als der Stellenwert der übrigen eingesetzten Methoden. Im Modellschema des Forschungsprozesses (Kapitel 2.2, vgl. auch das Strukturmodell in Kapitel 2.4.5) stellen Entwicklung und Test der Erhebungsinstrumente den Abschluss der Forschungsvorbereitung und damit der gedanklich-theoretischen Strukturierung der Untersuchung dar, bevor die empirische Informationssammlung (die „Feldarbeit“) beginnt. Diese Zäsur wird besonders deutlich in solchen Forschungsvorhaben, in denen die Vorbereitung (und später die Datenanalyse) bei einem Forscherteam liegt, während die Durchführung der Informationserhebung und -aufbereitung an ein kommerzielles, darauf spezialisiertes Institut vergeben wird. Aus dem Katalog der existierenden Strategien empirischer Informationsgewinnung werden im Folgenden exemplarisch Inhaltsanalyse, Beobachtung und Befragung herausgegriffen und jeweils in ihrer standardisierten Version vorgestellt (7.1 bis 7.3). Ein zusammenfassendes Kapitel (7.4) präsentiert dann eine Gegenüberstellung von Ähnlichkeiten und Unterschieden dieser Verfahren; hierbei werden insbesondere Probleme der Entwicklung und der Anwendung der Instrumente: Kategorienschema, Beobachtungs- und Fragebogen aufgezeigt. 237 237 Im Falle standardisiert erhobener Informationen wird üblicherweise von „Daten“ gesprochen. Daher lautet der Titel dieses Kapitels „Datenerhebungsverfahren und -instrumente“. Die hier getroffene Unterscheidung zwischen Verfahren (bzw. Strategien) auf der einen und Instrumenten (bzw. Werkzeugen) auf der anderen Seite mag manchem vielleicht spitzfindig erscheinen, Instrument als Abschluss der Vorbereitung <?page no="301"?> 302 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 302 Die Entscheidung für die Darstellung standardisierter Verfahren sollte nicht als ein Urteil über die Qualität unterschiedlicher Instrumententypen (miss)verstanden werden; etwa: standardisierte Instrumente lieferten „präzisere“ und damit „bessere“ Resultate. Ausschlaggebend sind vielmehr didaktische Überlegungen: Erstens stößt man bei der Lektüre sozialwissenschaftlicher Forschungsberichte besonders häufig auf standardisierte Erhebungen; zweitens lässt sich an ihnen die zugrunde liegende Vorgehenslogik leichter herausarbeiten. Dem Leser sollte jedoch immer bewusst bleiben, dass die Wahl einer bestimmten Untersuchungsanordnung (vgl. Kapitel 2.4) und der Einsatz bestimmter Verfahren und Instrumente niemals „automatisch“ erfolgen dürfen. Entscheidungen darüber sind in jedem Einzelfall in gründlicher Auseinandersetzung mit dem Untersuchungsgegenstand und der Fragestellung zu treffen und zu begründen. 7.1 Empirische Inhaltsanalyse Inhaltsanalyse 238 knüpft, wie die anderen Verfahren der empirischen Sozialforschung auch, an alltägliche Vorgehensweisen an, ist im Grunde nichts weiter als deren Systematisierung. So „analysiert“ jeder Autofahrer den „Inhalt“, d. h. die Bedeutung von Symbolen, wenn er sich durch den Schilderwald kämpft; so „analysiert“ der Wohnungssuchende mehr oder weniger systematisch den Inhalt des Anzeigenteils von Tageszeitungen. Allerdings geschieht diese alltägliche „Inhaltsanalyse“ eher intuitiv, nicht nach fest vorgegebenen, intersubjektiv nachvollziehbaren Regeln der Informationsverarbeitung. Die empirische Inhaltsanalyse-- so wie sie hier verstanden werden soll-- ist nach einer weit gefassten, aber durchaus gängigen Definition eine Forschungstechnik, mit der man aus jeder Art von Bedeutungsträgern durch systematische und objektive Identifizierung ihrer Elemente Schlüsse ziehen kann, die über das einzelne analysierte Dokument hinaus verallgemeinerbar sein sollen. ist jedoch für den nachfolgenden Text wichtig. Zur Klärung ein Alltagsbeispiel: Nehmen Sie an, Sie wollen einen Nagel mit einem Hammer in eine Holzwand schlagen. Vermutlich werden Sie als Strategie das Hereinschlagen mit einem Hammer wählen (also „Verfahren“ =-Hämmern; „Werkzeug“ =-Hammer). Damit Ihr Vorhaben gelingt, benötigen Sie einen für diese Aufgabe geeigneten Hammer (nicht zu groß, nicht zu klein); und Sie müssen in der Lage sein, das Werkzeug in richtiger Weise zu benutzen (damit der Nagel nicht verbogen und Ihr Daumen nicht verletzt wird). In gleicher Weise ist auch zwischen dem Verfahren des „Befragens“ und dem Instrument „Fragebogen“ und ist zwischen der Entwicklung eines geeigneten Fragebogens sowie der Schulung der Interviewer in dessen richtiger Anwendung zu unterscheiden. 238 Im Folgenden wird die Methode der empirischen Inhaltsanalyse verschiedentlich im Vergleich zur Befragung dargestellt; dabei wird zunächst lediglich ein Alltagsverständnis von „Befragung“ vorausgesetzt. Verfahren, Instrumente von Untersuchungsfrage abhängig Definition: empirische Inhaltsanalyse <?page no="302"?> 303 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 303 Diese weit gefasste Definition 239 zeigt, dass das Verfahren Inhaltsanalyse nicht auf die Verarbeitung sprachlicher Mitteilungen beschränkt ist, sondern z. B. auch Gemälde aus einer zurückliegenden Epoche, Keramik oder kultische Gegenstände aus einer Kultur, von der schriftliche Dokumente nicht überliefert sind, oder einen Stummfilm zum Gegenstand haben kann. Im Allgemeinen jedoch- - jedenfalls in den Zusammenhängen, in denen Sozialwissenschaftler die empirische Inhaltsanalyse einsetzen- - wird es sich um die Analyse sprachlicher Mitteilungen handeln, meist in Form schriftlicher Texte. Die Definition besagt insbesondere auch, dass nicht nur von Daten über Textteile (oder andere Dokumente) auf Tendenzen in den Texten (Dokumenten) selbst geschlossen wird, sondern dass man die herausgelesenen Informationen nutzt, um Aussagen über die soziale Realität außerhalb der Texte (Dokumente) zu gewinnen. Die Texte (Dokumente) sind in diesem Fall nicht selbst Gegenstand des Auswertungsinteresses (wie dies etwa bei literaturwissenschaftlichen Untersuchungen der Fall sein kann), sondern sie dienen als Informationsträger; die dokumentierten Aussagen sind „Indikatoren“ für (externe) Sachverhalte. Solche „Sachverhalte“ können sein: - beschriebene/ dargestellte Ereignisse oder Situationen, - Aussageabsichten/ Einstellungen der Autoren von Dokumenten, - Merkmale der beabsichtigten Rezipienten/ Zielgruppen von Dokumenten, - politische/ soziale Kontexte von dokumentierten Ereignissen/ Situationen. Die interessierenden Sachverhalte können entweder manifest in den Texten dokumentiert sein (als direkte „Aussagen über-…“); oder sie sind indirekt aus den Texten zu erschließen (latente Inhalte, „zwischen den Zeilen“ zu lesende Mitteilungen oder Informationen). Einige Beispiele sollen den sehr weiten Anwendungsbereich der Techniken der Inhaltsanalyse veranschaulichen: Auswertung von Gruppendiskussionen, von Intensivinterviews, von Leitfaden-Gesprächen, in denen der gesamte Gesprächsverlauf auf Tonträger (Tonband, Kassettenrecorder) aufgezeichnet wurde; Auswertung von schriftlichen Gesprächsprotokollen, von Antworten auf offen gestellte Fragen im Interview; Auswertung von Zeitungsartikeln über Energiefragen vor der „Energiewende“ und danach oder vor „Fukushima“ und danach; Flugblätter von Initiativen für Tierrechte; Analyse des Inhalts von Heiratsanzeigen in regionalen und überregionalen Zeitungen; Auswertung von historischen Quellen usw. Abzugrenzen ist die systematische empirische Inhaltsanalyse von dem im Deutschunterricht der Schule geläufigen Verfahren der Textinterpretation. Für solche Textinterpretationen gelten die Regeln der (geisteswissenschaftlichen) Hermeneutik. Auch die Hermeneutik hat die Auswertung sinnhaltiger Dokumente, insbesondere Texte, zum 239 Sinngemäß finden sich solche Definitionen oder wesentliche Elemente davon etwa bei Früh 2015, Gerbner u. a. 1969, Merten 1995, Stone u. a. 1966. keine Beschränkung auf Text Realität außerhalb des Textes Text als Indikator BEISPIEL Abgrenzung zur Hermeneutik <?page no="303"?> 304 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 304 Ziel. 240 Allerdings geht es ihr nicht um die systematische Identifizierung von Aussage-Elementen und deren Zuordnung zu vorher festgelegten Kategorien 241 , wie bei der empirischen Inhaltsanalyse. Die Erkenntnisabsicht bei hermeneutischen Verfahren ist vielmehr das „Verstehen des Sinns“, die „Auslegung“ oder „deutende Interpretation“ von Aussagen, von Dokumenten, historischen Quellen etc. Die Bedeutung einer Botschaft (eines Textes, eines Gedichts, eines Gemäldes) soll nachvollzogen und gedeutet werden, indem man versucht, sich das Dokument in seiner Ganzheit und in seinen inneren Zusammenhängen zu erschließen, gegebenenfalls sich dazu in die Situation und die Motive des Autors des Textes (oder des Schöpfers eines Kunstwerks etc.) sowie in den Kontext der Entstehung hineinzudenken. Zu diesem Zweck wird man versuchen müssen, Kenntnisse aus der Epoche, aus der die Botschaft stammt, sowie über ihre Entstehungsbedingungen zur Interpretation hinzuzuziehen. So werden beispielsweise in der Regel auch Informationen über die persönliche Lebenssituation des Autors Eingang in die Überlegungen finden. Das Ergebnis solcher geisteswissenschaftlich-hermeneutischer Textinterpretationen-- auch wenn noch so viele Informationen berücksichtigt werden-- wird jeweils subjektiv in dem Sinne bleiben, dass zwei verschiedene Personen kaum einmal genau identische Interpretationen liefern werden; d. h. das Resultat ist personenabhängig. 242 Einen gänzlich anderen Weg beschreitet die sogenannte „objektive (oder strukturale) Hermeneutik“ (Oevermann u. a. 1979, Schneider, 1985). Hier sollen sprachlich dokumentierte Protokolle realer sozialer Handlungen oder Interaktionen („Interaktionstexte“) nicht subjektiv gedeutet, sondern systematisch daraufhin analysiert werden, welche „objektiven“ (d. h. unabhängig von der subjektiven Sichtweise der Akteure existierenden), durch hermeneutische Explikation rekonstruierbaren Regeln das dokumentierte Verhalten geleitet haben könnten. 243 Wenn demgegenüber im Zusammenhang mit der systematischen Inhaltsanalyse von „objektiv“ gesprochen wird (vgl. obige Definition: „systematische und objektive Identifizierung“ von Textelementen), dann ist dies in einem sehr eingeschränkten Sinne, als Gegensatz insbesondere zum geisteswissenschaftlich-hermeneutischen Vorgehen zu verstehen: Inhaltsanalyse soll objektiv in der Weise sein, dass die Daten eindeutig dem Interpretationsobjekt (z. B. Text)-- nicht dem interpretierenden Subjekt-- zugerechnet werden können. Damit dies gewährleistet ist, hat die systematische Zuordnung von Aussageinhalten zu vorher festgelegten Kategorien unabhängig von der Person zu sein, die die Textdurchsicht und die Zuordnung vornimmt („Vercoder“). 240 Einen kurzen Überblick über hermeneutische Verfahren aus erziehungswissenschaftlicher Sicht gibt Klafki (1971); grundlegend dazu Gadamer (1972). 241 Zum Begriff der inhaltsanalytischen „Kategorie“ siehe Kapitel 7.1.2. 242 Allerdings sind in der qualitativen Sozialforschung auch sozialwissenschaftlich-hermeneutische Methodologien entwickelt worden, die die intersubjektive Geltung von Textinterpretationen sichern sollen (z. B. Bohnsack 2000; für einen vergleichenden Überblick Kapitel 9 und Strübing 2013; Lamnek 1995; speziell zur qualitativen Inhaltsanalyse Mayring 1988). 243 Für eine kurze Schilderung des Verfahrens der objektiven Hermeneutik siehe Kapitel 9.2. Dass das hier darzustellende Verfahren der (quantitativen) systematischen Inhaltsanalyse und die objektive Hermeneutik einander nicht ausschließen, sondern sich gegenseitig nutzbringend ergänzen können, belegt Mathes 1988. Abgrenzung zur-„objektiven Hermeneutik“ intersubjektive Geltung <?page no="304"?> 305 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 305 Anders formuliert: „Objektiv“ meint hier lediglich, dass die Resultate der Zuordnung „intersubjektive“ Geltung beanspruchen können. Zu diesem Zweck müssen die Zuordnungsregeln von dem Vercoder (den Vercodern) einheitlich und konsistent angewendet werden. Ein weiterer Unterschied zum geisteswissenschaftlich-hermeneutischen Vorgehen besteht darin, dass bei der hermeneutischen Interpretation die Absicht vorherrscht, durch Einbeziehen möglichst aller Umstände und Bedingungen, unter denen der Text entstanden ist, ein ganzheitliches Verständnis zu entwickeln. Die systematische Inhaltsanalyse geht dagegen den umgekehrten Weg: Die Texte werden zunächst in Einzelbestandteile aufgelöst (in „Zähleinheiten“ zerlegt, die bei der weiteren Analyse als „Merkmalsträger“ behandelt werden). Aus der Beschreibung der Einzelbestandteile sowie der zwischen den Einzelbestandteilen festzustellenden Beziehungen gelangt man dann zu Schlussfolgerungen, die über die eigentlichen Texte hinausgehen (können). Nicht die einzelnen Bestandteile eines Textes liefern die Antworten auf die Untersuchungsfragen, auch nicht ein einzelner zusammenhängender Text; sondern erst die Auswertung der Informationen (Daten), die aus der Gesamtheit der Elemente der analysierten Texte gewonnen werden, erlaubt verallgemeinerbare Schlüsse. Zusammengefasst: „Objektiv“ soll für die systematische empirische Inhaltsanalyse bedeuten: Das Verfahren der Zerlegung eines Textes in seine zu analysierenden Bestandteile sowie der Zuordnung zu analytischen Kategorien ist „objektiviert“. Jeder Sachkundige kann die Vorgehensweise exakt nachvollziehen, sie ist intersubjektiv überprüfbar. „Systematisch“ heißt, dass vor der Inhaltsanalyse ein Kodierschema erarbeitet wird, an das die Vercoder sich zu halten haben. Wissenschaft ist- - so der schwedische Sozialwissenschaftler Gunnar Myrdal- - „nichts anderes als äußerst kritischer, stark verfremdeter ‚common sense‘“ (1971, 18). Dies gilt in besonderem Maße für die gängigen Methoden der empirischen Sozialforschung wie Befragung, Beobachtung, Inhaltsanalyse. Sie knüpfen sämtlich an aus dem Alltag vertrauten Vorgehensweisen und Verfahren an. Betrachten wir das Vorhaben von vier Studierenden, die zu einer Wohngemeinschaft zusammenziehen wollen, systematisch die Vermietungsangebote in den regionalen Tageszeitungen und Anzeigenblättern durchzusehen. Wegen des Umfangs der Aufgabe und aus Gründen der gemeinschaftlichen Entscheidungsfindung soll dies arbeitsteilig geschehen. Vergegenwärtigen Sie sich an dieser „alltagsweltlichen Inhaltsanalyse“ die Ähnlichkeiten zur vorn dargestellten Strategie einer „systematischen empirischen Inhaltsanalyse“: - Die durchzusehenden Texte enthalten Informationen (sie sind Bedeutungsträger); der Gesamttext der jeweiligen Zeitungsausgabe wird zerlegt in relevante Teil-Elemente (hier: Anzeigen). - Die Analysierenden haben Fragestellungen, zu denen sie aus den Texten gezielt Informationen sammeln und ordnen (hier: Informationen über angebotene Aufteilung in Zähleinheiten BEISPIEL <?page no="305"?> 306 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 306 Mietwohnungen, die beispielsweise zusammengefasst werden zu einer systematischen Übersicht über die interessierenden Angebote). - Damit nicht jeder der arbeitsteilig lesenden vier Studierenden etwas anderes nach anderen Kriterien heraussucht und ordnet, sondern die Ergebnisse ihrer Durchsicht und Zusammenfassung miteinander vergleichbar werden und „intersubjektive Geltung“ beanspruchen können, benötigen sie eine Art „Lese- und Zuordnungs-Anweisung“. Dies ist nichts anderes als das oben beschriebene Kategorienschema: unterschiedliche Formulierungen in den Anzeigentexten werden nach semantischer Ähnlichkeit in gleiche „Schubladen“ eingeordnet (hier z. B.: Miethöhe, geforderte Kautionszahlung, Größe der Wohnung in qm und Zimmerzahl, Lage, Ausstattung, frühestmöglicher Einzugstermin etc.). - Die arbeitsteilig Lesenden benötigen auch Kriterien, welche Textteile überhaupt analysiert werden sollen (hier: welche Anzeigen überhaupt interessant sind: etwa nur Miet-, nicht Kaufangebote; nur Wohnungen mit mindestens 4 Zimmern; nur Wohnungen, die weniger als 1000 € Warmmiete kosten). - Für jeden Textteil (jede infrage kommende Anzeige) wird das Leseergebnis systematisch protokolliert (etwa in einen gemeinsam erarbeiteten Übersichtsbogen oder eine Excel-Tabelle eingetragen). - Alle Protokolle werden zusammenfassend und vergleichend ausgewertet (Welche Angebote sind am günstigsten? Wie viele sind überhaupt interessant? etc.). 7.1.1 Das (vereinfachte) Modell sozialer Kommunikation Die Forderung nach Intersubjektivität ist im Zusammenhang mit der Inhaltsanalyse leicht aufgestellt, aber schwer zu verwirklichen. Mit dem Prozess der Übermittlung und der Deutung von Zeichen, die eine bestimmte Information enthalten (hier speziell: von sprachlichen Zeichen), befasst sich die Informationswissenschaft (vgl. z. B. Seiffert 1968, Maletzke 1981, v. Saldern 1989). Das dort entwickelte Modell sozialer Kommunikation soll im Folgenden in einer stark vereinfachten Version vorgestellt werden. 244 Kommunikation wird nach diesem Modell als Zeichenverkehr zwischen „Sender“ und „Empfänger“ verstanden. Hierbei ist der Sender die Quelle einer Botschaft (z. B. eine Person, die einen Satz ausspricht). Die „gesendeten Zeichen“ stellen die Nachricht dar, die übermittelt werden soll (z. B. die Worte des gesprochenen Satzes, die eine bestimmte Bedeutung repräsentieren); Empfänger ist derjenige, der die Nachricht, die Information aufnimmt (z. B. derjenige, der den gesprochenen Satz hört). Hinzu kommt noch als weitere Notwendigkeit die Existenz eines Übertragungsmediums (z. B. die Luft, die vom Sprecher produzierte Schwingungen als Schall über- 244 In erweiterter Form wird darauf bei den Erörterungen über das Erhebungsinstrument Befragung zurückzukommen sein. Modell sozialer Kommunikation <?page no="306"?> 307 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 307 trägt, so dass diese vom Ohr des Empfängers aufgefangen werden können). Im Falle schriftlicher Kommunikation tritt an die Stelle des gesprochenen Wortes das geschriebene Wort (die Symbolisierung durch Laute wird durch Symbolisierung in Form von Schriftzeichen ersetzt), das Übertragungsmedium ist dann z. B. das Papier, auf dem die Schriftzeichen erkennbar sind. Zur Veranschaulichung sei ein kurzer Kommunikationsausschnitt aus einem Interview (z. B. Intensivinterview einer Interviewerin mit einem Befragten anhand eines Leitfadens mit offenen Fragen, d. h. Fragen ohne vorgegebene Auswahlantworten) herausgegriffen: Die Interviewerin (I) hat in ihrem Kopf eine bestimmte Fragestellung, ein bestimmtes Problem (angeregt z. B. durch ein Stichwort im Interviewleitfaden), und zwar zunächst als ihren subjektiven gedanklichen Vorstellungsinhalt (G): 1) I denkt G 1 . Die Interviewerin kleidet dieses Gedachte in Worte, d. h. sie übersetzt den gedanklichen Frageinhalt in eine Frageformulierung: sie verschlüsselt ihre Vorstellungen in sprachliche Zeichen, in Worte (W): 2) I verschlüsselt G 1 in W 1 . Das Ergebnis dieses Übersetzungsvorgangs spricht die Interviewerin aus, d. h. sie stellt dem Interviewten eine Frage. Die verschlüsselten Informationsinhalte W 1 werden über ein Medium zum Empfänger übertragen (hier: Schallwellen). Der Befragte (B) hört die gesprochenen Worte und übersetzt sie entsprechend seinem Verständnis; es entsteht eine gedankliche Vorstellung in seinem Kopf: 3) B entschlüsselt W 1 in G 2 . Das Ergebnis dieser Entschlüsselung ist das Frageverständnis von B, d. h. das, was B unter der von I gestellten Frage versteht. Im Idealfall-- wenn die Verschlüsselungssysteme von I und B exakt übereinstimmen- - kann G 2 mit G 1 identisch sein. Aufgrund seines Frageverständnisses entwickelt der Befragte nun den gedanklichen Vorstellungsinhalt einer Antwort, die er dann in sprachliche Zeichen übersetzt und der Interviewerin mitteilt: 4) B denkt G 3 . 5) B verschlüsselt G 3 in W 2 . Die formulierte Antwort W 2 ist also eine Reaktion auf die Frage W 1 , so wie sie vom Befragten verstanden wurde; kurz ausgedrückt: W 2 ist eine Antwort auf G 2 , nicht auf G 1 (denn G 1 kennt der Befragte ja gar nicht). Die Interviewerin hört die Antwort und übersetzt sie in ihr Antwortverständnis: 6) I entschlüsselt W 2 in G 4 . Wir haben es also mit zwei in Worte gefassten Botschaften (W 1 und W 2 ), aber mit vier gedanklichen Vorstellungsinhalten zu tun (G 1 bis G 4 ). Wenn nun die Interviewerin die Antwort des Befragten auf ihre Frage verarbeitet, dann setzt sie G 1 (ihr Frageverständnis) mit G 4 (ihrem Antwortverständnis) in Beziehung. Der BEISPIEL <?page no="307"?> 308 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 308 Befragte dagegen hat G 2 (sein Frageverständnis) mit G 3 (seinem Antwortverständnis) in Beziehung gesetzt. Um sich verständigen zu können, müssen die Gesprächspartner voraussetzen, dass G 1 mit G 2 und dass G 3 mit G 4 weitgehend übereinstimmen, sie müssen von der Fiktion ausgehen, dass beide Gesprächspartner den Worten W 1 sowie den Worten W 2 weitgehend dieselbe Bedeutung zuschreiben. Obwohl diese Fiktion kaum realistisch ist, klappt erstaunlicherweise die Kommunikation meist einigermaßen; aber eben nur meist und nur einigermaßen, nämlich dann, wenn beide Gesprächspartner-- wie es treffend in der Umgangssprache heißt-- „dieselbe Sprache sprechen“. Dass Fälle nicht einwandfrei gelingender Kommunikation aber gar nicht so selten eintreten, illustrieren manche Diskussionen, in denen die Diskutierenden erhebliche Zeit völlig aneinander vorbeireden können, ohne dies zu bemerken. Nach längerer Debatte erweist sich dann möglicherweise die vermeintliche Meinungsverschiedenheit als ein Missverständnis und löst sich im besten Fall in Wohlgefallen auf. Ein Beispiel aus dem Wissenschaftsbereich ist der Zuverlässigkeitstest beim Vercoden im Zusammenhang mit der empirischen Inhaltsanalyse: Zwei verschiedene Personen (Vercoder) haben die Aufgabe, den gleichen Text nach den gleichen Regeln einem exakt definierten System von Kategorien unabhängig voneinander zuzuordnen. Die Bedingungen dafür, dass die Zuordnung von W 1 (Text) zu W 2 (Kategorien) bei beiden Vercodern zum gleichen Ergebnis führt (d. h. dass die mit W 1 assoziierten gedanklichen Vorstellungsinhalte G bei ihnen übereinstimmen), sind hier erheblich günstiger als in der alltäglichen Kommunikation oder bei der Befragung: Die verwendeten Begriffe (Kategorien) sind definiert; die Zuordnungsregeln sind eindeutig formuliert; die Vercoder sind für ihre Aufgabe speziell geschult worden. Dennoch wird es eine ganze Reihe unterschiedlicher Zuordnungen geben; d. h. die gleichen Worte rufen in den Vercodern trotz aller Versuche der „Objektivierung“ unterschiedliche gedankliche Inhalte („Vorstellungsbilder“) hervor. Die angedeuteten Schwierigkeiten verstärken sich noch, wenn Texte analysiert werden, die aus einem anderen sozialen Kontext stammen als dem der Forscher und/ oder Vercoder (z. B. historische Texte, Flugblätter/ Tagebücher von Angehörigen sozialer Randgruppen). In solchen Fällen sollte der eigentlichen empirischen Inhaltsanalyse eine semantische Analyse der in den Texten vorkommenden Begriffe vorausgehen, um die tatsächliche Bedeutung der sprachlichen Zeichen festzustellen. Zusammengefasst: „Objektivität“ als Definitionsmerkmal der empirischen Inhaltsanalyse kann sich nur beziehen auf eine „Objektivierung“ des Verfahrens der systematischen Datengewinnung durch vorab formulierte explizite Regeln des Vorgehens. Das gilt im Übrigen nicht nur für die Inhaltsanalyse, sondern für sämtliche Methoden der standardisierten empirischen Forschung. Verständnis und Missverständnisse BEISPIEL Vorbereitung: semantische Analyse Objektivierung des-Verfahrens <?page no="308"?> 309 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 309 7.1.2 Die Entwicklung des inhaltsanalytischen Kategoriensystems „Die Analyse von Inhalten geschieht durch ein Kategoriensystem, nach dem die Einheiten des Materials in den problemrelevanten Dimensionen codiert werden“ (Friedrichs 1982, 316). „Da die Kategorien die Substanz der Untersuchung enthalten, kann eine Inhaltsanalyse nicht besser sein als ihre Kategorien“ (Berelson 1952, 147). Beide Zitate zeigen die zentrale Bedeutung des inhaltsanalytischen „Werkzeugs“ Kategoriensystem, das vor Beginn der Textanalyse aus der Fragestellung der Forschung heraus und unter Rückgriff auf empirisch fundiertes Wissen sorgfältig erarbeitet werden muss. Eine gründliche theoretische Aufarbeitung des Forschungsproblems ist, wie bei anderen empirischen Strategien auch, eine notwendige Voraussetzung für die Konstruktion eines brauchbaren Kategorienschemas als Instrument der inhaltsanalytischen Datengewinnung. Diese theoretische Aufarbeitung ist unbedingt vor der Datenerhebung erforderlich; sie kann nicht erst im Laufe der Analyse nachgeholt werden. Um die „problemrelevanten Dimensionen“ der Untersuchung zu ermitteln, wird man-- von einer präzisen Formulierung des Forschungsproblems ausgehend-- eine dimensionale Analyse durchführen und vorhandenes theoretisches sowie empirisches Wissen zum Gegenstandsbereich auswerten, damit die geeigneten Begriffe (hier begriffliche Kategorien genannt) festgelegt und definiert werden können. Diese sollen dann die gezielte Wahrnehmung der Vercoder bei der systematischen Durchsicht der Texte lenken. 245 Damit der Bezug zu den bisherigen allgemeiner gehaltenen Vorüberlegungen deutlich wird, möge sich der Leser nochmals den Ablauf des Forschungsprozesses vergegenwärtigen (vgl. Kapitel 2.2): Nachdem der Forscher aufgrund von Relevanzgesichtspunkten eine Reihe bedeutsamer Aspekte (Eigenschaften, Merkmale) des Gegenstandsbereichs bestimmt hat (Dimensionen A, B,-…; vgl. „dimensionale Analyse“, Kapitel 3.1/ 3.2), werden diese auf der sprachlichen Ebene durch geeignet definierte Begriffe repräsentiert (Begriffe A, B,-…; vgl. Kapitel 3.4). Im Zuge der Operationalisierung sind für jede der begrifflich bezeichneten Merkmalsdimensionen Indikatoren auszuwählen (a 1 , a 2 ,-…; b 1 , b 2 ,-…; vgl. Kapitel 4.1/ 4.3), die zusammen mit den zu unterscheidenden Ausprägungen die Variablen der Untersuchung darstellen (vgl. Kapitel 5.3.2). Den „Merkmalsdimensionen“ in der bisherigen Ausdrucksweise entsprechen nun bei der Inhaltsanalyse von Texten die Kategorien, d. h. die Oberbegriffe, denen die in den Texteinheiten zum Ausdruck kommenden Inhalte zugeordnet werden. 245 Wer selbst eine empirische Inhaltsanalyse durchführen möchte, sollte diesem zentralen, die Qualität der Resultate in hohem Maße determinierenden Arbeitsschritt- - Entwicklung des Kategoriensystems- - besondere Sorgfalt widmen. In einem von Wirth und Lauf (2001) herausgegebenen Reader werden in Teil II (Kategorienbildung) von mehreren Autoren Verfahren vorgestellt, die sie in eigenen Forschungen angewandt haben. Hier findet der Interessierte wertvolle Hinweise. Wichtigkeit des Kategoriensystems Vorbereitung: dimensionale Analyse VERTIEFUNG <?page no="309"?> 310 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 310 „Indikatoren“ für die mit den Kategorien bezeichneten Sachverhalte (Inhalte) sind die sprachlichen Realisationen (z. B. Worte, Sätze). „Merkmalsausprägungen“ (oder Variablenausprägungen) werden in diesem Zusammenhang im Allgemeinen „Unterkategorien“ genannt. Zur Veranschaulichung kann an das in Kapitel 3.2 eingeführte Beispiel einer Untersuchung zum Zusammenhang von sozialer Herkunft und späterem Berufserfolg angeknüpft werden: - Angenommen, es solle einerseits durch Erhebung von Daten bei einer Gruppe von Personen (Befragung) erforscht werden, wie die empirische Situation aussehe (Untersuchung der sozialen Realität). - Andererseits sollen Informationen darüber gewonnen werden, welche Auffassungen gesellschaftliche Gruppen zu dem genannten Problem vertreten (politische Parteien, Gewerkschaften und andere berufsbezogene Organisationen, Interessenverbände; Äußerungen in deren Grundsatz- und eventuell Wahlprogrammen, in deren Veröffentlichungen, Pressediensten usw.). Nach welchen Aussageinhalten müssten wir suchen, und welche Daten müssten wir erheben, um Sichtweise und Zielvorstellungen der genannten Organisationen mit den realen Gegebenheiten vergleichen zu können? Die Fragestellung impliziert für beide Untersuchungsperspektiven zunächst mindestens zwei grobe Dimensionen (oder Denkkategorien): - zum einen die statische Vorstellung von einer sozialen Hierarchie, in der jedes Mitglied der Gesellschaft entsprechend seinem sozialen Status „verortet“ werden kann (und die sich durch Begriffe wie „soziale Lage“, „soziale Schicht“ oder „Klassenstruktur“ bezeichnen lässt); - zum anderen die Vorstellung von einer dynamischen Veränderung dieser Hierarchie, die Idee einer mehr oder weniger starken Durchlässigkeit der Schicht- oder Klassengrenzen (was durch einen Begriff wie „soziale Mobilität“ zu erfassen ist). Damit ein solcher Sachverhalt (Hierarchie, Mobilität) überhaupt als „soziales Problem“ angesehen wird, das z. B. in den öffentlichen Meinungsäußerungen gesellschaftlicher Gruppen als Thema auftaucht und das eine nähere Untersuchung erfordert, müssen mindestens zwei Bedingungen erfüllt sein (Entstehungskontext, Kapitel 2.3): - Der Zustand, wie er wahrgenommen wird, verstößt gegen normative Vorstellungen (z. B. bei einem konservativ Denkenden: Die Mobilität ist zu groß, „alte Traditionen“ gehen verloren, es drohen Instabilität und ein „Zerfallen der gesellschaftlichen Ordnung“; oder aber: Die Mobilitätschancen sind zu gering, die Norm der Chancengleichheit für alle Bürger wird verletzt, die bestehende Hierarchie konserviert überholte Macht- und Herrschaftsverhältnisse). - Die verfügbaren Kenntnisse über die Zusammenhänge im bestehenden System (hier: über die Ursachen und die Wechselwirkungen von individueller Mobilität und gesellschaftlicher Stabilität) werden als nicht ausreichend erachtet. VERTIEFUNG <?page no="310"?> 311 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 311 Zu einer Fragestellung wie der genannten existieren nun vielfältige und widersprüchliche Thesen, Vermutungen und Befürchtungen (Informationssammlung für die dimensionale Analyse, s. Kapitel 3.2). Etwa: Die soziale Hierarchie wird dadurch konserviert, dass der Status des Elternhauses auf die Nachfolgegeneration „vererbt“ wird. Oder entgegengesetzt: Die gegenwärtige Gesellschaft ist hochmobil, sie ist gekennzeichnet durch „Entschichtungsvorgänge“, durch „Deklassierungen und Wiederaufstiege“, wobei der Schule (über die Vermittlung aufstiegsbestimmender Berufsqualifikationen) die Funktion eines „bürokratischen Zuteilungsapparates“ von Lebenschancen zukommt (Schelsky 1962, siehe Kapitel 3.2). Ferner gibt es zum Problem eine Reihe von Theorien (z. B. Sozialisations- und Schichtungstheorien) sowie empirische Einzelbefunde, auf die man aufbauen und aufgrund derer man untersuchungsleitende Hypothesen entwickeln kann. Die Ausformulierung entsprechender Hypothesen führt uns zu problemrelevanten Begriffen wie soziale Stellung des Elternhauses (Berufsprestige, Bildungsstandard, Einkommen usw.), Schulbildung und Berufserfolg der Kinder sowie- - bei einem Vergleich des Elternstatus mit dem der erwachsenen Kinder- - Mobilität, Mobilitätshemmnisse usw. Diese Begriffe sind für das weitere Vorgehen präzise zu definieren. Bis zu diesem Punkt sind die forschungsvorbereitenden Arbeitsschritte für beide Teiluntersuchungen (empirische Beschreibung der sozialen Situation sowie Erhebung der dazu vertretenen Auffassungen) identisch. Unterschiede ergeben sich erst durch die unterschiedliche Art und Weise der Operationalisierung der Begriffe im Hinblick auf die Verfahren Befragung bzw. empirische Inhaltsanalyse. Bei der Befragung geschieht die Operationalisierung dadurch, dass als Informationen über das Vorliegen der mit den Begriffen bezeichneten Sachverhalte (soziale Herkunft, Bildung, Berufserfolg etc.) die Antworten der Befragten herangezogen werden, die Auskunft über die reale Situation geben sollen: Also ist für jede Teildimension des begrifflich bezeichneten Sachverhalts mindestens eine Frage zu stellen (zur sozialen Herkunft etwa je eine Frage nach der genauen Berufsposition des Vaters und der Mutter, dem ungefähren Haushaltseinkommen, nach dem Bildungsabschluss des Vaters und der Mutter, nach den Leistungsorientierungen im Elternhaus usw.). Ferner ist zu entscheiden, ob und in welcher Differenzierung das mögliche Antwortspektrum vorstrukturiert werden soll („Variablenkonstruktion“); etwa bei der Berufsposition: genaue Angabe der Berufstätigkeit nach Berufsbezeichnung, Art der Tätigkeit und Branche; oder bei Haushaltseinkommen: unter 500 €, bis zu 1000 €, bis zu 1500 € usw. Für die empirische Inhaltsanalyse von Texten geschieht die Operationalisierung auf eine etwas andere Weise. Nach der Definition der Begriffe für die problemrelevanten Dimensionen sind Text-Indikatoren für die Sachverhalte zu bestimmen, über die Daten erhoben werden sollen. Die interessierenden „Sachverhalte“ sind ja in diesem Fall nicht empirische Gegebenheiten wie soziale Herkunft, Bildung und Berufserfolg von Personen, sondern Aussagen über den Zusammenhang zwischen sozialer Herkunft und Schulerfolg, über Mobilität, über soziale Hierarchien, über Chancengleichheit oder -ungleichheit usw. Die Variablenkonstruktion geschieht jetzt dadurch, dass zunächst Oberbegriffe (Kategorien) formuliert werden, die mit den definierten Begrif- Operationalisierung für die Befragung Operationalisierung für Inhaltsanalyse <?page no="311"?> 312 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 312 fen für die problemrelevanten Dimensionen identisch sein oder diese weiter in Teildimensionen untergliedern können. Zusätzlich ist anzugeben, welche Unterscheidungen je Kategorie vorgenommen werden sollen (Unterkategorien). Die Kategorien sind also das Äquivalent zu den Fragen im Instrument Fragebogen, die Unterkategorien sind das Äquivalent zu den Antwortvorgaben. Der interessierende Begriff sei „Chancengleichheit“. An Kategorien im Text seien hier unterschieden: - Dimension 1: normative Aussagen zur Chancengleichheit, - Dimension 2: deskriptive Aussagen zur Chancengleichheit Als weitere Differenzierung (=- Unterkategorie, beobachtbare „Ausprägung“ der Dimension) sei vorgesehen: zu 1 (normative Aussagen): Chancengleichheit - wird als unverzichtbarer gesellschaftlicher Grundwert angesehen - wird als erstrebenswert, aber nicht vollständig erreichbar angesehen … bis zu-… - wird strikt abgelehnt; zu 2 (deskriptive Aussagen): Chancengleichheit - ist voll und ganz verwirklicht - ist größtenteils verwirklicht … bis zu-… - ist überhaupt nicht verwirklicht. Man sieht: An die Stelle des Fragebogens, der das Verhalten des Interviewers lenkt und der vorschreibt, welche Fragen zu stellen und wie die Antworten zu protokollieren sind, tritt bei der Inhaltsanalyse eine Art „Textbeobachtungsschema“, also ein Kategoriensystem, das die Aufmerksamkeit der kodierenden Person(en) bei der Textdurchsicht lenkt und das vorschreibt, welche Aussageinhalte in welcher Weise systematisch zu protokollieren sind. Die Ähnlichkeit beider Verfahren lässt sich im Falle eines standardisierten Interviews weiter verdeutlichen: Bei der Befragung liest die Interviewerin/ der Interviewer den Fragewortlaut vor und notiert zu jeder Frage, ob die/ der Befragte (=-Erhebungseinheit) geantwortet hat und falls ja, welche der Antwortvorgaben gewählt wurde: Das Ergebnis ist für jede(n) Befragte(n) ein vollständig ausgefüllter Fragebogen als Rohdatenbeleg. Im Falle der systematischen Inhaltsanalyse hat die Vercoderin/ der Vercoder (analog zum Fragebogen) ein begriffliches Kategoriensystem als Abfrageschema an den Text vorliegen. Die Vercoderin/ der Vercoder liest nun einen Textabschnitt (=-Erhebungs- Oberkategorien und Unterkategorien BEISPIEL Vergleich Fragebogen/ Kategoriensystem <?page no="312"?> 313 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 313 einheit oder Zähleinheit) 246 und stellt zu jeder Kategorie fest, ob im Textabschnitt hierzu etwas ausgesagt wird und wenn ja, welche der vorgesehenen Unterkategorien zutrifft. Das Ergebnis ist für jeden Textabschnitt ein vollständig ausgefülltes Kodierblatt als Rohdatenbeleg (mit den Vercoder-„Antworten“ auf sämtliche inhaltsanalytischen Kategorien). Inhaltsanalytische Vorgehensweisen sind allerdings nicht nur notwendig bei dem eigentlichen Verfahren der empirischen Inhaltsanalyse als Strategie der Datengewinnung. Man benötigt sie auch bei der Anwendung der Verfahren Beobachtung und Befragung. So setzt z. B. die Entwicklung von Antwortvorgaben zu einer Frage im standardisierten Fragebogen eine vorgezogene- - gedankliche- - Inhaltsanalyse des potenziellen Antwortspektrums voraus. Das typische Vorgehen kann am Beispiel einer „Mini-Inhaltsanalyse“ von Antworten auf eine offene Frage in einem Interview (d. h. eine Frage ohne Antwortvorgaben) veranschaulicht werden. In einer Befragung zur Wohnsituation in Köln und Umgebung (Kromrey 1981) wurde folgende sehr allgemein gehaltene und mehrere Dimensionen des Begriffs „Wohnsituation“ ansprechende Frage gestellt: „Bitte sagen Sie mir jetzt noch, was Ihnen an Ihrem Wohngebiet besonders gut gefällt und was Sie für besonders schlecht halten.“ Die Frage war bewusst so allgemein gestellt worden, um zu erfahren, welche Wohngebietsmerkmale von den Befragten spontan als besonders gut und welche spontan als besonders schlecht eingestuft werden (bewusstseinsmäßige Präsenz von Merkmalen der Wohngebietsgüte als Indikator für individuelle Bedeutsamkeit dieser Merkmale). Das Vorgehen bei der Auswertung offener Fragen ist relativ einfach, aber auch zeitaufwendig. Um eine Mini-Inhaltsanalyse der Antworten im Hinblick auf die angesprochenen Dimensionen der Bewertung der Wohnsituation durchführen zu können, wird man sich zunächst auf die Hypothesen stützen, die der gesamten Untersuchung zugrunde liegen. Auf diese Weise bestimmt man, welche Bewertungsdimensionen für die Auswertung wichtig sind (etwa Wohnlage, Infrastruktur, soziale Umwelt). Danach kann man bei nicht zu großen Datenmengen zunächst sämtliche Antworten, die einen bestimmten Aspekt ansprechen, in Stichworten (geordnet) auflisten. Dabei wird sich herausstellen, a) ob die theoretisch ermittelten Bewertungsdimensionen ausreichen und b) ob sie hinreichend oft in den Antworten vorkommen, um beibehalten zu werden. Aufgrund der so gewonnenen ausführlichen Liste der in den Antworten der Befragten vorkommenden Stichworte und der Häufigkeit ihres Vorkommens (Strichliste) besteht die Möglichkeit, geeignete Oberbegriffe (theoretische Dimensionen) sowie die zu unterscheidenden Ausprägungen festzulegen. Danach kann die endgültige Vercodung der Antworten stattfinden. 246 Zur Abgrenzung der Zähleinheiten vgl. Kapitel 7.1.4. Inhaltsanalytische Vorgehensweise in anderen Kontexten BEISPIEL Inhaltsanalyse offener Fragen <?page no="313"?> 314 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 314 Im Falle sehr großer Datenmengen wird man allerdings das Anfertigen einer Stichwort- und Strichliste auf eine Stichprobe aus der Gesamtzahl der Interviews beschränken und auf dieser Basis das Kategoriensystem zur Vercodung der Antworten aufstellen. Dieser letztere Fall entspricht dem Vorgehen bei einer „echten“ Inhaltsanalyse: Zunächst wird aufgrund der theoretischen Vorüberlegungen ein Entwurf eines Kategorienschemas erstellt; danach wird das Schema anhand einer kleinen Stichprobe von Texten angewendet (Pretest), aufgrund der gemachten Erfahrungen verbessert und endgültig formuliert. Der Vercodungsplan für die genannte Frage zur Bewertung der Wohnsituation sah wie folgt aus: Kategorien: Stichworte: - Lage kurze Entfernungen, zentrale Lage, Stadtlage - Ruhe, Luft gute Luft, wenig Verkehrslärm - Verkehrssituation gute Verkehrsverbindungen, gute Straßen, Autobahnnähe, Parkmöglichkeiten, Straßenbahn - Natur Parks, Gärten, landschaftlich schöne Umgebung, Grün - Menschen, Leben Bewohner, Kommunikation, Kontakte, Geselligkeit, soziale Mischung, Nachbarn, Altstadtleben - Ortsbild, Bebauung Rheinpromenade, Altstadtbauten, historische Struktur, Gepflegtheit, Bebauungsdichte, Architektur, Aufgelockertheit - Einkaufsmöglichkeiten Geschäfte, Warenangebote, Tante-Emma-Läden in der Nähe - Infrastruktur für-Kinder Schulen, Kindergärten, Spielplätze - Infrastruktur für-Freizeit kulturelle Veranstaltungen, Gastronomie, Kino, Bowling, Diskothek - sonstige Infrastruktur Schwimmbad, Gehwege Ausprägungen zu jeder Kategorie: besonders gut-- sowohl gute als auch schlechte Aspekte genannt-- besonders schlecht-- Kategorie kommt in der Antwort nicht vor. 247 247 Eine ausführliche Behandlung von Ansätzen zur Auswertung offener Interviewfragen (insbesondere mit EDV-Unterstützung) findet sich in Kuckartz 2005; geeignete Programme sind z. B. das darin beschriebene MAX-QDA oder Atlas.ti. Kategorienschema aus theoretischen Überlegungen BEISPIEL <?page no="314"?> 315 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 315 7.1.3 Anforderungen an das Kategoriensystem Anhand des im vorigen Abschnitt vorgestellten Beispiels lassen sich bereits einige Feststellungen zur Kategorienbildung treffen. 248 Erstens. Das inhaltsanalytische Kategoriensystem ist immer selektiv im Hinblick auf bestimmte Fragestellungen; d. h. - es werden sich nicht alle Einzelheiten, die im Text enthalten sind, auch in der Differenzierung des Kategorienschemas wiederfinden; 249 - das Kategorienschema muss nicht eine vollständige Erfassung hinsichtlich aller im Text auftretenden Inhalte erlauben, sondern es muss so differenziert sein, dass es zum einen vollständig alle interessierenden Bedeutungsdimensionen erfasst und zum anderen Vergleiche zwischen den Texteinheiten des Untersuchungsmaterials erlaubt. 250 Im Zusammenhang mit dieser prinzipiellen Selektivität stellt sich die Anforderung, dass die relevanten Untersuchungsdimensionen klar bestimmt und die Kategorien auf sämtliche relevante Dimensionen bezogen sein müssen. Ferner sind die Kategorien so präzise zu definieren, dass eindeutig feststellbar ist, ob ein Textelement in die betreffende Kategorie fällt. Zweitens. Das Kategorienschema muss bestimmten formalen Anforderungen gerecht werden: - Jede im Kategorienschema enthaltene Kategorienreihe (d. h. Oberkategorie mit Unterkategorien als Merkmalsausprägungen) muss aus einem einheitlichen Klassifikationsprinzip abgeleitet sein, sie darf sich nur auf eine Bedeutungsdimension beziehen (vgl. „Prinzip der Vergleichbarkeit“, Kapitel 5.3.3). 251 - Die einzelnen Kategorien müssen einander ausschließen. Das gilt sowohl für die eigentlichen Kategorien (Oberbegriffe), da sonst Unklarheiten entstehen könnten, welcher Merkmalsdimension eine Äußerung zuzuordnen ist. Das gilt aber 248 Ein umfassend dokumentiertes Forschungsbeispiel findet sich in: Kromrey/ Jansen u. a. (1984). 249 Im obigen Beispiel ist „Menschen und Leben“ eine einzige Kategorie, obwohl in den Antworten eine sehr große Vielfalt anzutreffen ist: Die Äußerungen beziehen sich zum Teil auf Interaktionen, auf die Sozialstruktur, auf bestimmte Einzelpersonen, auf den Verhaltensstil von Personengruppen usw. 250 Beispiel: Wenn jemand das Wetter in seiner Wohngegend bemängelt haben sollte, so ist diese Wertung im Hinblick auf die städtebaulich interessierenden Dimensionen irrelevant. 251 Beispiel: Die zitierte Frage bezieht sich auf bewertete Eigenschaften von Wohngebieten. Falls in diesem Zusammenhang etwas über Menschen und Leben ausgesagt wird, dann soll dies als Eigenschaft des Wohngebiets gelten; es darf nicht mit der Bewertung einer bestimmten Person vermengt werden. Wäre die Frage von den Befragten so aufgefasst worden, dass sie sowohl zum Wohngebiet etwas Wertendes aussagen als auch über ihre persönliche Situation, über ihre persönlichen Kontakte mit einzelnen anderen Personen, dann könnten solche Äußerungen entweder außer Acht gelassen werden, oder-- falls man sie auswerten wollte-- es müsste eine weitere Kategorie gebildet werden, die sich auf diese Bewertungsdimensionen bezieht. Kategoriensystem ist selektiv formale Anforderungen nur eine Bedeutungsdimension Kategorien müssen einander ausschließen <?page no="315"?> 316 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 316 auch für die Unterkategorien (die Ausprägungen). Zusammengefasst: Jede auf eine interessierende Bedeutungsdimension bezogene sprachliche Einheit muss sich einer und nur einer Kategorie und Unterkategorie zuordnen lassen (vgl. „Prinzip der Klassifizierbarkeit“, Kapitel 5.3.3). - Das Kategorienschema muss erschöpfend sein, d. h. jede für die Untersuchungsfragestellung interessierende sprachliche Einheit (aber nicht: jede sprachliche Einheit des Textes) muss sich einer der definierten Kategorien zuordnen lassen. Eine klare Bestimmung der Kategorien und ein durchsichtiger theoretischer Bezug ist eine wesentliche Voraussetzung dafür, dass wirklich alles Material, das an sich in die Kategorie gehört, dieser auch zugeordnet wird (vgl. „Prinzip der Vollständigkeit“, Kapitel 5.3.3). - Die Unabhängigkeit der Kategorien muss gesichert sein; d. h. die Einordnung einer Texteinheit in eine Kategorie darf nicht die Einordnung anderer Daten festlegen. Diese Forderung kann nicht eingehalten werden, falls Texte im Hinblick auf ein bestimmtes Merkmal nach ihrem Rang in eine Skala eingeordnet werden sollen. Die aufgeführten Regeln gelten im Übrigen nicht nur für die Inhaltsanalyse, sie gelten allgemein für jede Klassifikation von Beobachtungs- und Befragungsmaterial sowie für das Aufstellen von Kodierplänen. Im fertigen Kategorienschema bezeichnet jede Kategorie eine bestimmte Klasse von Bedeutungen (Inhalten) auf einer bestimmten Bedeutungsdimension. In den Kategorien werden die im Textmaterial auftretenden relevanten sprachlichen Einheiten unter dem Gesichtspunkt ihrer Bedeutungsgleichheit (richtiger: ihrer semantischen Ähnlichkeit) zusammengefasst. Die Vielfalt sprachlicher Ausdrucksmöglichkeiten eines bestimmten Inhalts wird somit auf Klassen semantischer Ähnlichkeiten reduziert. Um eine zuverlässige Einordnung der sprachlichen Einheiten in diese Klassen semantischer Ähnlichkeiten zu gewährleisten, sind die Kategorien operational zu interpretieren; d. h. es ist für jede Kategorie-- etwa anhand typischer Beispiele-- genau anzugeben, welche Arten von Aussagen unter die Kategorie zu subsumieren sind. Zu diesem Zweck ist es erforderlich, dass auch die Zähleinheit (=-die Untersuchungseinheit oder Kategorisierungs- oder Kodiereinheit) präzise definiert und somit für den Kodierer eindeutig abgrenzbar ist (vgl. dazu Kapitel 7.1.4). Die gebildeten Kategorien müssen sich nämlich auf die kleinsten im Text zu unterscheidenden Einheiten-- die Zähleinheiten-- beziehen lassen. Möglichkeiten der Operationalisierung (der „operationalen Interpretation“) sind: - Die Kategorien werden lediglich mit einem Oberbegriff bezeichnet (Lage; Ruhe und Luft; Infrastruktur für Kinder usw.). Dem Vercoder bleibt es überlassen, nach seinem eigenen Sprachverständnis die Texteinheiten einzuordnen. Dieses Verfahren dürfte eine sehr geringe Inter-Coder-Zuverlässigkeit aufweisen. Kategorienschema muss erschöpfend sein Kategorien müssen voneinander unabhängig sein Zusammenfassung nach Bedeutungsgleichheit präzise definierte Zähleinheit Möglichkeiten der Operationalisierung <?page no="316"?> 317 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 317 - Die Kategorien werden mit einem Oberbegriff bezeichnet, zusätzlich werden typische Beispiele aufgeführt und Grenzfälle aufgezeigt. - Alle zu einer Kategorie gehörigen sprachlichen Elemente werden aufgelistet. Dies kann durch eine Stichwortliste zu jeder Kategorie geschehen, die man im Verlaufe der Vercodung fortlaufend ergänzt, falls neue Stichworte auftauchen. - Der Rahmen einer Kategorie wird allgemein beschrieben, auch in Bezug zu anderen Kategorien, ohne dass einzelne Elemente aufgezählt würden. Beispiel 1: Kooperation =- liegt vor, wenn mindestens zwei Partner aktiv handeln und dabei ein gemeinsames Ziel oder Teilziel verfolgen und dabei weder Konkurrenz noch Dissens über ihre Aktivitäten und Ziele besteht. Beispiel 2: In Kapitel 5.2.1 wurde zur Illustration, wie leicht ein oberflächlicher Umgang mit statistischen Angaben zu fehlerhaften Schlussfolgerungen führen kann, der Fall einer „Weiterverwertung“ der jährlich durch das Institut für Museumskunde erhobenen Museumsbesuchszahlen geschildert. Die in diesem Zusammenhang vorgenommene Definition des Begriffs „Museum“ kann als eine Mustervorlage auch für die Präzisierung inhaltsanalytischer Kategorien gelten (Definitionsprinzip: Angabe von Merkmalen, die Organisationen vom Typ Museum aufweisen müssen, und Nennung einiger Negativbeispiele für Fälle, die nicht zu berücksichtigen sind; vgl. Kapitel 3.5.3). 7.1.4 Phasen der Inhaltsanalyse 252 a) Festlegung der Art oder der Klasse von Texten, die man für eine Fragestellung analysieren will, etwa - Bundestagsprotokolle 1950-1960, 1970-1980 und 1990-2000; - Deutschlesebücher für das 5.-7. Schuljahr, die 2005 in bayerischen, nordrhein-westfälischen und Brandenburger Hauptschulen benutzt wurden; - Kommentare zum Thema „Arbeitslosigkeit“ in der FAZ, Welt, Süddeutschen Zeitung, in der taz und in „Bild“ vom 1.7.2008 bis 30.6.2009; - politische Kabarett-Texte aus Berlin, Hamburg, Düsseldorf und München 1950-55 und 2000-2005. Wesentlich bei der Entscheidung über die Festlegung ist: - dass die Texte relevant für den Zweck der Untersuchung sind, - dass sie existieren und - dass sie zugänglich sind. 252 Nach Harder 1974, 236 ff. Eine differenzierte methodische Darstellung der Arbeitsschritte mit hilfreichen Beispielen findet sich bei Schreiber 1999. BEISPIELE Textmaterial festlegen <?page no="317"?> 318 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 318 Dies wiederum ist nur zu entscheiden, wenn man - die Merkmale der Texte eindeutig definiert (Was z. B. soll als „Nachricht“, was als „Kommentar“ gelten, was als „politischer Kabarett-Text“? ), - den Zeitraum ihrer Entstehung oder Verwendung (im Zweiten Weltkrieg entstandene oder gesungene Soldatenlieder? ) oder Publizierung genau festlegt. b) Definition einer Stichprobe oder Teilgesamtheit aus der Klasse der festgelegten Texte. Diese entfällt dann, wenn man nur einen zu analysierenden Fall hat (etwa einen Roman) oder wenn die Gesamtheit der Fälle berücksichtigt werden soll (etwa das Gesamtwerk eines Schriftstellers). Soweit sachlich erforderlich und kostenmäßig vertretbar, sollte eine Zufallsstichprobe gezogen werden. Dann gelten alle Regeln und Formen der Stichprobentheorie, insbesondere soweit sie die Schichtung und Mehrstufigkeit betreffen. Soll eine Auswahl aus allen Zeitungen der BRD für den gesamten Zeitraum seit 1949 gezogen werden, ist ein mehrstufiges Vorgehen zweckmäßig, etwa: - 1. Stufe: Auswahl aus der Gesamtheit der Gemeinden, in denen Zeitungen erscheinen; - 2. Stufe: sofern in bereits ausgewählten Gemeinden mehrere Zeitungen erscheinen-- je Gemeinde Auswahl eines Zeitungstitels; - 3. Stufe: Auswahl bestimmter Nummern der Zeitungen, die jetzt noch „im Rennen“ sind (z. B. jede 20. Ausgabe). - Möglicherweise wäre aber auch eine Kombination von geschichteter und mehrstufiger Auswahl sinnvoll: - 1. Stufe: die Gesamtheit aller erscheinenden Zeitungen (Verzeichnis des Verlegerverbandes) wird in drei Gruppen eingeteilt: a) in die kleine Anzahl von Zeitungstiteln mit sehr hoher Auflage (alle werden berücksichtigt), b) die mittelgroße Anzahl von Titeln mit durchschnittlicher Auflage (Auswahlsatz 40 %) und schließlich c) die große Zahl von Titeln mit kleiner Auflage (Auswahlsatz 10 %); - 2. Stufe: Auswahl bestimmter Nummern der Zeitungen, die in Stufe 1 ausgewählt worden sind (z. B. jede 20. Ausgabe). Allgemein ist die Auswahl nach vier Typen von Gesichtspunkten zu treffen: - Regionalität: Länder, Städte, Messeplätze usw.; - Zeit, Periodizität: Kalenderdaten, Erscheinungsfolgen, Jahre, Kriege usw.; - Quellen: Verfasser, Titel, Publikation, Eigentümer, Empfänger (von z. B. Briefen); - inhaltliche Gesichtspunkte: etwa Auswahl der Themen von Zeitungsberichten, aber auch formale Gesichtspunkte wie die weitere Unterteilung der Publikation in Seiten, Absätze usw. Auswahl BEISPIEL Auswahldimensionen <?page no="318"?> 319 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 319 c) Definition der Zähleinheit (außer im Falle einer eher „qualitativen“ Textdurchsicht, wo es nur darum geht, die „interessanten“ Textstellen zu finden oder zusammenhängende Argumentationsstränge herauszuarbeiten oder einen ersten Eindruck vom Inhalt zu gewinnen). Die Zähleinheit ist der Merkmalsträger, an dem untersucht wird, welche Ausprägungen (Unterkategorien) der zu erhebenden Merkmale (Kategorien) vorliegen. Das Ergebnis der Kodierung anhand des gesamten Kategorienschemas ist für jede einzelne Zähleinheit (für jede Texteinheit) festzuhalten, d. h. systematisch zu protokollieren. Im Zuge der Auswertung wird dann festgestellt („gezählt“), wie viele Zähleinheiten (Merkmalsträger) in eine Unterkategorie gehören. 253 Im Falle der hier behandelten systematischen empirischen Inhaltsanalyse geht es um die Zählung von Texteinheiten, um quantitative Auswertungen. Zähleinheiten eines Textes können zum Beispiel sein: - Wörter, die listenmäßig vorgegeben sind; - Wortbestandteile (Suffixe, Wurzeln usw.); - Fremdwörter, Wortarten, Wortgruppen (Idiome, Schlagworte etc.); - Sätze, Satzteile; - Textabschnitte, Artikel, Seiten; - Schlagzeilen, Überschriften; - Briefe, Reden, Aufsätze; - Minutenabschnitte von Sendungen (z. B. Nachrichten, Kommentare); - zusammenhängende Aussagen, Argumente usw., d. h. semantisch abgegrenzte Zähleinheiten. Um bei den Auszählungen (insbesondere aber bei anspruchsvolleren Zusammenhangsanalysen) die aus dem Zusammenhang des Gesamttextes herausisolierten Aussagen korrekt verstehen zu können, benötigt man im Allgemeinen zu jedem Textelement (=-zu jeder Zähleinheit) ergänzende Informationen über den Kontext, in dem sie gestanden haben. Man wird in diesem Fall also auch die entsprechende Kontexteinheit definieren müssen, aus der diese Zusatzinformationen herausgelesen werden können (s. Schreiber 1999, 87). 254 Die Zähleinheit ist-- außer bei der Klumpenauswahl (Kapitel 6.5.2)-- die letzte Stufe im Stichprobenplan: die „letztstufige Stichprobeneinheit“. 253 Der Zähleinheit in der Inhaltsanalyse entspricht beim Interview im Allgemeinen die befragte Person. Die Auswertung der Befragungsdaten besteht dann u. a. darin, dass man zählt, wie oft bestimmte Antworten vorgekommen sind. 254 Die Notwendigkeit der Erfassung ergänzender Kontextinformationen zur Sicherung der Interpretierbarkeit standardisierter Daten ist keine Besonderheit der empirischen Inhaltsanalyse. So werden auch bei Befragungen regelmäßig analoge Zusatzinformationen erhoben (insbesondere sozio-demografische Daten wie Geschlecht, Alter, Familienstand, Bildung, Beruf etc.). Definition der Zähleinheit BEISPIEL Information über Kontexteinheit <?page no="319"?> 320 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 320 Dies zeigt das obige Beispiel: Wenn auf der 2. Stufe Zeitungsausgaben in einem mehrstufigen geschichteten Verfahren ausgewählt wurden, wird üblicherweise als weitere Stufe noch die Festlegung und gegebenenfalls Auswahl von Zähleinheiten folgen: Artikel, Spalten oder Absätze, falls nicht die gesamte Zeitungsausgabe als eine große Zähleinheit gelten soll. Im Falle des Klumpenverfahrens werden dann alle Zähleinheiten der ausgewählten „Klumpen“ berücksichtigt (z. B.: Auswahleinheit =-Leitartikel in den Wochenendausgaben von Tageszeitungen; Zähleinheiten =-die Absätze in den ausgewählten Leitartikeln). d) Entwicklung eines Kategorienschemas Dies ist das Kernproblem der Inhaltsanalyse. Das Kategorienschema wird vor Durchsicht der Texte im Entwurf fertig gestellt und danach im Allgemeinen mit Hilfe einer Probeanwendung (Pretest) an einem Teil der Stichprobe noch ausgefeilt. Vor allem sind die Kategorien und Unterkategorien aufgrund der Erfahrungen dieses Prestests präzise zu definieren und mit Beispielen anzureichern. Die Definition der Zähleinheit (s. o.) ist im Falle der Inhaltsanalyse gleichbedeutend mit der Festlegung der Untersuchungseinheit im allgemeinen Fall empirischer Erhebungen. Demgegenüber handelt es sich bei den inhaltsanalytischen Kategorien (bei der Entwicklung des Kategorien-Unterkategorien-Schemas) um die methodenspezifische Art und Weise der Operationalisierung der Untersuchungsfragestellung. Man kann die Kategorientypen danach unterscheiden, ob sie eine elektronische (maschinelle) Zuordnung der Unterkategorien zu den Zähleinheiten zulassen oder nicht. Falls ja, bestehen auch für menschliche Vercoder keine semantischen Probleme. Dies ist der Fall, wenn die Kategorie durch bestimmte Buchstabenkombinationen (Worte, Namen, Bezeichnungen, Abkürzungen, Einzelbuchstaben) oder Zeichen sowie durch Zählungen (Zahl der Worte in einem Satz, Zeilenanzahl, Substantive pro Abschnitt usw.) oder Messungen (Quadratzentimeter) definiert oder identifizierbar ist. Die Inhaltsanalyse arbeitet allerdings hauptsächlich mit Kategorien, die intensional definiert sind und über den manifesten Inhalt von Texten (die „wortwörtliche“ Bedeutung) hinausreichen. e) Verschlüsselung der Zähleinheiten nach dem Kategorienschema (Vercodung) Um übereinstimmende Kodierungen zu erreichen, sind präzise Definitionen der inhaltsanalytischen Kategorien sowie eine ausreichende Schulung der Vercoder erforderlich. Im Codeblatt ist Raum für sämtliche Kategorien vorzusehen; jede Unterkategorie erhält eine Code-Nummer. Jede Zähleinheit wird mit einer Zeile im Codeblatt repräsentiert. Der Vercoder trägt je Zähleinheit ein, welche Unterkategorie für die jeweilige inhaltsanalytische Kategorie zutrifft. Wie unter c) schon geschildert, muss das Kategorienschema, damit eine sinnvolle Auswertung der codierten Daten möglich ist, für jede Zähleinheit auch Kontextinformationen umfassen. Im Beispiel „Analyse der Leitartikel in Wochenendausgaben BEISPIEL Entwicklung des Kategorienschemas Untersuchungseinheit ist Zähleinheit VERTIEFUNG Zuordnung von Codes <?page no="320"?> 321 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 321 von Tageszeitungen“ und der Zähleinheit „Absatz“ sind zumindest erforderlich: Identifikationsnummer des Leitartikels, aus dem der Absatz stammt; Thema des Leitartikels; Name der Tageszeitung; Erscheinungsdatum. f ) Analyse des codierten Materials Die Phasen a) bis e) bringen die Rohdaten des Textes in eine Form, die nun die eigentliche Analyse unter Anwendung mathematisch-statistischer Analysetechniken ermöglicht (siehe Kap. 8). 255 Diese Analyse gibt uns die Antworten auf unsere Untersuchungsfragen. Je nach Messniveau der verwendeten inhaltsanalytischen Kategorien sind neben der Häufigkeitsauszählung Tabellenanalysen, Korrelations-, Regressionsrechnungen oder Verfahren der multivariaten Statistik anwendbar. g) Prüfung der Zuverlässigkeit und Gültigkeit (ist bei allen „Phasen“ der Inhaltsanalyse im Auge zu behalten) Bei allen Messoperationen muss sich die Forscherin bzw. der Forscher ein Bild davon machen können, ob die Messwerkzeuge zuverlässig messen und ob die Messergebnisse auch das besagen, was sie besagen sollen (ob sie „gültig“ sind). Die größte Gefahr für die Zuverlässigkeit der inhaltsanalytischen Ergebnisse liegt im Einsatz mehrerer Vercoder/ innen, weil sich Unterschiedlichkeiten der Auffassung, des Sprachgefühls und der subjektiven Einstellungen zum Inhalt bei den einzelnen Vercodern auf die Codierung als subjektiv-interpretierenden Vorgang auswirken (können). Die Zuverlässigkeit zwischen Vercodern hängt somit vom Inhalt selbst, vom Kategorienschema und von der Eigenart der Texte ab (z. B. homogene/ heterogene Stile, gleiche Autoren/ unterschiedliche Autoren). Vieldeutige Kategorien führen zu größeren Abweichungen als eindeutige. Man verringert die Fehlermöglichkeiten, indem man Textbeispiele für die Unterkategorien in deren Definition aufnimmt. Das Zuverlässigkeitsproblem stellt sich natürlich auch, wenn nur eine einzige Person das gesamte Material verschlüsselt. Wie kann man wissen, ob nicht ein anderer aus demselben Material etwas anderes vercoden würde? (Kontrolle: Vercodung desselben Materials durch eine zweite Person). Außerdem wird nicht das ganze Material zum gleichen Zeitpunkt verschlüsselt; die Codierungen können aber mit fortschreitender Arbeit teilweise anders ausfallen (Ermüdungsebenso wie Lernprozesse). Es ist also zwischen der Inter-Coder-Reliabilität (mehrere Vercoder) und der Intra-Coder- Reliabilität (Übereinstimmung der Verschlüsselung beim gleichen Vercoder zu verschiedenen Zeitpunkten) zu unterscheiden. Die Frage der Gültigkeit stellt sich schwerpunktmäßig bei den Kategorien. Werden diese ohne alle Berücksichtigung des Materials gebildet und endgültig so beibehalten, besteht die Gefahr, dass das Material wenig Gültiges über die intendierten Zielvariablen aussagt. Stellt man auf der anderen Seite sehr materialnahe Kategorien auf, so können diese möglicherweise wenig relevant für die Zielvariablen sein. Dies 255 Die Kategorisierung oder Verschlüsselung (Codierung) des Inhalts ist die letzte Phase des Teils der „Inhaltsanalyse“, der im Wortsinne eigentlich noch gar keine „Analyse“ ist, sondern nur deren Vorbereitung. Analyse des codierten Materials Prüfung der Zuverlässigkeit Inter-Coder- Reliabilität Intra-Coder- Reliabilität Prüfung der Gültigkeit <?page no="321"?> 322 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 322 verweist auf zwei Ebenen der Gültigkeit-- die interne und die externe. Intern gültig (intern valide) ist die Codierung, wenn es gelingt, unterschiedlich formulierte Aussagen entsprechend ihrer tatsächlich gemeinten Bedeutung den richtigen Kategorien zuzuordnen. Extern gültig (extern valide) ist die Vercodung darüber hinaus, wenn die Kategorien korrekte Schlussfolgerungen auf die Realität außerhalb der Texte erlauben (vgl. die Definition von Inhaltsanalyse in Kapitel 7.1). Das generelle Problem einer gültigen Übersetzung theoretischer Begriffe in Indikatoren (vgl. Kapitel 4.1) existiert natürlich bei der Inhaltsanalyse in gleicher Weise wie bei jedem anderen empirischen Verfahren. 7.1.5 Verschiedene inhaltsanalytische Ansätze Bisher wurde „Inhaltsanalyse“ relativ vage als eine Forschungstechnik umschrieben, mit der man aus jeder Art von Bedeutungsträgern durch systematische und objektive Identifizierung ihrer Elemente Schlüsse ziehen kann. Die vorgeschlagene Definition ist bewusst weit gefasst und bedeutet-- anders als in frühen methodologischen Positionen-- auch nicht eine Eingrenzung der Analyse auf den „manifesten Inhalt“ von Mitteilungen (auf die reinen Wortbedeutungen); sie bezieht vielmehr auch die Analyse „latenter Inhalte“ als Möglichkeit mit ein. Unter diesen Begriff von Inhaltsanalyse können dementsprechend sehr unterschiedliche Verfahren subsumiert werden, die es erlauben, Texte in Einzelteile bzw. in Elemente zu zerlegen und diese Elemente dann bestimmten Kategorien zuzuordnen. Gemeinsam ist allen diesen Verfahren, dass sie in irgendeiner Weise Inhalte zu klassifizieren versuchen. Je nach Art und Weise, in der Inhalte quantifiziert werden, lassen sich unterschiedliche inhaltsanalytische Strategien unterscheiden. Frequenzanalysen Im einfachsten Fall bleibt es auch in der Phase der Auswertung bei einer einfachen Klassifikation von Textelementen: Für die Codierung ist ein Kategorienschema vorgegeben; es ist definiert, was für die Codierung die kleinste zu unterscheidende Einheit (das „Element“, die Zähleinheit) sein soll; und es werden die jeweiligen Zähleinheiten unter jeweils zutreffende Kategorien subsumiert. Falls sich die anschließende Auswertung dieser Zuordnungen darauf beschränkt festzustellen, wie häufig bestimmte Zeichen oder Zeichengruppen auftauchen, sprechen wir von Frequenzanalysen. Es wird also lediglich ausgezählt, wie häufig Textbestandteile den Kategorien und Unterkategorien zugeordnet worden sind. Frequenzanalysen sind sinnvoll, wenn unterstellt werden kann, dass die Häufigkeit des Auftretens bestimmter Themen, bestimmter Elemente in einem Text ein entscheidendes Indiz für die Bedeutung dieser Elemente im Hinblick auf das Untersuchungsproblem sei (vgl. Ritsert 1972, 17). verschiedene Inhaltsanalyse- Verfahren Häufigkeit von Textbestandteilen <?page no="322"?> 323 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 323 Valenzanalysen Häufig will man sich nicht mit reinen Häufigkeitsauszählungen begnügen, sondern möchte zusätzlich den Trend von Bewertungen berücksichtigen, der in Aussagen deutlich wird. In diesem Fall ist das Kategorienschema anspruchsvoller zu gestalten; es muss nicht nur die entsprechenden Bewertungsdimensionen, sondern auch die Bewertungsausprägungen enthalten (mindestens: pro-- contra-- neutral). Dieser Typ von Inhaltsanalyse wird als Valenzanalyse bezeichnet. Beispielsweise werde nicht nur festgestellt, wie häufig die Süddeutsche Zeitung, die FAZ und BILD über die Finanzierung des Aufbaus in den ostdeutschen Bundesländern durch Steuererhöhungen („Solidaritätszuschlag“) in einem bestimmten Zeitraum berichtet haben, sondern auch, ob die Berichterstattung pro oder contra Solidaritätszuschlag oder in dieser Hinsicht neutral (nur informierend) war. Bei der Frequenzanalyse hätten wir es bei einer Kategorie von z. B. „Steuererhöhung“ oder „Solidaritätszuschlag“ als Ausprägungen lediglich mit „genannt“ und „nicht genannt“ zu tun; bei der Valenzanalyse gibt die Merkmalsausprägung zusätzlich noch Auskunft darüber, ob-- wenn die Kategorie im Text vorkommt-- die Stellungnahme jeweils positiv, negativ oder neutral war. Solche Valenzanalysen sind natürlich nur in der Lage, sehr grobe Aussagen über die Tendenz von Berichten bestimmter Publikationen zu machen. Intensitätsanalysen Eine Erweiterung dieses Ansatzes zielt darauf ab, auch die Intensität von Bewertungen mit zu erfassen, also nicht nur die Richtung positiv bzw. negativ, sondern zusätzlich: wie stark positiv bzw. wie stark negativ? Bei solchen Intensitätsanalysen stellt sich somit die Aufgabe, das kategorisierte Textmaterial von gut geschulten „Beobachtern“ (Codern) auf einer Intensitätsskala (Urteilsintensitäten, Einstellungsintensitäten) intersubjektiv verlässlich zu bewerten. Ein bekanntes Verfahren der Intensitätsanalyse ist die von Ch. Osgood u. a. (1956) entwickelte „Evaluative Assertion Analysis“. Kontingenzanalysen Eine andere Form der Spezifizierung des Verfahrens der Inhaltsanalyse fragt nicht allein danach, wie oft ein sprachliches Element in der Mannigfaltigkeit des Textmaterials auftaucht, sondern zusätzlich, wie oft es im Zusammenhang mit anderen sprachlichen Elementen erscheint. Beispielsweise möge Textmaterial daraufhin untersucht worden sein, ob Aussagen zur Bildung und/ oder Ausbildung gemacht werden, ob hohe oder niedrige Bildung positiv oder negativ bewertet wird, ob berufsbezogene oder allgemeine Bildung bevorzugt wird. Bei der Kontingenzanalyse werden nun solche Aussagen nicht jeweils isoliert betrachtet, sondern in einen Zusammenhang zu anderen Aussagen im Text gebracht. Die Aussagen werden also beispielsweise danach differenziert, ob sie mit dem Blick auf männliche oder auf weibliche Jugendliche gemacht werden, ob sie mit Blick auf Unterschicht-, Mittel- oder Oberschichtkinder erfolgen. Die Kontingenzanalyse erlaubt dann Aussagen darüber, ob für männliche Jugendliche eher eine höher qualifizierende Bildung befürwortet wird als Analyse von Bewertungen BEISPIEL Intensität von Bewertungen Analyse gemeinsamen Auftretens von Textelementen <?page no="323"?> 324 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 324 für weibliche Jugendliche, ob hohe Bildung im Mittel- oder Oberschichtkontext einen höheren Stellenwert genießt als im Unterschichtkontext oder ob für Mittel- und Oberschichtkinder eher abstraktere Bildungsinhalte, für Unterschichtkinder eher handwerklich-berufsbezogene Bildungsinhalte befürwortet werden. 256 Besteht der Wunsch nach solchen Auswertungen des codierten Datenmaterials, benötigt man im Kategorienschema die dafür erforderlichen Variablen (Kategorien). Da im Allgemeinen nicht alle benötigten Informationen im jeweils zu codierenden Textteil (der Zähleinheit) explizit enthalten sein werden, ist bei der Codierung notwendigerweise der Kontext dieser Zähleinheit (siehe Kapitel 7.1.4, Punkte c und f ) zu berücksichtigen. Weitere Varianten Eine Weiterentwicklung der Kontingenzanalyse ist die Bedeutungsfeldanalyse. „Ausgehend von dem Gedanken, dass zeitliche Nähe im Redefluss oder räumliche Nähe im Text auch kognitiver Nähe und struktureller Verbindung dieser Begriffe entspricht, werden Texte-… daraufhin untersucht, welche Begriffe innerhalb von Textsequenzen festgelegter Größe gemeinsam auftreten. Die Bedeutungsfeldanalyse zeichnet- - anders als die Kontingenzanalyse- - zusätzlich die Reihenfolge und die Häufigkeit der Begriffe auf“ (Lamnek 1995, Bd. 2, 195). Andere interessante Weiterentwicklungen sind die Argumentationsanalyse sowie die Semantische Struktur- und Inhaltsanalyse (SSI). Bei der Argumentationsanalyse geht es darum, die isolierte Betrachtung einzelner Aussagen (Pro- oder Contra-Argumente in einer untersuchten Streitfrage) zu überwinden und sie stattdessen in den jeweiligen Argumentationszusammenhang zu stellen. Die spezifische Charakteristik des Verfahrens liegt-- so Weiß (1989, 479)-- „in der Kombination vor allem folgender Merkmale: A-priori-Ansatz; Übergang von der Argumentzur Argumentationsanalyse; Behandlung von Argumentationszusammenhängen als Codier- und Zähleinheiten; Zusammenführung und Verdichtung nominal skalierter Argumente in Tendenz-Indizes auf höherem Skalenniveau“. Auch der standardisiert vorgehende Teil der Framing-Forschung entspricht diesem Vorgehen (z. B. Gerhards 2010). Anlass für das Entstehen der Semantischen Struktur- und Inhaltsanalyse waren Eigenschaften des traditionellen Codierverfahrens, die-- so Früh (1989, 490 f.)-- bei der Anwendung auf komplexere Fragestellungen der medienwissenschaftlichen Rezeptionsanalyse sich als einschränkendes Manko erweisen. Mit der SSI wurde deshalb eine Methode entwickelt und erprobt, „die a) auf Mikro- und Makroebene gleichermaßen operiert; b) eine integrierte Beschreibung von Inhalten und Bedeutungsstrukturen zulässt; c) Textbedeutungen nicht nur statisch, sondern auch als Produkte einer dynamischen Informationsverarbeitung beschreibt; 256 Beispiele für Kontingenzanalysen mit Hilfe multivariater Auswertungsverfahren finden sich in Bos/ Tarnai (1989). Bedeutungsfeldanalyse Argumentationsanalyse Semantische Struktur- und Inhaltsanalyse <?page no="324"?> 325 7.2 Beobachtung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 325 d) maschinenlesbar formalisiert ist; e) Kennwerte erzeugt, die einer weiteren statistischen Analyse leicht zugänglich sind und- - um unterschiedliche Textsorten (…) direkt miteinander vergleichen zu können-- f ) von der Textoberfläche weitgehend unabhängig ist“ (Früh 1989, 491 f.). Die Vorgehensstrategie für dieses anspruchsvolle inhaltsanalytische Verfahren wird ausführlich geschildert und anhand von Beispielen illustriert in Früh (2015, Kap. 2.6, 258 ff.). Für detaillierte generelle Darstellungen inhaltsanalytischer Ansätze s. Lisch/ Kriz 1978 (insbes. Kapitel 8 bis 10), Merten (1995), Früh (2015), Schreiber (1999). Wie für andere Instrumente der Sozialforschung, so gibt es mittlerweile auch leistungsfähige Programme, die eine computerunterstützte Anwendung der Inhaltsanalyse erlauben (siehe dazu etwa Kuckartz 2005, Kuckartz u. a. 2004, Lissmann 2001, Muhr/ Friese 2001, Wirth/ Lauf 2001, Teil 5 oder Züll/ Harkness/ Hoffmeyer-Zlotnik 1996). Erste Ansätze reichen bis 1962 zurück (vgl. Stone/ Bales u. a. 1962). 7.2 Beobachtung Ähnlich wie die Inhaltsanalyse ist auch das Datenerhebungsverfahren systematische Beobachtung im Prinzip nichts anderes als die Systematisierung eines alltäglichen Vorgehens. Jedoch richtet sich die Aufmerksamkeit bei der Beobachtung nicht auf das systematische Erfassen der Bedeutung dokumentierter Symbolzusammenhänge (wie bei der empirischen Inhaltsanalyse). Beobachtung zielt auf das Erfassen von Ablauf und Bedeutung einzelner Handlungen und Handlungszusammenhänge. Der wesentliche Unterschied liegt also im Beobachtungsgegenstand. Bei der Inhaltsanalyse ist der Gegenstand der „Beobachtung“ im weitesten Sinne das Produkt von Handlungen: historische Quellen, Kunstwerke, Briefe, Nachrichten, Romane, auf Tonband aufgezeichnete Diskussionen usw. Der inhaltsanalytische „Beobachtungsgegenstand“ steht damit, so wie er produziert worden ist, ein für allemal fest und verändert sich während des Prozesses des Analysierens, des „Identifizierens seiner Elemente“, nicht mehr. Datenerhebung und -analyse können beliebig oft am gleichen Material wiederholt werden. Das Verfahren der empirischen Beobachtung dagegen richtet sich auf soziale Prozesse und Verhaltensabläufe, also auf Gegebenheiten, die während des Beobachtens, des „Identifizierens der Elemente der Beobachtungssituation“ ablaufen und sich dabei ständig verändern. VERTIEFUNG Erfassung von Handlungen Veränderung während der Beobachtungssituation <?page no="325"?> 326 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 326 Beobachtungsgegenstände (Situationen) können etwa sein: Der Verkehrsfluss in der City zur Zeit der Rush hour (mit allen dabei vorkommenden Zwischenfällen als zu identifizierende Beobachtungselemente wie Verkehrsunfälle, Stauungen, Nichtbeachten der Vorfahrt, Überschreiten der zulässigen Höchstgeschwindigkeit, auf die Kreuzung fahren bei „Spätgelb“) oder das Geschehen in einer Haupteinkaufsstraße kurz nach Büroschluss (mit Beobachtungselementen wie eiliges Einkaufsverhalten nach Feierabend, Verhalten vor dem Schaufenster, Gedränge am Eingang, Schlangenbildung vor der Kasse im Selbstbedienungsladen, Nutzung der Sitzplätze und Ausruhmöglichkeiten im Geschäftsgebiet). Wie nun bei der Inhaltsanalyse von Texten zu unterscheiden ist zwischen der Bedeutung, die der Sender mit einer bestimmten Wortfolge gemeint hat, und der Bedeutung, die der Vercoder daraus herausliest (vgl. Kapitel 7.1.1), so ist bei der Beobachtung zu unterscheiden zwischen der subjektiven Bedeutung eines Tuns für den Handelnden und der Bedeutung, die der Beobachter dieser Handlung beimisst. Und ähnlich wie bestimmte Worte eine „durchschnittliche“ oder übliche Bedeutung haben, an der sich z. B. der Vercoder bei der Feststellung des manifesten Inhalts von Mitteilungen orientiert, so haben auch bestimmte Handlungen, Gesten oder Verhaltenssequenzen eine „durchschnittliche“, eine übliche Bedeutung, an der sich die Beobachterin/ der Beobachter ausrichtet. In beiden Fällen kann es jedoch sein, dass die Bedeutungsinterpretationen nicht übereinstimmen, dass also der Sender (der Verfasser eines Textes) mit den geäußerten Worten eine andere Vorstellung verbindet als der Empfänger, oder dass der Handelnde mit bestimmten Gesten oder Aktivitäten etwas anderes bezweckt als ihm vom Analysierenden unterstellt wird. Im ersten Fall sprechen Verfasser und Vercoder „verschiedene Sprachen“, und der Vercoder interpretiert dadurch „falsch“. Im zweiten Falle leben der Handelnde und der Beobachtende möglicherweise in unterschiedlichen kulturellen bzw. subkulturellen Handlungskontexten, und der Beobachtende interpretiert „falsch“. In dieser Hinsicht haben die Instrumente Inhaltsanalyse und Beobachtung mit der gleichen Art von Schwierigkeiten fertig zu werden. Erschwerend kommt bei der Beobachtung hinzu, dass sich, wie bereits angedeutet, die zu beobachtende Situation während des Beobachtungsprozesses ständig verändert, dass zudem gleichzeitig vielfältige Aktivitäten einer Vielzahl von Handelnden ablaufen. Einmal verpasste Beobachtungen lassen sich nicht nachholen. Die Interpretation des beobachteten Handlungsablaufs muss vom Beobachter an Ort und Stelle und im gleichen Tempo vorgenommen werden, in dem die beobachteten Handlungen ablaufen. Das stellt an das Kategorienschema für die Beobachtung ein noch höheres Maß an Anforderungen als bei der Inhaltsanalyse. Die Beobachtungskategorien müssen nicht nur eindeutig und präzise definiert sein; sie müssen zusätzlich die Situation so strukturieren, dass alle Beobachtungselemente leicht identifizierbar sind, ohne dass damit der Sinnzusammenhang einer Handlung zerrissen wird. Außerdem dürfen nicht zu viele Beobachtungskategorien gleichzeitig zu beachten sein, weil sonst die beobachtende Person überfordert wird. BEISPIELE Codierung durchschnittlicher Bedeutungen Problem des Missverstehens Problem ständiger Veränderung Kategorienschema leicht identifizierbare Elemente <?page no="326"?> 327 7.2 Beobachtung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 327 Mehr noch als bei der Inhaltsanalyse muss das Beobachtungsinstrument aus einer soliden, theoretischen Strukturierung des Forschungsgegenstandes heraus entwickelt werden: Die bei der Datenerhebung vorzunehmende Selektion ist notwendigerweise größer als bei der Inhaltsanalyse; verpasste Einzelheiten lassen sich nicht durch nochmalige Beobachtung derselben Situationen nachholen. Stärker auch als bei der Inhaltsanalyse kann der Beobachter bei nicht sorgfältig entwickeltem Kategorienschema zur Fehlerquelle werden: durch nicht gesteuerte Prozesse selektiver Zuwendung, selektiver Wahrnehmung und selektiver Erinnerung; durch die Tendenz, auch unzusammenhängende Einzelereignisse entsprechend den eigenen Erwartungen (des Beobachters) zu sinnvollen Einheiten zusammenzufassen, Fehlendes zu ergänzen, die Situation entsprechend der eigenen Deutung zu strukturieren. Die Beobachtung scheint damit entschieden weniger objektiv- - im Sinne von intersubjektiv nachprüfbar-- zu sein als das Verfahren der Inhaltsanalyse. Zwar gibt es technische Hilfsmittel, um diese Nachteile zu vermindern: Zusätzlich zur Beobachtung an Ort und Stelle kann das Geschehen durch einen zweiten Teilnehmer mit Videorecorder aufgezeichnet werden, um hinterher die angefertigten Beobachtungsprotokolle mit dieser Aufzeichnung vergleichen und die endgültige Zuordnung der Beobachtungselemente zum Kategorienschema vornehmen zu können. Dadurch wird zwar die intersubjektive Nachprüfbarkeit wesentlich verbessert, ausgeschaltet ist die Subjektivität des Vorgehens damit jedoch nicht: Auch auf der Videoaufzeichnung sind nur Ausschnitte des gesamten Geschehens in der abgegrenzten Situation festgehalten. Wenn ein Beobachter das zu beobachtende Geschehen direkt vercodet und ein zweiter die Kamera bedient, werden beide normalerweise nicht die gleichen Ausschnitte (z. B. des Geschehens auf einer belebten Straßenkreuzung oder auf der Haupteinkaufsstraße) als wichtig einstufen und festhalten. Was soll dann gelten: die vom Beobachter protokollierten Aspekte, die Videoaufzeichnung oder beides? Zudem ist es nicht in jeder Situation möglich, Filmaufzeichnungen zu machen. In manchen Zusammenhängen sind solche Aufzeichnungen auch gar nicht angebracht, weil sich dadurch die Situation so verändern kann, dass sie nicht mehr dem Beobachtungsziel entspricht. Kaum jemand verhält sich ungezwungen und „normal“, wenn er eine laufende Kamera bemerkt. 7.2.1 Arten der Beobachtung Das zuletzt angesprochene Problem verweist auf eine wichtige Unterscheidung von Beobachtungstypen; je nachdem, ob die beobachteten „Objekte“ vom Beobachtungsvorgang Kenntnis haben oder nicht, lassen sich verschiedene Arten von Beobachtungen unterscheiden. Falls die zu beobachtenden Personen nicht bemerken sollen, dass sie beobachtet werden, spricht man von verdeckter Beobachtung. In diesem Falle ist die Aufzeichnung der Handlungsabläufe mit Hilfe einer Kamera problematisch, weil zu auffällig. Möglich ist eine Aufzeichnung, ohne bemerkt zu werden, allenfalls in technisch dafür ausgerüsteten Räumen oder in öffentlichen Situationen, wo so vieles gleichzeitig Selektivität des Kategorienschemas intersubjektive Nachprüfbarkeit problematisch verdeckte Beobachtung <?page no="327"?> 328 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 328 abläuft, dass eine versteckt angebrachte Kamera überhaupt nicht wahrgenommen wird. Eine Aufzeichnung ist weiter dort möglich, wo ohnehin häufig Kameras angebracht sind, so dass ihre Benutzung nicht auffällt, z. B. in Selbstbedienungsläden, auf Sportplätzen oder an Verkehrskreuzungen. Sind dagegen die Handelnden über den Beobachtungsvorgang informiert, spricht man von offener Beobachtung. Falls die zu beobachtenden Personen sich mit einer Aufzeichnung einverstanden erklären, ist natürlich der Einsatz einer Kamera im Prinzip kein Problem. Allerdings ist auch dann nicht auszuschließen, dass das Bewusstsein, nicht nur beobachtet, sondern auch noch gefilmt zu werden, die Beobachtungssituation (das gezeigte Verhalten) drastisch verändert. Zur Unterscheidung möglicher Varianten der Beobachtung (Art der Beobachtungssituation und des Beobachtungsvorgangs) zieht Friedrichs (1982, 272 f.) fünf Dimensionen heran: 1) verdeckt / offen: Ist der Beobachter als solcher erkennbar oder nicht; ist er z. B. durch eine nur von einer Seite durchsichtige Glasscheibe verdeckt? 2) teilnehmend / nicht teilnehmend: Nimmt der Beobachter an den Interaktionen teil, oder befindet er sich außerhalb des Feldes? 3) systematisch / unsystematisch: Erfolgt die Beobachtung systematisch mit einem standardisierten Schema oder eher unsystematisch und dem spontanen Interesse des Beobachters folgend? 4) „natürliche“ / „künstliche“ Beobachtungssituation: Es können z. B. spielende Kinder im Kindergarten beobachtet werden (natürliche Situation), oder die Spielsituation kann im Raum eines psychologischen Instituts unter kontrollierten Bedingungen nachgestellt werden („Labor“-Situation). 5) Selbstbeobachtung / Fremdbeobachtung: Die Anwendung des Verfahrens der Beobachtung als Instrument der Datenerhebung beschränkt sich im Allgemeinen auf Fremdbeobachtung. Selbstbeobachtungen kommen häufig in der Psychoanalyse und Psychiatrie vor. Beschränkt man sich auf die ersten vier Dimensionen und unterscheidet jeweils nur zwei gegensätzliche Ausprägungen-- bleiben also mögliche Zwischenformen unberücksichtigt, etwa auf dem Kontinuum von „überhaupt keine Beteiligung des Beobachters im Feld“ bis „vollständiges Eingebundensein des Beobachters in die zu beobachtenden Interaktionen“--, dann gelangt man bereits zu einer Differenzierung in 16 Beobachtungsarten: Nicht teilnehmende Beobachtung teilnehmende Beobachtung verdeckt offen verdeckt offen „natürliche“ Beobachtungssituation systematisch 1 2 3 4 unsystematisch 5 6 7 8 „künstliche“ Beobachtungssituation systematisch 9 10 11 12 unsystematisch 13 14 15 16 offene Beobachtung Varianten der Beobachtung Tabelle 7.1: Arten von Beobachtung <?page no="328"?> 329 7.2 Beobachtung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 329 Natürlich wird man nicht alle so gewonnenen Beobachtungs-“Typen“- - von der verdeckten, nicht teilnehmenden, systematischen Beobachtung in natürlichen Situationen (1) bis zur offenen, teilnehmenden, unsystematischen Beobachtung in künstlich geschaffenen Situationen (16)- - gleich häufig in der empirischen Praxis vorfinden. Im Folgenden beziehen sich die Ausführungen vor allem auf die systematische, nicht teilnehmende Fremdbeobachtung (Nr. 1, 2, 9, 10). Die auftretenden Probleme sollen dabei so weit wie möglich im Vergleich zur Inhaltsanalyse abgehandelt werden. 257 7.2.2 Anwendungsprobleme bei der systematischen Beobachtung a) Analog zur Inhaltsanalyse als Datenerhebungsmethode steht auch bei der Beobachtung am Beginn die Festlegung der Art oder Klasse von Beobachtungsgegenständen. Ausgehend von der zu untersuchenden Fragestellung ist zunächst die Art der Situationen zu definieren, in denen per Beobachtung Daten gesammelt werden sollen. Beim Verfahren der Beobachtung ist also eine zentrale theoretische Dimension sozialen Handelns ausdrücklich von Beginn an auch methodologisch mit zu berücksichtigen, die ansonsten eher ausgeklammert wird: der „Handlungskontext“, bzw. die Situation, in der die Handlung abläuft. 258 Richtet sich die Fragestellung auf Verhalten in „natürlichen“ Situationen, oder sollen „reine“ Bedingungen in künstlichen Situationen (in „Labor“-Situationen) hergestellt werden? Bei Beobachtungen in natürlichem Kontext ist, was das Zustandekommen der Daten angeht, die Ausgangslage ähnlich wie bei der Analyse von Texten, die im normalen Handlungsvollzug entstanden sind (Briefe, Zeitungsberichte, Akten) und nicht erst für die Zwecke der Untersuchung geschaffen wurden. Bei der Beobachtung unter Laborbedingungen dagegen ist die Ausgangslage ähnlich wie bei der Analyse von Antworten auf offen gestellte Fragen im Interview. Solche Texte hat erst der Interviewer künstlich für den Untersuchungszweck provoziert; ebenso wird das unter Laborbedingungen beobachtete Verhalten für die Untersuchung selbst provoziert. 257 Vgl. zum Folgenden Kapitel 7.1.4 (Phasen der Inhaltsanalyse).-- An teilnehmender Beobachtung Interessierte seien auf die ausführlicheren Darstellungen bei Friedrichs/ Lüdtke 1973 und Thierbach/ Petschick 2014 (standardisierte Verfahren) sowie bei Dechmann 1978 und Lamnek 1995 (qualitativ orientierter Ansatz) verwiesen. 258 Insbesondere bei „Repräsentativerhebungen“ bemüht man sich um Kontextunabhängigkeit, zumindest um methodische „Kontrolle“ möglicher Kontexteinflüsse. Zu den beiden Begriffen vgl.: Friedrichs, Jürgen, 1974: Situation als soziologische Erhebungseinheit, in: Zeitschrift für Soziologie, H. 1, 44-53; Küchler, Manfred, 1981: Kontext-- eine vernachlässigte Dimension empirischer Sozialforschung, in: J. Matthes (Hg.), Lebenswelt und soziale Probleme, Frankfurt/ M., New York, 344-354. Beobachtungsgegenstände festlegen Art der Situation definieren <?page no="329"?> 330 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 330 Zusammengefasst: 1) Ob in natürlichem oder künstlichem Kontext beobachtet wird, hängt von der Fragestellung ab. 2) Welcher Art die Beobachtungsgegenstände sind, hängt ebenfalls von der Fragestellung ab. Sind „Art und Ausmaß von Vereinsaktivitäten“ Gegenstand des Interesses, können inhaltsanalytisch Vereinsrundschreiben, Vereinssatzungen, Protokolle von Vorstandssitzungen und Versammlungen, Zeitungsberichte über Aktivitäten und Erfolge der Vereinsarbeit, Flugblätter ausgewertet werden. Mit Hilfe der Beobachtung können dagegen Interaktionen zwischen den Vorstandsmitgliedern bei Vorstandssitzungen direkt erfasst werden (falls der Vorstand einverstanden ist); oder der Beobachter kann an Vereinsversammlungen teilnehmen, kann öffentliche Veranstaltungen des Vereins besuchen usw. Besonders wichtig ist für diese Entscheidung die Festlegung, welche Situationen und welche in diesen Situationen vorkommenden Aktivitäten für die Fragestellung relevant sind und ob der Beobachter sich zu diesen Situationen Zugang verschaffen kann. Auch hier ist wieder erforderlich, eindeutig zu definieren, wie eine Situation abgegrenzt wird. Als Beginn einer Vereinsversammlung wird die offizielle Eröffnung der Sitzung durch den Versammlungsleiter, als Ende die offizielle Schließung der Versammlung definiert. Oder: Bei Flugblattverteilungsaktionen einer Organisation werden alle Aktivitäten der seitens der Organisation beteiligten Personen beobachtet sowie zusätzlich alle Ereignisse, die dadurch unmittelbar oder mittelbar in einem Umkreis von-… Metern hervorgerufen wurden (wie Diskussion zwischen Passanten, Stehenbleiben von Zuschauern usw.). Neben der Definition der Art der zu beobachtenden Situationen und der Klasse der relevanten Ereignisse ist auch der Beobachtungszeitraum festzulegen (etwa: sämtliche Vereinsaktivitäten in der Amtsperiode eines Vorstands von dessen Wahl bis zur nächsten turnusmäßigen Mitgliederversammlung mit dem Tagesordnungspunkt Vorstandswahl) sowie der räumliche Ausdehnungsbereich, in dem Beobachtungen anzustellen sind (etwa bei Aktivitäten von Organisationsgliederungen politischer Parteien: Aktivitäten in einem Stadtbezirk). Bei Dokumenten, die inhaltsanalytisch ausgewertet werden sollen, kann der Untersuchungszeitraum ohne Weiteres auch längere Perioden, z. B. 100 Jahre und mehr, umfassen (etwa Analyse der Fachdiskussion um städtebauliche Zielsysteme oder „Leitbilder“ seit Beginn der Industrialisierung), und der räumliche Bezug kann sich auf die ganze Welt erstrecken (etwa: Auswertung von Quellen zur städtebaulichen Zieldiskussion aus Europa, Australien und Nordamerika). Der Anwendung der BEISPIEL Festlegung der zu beobachtenden Aktivitäten BEISPIEL Zeitraum und räumliche Ausdehnung festlegen <?page no="330"?> 331 7.2 Beobachtung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 331 Methode Beobachtung sind im Vergleich dazu sehr enge Grenzen gesetzt. Diese Überlegungen hat man bereits bei der Abgrenzung der angestrebten Grundgesamtheit zu berücksichtigen. b) Nach der Definition der relevanten Situationen und Ereignisse sowie der angestrebten Grundgesamtheit ist auch bei der Beobachtung im Allgemeinen der Rückgriff auf die Erhebung von Daten für nur eine Teilgesamtheit, also die Konstruktion einer Stichprobe erforderlich. Man kann nicht alle zur Grundgesamtheit zählenden Situationen oder Ereignisse in einem angegebenen Zeitraum und einem abgegrenzten Gebiet beobachten. Die Erstellung eines Auswahlplans ist allerdings für Beobachtungen wesentlich komplizierter als im Falle der Inhaltsanalyse. Jede Auswahl muss hier zwei Gesichtspunkte berücksichtigen: Zum einen handelt es sich um eine Stichprobe von Zeitpunkten (oder Zeitintervallen, Beobachtungsintervallen) aus dem abgegrenzten Zeitraum, zum anderen ist es eine Stichprobe aus dem abgegrenzten räumlichen Beobachtungsbereich (Regionen, Orte, Plätze). Das Verfahren ist also in jedem Fall mindestens zweistufig: Auswahl von Zeitpunkten bzw. -intervallen sowie von räumlichen Bezugspunkten (und innerhalb dieses Rahmens üblicherweise nochmals mehrstufig). Will man etwa die Beobachtungen über ein Jahr (Z) ausdehnen, so ist erforderlich: Z 1 : Stichprobe aus den 365 Tagen; Z 2 : Stichprobe aus den innerhalb der ausgewählten Tage für die Beobachtung infrage kommenden Intervallen (im Fall der Beobachtung des Verkehrsflusses etwa in den Hauptverkehrsstunden am Morgen und am Nachmittag jeweils Ein-Minuten-Intervalle; oder im Falle der Beobachtung des Verhaltens von Passanten in einer Haupteinkaufsstraße jeweils Fünf-Minuten-Intervalle in der Zeit zwischen Büroschluss und Geschäftsschließung). Soll zudem die Beobachtung im ganzen Bundesgebiet (R) erfolgen, dann könnte man weiter wie folgt vorgehen: R 1 : Flächenstichprobe nach Regionen (z. B. Regierungsbezirke); R 2 : Flächenstichprobe nach räumlichen Beschreibungskategorien (z. B. Areale mit jeweils annähernd gleich großen Einwohnerzahlen in ländlichen Gebieten, Mittelstädten, großstädtischen Einzugsbereichen, Großstädten); R 3 : Stichprobe aus den infrage kommenden eng begrenzten Orten der Beobachtung (z. B. Straßenkreuzungen an den Hauptverkehrswegen oder Haupteinkaufsplätze bzw. -straßen). Das spezifische Problem bei der Entwicklung eines Auswahlplans für Beobachtungen liegt darin, dass die Auswahl auf Ereignisse (Erhebungseinheiten, „Elemente der Grundgesamtheit“, vgl. Kapitel 6.1) abzielen muss, die zum Zeitpunkt der Stichprobenkonstruktion noch gar nicht existieren. Die zu beobachtenden Handlungsabläufe werden ja erst während des Zeitraums der Datenerhebung stattfinden; die Erstellung des Auswahlplans aber muss vorher erfolgen. Da es also die angestrebte Grundgesamtheit von Ereignissen, auf die sich die späteren Aussagen der Untersuchung beziehen sollen, erst in Zukunft geben wird, ist weder diese Grundgesamtheit schon empirisch definierbar, noch sind die Erhebungseinheiten im Voraus eindeutig Stichprobe festlegen Stichprobe von-Zeiträumen Stichprobe von-Räumen BEISPIEL Grundgesamtheit nicht vorher bestimmbar <?page no="331"?> 332 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 332 bestimmbar, noch sind alle potenziellen Einheiten im Moment der Auswahl greifbar (vgl. Kapitel 6.6). Auch eine „symbolische Repräsentation“ aller Elemente der Grundgesamtheit ist nicht unmittelbar möglich (etwa in Form einer Kartei). Bei der „symbolischen Repräsentation“ muss deshalb auf Ersatzmerkmale zur Definition der faktischen Auswahleinheiten zurückgegriffen werden, an denen die zu beobachtenden zukünftigen Ereignisse „festgemacht“ werden können. Das ist der Grund, warum oben von der Notwendigkeit einer mindestens zweistufigen Auswahl nach Beobachtungsräumen und Beobachtungszeitpunkten (bzw. -intervallen) die Rede war. Die interessierenden Ereignisse werden-- das ist die einzig sichere (und triviale) Prognose-- an bestimmten Orten und zu bestimmten Zeiten stattfinden; und indem eine repräsentative Auswahl von potenziellen Ereignisräumen und potenziellen Ereigniszeiten getroffen wird, kann man-- so die Hypothese-- davon ausgehen, zugleich auch eine repräsentative Auswahl aus der Grundgesamtheit der interessierenden Ereignisse gezogen zu haben. Die Auswahleinheiten sind die Zeitpunkte und Orte; die Erhebungseinheiten sind üblicherweise die erwarteten Ereignisse, es können aber auch die ausgewählten Beobachtungsintervalle sein (siehe nächsten Abschnitt); die Untersuchungseinheiten schließlich ergeben sich aus der Fragestellung der Studie. c) Bei der Inhaltsanalyse wurde als dritter Punkt die Definition der Zähleinheit oder Kategorisierungseinheit genannt. Eine analoge Festlegung ist auch bei der Beobachtung erforderlich: Wonach soll die Häufigkeit des Auftretens bestimmter Kategorien bemessen werden? Ist etwa als Auswahleinheit „fünf Minuten Verkehrsfluss an der Kreuzung x“ festgelegt worden, dann geben die Beobachtungskategorien darüber Auskunft, auf welche Tatbestände der Beobachter in diesem Zeitintervall zu achten hat: Missachtung der Ampelregelung, Stauung, Verkehrsunfall. Außerdem ist anzugeben, ob lediglich das Auftreten einer Stauung, das Vorkommen eines Verkehrsunfalls, die Tatsache der Missachtung der Ampelregelung festgestellt oder zusätzlich deren Häufigkeit im Beobachtungsintervall gezählt werden soll, ob also die Ergebnisse jeweils auf das Beobachtungsintervall zu beziehen sind. 259 Die Protokollaussage könnte in diesem Fall lauten: Im Intervall t 1 sind n 1 Ampelregelungsmissachtungen, n 2 Stauungen, n 3 Verkehrsunfälle vorgekommen. Das Beobachtungsintervall ist in diesem Falle der Merkmalsträger; die Kategorien sind die Merkmale (Variablen); die Häufigkeit des Auftretens ist die Ausprägung des Merkmals. Untersuchungsziel könnte sein, Aussagen über die Belastung des Verkehrsnetzes im Tagesverlauf zu gewinnen. 259 Auch bei der Codierung von Beobachtungen wird man (ähnlich wie bei der Inhaltsanalyse) häufig ergänzende Kontextinformationen miterfassen müssen (vgl. siehe Kapitel 7.1.4, Punkte c und f: Kontexteinheiten), also hier z. B.: An welcher Kreuzung und wann wurde die Beobachtung vorgenommen? Orientierung an Ersatzmerkmalen Definition der Zähleinheit BEISPIEL <?page no="332"?> 333 7.2 Beobachtung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 333 Es könnte aber auch sein, dass nicht die Häufigkeit des Auftretens eines Ereignisses pro Zeitintervall, sondern speziell das einzelne Ereignis, etwa der Verkehrsunfall, interessiert: . Dann definiert das Beobachtungsintervall lediglich die zeitlichen Grenzen, innerhalb derer Informationen über Ereignisse erhoben werden. In diesem zweiten Fall sind pro Verkehrsunfall bestimmte Merkmale zu erheben: Ort und Zeitpunkt des Verkehrsunfalls, beteiligte Fahrzeuge (Art und Zahl), Folgen (Verletzungen, Sachschäden), Ursachen (Missachtung der Vorfahrt, überhöhte Geschwindigkeit, Glätte) usw. Hier ist der Verkehrsunfall das Untersuchungsobjekt (der Merkmalsträger); Ort und Zeitpunkt des Ereignisses, beteiligte Fahrzeuge, Folgen und Ursachen des Unfalls sind die Merkmale; Ort x, Uhrzeit 10: 05, Zahl der beteiligten Fahrzeuge, Art der Folgen und der Ursachen sind dann die Merkmalsausprägungen. Untersuchungsziel könnte jetzt sein, Aussagen über die Bestimmungsgründe von Verkehrsunfällen zu gewinnen. Zähleinheiten (die Einheiten, auf die sich die festgestellten Merkmale beziehen) wären im ersten Beispiel die Beobachtungsintervalle, im zweiten Beispiel die Ereignisse, vorgegeben durch die Kategorien des Beobachtungsplans. Auswahleinheiten aber wären in beiden Fällen eine Kombination von Beobachtungsorten und -zeitintervallen. Bei häufig auftretenden Ereignissen wird man Beobachtungsintervalle als Zähleinheiten (als Merkmalsträger) wählen. Bei manchen Tatbeständen, in denen die Zeit praktisch als Dimension mit enthalten ist, ergibt sich dies zwangsläufig: etwa Verkehrsdichte, definiert als: n Fahrzeuge pro Zeiteinheit. Bei manchen Tatbeständen bietet sich auch ein bestimmter Raum, eine Fläche als zusätzlicher Bestandteil der Definition der Zähleinheit an; etwa bei: Passantendichte auf der Haupteinkaufsstraße, definiert als „n Personen pro abgegrenzter Fläche zum Zeitpunkt t“. Die Zähleinheit wäre durch einen Raum und einen Zeitpunkt definiert; Beschreibungsmerkmal wäre: Passanten, die sich auf dieser Fläche befinden; Merkmalsausprägung wäre die Zahl der Passanten pro Flächeneinheit. Bei seltenen Ereignissen, oder zumindest Ereignissen, die nicht zu jedem Zeitpunkt oder in jedem Beobachtungsintervall auftreten, wird man dagegen das Ereignis selbst als Zähleinheit oder als Merkmalsträger heranziehen. d) Wie bei der Inhaltsanalyse ist auch bei der Beobachtung die Entwicklung des Kategorienschemas das Kernstück und der problematischste Teil des ganzen Verfahrens. Da lediglich die „Beobachtungsgegenstände“ bei beiden Verfahren unterschiedlich sind (s. o.), nicht jedoch die Logik der Datenerhebung, sind die bei der Aufstellung des Beobachtungsschemas zu beachtenden Regeln die gleichen wie bei der Inhaltsanalyse. Auf die Ausführungen dort (Kapitel 7.1.2) kann deshalb verwiesen werden. BEISPIEL Zähleinheit: Einheit pro Raum Kategorienschema <?page no="333"?> 334 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 334 Dass auch die Abgrenzung beider Verfahren anhand ihrer „Beobachtungsgegenstände“ fließend ist, zeigt ein bekanntes Kategorienschema, das von R. F. Bales zur Analyse von Interaktionen in problemlösenden Kleingruppen entwickelt worden ist (siehe Abbildung 7.1) 260 . Von manchen Autoren wird das Bales-Schema als Beispiel für ein Kategorienschema zur Beobachtung, von anderen als Beispiel für ein Kategorienschema zur Inhaltsanalyse verbaler Gruppenprozesse genannt. 260 Das Schema selbst sowie die theoretische Herleitung und die Möglichkeiten seiner Anwendung sind ausführlich (mit Beispielen) in einem ins Deutsche übersetzten Aufsatz beschrieben worden (Bales in: König 1962). BEISPIEL Abbildung 7.1: Schema der Interaktionsprozessanalyse nach Bales     A Sozialemotionaler Bereich: positive Reaktionen B Aufgabenbereich: Versuche der Beantwortung C Aufgabenbereich: Fragen D Sozialemotionaler Bereich: Negative Reaktionen 4. Macht Vorschläge, gibt Anleitung, wobei Autonomie des anderen impliziert ist 5. Äußert Meinung, bewertet, analysiert, drückt Gefühle oder Wünsche aus 6. Orientiert, informiert, wiederholt, klärt, bestätigt 7. Erfragt Orientierung, Information, Wiederholung, Bestätigung 8. Fragt nach Meinungen, Stellungnahmen, Bewertung, Analyse, Ausdruck von Gefühlen 9. Erbittet Vorschläge, Anleitung, mögliche Wege des Vorgehens 1. Zeigt Solidarität, bestärkt den anderen, hilft, belohnt 2. Entspannte Atmosphäre, scherzt, lacht, zeigt Befriedigung. 3. Stimmt zu, nimmt passiv hin, versteht, stimmt überein, gibt nach 10. Stimmt nicht zu, zeigt passive Ablehnung, Förmlichkeit, gibt keine Hilfe 11. Zeigt Spannung, bittet um Hilfe, zieht sich zurück 12. Zeigt Antagonismus, setzt andere herab, verteidigt oder behauptet sich a b c d e f <?page no="334"?> 335 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 335 Beobachtungseinheit (Zähleinheit) ist bei Bales „die kleinste erkennbare Einheit des Verhaltens,-…, die ihrem Sinn nach so vollständig ist, dass sie vom Beobachter [entsprechend der Definition einer der Kategorien, H. K.] gedeutet werden kann oder im Gesprächspartner eine Reaktion hervorruft. Die Einheit wird also durch einen Bedeutungswechsel innerhalb eines Systems von Symbolen, die der Mitteilung dienen, definiert-…“ (a. a. O., 158). Die 12 Beobachtungskategorien entsprechen (d. h. sind die Operationalisierung von) sechs aus einer Theorie der Gruppe abgeleiteten Aspekten der Lösung von Problemen in Gruppenarbeit (vgl. Schlüssel a bis f ) sowie zwei Verhaltensbereichen, dem „sozialemotionalen Bereich“ (vgl. A und D) und dem „Aufgabenbereich“ (B und C). Wie bei der Inhaltsanalyse kann man jedoch bei konkreten eigenen Beobachtungs- Untersuchungen selten auf bereits ausgearbeitete Kategorienschemata zurückgreifen. Vielmehr werden vorhandene „Muster“ (wie das obige) im Allgemeinen nur als Anhaltspunkte für die Bildung eines auf die spezielle Untersuchungsfrage zugeschnittenen Kategoriensystems heranzuziehen sein (vgl. Ischi 1982). Auch hierbei ist es im Prinzip auf zweierlei Weise möglich, zu einem Kategorienschema für die Untersuchung zu kommen (vgl. Kapitel 7.1.2): - durch empirisches Vorgehen. Man beobachtet zunächst infrage kommende Situationen relativ unstrukturiert; man notiert alles, was auffällt, und ordnet das Beobachtungsmaterial nach Kategorien (zu unterscheidende Ereignisse) und Unterkategorien (Ausprägungen von Eigenschaften eines Ereignisses); oder - man bestimmt vor der Beobachtung aufgrund von Ableitungen aus Hypothesen oder aus einer Theorie die relevanten Beobachtungsdimensionen und bildet (darauf aufbauend) die Beobachtungskategorien. Üblicherweise wird man sowohl bei der Inhaltsanalyse als auch bei der systematischen Beobachtung beide Vorgehensweisen kombinieren: Zunächst wird, ausgehend von der Fragestellung und den Hypothesen, ein grobes Beobachtungsraster entworfen, um damit Pretests durchzuführen. Anhand der in den Pretests gewonnenen Erfahrungen wird das Kategoriensystem ausgefeilt und verbessert. Was die Auswertung der so gewonnenen Ergebnisse angeht, so besteht bei den Resultaten systematischer Beobachtung (d. h. den mit Hilfe des Instruments Beobachtung ermittelten Daten) kein Unterschied gegenüber Daten, die mit Hilfe anderer Instrumente gewonnen wurden. 7.3 Befragung In der empirischen Sozialforschung ist die Befragung noch immer die am häufigsten verwendete Methode der Datenerhebung. Zugleich handelt es sich auch um das am weitesten entwickelte Verfahren. Zwar gilt das persönliche Interview nicht mehr unbestritten als der „Königsweg“ unter den Verfahren der Datensammlung. Den- Anpassung vorhandener Kategorienschemata Erstellung eines Kategorienschemas Kombination von empirischer und theoretischer Entwicklung <?page no="335"?> 336 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 336 noch hat es- - trotz Kritik angesichts steigender Kosten und sinkender Ausschöpfungsquoten (vgl. Kapitel 7.4.2)-- seine dominierende Position in der Forschungspraxis bewahrt. Hinzu kommt eine ständig zunehmende Bedeutung telefonisch und schriftlich, insbesondere webbasiert (per E-Mail oder direkt online) durchgeführter Befragungen. 261 Fragen zu stellen, um Informationen zu erhalten, erscheint besonders leicht. Dass Sprache als Instrument der Informationsübermittlung aber nicht ohne Probleme ist, haben wir bereits bei der Einführung zur empirischen Inhaltsanalyse angedeutet (vgl. Kapitel 7.1.1): Es gibt „unterschiedliche Sprachen“ in verschiedenen Subkulturen. Bezogen auf das Interview: Es existiert häufig für ein und dieselbe Frage ein unterschiedliches Verständnis, eine unterschiedliche Deutung zwischen Interviewer und Befragtem sowie innerhalb verschiedener Gruppen von Befragten. Hinzu kommt noch-- und das ist eine einschneidende Einschränkung--, dass bei der Befragung die beobachtbaren Reaktionen auf gegebene verbale Stimuli (also die protokollierbaren Antworten auf gestellte Fragen) nicht immer auch schon Ausprägungen der interessierenden Merkmale sind, sondern oft nur Indikatoren für ihr Vorliegen. Wenn z. B. politische Einstellungen als Merkmale von Individuen interessieren, erhält der Forscher Antworten auf sogenannte Einstellungsfragen und verwendet diese Antworten als Indikatoren für die eigentlich interessierenden, aber nicht direkt feststellbaren Einstellungen. Doch selbst wenn die Antwort bereits eine direkte Auskunft über die Ausprägung eines interessierenden Merkmals ist, kann die Verlässlichkeit dieser Information durchaus fraglich sein. Interessiert z. B. das Haushaltseinkommen als Merkmal des untersuchten Haushalts, erhält der Forscher zwar Angaben der als Informantin befragten Ehefrau über das Haushaltseinkommen aufgrund einer entsprechend gestellten Frage und kann diese Angaben als Messwerte für das interessierende Merkmal Haushaltseinkommen verwenden. Gültigkeit und Zuverlässigkeit dieser Daten sind jedoch im Einzelfall nicht abschätzbar. Friedrichs (1982, 223) berichtet zu dem letztgenannten Beispiel von einer vergleichenden Auswertung verschiedener Quellen im Statistischen Bundesamt, die zeigt, in welch geringem Maß selbst eine so einfach scheinende Frage wie die nach dem Einkommen das tatsächliche Einkommen des Haushalts wiedergibt: Nur bei 52 % aller Haushalte stimmten danach die Angaben im Interview mit Zahlen anderer Datenquellen (hier: Haushaltsbücher) überein. In 37 % der Fälle wurde das monatliche Nettoeinkommen im Interview zu niedrig, in 11 % zu hoch angegeben. 261 Die Literatur zur Befragung ist besonders umfangreich. Eine Reihe von Lehrbüchern geht ausführlich auf Befragungen und insbesondere einzelne Aspekte der Befragung ein. Empfehlenswert sind Dillman 2000; Faulbaum/ Prüfer/ Rexroth 2009; Frey/ Kunz/ Lüschen 1990, 24 f.; Jackob/ Schoen/ Zerback 2009; Kaase/ Küchler 1985, 55 ff.; Porst 2014; Schnell 2012; für aktuelle Hinweise siehe www.gesis.org/ unser-angebot/ publikationen/ . Problem unterschiedlicher Sprachverständnisse protokollierbare Antworten nur Indikatoren BEISPIEL <?page no="336"?> 337 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 337 Solche Abweichungen können nicht allein darauf zurückgeführt werden, dass Befragte bewusst falsche Angaben machen-- was natürlich auch vorkommen wird. Abweichungen müssen vielmehr schon deshalb auftreten, weil in der Befragung nicht die eigentlich interessierenden Merkmale erhoben werden können (Einstellungen; Einkommen; Bildung), sondern einzig Kenntnisse oder Vermutungen der Befragten über den jeweiligen Sachverhalt zum Zeitpunkt und in der Situation der Befragung. Diese Kenntnisse aber können fehlerhaft, die Vermutungen ungenau sein. Sie werden zunehmend ungenauer, je komplizierter der erfragte Sachverhalt für den Befragten ist, je geringer seine persönlichen Erfahrungen mit dem Sachverhalt sind und je weiter das erfragte Ereignis zeitlich zurückliegt. In diesem Zusammenhang vom „Befragten als Fehlerquelle“ zu sprechen (so etwa Scheuch 1973a, 115 ff.), ist dennoch problematisch. Die befragte Person wird im Interview in eine Rolle gedrängt, die ihr oder ihm ad hoc verbale Reaktionen auf verbale Stimuli abverlangt. Wenn diese Reaktionen (die Antworten) auf die Stimuli (die Fragen) nicht mit den Sachverhalten übereinstimmen, die erhoben werden sollen, dann ist darin kein „Fehlverhalten“ zu sehen. 262 Vielmehr wird der Befragte sich bemühen, jeweils für ihn „angemessen“ auf diese künstliche Situation zu reagieren, mit der er sich konfrontiert sieht. Ist er unsicher, wird er vielleicht versuchen, so zu antworten, wie er meint, dass dies vom Interviewer oder von seiner sozialen Umwelt erwartet wird (Neigung zu sozial erwünschten Antworten). Fühlt er sich „überfallen“, wird er möglicherweise trotzig reagieren und eventuell Antworten auf unbequeme Fragen verweigern. Ist er zum Zeitpunkt der Fragestellung ermüdet, wird er vielleicht automatisch von vorgelegten Antwortvorgaben irgendwelche aus dem mittleren Bereich der Vorgabeliste wählen. Fühlt er sich überfordert, wird er vielleicht raten, um nicht vor dem ihm fremden Interviewer als jemand dazustehen, der „nichts weiß“ (zum „Befragtenverhalten“ vgl. Schnell 2012, Kapitel 2 und die Untersuchungen von Esser 1975, 1977). Der Befragte ist eben keine Datenbank, aus der man nach Bedarf Daten abrufen kann. Das Interview ist vielmehr ein ausgesprochen „unnatürlicher“, „künstlicher“ Interaktionsprozess (zu den Besonderheiten der „Forschungskontaktsituation Befragung“ siehe Schnell 2012, Kreutz 1972). Die Daten, die durch Befragungen gesammelt werden, sind speziell für den Zweck der Forschung produzierte Daten; es sind nicht Aufzeichnungen über normale soziale Prozesse (wie etwa im Falle der Beobachtung in „natürlichen“ Situationen). Jede Befragung hat etwas von der Künstlichkeit einer Laborsituation an sich. Würden Gespräche in natürlichen Situationen festgehalten und ausgewertet, hätte man es nicht mehr mit der Anwendung der Methode „Befragung“ zu tun, sondern es handelte sich um die Inhaltsanalyse von Texten, die ohne das Instrument „Fragebogen“ entstanden sind. 262 Man muss sich ja nicht unbedingt der extremen Position von Manning (1967, „the respondent never lies“) anschließen, an die Atteslander u. a. (1991, 138) erinnern: „Der Befragte lügt nie-- die zutreffende Interpretation dessen, was er sagt, hängt vom Können des Analytikers ab“ (siehe auch Esser 1986). Ungenauigkeit durch indirekte Messung Situation der Befragten berücksichtigen <?page no="337"?> 338 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 338 7.3.1 Eigenschaften der Interview-Situation Die Befragung (das persönliche mündliche Interview ebenso wie die schriftliche und die telefonische Befragung) ist ein formalisiertes Verfahren der empirischen Sozialforschung, mit dem Informationen über sozialwissenschaftlich interessierende Sachverhalte erhoben werden sollen. Alle im Interview gestellten Fragen sind nicht Bestandteile einer zweckfreien Kommunikationssituation, sondern haben rein instrumentellen Charakter: Sie sind Mittel zu dem gewünschten Zweck: den Antworten. Das Instrument „Fragebogen“ misst im Allgemeinen nur indirekt, indem es nicht Eigenschaften von Sachverhalten erfasst, sondern Aussagen über Eigenschaften von Sachverhalten (im Einzelnen siehe Porst 2014, 19 ff.; Kreutz 1972, 62 ff.). Noelle-Neumann/ Petersen bringen diese Situation auf die Kurzformel: „Das Gespräch ist kein Gespräch“; womit gemeint ist: Das mündliche Interview hat zwar äußerliche Ähnlichkeit mit der alltagsweltlichen Situation eines Gesprächs zwischen zwei Menschen; es wird aber völlig missverstanden, wenn man es nach den dafür eingebürgerten gesellschaftlichen Wertmaßstäben und Konventionen beurteilt. Plastischer beschrieben: „Der Interviewer ruft zur Unzeit an und bittet um ein Gespräch, beansprucht die Zeit des Befragten, unterbricht bei der Arbeit oder stört Freizeitpläne. Oder er klingelt wie ein Hausierer an der Wohnungstür, und obwohl er in der Regel ein Fremder ist, lässt er sich am Küchentisch oder Wohnzimmertisch nieder und stellt Fragen nach völlig privaten Dingen- - z. B. nach Gesundheit, Einkommen, Zukunftsplänen, politischen Ansichten, Jugenderlebnissen--, wechselt sprunghaft die Themen, geht überhaupt nicht persönlich auf seine Gesprächspartner ein, sondern schert alle Befragten über einen Kamm, führt das ganze Gespräch ‚nach Schema F‘ und verstößt dabei gegen alle Regeln einer gebildeten Unterhaltung.“ (Noelle-Neumann/ Petersen 1996, 60) Zu dieser Künstlichkeit der Befragungssituation 263 werden häufig drei Punkte besonders hervorgehoben (vgl. v. Alemann 1977, 208 f.): Erstens sind im Normalfall die interagierenden Personen (Interviewer und Befragter) Fremde, die sich noch nie gesehen haben. Für den einen von ihnen, nämlich Interviewerin bzw. Interviewer, gibt es bestimmte Rollenvorschriften, nach denen sie/ er sich verhalten soll. Diese Verhaltensvorschriften werden in der Interviewerschulung explizit vermittelt. 264 263 Qualitative Untersuchungsformen allerdings orientieren sich durchaus am Modell „alltägliches Gespräch“ und bemühen sich, ein möglichst hohes Maß an „Natürlichkeit“ in die Interviewsituation hinüberzuretten (zu einigen Regeln qualitativer Interviews siehe Hopf 1978). 264 Nach der Art der Verhaltensvorschriften unterscheidet man zwischen „weichen“, „neutralen“ oder „harten“ Interviews. formalisierte Informationserhebung VERTIEFUNG Künstlichkeit der Befragungssituation Gespräch unter Fremden <?page no="338"?> 339 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 339 Für Befragte gibt es solche ausformulierten und eingeübten Rollenvorschriften nicht. Fehlen bisher Erfahrungen mit Interviewsituationen, werden Befragte vergleichbare oder ähnliche Situationen zur Orientierung heranziehen: etwa Vertreterbesuche an der Wohnungstür. Von daher ergeben sich für Interviewer teilweise erhebliche Probleme, das Einverständnis der zu befragenden Person für das Interview zu gewinnen. Je nach Zugehörigkeit zu sozialen Schichten ließen sich unterschiedliche Antwortbereitschaften beobachten. Mittelschichtangehörige sind mitteilungsfreudiger als Arbeiter oder Oberschichtangehörige. Man spricht häufig sogar von einer ausgesprochenen Mittelschichtorientierung der Methode Befragung. Vorausgesetzt wird bei der Befragung ein nicht unerheblicher Individualismus des zu Befragenden. Es wird unterstellt, dass zum einen der Interviewpartner seine eigenen Ansichten überhaupt für mitteilenswert ansieht und dass er zum anderen nicht so vollständig in Gruppenbezügen denkt, dass bei verschiedenen Personen der gleichen Gruppenzugehörigkeit immer die gleichen Antworten zustande kämen. Mit anderen Worten: „Es muss zu den sozial eingeübten Verhaltensweisen [des Befragten, H. K.] gehören, in einer dyadischen Beziehung mit Fremden mitteilbare und als mitteilenswert angesehene Meinungen und Informationen zu besitzen und sich zu ihrer Äußerung fähig und kompetent zu fühlen“ (Esser 1974, 111). Zweitens handelt es sich bei einem Interview um eine asymmetrische soziale Beziehung. Die eine Person (der Interviewer/ die Interviewerin) stellt ständig Fragen; von ihr gehen fast alle Aktivitäten aus. Die andere Person (der/ die Befragte) gibt Auskünfte über sich selbst und verhält sich weitgehend passiv. Der Befragte ist im Rahmen des Erhebungsmodells „standardisiertes Interview“ kein eigentlicher Gesprächspartner, sondern in allererster Linie „Datenträger“ und Informant. Strategien zur Strukturierung der Interviewsituation (Interviewerschulung, vorgeschriebener Interviewstil, s. o.) sowie zur „richtigen“ Konstruktion von Fragebögen (vgl. Porst 2014; Schnell 2012; Kreutz/ Titscher 1974) sind Bestandteil von Bemühungen zur Optimierung der Bedingungen des „Datenabrufs“. Drittens unterscheidet sich die Situation des Interviews von natürlichen Interaktionen dadurch, dass sie sozial folgenlos ist. Im Normalfall weist der Interviewer auf diesen Tatbestand mittels Zusicherung der Wahrung der Anonymität ausdrücklich hin. Wenn den Befragten nicht gerade dieser Hinweis besonders misstrauisch machen sollte, kann er seine Meinungen über alle Themen frei „von der Leber weg“ äußern. Wenn er sagt, sein Vorgesetzter sei ein Quatschkopf, dann hat das für ihn, anders als würde er diese Äußerung am Arbeitsplatz tun, keine Konsequenzen. Eine Folge davon ist u. a., dass auch weniger „harte“ Meinungen im Interview geäußert werden. In anderen nicht privaten sozialen Situationen wird jemand eine bestimmte Meinung erst dann vertreten, wenn er auch wirklich fest von ihr überzeugt ist, etwa in der Diskussion bei einer öffentlichen politischen Wahlveranstaltung. Atteslander u. a. (1991, 142) unterscheiden in diesem Zusammenhang zwischen „verbindlichen“ und „unverbindlichen“ Meinungen. Vergleich mit ähnlichen Situationen schichtabhängige Reaktionen auf Befragung asymmetrische soziale Beziehung sozial folgenlose Situation verbindliche/ unverbindliche Meinungen <?page no="339"?> 340 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 340 Nimmt man dies alles zusammen, so dürfte deutlich sein, dass das Interview niemals ein neutrales Erhebungsverfahren sein kann, welches ohne Beeinflussung durch Merkmale der Forschungskontaktsituation lediglich die verbalen Stimuli des Fragebogens an den Befragten weitergibt und dessen Antworten möglichst exakt aufzeichnet. Hierzu trägt allein schon die Tatsache bei, dass es eine von (fast) allen befolgte soziale Norm ist, auf eine Frage zu antworten. „Nicht zu antworten, also keine Reaktion zu zeigen, widerspricht offensichtlich allgemeinen Erwartungen gegenseitigen Verhaltens. Fragen sind deshalb immer auch als Reaktion nicht nur auf das zu Erfragende bezogen, sondern auf den Fragenden, auf die gesamte Situation. Die Frage ist zugleich Element eines Prozesses und auch Element ganz spezifischer zeit-örtlich fixierter sozialer Situationen“ (Atteslander u. a. 1991, 142). Noch weiter gehen Noelle-Neumann/ Petersen, die (zumindest) das demoskopische Interview als ein „Reaktions-Experiment“ bezeichnen. Sie erläutern dies am Beispiel einer Umfrage zur Krankenkassenreform, in der den Befragten Reform-Alternativen zur Beurteilung vorgelegt wurden. Ihre Situationsanalyse: „Zweifellos hatte die große Mehrheit der Befragten vor Beginn des Interviews noch keine gleichsam bereitliegende Meinung darüber, welche dieser Regelungen die bessere sei. Das Vorlegen von Fragen zu Gegenständen, über die sich die Befragten vor dem Interview noch keine Meinung gebildet haben, ist keine Ausnahme. Bei den ‚Meinungsumfragen‘ werden also häufig keine fertigen Meinungen eingesammelt, sondern es werden Reaktionen festgestellt. Die Befragten ‚reagieren‘ in der experimentellen Test-Situation, indem sie die Testfragen beantworten. Sie mögen über die beste Krankenkassen-Regelung vor dem Interview noch keine klare Meinung gehabt haben, aber dennoch kommen die Ansichten, die sie nun äußern, nicht von ungefähr. Sie sind ein Ausdruck von Kenntnissen, von persönlichen Erfahrungen, Anlagen und Einstellungen, von persönlichen Interessen, die den realen und meist schwer veränderlichen Untergrund der Meinungen bilden. Die Meinung selbst mag sich eben erst im Interview gebildet haben, die Dispositionen, deren Indikator sie ist, sind vorgegeben und sind-- etwa bei der Einführung einer Krankenkassenreform-- eine politische Realität.“ (Noelle-Neumann/ Petersen 1996, 82 f.) 265 7.3.2 Nochmals: Das Modell sozialer Kommunikation (erweitert) Im Kapitel 7.1.1 wurde bereits ein vereinfachtes Modell sozialer Kommunikation eingeführt. Zum Verständnis der bei Inhaltsanalysen zu überwindenden Probleme war die vereinfachte Darstellung hinreichend. Um die bei der Anwendung des Instruments Befragung hinzukommenden Schwierigkeiten zu illustrieren, ist jedoch eine 265 Auf die Unterscheidung von „Testfragen“ (die im Interview gestellt werden) und „Programmfragen“ (die durch die Untersuchung insgesamt beantwortet werden sollen) wird im Kapitel 7.3.3 eingegangen. kein neutrales Erhebungsverfahren VERTIEFUNG Interview als „Reaktions- Experiment“ <?page no="340"?> 341 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 341 Modifizierung notwendig: Man stelle sich eine Forscherin vor, die-- etwa zur Überprüfung einer Theorie-- Daten über soziale Sachverhalte benötigt und die als geeignetes Erhebungsinstrument das standardisierte Interview wählt, also zur Operationalisierung der zentralen Begriffe ihrer Hypothesen eine Reihe von Fragen formulieren will. Das heißt: Die Forscherin (F) hat in ihrem Kopf bestimmte Fragestellungen (gedankliche Frageinhalte G; wobei im Folgenden der Prozess der Datenerhebung im Hinblick auf nur eine solche Fragestellung nachvollzogen werden soll): 1a) F benötigt Daten zum sozialen Sachverhalt S. 1b) F denkt G 1 . Zu dieser gedanklichen Fragestellung formuliert sie einen konkreten Fragewortlaut: 2) F verschlüsselt G 1 in W 1 (=-Frageverständnis der Forscherin). Nun führen jedoch im Normalfall nicht die Forscher, die den Fragebogen entwickelt haben, auch selbst die Interviews durch. Vielmehr wird die Feldarbeit einem Interviewerteam übertragen. Die Interviewer werden im Idealfall für ihre Aufgaben speziell geschult, d. h. ihnen wird der Fragebogen erläutert, sie werden in den gewünschten Interviewstil eingewiesen usw. Danach suchen die Interviewer (I) die ausgewählten Interviewpartner auf. Im folgenden Interview wird dem Befragten (B) der von der Forscherin formulierte Fragewortlaut übermittelt: 3) I übermittelt W 1 an B (=-Interviewer als „Übertragungsmedium“ zwischen Sender =-Forscherin und Empfänger =-Befragter). Der Befragte hört den Fragewortlaut und übersetzt die Worte entsprechend seinem Sprachverständnis in eine gedankliche Frageassoziation: 4) B hört W 1 und entschlüsselt in G 2 (=-Frageverständnis des Befragten). Aufgrund seines Frageverständnisses entwickelt der Befragte den gedanklichen Vorstellungsinhalt einer Antwort, die er für angemessen hält: 5) B denkt G 3 . Diese ihm angemessen erscheinende Antwort hat der Befragte nun sprachlich zu formulieren, wobei er je nach Art der Fragestellung dies entweder in eigenen Worten tun kann (bei „offenen Fragen“) oder aus einer Anzahl vorgegebener Antwortmöglichkeiten auszuwählen hat (bei „geschlossenen Fragen“): 6) B verschlüsselt G 3 in W 2 . Im Falle einer „geschlossenen Frage“ protokolliert der Interviewer, welche der vorgegebenen Antwortkategorien der Befragte genannt hat: Schritte des Frage-Antwort- Prozesses <?page no="341"?> 342 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 342 7a) I hört und protokolliert W 2 . Komplizierter ist der Ablauf im Falle „offener Fragen“. Der Interviewer hört die Antwort W 2 , kann jedoch normalerweise nicht vollständig den ganzen Wortlaut protokollieren, sondern muss das nach seinem Verständnis „Wesentliche“ in Stichworten festhalten. 7b) I hört W 2 und entschlüsselt in G 4 (=-Antwortverständnis des Interviewers). 7c) I wählt aus G 4 das nach seiner Auffassung „Wesentliche“ heraus und verschlüsselt dies zu W 3 (=-Antwort von B im Antwort- und Sprachverständnis von I; d. h. Antwort von B, wie sie durch Vermittlung des Mediums I zu Protokoll genommen wird). Später erhält die Forscherin die kompletten Fragebögen und wertet diese aus. Das heißt, sie entschlüsselt die Antworten unter Rückgriff auf ihr Sprachverständnis und interpretiert die protokollierten (und damit zu Daten gewordenen) Antworten als Indikatoren für den Sachverhalt S. Im Falle „geschlossener Fragen“ (vgl. 7a): 8a) F entschlüsselt W 2 in G 4 (=-Antwortverständnis der Forscherin) und interpretiert W 2 als Indikator für S. Im Falle „offener Fragen“ (vgl. 7b, 7c): 8b) F entschlüsselt W 3 in G 5 und interpretiert W 3 als Indikator für S. Die Schritte 1b bis 8b skizzieren den formalisierten Prozess der Kommunikation zwischen Forscherin und Befragtem im Falle eines standardisierten Interviews. Skeptischer formuliert: Sie skizzieren Rudimente einer Kommunikation mit eingebauten Hindernissen. Um sich diese „eingebauten Hindernisse“ vor Augen zu führen, vergegenwärtige man sich einige Voraussetzungen für einen gelingenden Kommunikationsprozess: Alle am Kommunikationsprozess Beteiligten müssen die erforderliche kommunikative Kompetenz besitzen, d. h. jeder Beteiligte muss die Bedeutung der Zeichen kennen, mit deren Hilfe kommuniziert wird (hier: sprachliche Zeichen, deren Grammatik und Semantik), und zwar müssen alle Beteiligten (Forscherin, Interviewer, Befragter) den Zeichen die gleiche Bedeutung beimessen. Im alltäglichen Gespräch wählt man, um Missverständnisse nach Möglichkeit zu vermeiden, eine redundante Ausdrucksweise; d. h. es wird einiges wiederholt, es wird der gleiche Gedankengang in verschiedenen Worten ausgedrückt. Es wird also insgesamt mehr Information angeboten, als zur Verständigung notwendig wäre, wenn alle möglichen Kommunikationshemmnisse technischer, psychischer und sozialstruktureller Art ausgeschlossen werden könnten. Diese Strategie lässt sich beim standardisierten Interview nur in begrenztem Ausmaß verfolgen: Der Fragebogen darf nicht allzu lang werden. Der Fragewortlaut muss für alle Befragten identisch sein, er muss Kommunikation mit Hindernissen Voraussetzung: kommunikative Kompetenz <?page no="342"?> 343 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 343 der gleiche sein für Personen mit hoher kommunikativer Kompetenz wie für Personen mit geringer kommunikativer Kompetenz. Die Forscherin in unserem Beispiel muss deshalb versuchen, einen Mittelweg zu finden: Sie muss eine Sprache wählen, die möglichst allgemeine Geltung hat; eine Sprache, die Personen aus der einen Subkultur nicht überfordert, die aber zugleich Personen aus einer anderen Subkultur nicht als zu banal oder zu wenig differenziert erscheint. Das Ergebnis wird tendenziell eine mittelschichtorientierte Sprache sein. Die Strategie, Kommunikationshemmnisse technischer, psychischer und sozialstruktureller Art weitgehend auszuräumen, stößt nicht nur bei der Wahl der Sprachebene, sondern auch bei anderen Teilproblemen sehr schnell an Grenzen. Am ehesten lassen sich technische Kommunikationshemmnisse überwinden: - Der Fragebogen kann so gestaltet werden, dass die Interviewer keine Schwierigkeiten haben, die Fragen an den Befragten zu übermitteln (vgl. Punkt 3): deutliche Schrift, übersichtliche Anordnung der Fragen, gut erkennbare Anweisungen für den Interviewer (Porst 2014, 33 ff.). - Die Interviewer werden geschult, darauf zu achten, dass der Wortlaut vom Befragten korrekt wahrgenommen (gehört) werden kann (vgl. Punkt 4): deutliches Sprechen, Ausschalten störender Geräusche in der Interviewsituation, unterstützende Hilfsmittel wie vorzulegende Listen mit Antwortvorgaben bei Auswahlfragen. - Der Fragebogen kann so aufgebaut werden, dass bei geschlossenen Fragen die vom Befragten gewählte Antwortalternative ohne Probleme durch Ankreuzen protokolliert werden kann (vgl. Punkt 7a). Bei offenen Fragen jedoch ist die Protokollierung wesentlich schwieriger (vgl. Punkte 7b, 7c; Faulbaum/ Prüfer/ Rexroth 2009). Ein Aufnahmegerät zum Aufzeichnen der Antworten kann im Allgemeinen bei standardisierten Interviews mit lediglich eingestreuten offenen Fragen nicht eingesetzt werden (Einverständnis des Befragten erforderlich, wodurch das Zustandekommen des Interviews erschwert würde; großer Zeitaufwand beim nachträglichen Übertragen der Tonaufzeichnung auf den Interviewbogen). Wesentlich geringer sind die Chancen, die nicht technischen Kommunikationshemmnisse in den Griff zu bekommen. Keine Kommunikation geschieht voraussetzungslos. Jeder Gesprächspartner macht sich vom anderen bestimmte Vorstellungen. Bei den Interviewern entsteht dadurch die Gefahr, dass sie nach einigen durchgeführten Befragungen zu wissen glauben, was ihr Gegenüber wohl antworten werde; etwa: „Wenn jemand alt ist und Arbeiter, dann stellt er an die Qualität seiner Wohnumwelt keine hohen Ansprüche“. Entsprechend solcher Vorerfahrungen werden Interviewer bei nicht ganz klaren, bei Sowohl-als-auch-Antworten auf eine entsprechende Frage den Sinn in die Antwort hineininterpretieren, der ihren eigenen (Vor-) Urteilen am nächsten kommt (vgl. Punkte 7a bis 7c). Aber nicht nur beim Protokollieren der Antworten, sondern schon beim Übermitteln des Fragewortlauts kann der Interviewer Ursache für eine verzerrte Kommunikation zwischen Forscherin/ Forscher und Befragten werden (vgl. Punkt 3). Der formulierte Fragewortlaut wird ja nicht rein mechanisch vom Interviewer nur verlesen, sondern der Interviewer entschlüsselt die Frage für sich zunächst ebenfalls zu Sprache mit allgemeiner Geltung Fragebogengestaltung Schulung von Interviewer/ innen angemessene Antwortalternativen Problem der nicht technischen Kommunikationshemmnisse Fehl-Interpretation von Antworten Interpretation von-Fragen <?page no="343"?> 344 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 344 einem gedanklichen Vorstellungsbild. Und entsprechend seinem Frageverständnis kann er durch die Betonung der Worte seine Sinninterpretation, die nicht mit dem ursprünglich gemeinten Sinn voll übereinstimmen muss, an den Befragten weitervermitteln (zum „Interviewer als Fehlerquelle“ vgl. Erbslöh/ Wiendieck 1974, Glantz/ Michael 2014). Auch die Befragten machen sich natürlich ein Bild vom Interviewer, wobei sie-- da dieser ihnen als Person im Normalfall völlig unbekannt ist- - lediglich auf dessen Aussehen und Auftreten als Anhaltspunkte für ihre Urteilsbildung zurückgreifen können. Entsprechend wird sich beim jeweiligen Befragten das Urteil über den Interviewer aus dessen generalisierten Erfahrungen bilden, aus Vorurteilen etwa über „junge Leute mit Bart und langen Haaren“, über „junge Damen, die sich nicht genieren, an fremder Leute Türen zu klingeln“ oder aber über „adrett aussehende Burschen“ oder „geschniegelte und gestriegelte junge Leute, die es doch nicht nötig haben sollten, ‚mit so was‘ ihr Geld zu verdienen“. Auf das Antwortverhalten wird das jeweilige Bild vom Gegenüber nicht ohne Einfluss bleiben (vgl. Punkte 5 und 6). Je nachdem, wie ein Befragter den Interviewer einschätzt, wird er bestimmte inhaltliche Antwortmöglichkeiten und bestimmte Formulierungen für mehr oder weniger „angemessen“ halten und sich mehr oder weniger zurückhaltend oder vertrauensvoll zeigen. Hierbei ist natürlich auch das Verhalten des Interviewers bedeutsam: Ob er sich interessiert oder gelangweilt zeigt, ob er bestimmte Antworten bestärkt oder vielleicht mit einem „na ja“ herabsetzt, wird vom Befragten- - wenn auch nicht immer bewusst- - wahrgenommen und wirkt sich auf das Resultat des Interviews aus. Doch nicht erst das Interviewer-Verhalten „bewirkt“ Unterschiede im Antwortverhalten der Befragten. Schon Konstellationen wie alt/ jung und männlich/ weiblich bei befragter Person und Interviewer/ Interviewerin sind nicht neutral und können je nach dem Gegenstand der Frage erhebliche Antwortunterschiede hervorrufen. So berichteten Mayntz/ Holm/ Hübner (1978, 117) die folgenden Reaktionen auf das Statement „Gefängnisse sind zu gut für Sittlichkeitsverbrecher; sie sollten öffentlich ausgepeitscht werden“: Zustimmung Ablehnung Unentschieden Männer von Männern interviewt Männer von Frauen interviewt Frauen von Frauen interviewt Frauen von Männern interviewt 44 % 39 % 49 % 61 % 48 % 58 % 47 % 28 % 8 % 3 % 4 % 11 % Bei „gleichgeschlechtlicher“ Konstellation Befragte(r)/ Interviewer(in) unterscheiden sich die Antworten von Männern und Frauen nicht signifikant. Bei „gegengeschlechtlicher“ Konstellation dagegen könnten die Antwortunterschiede kaum gravierender ausfallen: nur 28 % der Frauen, aber 58 % der Männer lehnen Wahrnehmung durch die Befragten BEISPIEL <?page no="344"?> 345 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 345 das Statement ab, 61 % der Frauen, aber nur 39 % der Männer stimmen ihm zu. Solche Zahlen belegen, dass zumindest bei sogenannten „schwierigen Fragen“ (s.-7.3.3, S. 357) eine undifferenzierte, die Interviewsituation nicht in Rechnung stellende Auszählung zu erheblichen Fehlschlüssen führen kann. Bedeutsam für die Qualität der in standardisierten Interviews zu erhebenden Daten ist auch die sorgfältige Ausschöpfung des möglichen Antwortspektrums. So entsteht bei „geschlossenen Fragen“ ein spezifisches Problem, wenn ein Befragter die ihm angemessen erscheinende Antwort (vgl. Punkt 5) nicht in den vorgegebenen Antwortalternativen wiederfindet und er deshalb den gedanklichen Vorstellungsinhalt seiner Antwort nicht ohne Informationsverlust oder nicht zutreffend in den im Fragebogen vorformulierten Kategorien verschlüsseln kann (vgl. Punkt 6). Er muss dann die seinen Vorstellungen am nächsten kommende Antwortalternative wählen und damit streng genommen „nicht richtig“ antworten; oder er wird sagen müssen, alles treffe für ihn nicht zu. Kommt so etwas häufiger im Fragebogen vor, werden Befragte möglicherweise das ganze Interview nicht mehr sehr ernst nehmen und Beliebiges antworten oder das Gespräch abbrechen. Beispiel für die Wahl einer „eigentlich nicht richtigen“ Antwort-Alternative: Bei der Begleitforschung parallel zur Erprobung des seinerzeit (1980/ 81) neuen Informations- und Kommunikationsmediums Bildschirmtext (Btx; quasi ein Vorläufer des Internet) wurde als ein Indikator zur Messung der „Akzeptanz“ dieses Mediums die Frage gestellt: „Wird Ihr Haushalt nach dem Feldversuch voraussichtlich Bildschirmtext-Nutzer bleiben? “ An Antwortmöglichkeiten wurde vorgegeben: „voraussichtlich ja“ sowie „voraussichtlich nein“. Die einfache und leicht nachvollziehbare Überlegung war: Je höher der Anteil der Haushalte, die auch nach Ende des Feldversuchs Btx-Nutzer zu bleiben beabsichtigten, desto höher die Akzeptanz dieses Mediums. Das Ergebnis von Befragungen im Verlauf der Erprobungsphase fiel über Erwarten positiv aus: Fast 87 % wollten auch nach dem Auslaufen des Feldversuchs dabeibleiben. Andererseits zeichneten parallel durchgeführte Gruppendiskussionen ein wesentlich skeptischeres Bild: Nur etwa die Hälfte wollte nach Feldversuchs-Ende Bildschirmtexter bleiben. Zwischen den mit zwei verschiedenen Instrumenten erzielten Ergebnissen klaffte also eine erhebliche Diskrepanz. Die Gruppendiskussionen lieferten jedoch zugleich Hinweise auf die Ursache für diese Diskrepanz: Entgegen aller Alltags-Plausibilität war in der Befragung mit der Dichotomie ja/ nein der semantische Raum der möglichen Antworten nicht vollständig erfasst worden. Für einen erheblichen Anteil der Btx-Erprober traf ein „ja, aber-…“ zu, das in Wirklichkeit einem nur zeitlich ein wenig hinausgeschobenen „nein“ entsprach. Dieser Hinweis ließ sich im Falle der hier geschilderten empirischen Forschung einwandfrei bestätigen, da noch die Möglichkeit bestand, die Frage in der „Schlussmessung“ am Ende des Feldversuchs zu wiederholen. Die ursprüngliche Formulierung bestätigte mit ihrem Ergebnis die Zwischenbefragungen: 89 % antworteten „voraussichtlich ja“. In einer etwas differenzierteren Ausschöpfung des möglichen Antwortspektrums BEISPIEL <?page no="345"?> 346 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 346 Zusatzfrage korrigierte jedoch fast die Hälfte von ihnen ihr „ja“ zu einem „ja, aber-…“-- nämlich: „Der Haushalt wird Btx nur so lange nutzen, wie kein neuer Decoder angeschafft werden muss“ (d. h. nur so lange, wie man die für die Erprobungsphase zur Verfügung gestellte Technik weiter verwenden kann). 266 Was auf den ersten Blick als „Akzeptanz“ erschien, war also in fast der Hälfte der Fälle lediglich Ausdruck eines „Mitnahme-Effektes“. Da aber die Antwortvorgaben den Befragten eine gegebenenfalls notwendige differenzierte Aussage nicht erlaubten, wählte ein Teil von ihnen die Vorgabe, die ihrer „eigentlichen“ Antwort am nächsten kam. Wortwörtlich genommen traf es ja zu, dass sie nach dem offiziellen Ende des Feldversuchs (zunächst noch) Btx-Nutzer bleiben wollten, aber eben nur so lange, wie keine zusätzliche Investition in die neue Technik erforderlich war. 7.3.3 Die Lehre von der Frage und vom Fragebogen Das Vorgehensschema bei der Entwicklung und Anwendung der Methode Befragung ist das gleiche wie bei anderen empirischen Erhebungsverfahren: Ausgangspunkt ist die zu untersuchende Problemstellung; über dimensionale und/ oder semantische Analyse, Begriffspräzisierung und Hypothesenbildung gelangt die Forscherin bzw. der Forscher zur Klärung, welche Arten von Informationen benötigt werden und mit welchen Instrumenten sie beschafft werden könnten. Kommt die Forscherin/ der Forscher dabei zu der Meinung, ein Fragebogen sei ein geeignetes Instrument, dann erst wird das theoretische Modell-- d. h. die Variablen, die in den Hypothesen vorkommen, sowie die in den Hypothesen postulierten Beziehungen zwischen den Variablen-- in Fragen „übersetzt“, also mit Hilfe eines Fragebogens operationalisiert. Die Hypothesen bzw. das untersuchungsleitende Modell bilden den Bezugsrahmen der Forschung; sie sind der Grund, warum bestimmte Fragen gestellt werden. Ihr Zweck sind Antworten, die als Daten der Überprüfung der Hypothesen dienen sollen. „Die Frage ist demnach das Bindeglied zwischen den Variablen der Hypothesen und den Antworten“ (Friedrichs 1982, 204). Vergleichbares gilt im Falle deskriptiver Untersuchungen. 267 Wegen der Unterschiedlichkeit der wissenschaftlichen Sprache und der Alltagssprache kann man natürlich nicht die theoretischen Begriffe (etwa Anomie, Partizipation, Integration, Schichtung, Berufsprestige) in der Frageformulierung benutzen, sondern muss solche Worte verwenden, die nach Möglichkeit von allen zu befragenden Personen verstanden werden-- und zwar in möglichst gleicher Weise. Die Forscherin/ der Forscher wird außerdem für einen theoretischen Begriff nicht nur eine einzige Frage stellen, sondern mehrere, um der Mehrdeutigkeit der Alltagssprache 266 Landesregierung Nordrhein-Westfalen 1982/ 83, Band 4: Zwischenbefragung (Panelerhebung), 10; Band 1: Abschlussbericht, 36. 267 In den letzten Jahren sind einige Lehrbücher speziell zur Konstruktion von Fragebögen entstanden. Empfohlen seien insbesondere Schnell 2012 und Faulbaum/ Prüfer/ Rexroth 2009. Vorgehen Übersetzung in Alltagssprache <?page no="346"?> 347 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 347 Rechnung zu tragen. Bei Begriffen, die von unterschiedlichen Personengruppen in unterschiedlicher Weise benutzt werden, kommt vielleicht noch eine Frage zum Begriffsverständnis des Befragten hinzu: „Was verstehen Sie unter-…? “ „Forschungsfragen“ und „Testfragen“ Die oben angesprochene „Übersetzung“ eines untersuchungsleitenden Modells in Fragen für den Fragebogen ist das Kernstück der Umfragemethode. Dieser Arbeitsschritt ist nicht lediglich deshalb von besonderer Bedeutung, weil durch einfache und klare Formulierungen sichergestellt werden soll, dass jede befragte Person die Frage eindeutig und in gleicher Weise versteht (s. o.)-- das ist zwar eine notwendige, aber noch keine hinreichende Bedingung für das Gelingen eines Forschungsprojekts. „Kernstück“ der Projektvorbereitung und -durchführung ist dieser Arbeitsschritt vielmehr, weil es in ihm darum geht, die eigentlich interessierenden Forschungsfragestellungen in konkret erfragbare Informationen zu transformieren, d. h. die untersuchungsleitenden Fragen zu „operationalisieren“ (vgl. Kapitel 4.3). Noelle-Neumann/ Petersen unterscheiden in diesem Zusammenhang zwischen den „Programmfragen“ der Forschung und den ihnen zugeordneten „Testfragen“ der Umfrage. 268 Nur im Falle direkt umformulierbarer Forschungsfragestellungen ist dieser Übersetzungsvorgang einstufig, beispielsweise wenn konkrete, leicht erinnerbare und/ oder nachprüfbare Sachverhalte abgefragt werden. So möge etwa für eine verkehrswissenschaftliche Arbeit in der Hauptstadt Berlin von Interesse sein, welche Verkehrsmittel von welchen Personengruppen benutzt werden (=- Forschungsfrage). Dieser Informationswunsch könnte direkt u. a. in eine Frage wie die folgende umformuliert werden: Benutzen Sie hier in Berlin manchmal oder häufiger die S-Bahn, die U-Bahn oder den Omnibus? Oder benutzen Sie diese Verkehrsmittel gar nicht? Antwortvorgaben: Ich benutze-… manchmal häufig täglich/ fast tägl. gar nicht … die S-Bahn     … die U-Bahn     … den Omnibus     Desgleichen können Fragen nach der Benutzung des Pkw oder anderer Motorfahrzeuge (Motorrad, Moped etc.) sowie des Fahrrads gestellt werden. Um die 268 In Anlehnung an den juristischen Sprachgebrauch, in dem sich die Unterscheidung in „Beweisfrage“ und „Testfrage“ eingebürgert hat (Noelle-Neumann/ Petersen 1996, 93). Die Wahl der Bezeichnung „Testfrage“ ist aber auch unabhängig von diesem Bezug durchaus schlüssig, wenn man das (demoskopische) Interview als Reaktions-Experiment interpretiert (vgl. Kapitel 7.3.1).-- Allgemeiner könnte man hier von „Erhebungsfragen“ sprechen. zentrale Aufgabe: Frageformulierung BEISPIEL <?page no="347"?> 348 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 348 Forschungsfrage („Welche Personengruppen benutzen welche Verkehrsmittel? “) vollständig zu beantworten, sind außerdem noch Personenmerkmale wie Alter, Geschlecht, Berufstätigkeit zu erheben. Bei abstrakteren Fragestellungen oder bei sozialwissenschaftlich-theoretischen Forschungsfragen ist der Übersetzungsvorgang notwendigerweise mehrstufig: Zunächst müssen für die abstrakten oder theoretischen Sachverhalte, über die man Informationen sammeln möchte, geeignete Indikatoren gefunden und begründet werden (vgl. Kapitel 4.1). Erst in einem zweiten Schritt sind für jeden Indikator die Erhebungsfragen („Testfragen“) zu formulieren − möglicherweise wieder mehrere Fragen pro Indikator. Beispielsweise sind für einen so einfach scheinenden Sachverhalt wie „Art der Erwerbstätigkeit“ regelmäßig mehrere Fragen notwendig; etwa: Beschäftigungsstatus (Arbeiter, Angestellter, Beamter, Selbstständiger; jeweils mit weiteren Differenzierungen), Vertragsverhältnis (Vollzeit/ Teilzeit; befristet/ unbefristet; Werkvertrag, Gelegenheitsjob u. Ä.), Berufsbzw. Stellenbezeichnung (entweder mit einer Liste von Vorgaben oder: möglichst genaue Bezeichnung erfragen), auszuübende Tätigkeiten (entweder mit einer Liste von Vorgaben oder: möglichst genaue Beschreibung erfragen), Branche (öffentlicher Dienst, Banken und Versicherungen, Handel, Industrie, Handwerk, Landwirtschaft usw.). Damit bei solcher „Übersetzung“ von Forschungsin Erhebungsfragen nichts Wichtiges übersehen wird, sind also, wie hier erkennbar geworden sein sollte, gründliche semantische Analysen (Kapitel 3.1) eine notwendige Voraussetzung. Eine mehrstufige Übersetzung ist allerdings häufig selbst dann erforderlich, wenn die Forschungsfrage unkompliziert scheint und in Alltagsbegriffen auszudrücken ist. Dies ist immer dann der Fall, wenn der interessierende Sachverhalt nicht einfach bei den befragten Personen „abgerufen“ werden kann: etwa wenn es sich um Gründe für alltägliches Routineverhalten handelt, das im Einzelfall gar nicht mehr reflektiert wird; oder wenn es um eher unbewusst ablaufende Vorgänge oder um Ereignisse geht, die von den Befragten nicht auf Anhieb rekonstruiert werden können. Auch dann ist zunächst zu entscheiden: Welche Sachverhalte, aus denen die Antwort auf die Forschungsfrage abgeleitet werden kann, sind zuverlässig erfragbar? Erst anschließend folgt die Formulierung der Erhebungsfragen für den Fragebogen. Ein Beispiel aus Noelle-Neumann/ Petersen soll diesen Fall illustrieren: „Die Untersuchungsaufgabe lautet: ‚Warum gehen immer weniger junge Frauen wählen? ‘ Der nächstliegende Weg wäre sicher, einen repräsentativen Querschnitt junger Frauen zu befragen: ‚Haben Sie bei der letzten Wahl gewählt, und wenn nein, warum nicht? ‘ Mehrstufige Operationalisierung 1. Bestimmung von Indikatoren 2. Fragen zur Erhebung der Indikatorwerte BEISPIEL nicht „abrufbare“ Anworten BEISPIEL <?page no="348"?> 349 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 349 Indessen wäre es unmöglich, auf diese Weise die richtige Antwort zu finden. Hier kann der Forscher seinen Auftrag nicht ohne Übersetzung der Frage an die Befragten weiterreichen. Ohne schon in eine genaue Überprüfung einzutreten, fallen sogleich die folgenden Schwierigkeiten auf: die Motive, nach denen hier gefragt wird, sind vielen Leuten nicht bewusst, Beobachtungsvermögen und Beredsamkeit werden überfordert, Misstrauen, Isolationsfurcht, Prestigebedürfnis, ‚Ich-Ideal‘ könnten die Antworten verfälschen, besonders ‚vernünftige‘ Antworten werden geradezu herausgefordert. Die Aufgabe muss also übersetzt werden, wobei die Übersetzung in dem hier behandelten konkreten Fall über 30 einzelne Testfragen erforderte, die überdies nicht nur jungen Frauen, sondern, um Vergleichsmöglichkeiten zu schaffen, auch Männern und älteren Frauen gestellt werden mussten.“ (Noelle-Neumann/ Petersen 1996, 101 f.) Frageformulierung Um zu sichern, dass die schließlich im Fragebogen formulierten Fragen so weit wie möglich einheitlich verstanden werden, sind insbesondere die folgenden Grundsätze der Frageformulierung und der Fragebogenkonstruktion zu beachten (vgl. v. Alemann 1977, 209 f.; Faulbaum/ Prüfer/ Rexroth 2009; Költringer 1997; Kreutz/ Titscher 1974, 53 ff.; Noelle-Neumann/ Petersen 1996, 95 ff., Porst 2000, 2014): 1) Fragen sollen so einfach formuliert sein, wie es mit dem sachlichen Zweck der Fragestellung noch vereinbart werden kann. Komplizierte Sätze sind zu vermeiden, ebenso wie zu lange Fragen. Es sind einfache Sachverhalte ansprechen. Die Fragen müssen unmittelbar verständlich sein (keine unklaren Begriffe, keine doppelten Verneinungen). 2) Die Fragen und die verwendeten Begriffe sollen so eindeutig sein, dass ein für alle Befragten einheitlicher Bezugsrahmen geschaffen wird. Auch der gewünschte Genauigkeitsgrad der Antwort ist zu spezifizieren. Wird z. B. nach dem Nettoeinkommen des Haushalts gefragt, dann muss dieser Begriff in der Frage eindeutig geklärt werden (Was gehört dazu, was gehört nicht dazu? ). Gleiches gilt für die einfach erscheinende Frage nach der Wohnungsgröße (Angabe in Quadratmetern oder in Zahl der Zimmer? Wenn Quadratmeter: Zählen der Balkon, der Flur, das Bad, der Abstellraum dazu oder nicht? Wenn Zimmerzahl: Ab welcher Größe zählen Räume als ganze Zimmer? Wird die Küche mitgezählt oder erst, wenn es eine Wohnküche ist? Wird der große Flur in der Wohnung mitgezählt, falls er als Essplatz benutzt wird? ). Im Übrigen darf zur Sicherung der Eindeutigkeit nur eine Frage zur gleichen Zeit gestellt werden. Dieser Forderung würde z. B. folgende Formulierung nicht gerecht: „Haben Sie in den vergangenen vier Wochen allein oder mit Ihrer Familie oder mit Freunden/ Bekannten einen Ausflug unternommen? “ Hierbei handelt es sich um zwei ineinander verschränkte Fragen, nämlich: „Haben Sie in den vergangenen vier Wochen einen Ausflug unternommen? “ und: „Haben Sie den Ausflug allein unter- Grundsätze der Frageformulierung einfach formuliert einheitlicher Bezugsrahmen nicht mehrere Fragen gleichzeitig <?page no="349"?> 350 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 350 nommen oder zusammen mit anderen? “ (Antwortvorgaben: allein; mit der Familie; mit Freunden/ Bekannten). Unter dem Gesichtspunkt „Einheitlichkeit des Bezugsrahmens“ wäre im Übrigen noch der Begriff „Ausflug“ zu klären. Zur Eindeutigkeit gehört auch, dass der Befragte weiß, „in welcher Funktion“ er angesprochen wird: Soll er über sich selbst Auskunft geben, oder gilt er als Informant über andere oder als „Zeitzeuge“ über stattgefundene Ereignisse? Soll er etwas neutral beschreiben? Soll er spontan, ohne langes Überlegen seine Meinung äußern, oder werden wohlabgewogene Beurteilungen von ihm erwartet? Falls ja: Beurteilungen aus seiner eigenen individuellen Perspektive oder „überparteiliche“, verallgemeinernde Einschätzungen? Klar erkennbar sein muss auch der zeitliche Bezug der Frage: Geht es um das Hier und Jetzt oder um Vergangenes (wie lange zurückliegend? ) oder um Einschätzungen zu zukünftigen Entwicklungen? 3) Der Befragte darf nicht überfordert werden; d. h. sein Wissensstand darf nicht überstrapaziert, er darf nicht „überfragt“ werden. Es soll nicht nach Informationen gefragt werden, über die viele Befragte vermutlich nicht verfügen. Auch sind zu viele Unterscheidungen zu vermeiden. Man darf nicht erwarten, dass der Befragte ein Gedächtniskünstler ist. Hilfsmittel wie Listen oder ein „Kartenspiel“ mit Antwortvorgaben können weiterhelfen, wenn sehr viele Unterscheidungen unabdingbar sind oder wenn sehr viele Aspekte miteinander verglichen werden sollen. Befragte und Interviewer sollen „von jeder nicht unbedingt notwendigen Anstrengung intellektueller, psychologischer, sprachlicher und technischer Art entlastet werden“ (Noelle-Neumann/ Petersen 1996, 63). 4) Fragen sollen keine spezielle Antwortrichtung nahelegen. Sie dürfen nicht suggestiv wirken, sondern müssen so neutral wie eben möglich gestellt werden. Der Zweck dieser Forderung ist es zu verhindern, dass sich in den Antworten statt der persönlichen Meinung des Befragten die Auffassungen des Forschers oder gesellschaftliche Vorurteile widerspiegeln. Eine suggestive Wirkung hat eine Frage schon dann, wenn im Wortlaut nur eine Antwortalternative genannt oder nahegelegt wird, etwa: „Wären Sie damit einverstanden, wenn Sie auch Gastarbeiterfamilien als Nachbarn hätten? “ Aus diesem Grund werden Formulierungen wie die folgende bevorzugt, auch wenn diese „weniger elegant“ klingen: „Wären Sie damit einverstanden, wenn Sie auch Gastarbeiterfamilien als Nachbarn hätten, oder wären Sie damit nicht ganz einverstanden? “ (es folgen mehrere Antwortvorgaben). Noch besser ist es, wenn es gelingt, statt der bloßen Verneinung einer Position eine gleichgewichtige Alternativposition in den Fragewortlaut aufzunehmen. Wie stark die Frageform das Ergebnis einer Umfrage beeinflussen kann, zeigt das folgende Beispiel aus Noelle-Neumann/ Petersen (1996, 132): Frageform 1: „Finden Sie, dass in einem Betrieb alle Arbeiter in der Gewerkschaft sein sollten? “ Funktion des Befragten klären Überforderung vermeiden keine suggestiven Fragen BEISPIEL <?page no="350"?> 351 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 351 Frageform 2: „Finden Sie, dass in einem Betrieb alle Arbeiter in der Gewerkschaft sein sollten, oder muss man es jedem einzelnen überlassen, ob er in der Gewerkschaft sein will oder nicht? “ Es antworteten: bei Frageform 1 % bei Frageform 2 % Alle sollten in der Gewerkschaft sein 36 14 Bin dagegen, ist Sache des einzelnen 35 81 Unentschieden 29 5 100 100 Zusammengefasst: Der Forscher muss mit größter Sorgfalt die Fragestellungen, die sich aus seinem Forschungsbezugsrahmen ergeben, in den Bezugsrahmen des Befragten übertragen. Als Resultat der bisherigen Erfahrungen im Umgang mit dem Instrument Befragung haben sich hierfür bestimmte Frage- und Befragungsformen herausgebildet. Frageformen Nach der Art der Antwortvorgabe unterscheidet man zwischen offenen und geschlossenen Fragen. Offene Fragen überlassen die Antwortformulierung dem Befragten; sie lassen die Kategorien, in denen er antworten kann, offen. Bei geschlossenen Fragen sind vorformulierte Antwortalternativen vorgegeben. Bei nur zwei Vorgaben, etwa: ja und nein, spricht man von Alternativfragen. Offene Fragen haben zwar den Vorzug, dass keine Vorab-Inhaltsanalyse möglicher Antworten (vgl. Kapitel 7.1.2) zur Entwicklung von Antwortkategorien erforderlich ist. Sie sind deshalb zur Exploration bei Problemstellungen geeignet, für die nicht schon umfassende Kenntnisse über das Universum möglicher Antworten vorhanden sind. Andererseits sind aber Umfang und Schwerpunkt der jeweiligen Interview-Antwort davon abhängig, was dem Befragten zum Zeitpunkt der Ad-hoc-Situation des Interviews spontan einfällt. 269 Offene Fragen setzen beim Befragten viel voraus: Artikulationsfähigkeit, Information, Motivation. Diese Merkmale sind bei Angehörigen höherer Bildungsschichten in stärkerem Maße vorhanden als bei Personen in unteren sozialen Schichten, so dass sie bei offenen Fragen eine größere Chance haben, ihre Meinung im Interview zur Geltung zu bringen. Und schließlich kann sich hier der Interviewereinfluss besonders stark auswirken (vgl. dazu auch den Kapitel 7.3.2). 269 Des Weiteren erhält man nur die Informationen, die der Befragte für mitteilenswert hält. So kann es vorkommen, dass man gerade zu den aus der Forschersicht wesentlichen Punkten keine Auskünfte erhält. Soll die für qualitative Forschung aufgestellte Forderung erfüllt werden, wonach die befragten Personen ihre Sicht der Dinge in ihrer Sprache und entsprechend ihren Relevanzstrukturen zum Ausdruck bringen sollen, dann sind „offene Fragen“ in ansonsten strukturierten Interviews dafür nicht das geeignete Instrument. Vielmehr muss dann das ganze Interview offen und situationsflexibel geführt werden (vgl. dazu etwa Hoffmann-Riem 1980, Lamnek 1989, Schütze 1987, Witzel 1985). offene Fragen <?page no="351"?> 352 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 352 Offene Fragen können dennoch mit Nutzen auch in standardisierten Interviews nicht nur zu Explorationszwecken (s. o.) eingesetzt werden. Einerseits eignen sie sich zur Auflockerung der ansonsten „bürokratisch“ ablaufenden Kommunikation sowie zur Abrundung eines im Übrigen mit geschlossenen Fragen abgehandelten Themas. Wichtiger aber ist ihre gezielte Verwendung für spezifische Zwecke, bei denen Fragen mit einer geschlossenen Liste von Antwortvorgaben versagen, nämlich (Noelle-Neumann/ Petersen 1996, 129 f.): - um Wissen zu überprüfen, - um den Sprachgebrauch der Bevölkerung zu einem bestimmten Themenbereich kennenzulernen, - um die „Aktualität“ von Themen oder Argumenten zu messen sowie - um Gebiete von besonderer individueller Vielfalt zu erkunden. Bei geschlossenen Fragen muss im Zuge der Formulierung der vorzugebenden Antwortkategorien eine gedankliche „Inhaltsanalyse“ des potenziellen Spektrums von Antworten in unterschiedlichen Befragtengruppen vorweggenommen werden. Die Gefahr dabei ist, dass diese unvollständig ausfällt (vgl. das Btx-Beispiel am Schluss des Kapitels 7.3.2) oder dass Kategorien gewählt werden, die aus dem Bezugsrahmen des Forschers stammen und nicht dem Bezugsrahmen des Befragten entsprechen. Für manche Gruppen von Befragten können dadurch Antwortvorgaben uneindeutig sein oder eine ganz andere Verständigungsdimension betreffen. Die Folge wären Schwierigkeiten, die beabsichtigte Antwort in den vorgegebenen Kategorien unterzubringen. Eine besonders sorgfältige Vorbereitung ist notwendig, wenn abgestufte Beurteilungen zu Sachverhalten oder zu Aussagen („statements“) zu erheben sind. Üblicherweise sollen dabei die Befragten ihr Urteil auf einem vorgegebenen Einschätzungs-Spektrum anordnen, etwa von „trifft voll zu“ bis „trifft überhaupt nicht zu“ oder von „stimme stark zu“ bis „lehne stark ab“. Damit die Antworten der Befragten untereinander hinreichend vergleichbar sind, müssen die vorgelegten Einschätzungsskalen mehrere Bedingungen gleichzeitig erfüllen: - Die einzelnen Abstufungen sind in eindeutiger Weise verbal zu bezeichnen; - den verbalen Bezeichnungen sind semantisch entsprechende numerische Abstufungen zuzuordnen (z. B. von 5 bis 1 im ersten Fall: Ausmaß des Zutreffens, von + 3 bis--3 im zweiten Fall: Zustimmung vs. Ablehnung); 270 - zugleich ist die verbale und numerische Bezeichnung durch eine geeignete grafische Gestaltung zu unterstützen (z. B. wird die Gleichgewichtigkeit der abgestuften Werte durch gleiche Abstände zwischen den Werten veranschaulicht). 271 270 Verbreitet ist auch die Verwendung einer Prozent-Skala: 100 % für „trifft voll zu“ bis 0 % für „trifft überhaupt nicht zu“. 271 Immer noch empfehlenswert ist der Bericht von Rohrmann (1978) über methodologische Studien zur Entwicklung solcher Antwortskalen. Für Tipps zu „optimalen Formulierungstechniken“ kann auf Költringer (1997) sowie auf Nr. 2 der ZUMA-how-to-Reihe (Porst 2000) verwiesen werden. offene Fragen zur Exploration wenn Antwortvorgaben ungeeignet sind geschlossene Fragen abgestufte Antwortvorgaben <?page no="352"?> 353 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 353 Zur Illustration einige Beispiele. a) In einer Hochschulevaluations-Befragung interessierte u. a., wie sehr im zu beurteilenden Studiengang eine Reihe von Kriterien wie Vermittlung von Fachwissen, Anleitung zum selbständigen Lösen fachlicher Aufgaben, Klarheit der Leistungsanforderungen etc. nach Auffassung der Studierenden zu wenig, in ausreichendem Maße oder übermäßig erfüllt waren. Die entsprechende Frage enthielt u. a. folgende Beurteilungsskalen: b) Kommerzielle Meinungsforschungsinstitute verfügen für ihre Studien über ein ganzes „Skalen-Arsenal“, mit dem sie unterschiedliche Frage-Inhalte möglichst sinnentsprechend visualisieren; etwa: 272 272 Die beiden Beispiele stammen aus Noelle-Neumann/ Petersen (1996, 151 und 153). Dort finden sich noch weitere interessante Anregungen. BEISPIELE Wie sehr sind folgende Aspekte in Ihrem Studiengang realisiert? - s tra e Studienpläne - Orientierung an hohen Leistungsanforderungen viel zu sehr viel zu wenig gerade richtig +2 +1 0 -1 -2 viel zu sehr viel zu wenig gerade richtig +2 +1 0 -1 -2 Abbildung 7.2: Beurteilungsskala Abbildung 7.3: Beispiele für Skalen 1 weit auseinander 2 3 4 5 vollkommen gleich 10 9 8 7 6 5 4 3 2 1 Steht mir sehr nahe Steht mir sehr fern <?page no="353"?> 354 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 354 Die linke Skala wurde eingesetzt bei einer Umfrage unter Gartenbesitzern. Fragetext: „Man sagt von einem Menschen, dass er einem nahe oder fern steht. Das kann man auch auf den Garten übertragen. Könnten Sie mir nach diesem Bildblatt hier sagen, wie nahe oder wie fern Ihnen Ihr Garten steht? Eins würde bedeuten, dass Ihnen Ihr Garten sehr nahe steht, und zehn würde bedeuten, dass Ihnen Ihr Garten sehr fern steht. Welche Stufe wählen Sie? “ Die rechte Skala wurde in einer Allensbach-Umfrage vom September 1990 verwendet. In der Frage ging es darum, wie sich die Politik der SPD in der Bundesrepublik von der SPD-Ost in der (damals noch) DDR unterschied (1 =-die Politik liegt weit auseinander; 5 =-die Politik ist vollkommen gleich). Interviewer-Text: „Welche dieser fünf Zeichnungen drückt am besten aus, wie weit sich die Politik von SPD-West und SPD-Ost überschneidet? “ Ein weiteres Problem ist bei geschlossenen Fragen die Reihenfolge der Antwortvorgaben, die, insbesondere bei einer größeren Zahl von Vorgaben, nicht ohne Einfluss auf das Antwortverhalten ist. Bei mündlichen Interviews kann dieser Effekt der Reihenfolge durch die Verwendung sogenannter „Kartenspiele“ ausgeschaltet werden, d. h. durch Karten mit Antwortvorgaben, die man in wechselnder Reihung nebeneinander den Befragten vorlegt. Die Verwendung solcher Karten ist besonders dann vorteilhaft, wenn eine ganze Folge von Statements zu beurteilen ist. Das Vorlesen einer langen Liste von Aussagen, zu denen die Befragten jeweils anhand einer Zustimmungs-/ Ablehnungs- Skala Stellung nehmen sollen, ist für die Beteiligten außerordentlich ermüdend. Besser ist es, wenn der Text jedes Statements auf eine gesonderte Karte gedruckt ist. Die Karten können dann vor jedem Interview neu gemischt und der befragten Person einzeln mit der Bitte um Stellungnahme vorgelegt werden. Eine Alternative zu diesem Vorgehen ist: Der Befragte erhält den ganzen Kartenpacken; zugleich wird auf den Tisch ein hinreichend großer Pappstreifen mit der aufgedruckten Antwortskala gelegt. Der Befragte wird nun gebeten, jede einzelne Karte dem seiner Antwort entsprechenden Skalenpunkt zuzuordnen.- - Neben der Ausschaltung des Reihenfolge-Effekts hat der Einsatz von „Kartenspielen“ auch den Vorteil, dass der ansonsten monotone Ablauf eines standardisierten Interviews durchbrochen wird. Nicht ohne Probleme beantwortbar ist die Frage, ob eine vom Forscher als „geschlossen“ angesehene Frage auch jedem Befragten als geschlossen erscheint. Dies ist häufig dann nicht der Fall, wenn der Befragte in der Lage ist, ein Problem sehr differenziert zu beurteilen, etwa weil er viel damit zu tun hat, weil er also auf diesem Gebiet ein Experte ist. Er wird dann oft zusätzliche Kategorien vermissen, da nach seinem differenzierteren Verständnis eventuell die Antwortvorgaben sämtlich nicht voll zutreffen. Hat man bereits bei der Fragebogenkonstruktion (bzw. nach dem „Pretest“) den Eindruck, dass das Antwortspektrum nicht durch Vorgaben voll ausgeschöpft werden kann, hilft man sich damit, „halboffene“ oder „halbgeschlossene“ Fragen zu stellen: Die Reihenfolge der Antwortvorgaben VERTIEFUNG halboffene/ halbgeschlossene Frage <?page no="354"?> 355 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 355 aus der Sicht der Forscher wichtigsten Kategorien werden vorgegeben, zusätzlich wird eine Kategorie „Sonstiges, und zwar-…“ offen gehalten („Hybridfrage“, Schnell/ Hill/ Esser 1999, 311). Nach der Art der Frageformulierung unterscheidet man zwischen direkten und indirekten Fragen. Direkte Fragen sprechen den Befragten persönlich an: „Was ist Ihre Meinung zu-…? Wie hoch ist Ihr Haushaltseinkommen-…? “ Bei indirekten Fragen wird der Befragte nicht persönlich angesprochen, sondern die Frage wird „eingekleidet“, z. B. in eine kleine Geschichte. Zum Beispiel: „Drei Personen unterhalten sich über Gastarbeiter. Welcher von ihnen könnten Sie am ehesten zustimmen? “ (Es folgen drei Ansichten über Gastarbeiter in der BRD von Personen A, B, C). (Friedrichs 1982, 201). Oder es wird eine Aussage oder Meinung einer größeren Zahl anonym gelassener Personen zugeschrieben und gefragt, was man von dieser Aussage oder Meinung zu halten habe. Zum Beispiel: „Es gibt eine Menge Leute, die die folgenden Ansichten vertreten. Kann man solchen Meinungen zustimmen, oder sollte man sie zurückweisen? : ‚Man sollte dafür sorgen, dass die Gastarbeiter aus den heruntergekommenen Behausungen in anständige Wohnungen kommen, auch wenn Wohnungen knapp sind.‘“ (Antwortvorgaben von „starke Zustimmung“ bis „starke Ablehnung“). Eine Formulierung, die zu einer direkten, persönlichen Stellungnahme auffordert, könnte dagegen so lauten: „Ich bin der Meinung, dass die Ausländer in den Wohngegenden wohnen sollen, die nicht so gut mit Einkaufsmöglichkeiten, Kindergärten, Schulen, Gaststätten usw. ausgestattet sind. Die besseren Wohngegenden sollten den Deutschen vorbehalten bleiben.“ (Antwortvorgaben von „starke Zustimmung“ bis „starke Ablehnung“). Indirekte Fragen werden in der Hoffnung formuliert, dass der Befragte dann eher antwortet als auf eine direkt gestellte Frage. Wörtlich genommen wird von ihm eine Aussage über andere, weniger über sich selbst erwartet. Allerdings beeinflusst diese indirekte Art der Formulierung nicht nur die Bereitschaft, überhaupt zu antworten, sondern auch die Bereitschaft, bestimmte Meinungen oder Ansichten zu äußern. Das heißt, es werden im Allgemeinen nicht nur mehr Antworten gegeben, sondern die Antworten fallen auch anders aus als bei direkten Fragen. Ungewiss bleibt: Welche Antwort spiegelt die Haltung des Befragten zum angesprochenen Sachverhalt am ehesten wider, welche ist also zutreffender? Damit sind als weiterer Punkt die sogenannten „schwierigen Fragen“ angesprochen. Gemeint sind nicht etwa Fragen, die unverständlich formuliert wären oder die den Befragten überforderten. Vielmehr sind dies Fragen, die sich auf „schwierige“ Thedirekte/ indirekte Frage BEISPIEL BEISPIEL Nutzen indirekter Fragen “schwierige“, sensitive Fragen <?page no="355"?> 356 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 356 men beziehen, auf Themen, zu denen nicht gern Stellung genommen wird, bei denen die Zahl der Antwortverweigerungen höher liegt (etwa: Schlagen von Kindern als Erziehungsmaßnahme, aber auch Verdienst/ Einkommen). Generell darf man vermuten: Je mehr eine Frage nach Auffassung des Befragten in seinen Intimbereich eindringt, desto weniger wird er bereit sein zu antworten. Was allerdings zum Intimbereich zählt, ist nicht konstant, sondern unterscheidet sich je nach Kultur, aber auch nach sozialer Schicht und individuell. So berichtet etwa Scheuch (1973a, 117 ff.), dass es bei manchen Personenkreisen „schwieriger“ sei, Fragen über das Einkommen zu stellen als über das Sexualverhalten. Noch problematischer sei das Thema „körperliche Hygiene“: „Etwas überspitzt kann man sagen, dass in westlichen Gesellschaften Befragte eher abweichendes Sexualverhalten eingestehen als eine Verletzung der Normen für die körperliche Sauberkeit“ (a. a. O., 119). An Maßnahmen zur Erhöhung der Antwortquote bei „schwierigen“ Themenbereichen werden neben der Formulierung indirekter Fragen häufig genannt: - Die Vorgabe vorverschlüsselter Antworten: beim Einkommen etwa die Vorgabe von Einkommensklassen statt einer offenen Frage; - die Entschärfung oder Verharmlosung dieser Frage durch geeignete Formulierungen; statt von Diebstahl spricht man davon, dass jemand „etwas weggenommen“ habe; statt von Steuerhinterziehung ist die Rede davon, jemand habe das Finanzamt „übers Ohr gehauen“; - der Appell an den Mitläufer-Effekt: „Manche Leute haben ja eine feste Meinung darüber, ob die Wiedereinführung der Todesstrafe die Terroristen von ihrem Tun abhalten könnte. Wie ist Ihre Ansicht dazu? “; - das „schwierige“ Thema wird als etwas Selbstverständliches dargestellt: „Man erfährt ja täglich aus der Zeitung und im Bekanntenkreis über Ehescheidungen und über Gründe, die zum Scheitern von Ehen führen-…“; - die Überrumpelung des Befragten mit ganz direkt gestellten Fragen: „Wie oft sind Sie im letzten Karneval fremdgegangen? “ Nach ihrer Funktion im Gesamtfragebogen unterscheidet man Einleitungs- und Übergangsbzw. Überleitungsfragen, Filter-, Folgesowie Sondierungsfragen, Puffer- und Schlussfragen. Einleitungsfragen eröffnen das Gespräch. Von ihnen hängt nicht unerheblich der Erfolg des Interviews ab. Sie sollen das Interesse der zu befragenden Person wecken und sie dazu motivieren, konzentriert mitzuwirken. Ein guter Intervieweinstieg hat-- wie Noelle-Neumann/ Petersen formulieren-- eine „Eisbrecher“-Funktion. Ungeeignet dazu sind nach ihrer Erfahrung Fragen, die mit „Nein“ beantwortet werden. Mit „Nein“ zu antworten, ist vielen Menschen unangenehm, gilt gerade zu Beginn eines Gesprächs als unhöflich: „Ein ‚Nein‘ am Anfang des Interviews ist grundsätzlich kein guter Beginn. Fragen, die die meisten verneinen, sind keine guten Eisbrecherfragen. Eisbrecherfragen sollten unterhaltsam und nicht zu schwer sein, aber auch nicht banal wirken. Der Befragte soll das Gefühl bekommen, dass seine Meinung ernst VERTIEFUNG Einleitungsfragen <?page no="356"?> 357 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 357 genommen wird. Eine gute Eisbrecherfrage wirkt so, als könnte man mit ihr auch ein normales Alltagsgespräch eröffnen.“ (1996, 133 f.) Ähnlich wichtig wie die Einleitung des Gesamtinterviews ist vor einem neuen Interviewabschnitt eine interessante Überleitungsfrage. Insbesondere in der Mitte des Befragungszeitraums, wenn Ermüdungserscheinungen eintreten, hat sie die Aufgabe, das Interesse wieder neu zu entfachen und die Konzentration zu erhöhen. Nützlich ist zu diesem Zweck auch der Wechsel der Frageform, z. B. das Einstreuen einer leicht beantwortbaren offenen Frage oder die Kombination mit einer Bilderkarte oder einem „Kartenspiel“ (s. o.). Eine besondere Form der Überleitungsfrage ist die Pufferfrage. Sie hat die Aufgabe, eine Trennlinie zwischen zwei Themenbereichen zu ziehen, von denen man befürchtet, dass sie einen „Ausstrahlungseffekt“ (s. u.) aufeinander ausüben. Sie sollen den Befragten durch Ansprechen eines (nach Möglichkeit) interessanten neuen Themas vom vorherigen Interviewinhalt ablenken, bevor zum nächsten Fragenkomplex übergegangen wird. Filterfragen dienen dazu, während des Interviews bestimmte Untergruppen von Befragten zu bilden, für die je spezielle Fragen zu stellen sind. „Sind Sie Mitglied einer Gewerkschaft? “ (Ja/ nein). Wenn ja → Fragen darüber, welche Vorteile die Mitgliedschaft bringe, was die Gewerkschaft für ihre Mitglieder tue, was sie besser machen könne usw. Wenn nein → Fragen darüber, ob der Befragte Kenntnisse über die Tätigkeit der Gewerkschaften habe, welche Probleme die Gewerkschaft eigentlich verfolgen solle, was eine Mitgliedschaft in der Gewerkschaft den Mitgliedern wohl an Vorteilen bringe usw. Im Normalfall wird zu einem Thema nicht nur eine Frage gestellt, sondern mehrere Einzelfragen beziehen sich auf denselben Themenkreis (Fragenbatterie). Je nach den Antworten auf vorhergehende Fragen entfallen dann bestimmte Einzelfragen, oder es werden zusätzliche Einzelfragen erforderlich. Filterfragen erlauben also für konkrete Befragungssituationen die Entscheidung darüber, welche Fragen zu stellen sind und welche nicht. Folgefragen sind das Gegenstück dazu. Sie dienen dem Zweck, einzelne Aspekte aus vorhergehenden Antworten genauer zu erfassen. Schreitet man von allgemeinen Fragen zu immer spezielleren Fragen, spricht man von „Trichterung“, von einem „Fragentrichter“. Sondierungsfragen sind eine Sonderform der Folgefragen. Sie werden gestellt, um nach unklaren Antworten die genaue Bedeutung der Antworten zu ermitteln. Dies kann insbesondere bei offenen Fragen erforderlich werden. Am Ende des ganzen Interviews stehen die Schlussfragen. Sie können eine Art „Bilanzierung“ des Gesamtinterviews zum Gegenstand haben, bevor ganz am Schluss noch sozialstatistische Daten zur Person (Alter, Geschlecht, Beruf, Einkommen etc.) erhoben werden. Überleitungsfragen Pufferfrage Filterfragen BEISPIEL Folgefragen Sondierungsfragen Schlussfragen <?page no="357"?> 358 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 358 Fragebogenkonstruktion Mit der zuletzt vorgenommenen Unterscheidung von Fragen nach ihrer Stellung im Gesamtinterview wurde bereits die Fragebogenkonstruktion berührt: - Die Fragen werden nicht zufällig zusammengewürfelt, sondern nach bestimmten Gesichtspunkten im Fragebogen angeordnet. Man beginnt üblicherweise mit möglichst neutralen, jedenfalls nicht mit „schwierigen“ Fragen, um das Interview erst einmal in Gang kommen zu lassen. Vor allem sollten am Beginn des Interviews Fragen stehen, die beim Befragten Interesse wecken. - Man wird mehrere Fragen zum gleichen Komplex zusammenfassen, nicht ständig von einem Thema zum anderen springen. Jeder neue Themenkomplex wird mit Überleitungsfragen vorbereitet. Eine Ausnahme sind die so genannten Kontrollfragen. Man stellt zu einer Frage, für die man die Verlässlichkeit der Antwort ermitteln möchte, an einem anderen Platz im Fragebogen eine ähnliche Frage, und zwar so, dass der Befragte nach Möglichkeit nicht bemerkt, dass diese Frage so ähnlich schon einmal gestellt worden ist. Die obige Aussage „Man wird mehrere Fragen zum gleichen Komplex zusammenfassen, nicht ständig von einem Thema zum anderen springen“ ist unterschiedlich eng (oder weit) auszulegen, je nachdem, welcher Typ von Befragung geplant ist. Soll die Interviewsituation Merkmale eines „Reaktionsexperiments“ (s. o.) aufweisen, dann darf für die befragte Person kein „roter Faden“ zwischen den einzelnen Themen (im Extremfall: zwischen den einzelnen Fragen) erkennbar sein. Die ideale Befragtenrolle ist die von „Versuchspersonen“, d. h. sie sollen auf jeden einzelnen „Stimulus“ (auf jede einzelne Frage) möglichst unabhängig von den anderen „Stimuli“ (den anderen Fragen) reagieren, und zwar spontan, ohne langes Überlegen. Diese Position wird konsequent von Noelle-Neumann/ Petersen vertreten: „Im Wechsel folgen Fragen aus verschiedenen Themenbereichen. Eine der häufigsten sich wiederholenden Formulierungen im Fragebogen lautet: ‚Jetzt eine ganz andere Frage-…‘ Thematisch zusammenhängende Ermittlungen werden zerteilt, nach sechs Fragen über den Einkauf und Verbrauch von Schokolade heißt es: ‚Eine andere Frage-…‘ und fünf Minuten später: ‚Um noch einmal auf Schokolade zurückzukommen-…‘ Das sind Maßnahmen, um Ermüdung und Langeweile beim Befragten zu verhindern, um den Einfluss auszuschalten, den eine vorangegangene Frage auf die Beantwortung der folgenden haben könnte, um Widersprüchlichkeit oder Festigkeit von Einstellungen zu testen. Der künstliche Wechsel wirkt auf den Befragten keineswegs unnatürlich, das normale alltägliche Gespräch zwischen Menschen ist ähnlich sprunghaft; -… Es wäre jedoch nicht nur überflüssig, sondern falsch, würde man versuchen, einen Fragebogen möglichst ‚logisch‘ aufzubauen, etwa wie man einen Vortrag oder eine gelenkte Diskussion aufbaut.“ (1996, 120 f.) Reihenfolge der-Fragen Einstieg: einfache, neutrale Fragen thematische Sortierung Ausnahme: Kontrollfragen VERTIEFUNG Interview als Reaktionsexperiment thematische Sprünge gegen Langeweile <?page no="358"?> 359 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 359 Ganz anders stellt sich die Lage dar, wenn die Interviewsituation Merkmale eines (möglichst) rationalen Informationsabrufs aufweisen soll. Die ideale Befragtenrolle ist in diesem Fall die des korrekten Informanten. Vergleichbare Alltagssituationen, die ebenfalls durch (relative) Standardisierung und asymmetrische Kommunikation gekennzeichnet sind, sind etwa das Anamnesegespräch beim Arzt, die Situation der Befragung als Zeuge vor Gericht oder die Erteilung von Auskünften für ein Formular in einer Behörde (vgl. Meulemann 1993). In allen diesen Fällen geht es nicht darum, situationsgebundene Reaktionen zu produzieren, sondern situationsunabhängige, wohlüberlegte Angaben zu machen. Der zentrale Unterschied des Interviews zu diesen Referenzsituationen liegt in der zugesicherten Anonymität und sozialen Folgenlosigkeit des Gesprächs. Gerade diese Zusicherung soll es den Befragten ermöglichen, die Informantenrolle ohne persönliches Risiko zu übernehmen und von strategischen Überlegungen unbeeinflusste, „wahre“ Auskünfte zu geben. Auch der Aufbau des Interviews hat in diesem Fall den Erfordernissen der Informantenrolle Rechnung zu tragen: Die Befragungssituation muss für die interviewte Person hinreichend (im Extremfall: völlig) transparent sein. Der Fragebogen ist so aufzubauen, dass der „rote Faden“ erkennbar ist; vor der Einwilligung in das Interview, spätestens an dessen Beginn (im Einleitungs- und Eröffnungsteil) ist ein grober Überblick über den Zweck der Befragung sowie über die zur Sprache kommenden Themen zu geben; während des Interviews soll nicht „wild“ zwischen verschiedenen Themen hin- und hergesprungen werden; falls erforderlich, ist dem Befragten Zeit zum Überlegen oder zum Nachschlagen in persönlichen Unterlagen einzuräumen. Selbstverständlich sind auch bei diesem Interviewtyp alle die Regeln zu beachten, die darauf abzielen, das Gespräch kurzweilig und möglichst wenig ermüdend zu gestalten. Eine „reale“ Befragung dürfte selten vollständig dem einen oder dem anderen Extremtyp entsprechen. In welche Richtung der Schwerpunkt gelegt wird, hängt von den Forschungsfragestellungen sowie von dem zu befragenden Personenkreis ab. Experteninterviews zu Fragen der Gestaltung einer neuen Berufsausbildungsordnung werden sich eher dem Typ „Informationsabruf“, bevölkerungsrepräsentative Meinungsbefragungen zum sozialen und politischen Klima eher dem Typ „Reaktionsexperiment“ annähern. Mündliche-- insbesondere face-to-face ablaufende, aber auch telefonische- - Interviews können Fragen enthalten, auf die spontane Reaktionen gewünscht und protokolliert werden können; schriftliche Befragungen sind dazu ungeeignet, hier muss der Fragebogen sachlich nachvollziehbar gegliedert sein. Unabhängig davon, an welchem Modell der Interviewsituation sich die Erhebung orientieren soll, sind bei der Fragenanordnung zwei mögliche verzerrende Effekte in Rechnung zu stellen und zu vermeiden: der Ausstrahlungs- und der Platzierungseffekt. Der Ausstrahlungseffekt (Halo Effekt) ist bei der sogenannten „Mikroplanung“ des Fragebogens-- der Abfolge der einzelnen Fragen innerhalb der verschiedenen Themenbereiche- - zu berücksichtigen. Jede Frage bildet für die nachfolgenden den Bezugsrahmen, sie stellt den Hintergrund für das weitere Gespräch dar, sie „strahlt aus“ auf die weitere Gedankenführung. Keine Frage wird vom Befragten isoliert Interview als Informationsabruf Bedeutung der-Anonymität Interviewaufbau bei Informationsabruf verzerrende Effekte Mikroplanung: Ausstrahlungseffekt <?page no="359"?> 360 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 360 gesehen. Der Ausstrahlungseffekt ist auch dem Bemühen von Befragten um Widerspruchslosigkeit ihrer Antworten zuzuschreiben (Scheuch 1973a, 91). Er wird umso stärker wirksam, je größer ihr emotionales Engagement bei bestimmten Fragen ist. Die Tatsache des Ausstrahlungseffekts nutzt man gezielt bei der Trichterung: Mit allgemeinen Fragen wird in ein Thema eingeführt, mit immer spezielleren Fragen geht man schließlich bis in Einzelaspekte des Problems. Manche Fragen über spezielle Einzelaspekte könnten die Befragten vermutlich gar nicht beantworten, wenn nicht das Thema von Frage zu Frage weiter entfaltet würde. Bei der Trichterung arbeitet man also mit einem gewollten Ausstrahlungseffekt. In anderen Fällen ist dieser Effekt absolut unerwünscht, etwa bei Meinungsfragen. Wenn zum Beispiel zunächst von Überfällen auf Taxifahrer sowie vom Mord an einem Taxifahrer die Rede war und wenn direkt anschließend die Meinung zur Todesstrafe erfragt werden sollte, dann darf der Interviewer sich eines „Halo-Effekts“ sicher sein. Die Frage nach der Meinung zur Todesstrafe bezieht sich dann nicht mehr nur auf den manifesten Inhalt der Frageformulierung; vielmehr schwingt latent die Einbettung in das Thema Mord und Überfälle bei Taxifahrern mit. Hätte sich das Interview vorher um Justizirrtümer gedreht, etwa um die Hinrichtung eines fälschlicherweise zum Tode verurteilten Unschuldigen, dann würde die anschließende Frage nach der Todesstrafe erheblich andere Antworten bringen. Fragen, die in unerwünschter Weise Einfluss aufeinander ausüben können, müssen im Interview möglichst weit auseinander liegen und sollten durch andere Themenbereiche auch inhaltlich getrennt werden. Für die zum Halo-Effekt analoge Ausstrahlung, die die Platzierung ganzer Gruppen von Fragen im Interview („Makroplanung“ des Fragebogens) auf die Antworten ausübt, schlägt Scheuch die Bezeichnung Platzierungseffekt vor. Die Beziehung, die oben für aufeinander folgende Einzelfragen skizziert wurde, besteht nämlich durchaus auch zwischen einem ganzen Themenkomplex und dem nächsten. Eine ganze Gruppe von Fragen gibt also den Bezugsrahmen für eine nachfolgende Gruppe von Fragen ab. Wenn beispielsweise zunächst von Eigentumsrechten, von Verfügungsgewalt über Produktionsmittel, von Aussperrung und Streik die Rede war, haben Fragen zur gewerkschaftlichen Forderung nach paritätischer Mitbestimmung einen anderen Stellenwert und einen anderen Bezugsrahmen, als wenn vorher Fragen zur Demokratisierung, zur Lebensqualität, zur Verwirklichung von Persönlichkeitsrechten gestellt worden wären. Wo eine Trennung von Fragen bzw. von Fragenkomplexen (zur Ausschaltung des Halobzw. Platzierungseffekts) nicht möglich ist, kann man sich damit helfen, dass man für zufällig bestimmte Teilgruppen von Befragten Interviewbögen mit unter- Trichterung: gewollter Ausstrahlungseffekt BEISPIEL Makroplanung: Platzierungseffekt BEISPIEL <?page no="360"?> 361 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 361 schiedlicher Reihenfolge der Fragen verwendet. 273 Auf diese Weise können Effekte der Reihenfolge zwar nicht ausgeschaltet, aber doch immerhin kontrolliert werden. So hat beispielsweise das Marktforschungsinstitut Infratest (Infratest-Medienforschung 1975, 6) bei einer Befragung über die Nutzung und Einschätzung der Informationsmedien Fernsehen, Hörfunk und Tageszeitung die Interviews je zu einem Drittel mit unterschiedlichen Fragebogenfassungen durchgeführt: - „Splitversion 1“ mit der Reihenfolge: Fernsehen-- Tageszeitungen-- Hörfunk; - „Splitversion 2“ mit der Reihenfolge: Hörfunk-- Fernsehen-- Tageszeitungen; - „Splitversion 3“ mit der Reihenfolge: Tageszeitungen-- Hörfunk-- Fernsehen. Im Falle des Modells „Interview als Reaktionsexperiment“ lassen sich mit Hilfe solcher „gesplitteter“ (oder „gegabelter“) Befragungen sogar repräsentative psychologische Kontrollgruppenexperimente mit großen Fallzahlen realisieren (für Beispiele vgl. Noelle-Neumann/ Petersen 1996, 171 ff.). Prüfung des Fragebogens Ist ein Fragebogen (zunächst) fertig, muss vor seinem Einsatz eine ausführliche Prüfung stattfinden. Die Prüfung als eigenen methodischen Schritt einzuführen, mag zunächst überraschen, weil wir ohnehin jeden Schritt der empirischen Forschung genau abwägen und prüfen müssen. Weil die Konstruktion eines Fragebogens aber enorm kompliziert ist und wir eine sehr breite Palette von Regeln und Vorschriften beachten müssen, ist eine separate Prüfung von großer Bedeutung. 274 Die Prüfung des Fragebogens umfasst zwei grundsätzliche Schritte: zum einen muss der Fragebogen selbst von der Forscherin oder dem Forscher geprüft werden, und zum anderen muss der Fragebogen im Rahmen eines Pretests „im Feld“ erprobt werden. Im ersten Schritt wird der eigentlich vollständig ausgearbeitete Fragebogen schrittweise formal und inhaltlich kontrolliert. Faulbaum, Prüfer und Rexroth (2009) haben dafür ein eigenes Instrument, das Fragebewertungssystem (FBS), entworfen. Das Fragebewertungssystem ist eine Checkliste, die über insgesamt zwölf Bereiche jeweils eine Reihe von möglichen Fehlern oder Problemen benennt. Für jeden dieser möglichen Fehler muss kontrolliert werden, ob die betrachtete Frage diesen Fehler erfolgreich vermeidet. Dabei geht es beispielsweise darum, dass die Frage nicht als doppelte Verneinung formuliert ist, der zeitliche Bezugsrahmen der Frage klar ist oder die Antwortkategorien sich nicht überschneiden. 273 Wird eine große Zahl von über das gesamte Erhebungsgebiet verteilten Interviewer(inne)n eingesetzt, die jeweils nur eine geringe Zahl von Interviews zu führen haben, können statt dessen die verschiedenen Fragebogenversionen nach dem Zufallsprinzip auf die Interviewer(innen) verteilt werden. 274 Auf die Wichtigkeit des Instruments insgesamt für das Gelingen der Forschung hatten wir schon oben hingewiesen. Wechsel der Reihenfolge BEISPIEL Prüfung des Fragebogens Fragebewertungssystem <?page no="361"?> 362 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 362 Für jede einzelne Frage, zum Teil auch für Teile des Fragebogens, ist die Checkliste schrittweise abzuarbeiten. Das bedeutet einen nicht unerheblichen Aufwand, der gleichwohl gerechtfertigt ist. Jede ungünstig formulierte Frage, jeder falsch verweisende Trichter und jede fehlende Antwortvorgabe kann Teile des Fragebogens vollkommen wertlos machen, weil durch den Fehler unklar ist, auf welche Frage genau die Befragten geantwortet haben oder was ihre Antwort bedeutet. Da die Fragen des Fragebogens selbst wiederum Teil spezifischer Messkonzepte sind, kann der Ausfall einzelner Fragen fatale Folgen für das gesamte Forschungsprojekt haben. Der zweite Schritt der Prüfung besteht in der sorgfältigen Durchführung eines Pretests des Instruments. Vor seinem endgültigen Einsatz „im Feld“ muss der Fragebogen an einer kleinen Stichprobe der Zielpersonen kontrolliert erprobt werden. 275 Die Testinterviews werden mit dem Ziel durchgeführt, Erkenntnisse zur Zeitdauer der Befragung, zum Interesse der Befragten an der Thematik, zur Verständlichkeit der Formulierungen und über eventuelle Probleme bei der Beantwortung zu gewinnen. Erste Eindrücke erhält man auch über die Häufigkeitsverteilungen der Antworten und das Auftreten fehlender Werte. Wichtig ist, dass zunächst das Befragungsinstru- 275 Nicht ausreichend ist ein Pretest, der in manchen Marktforschungsinstituten selbstironisch „Putzfrauentest“ genannt wird: Der ausformulierte und im beabsichtigten Layout gedruckte Bogen wird dem nächtlichen Reinigungspersonal des Instituts zum Ausfüllen vorgelegt, um zu sehen, ob alle Fragen und Antwortvorgaben verstanden werden und alle Filterführungen korrekt sind. Ein solches Verfahren ist-- wenn überhaupt-- allenfalls bei mehrfach wiederholten Routinebefragungen zum selben Themenfeld akzeptabel. Checkliste für jede Frage Pretest Bereich A Probleme mit Worten/ Texten Bereich B Unzutre ende Annahmen über Befragte Bereich C Erinnerungsvermögen Bereich D Berechnung/ Schätzung Bereich E Komplexität der mentalen Leistung Bereich F Nicht intendierte Nebene ekte Bereich G „Weiß-nicht“-Kategorie bei Einstellungsfragen Bereich H Kontext der Frage/ Fragensukzession Bereich J Antwortvorgaben/ Antwortskalen Bereich K O ene Fragen Bereich L Instruktionen bei Interview-administrierten Fragen Bereich M Probleme im Zusammenhang mit der Aufgabenbeschreibung in selbst-administrierten Fragen Quelle: nach Faulbaum/ Prüfer/ Rexroth 2009: 114 Abbildung 7.4: Bereiche der FBS-Checkliste <?page no="362"?> 363 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 363 ment in genau der Weise eingesetzt wird, wie dies für die spätere endgültige Erhebung geplant ist: Also ist ein mündliches Interview auch im Pretest vom Interviewer zu führen, wogegen ein schriftlicher Fragebogen vom Befragten selbstständig auszufüllen ist. Anschließend wird der Fragebogen nochmals mit dem Befragten durchgegangen, um zu erfahren, ob einzelne Items für ihn missverständlich oder unverständlich sind, ob sie zu viel Wissen voraussetzen oder ob die Beantwortung unangenehm war. Dies gilt insbesondere für solche Fragen, die nicht beantwortet wurden oder bei denen der Befragte länger überlegen musste oder rückgefragt hat. Man kann verschiedene Arten des Pretests unterscheiden (Prüfer/ Rexroth 1996; Porst 2015, 189 ff.). In der „Standard“-Version werden die Befragten gebeten, Verständnisschwierigkeiten, die ihnen auffallen, mitzuteilen. Etwas umfassender angelegt ist ein Pretest mit zusätzlicher Verhaltensbeobachtung. Hierbei wird während der Durchführung des Interviews bzw. beim Ausfüllen des schriftlichen Fragebogens das Verhalten der Beteiligten protokolliert: Unterlaufen z. B. dem Interviewer Fehler beim Vorlesen der Fragen, oder stellt der Befragte Nachfragen? Für den Pretest eines mündlichen Interviews bedeutet dies, dass von der Forschungsseite eine zusätzliche Person anwesend sein muss. Die Auswertung eines Verhaltenspretests gibt zusätzliche Auskunft darüber, welche Items modifiziert werden müssen. Eine dritte Pretestvariante wird als kognitives Interview bezeichnet. Ziel ist es, „Einblick in die kognitiven Prozesse zu bekommen, die beim Beantworten von Fragen ablaufen. Speziell ist dabei von Interesse, wie Befragte - Fragen oder Begriffe interpretieren und verstehen, - Informationen und Ereignisse aus dem Gedächtnis abrufen, - Entscheidungen darüber treffen, wie sie antworten, - ihre ‚intern‘ ermittelte Antwort formalen Antwortkategorien zuordnen“ (Prüfer/ Rexroth 2005, 3). Eingesetzt werden hierbei verschiedene Strategien: neben gezielten Nachfragen an den Befragten („probing“) zum Verständnis, zur Wahl von Antwortkategorien bzw. von Skalenpunkten und zum Vorhandensein relevanter Informationen auch Techniken zur Bewertung der Verlässlichkeit von Antworten. Außerdem kann der Befragte gebeten werden, den Fragetext in seinen eigenen Worten zu wiederholen und seine Antwort ausführlich zu verbalisieren. Am weitesten greift der Einsatz der „Methode des lauten Denkens“, bei der der Befragte gebeten wird, alle Überlegungen, die er beim Verstehen der Frage bis zur Entscheidung über den Inhalt seiner Antwort anstellt, ausdrücklich zu formulieren. Ausführlicher und mit Beispielen vorgestellt werden diese Techniken von Prüfer/ Rexroth (2005, 2000), Porst (2015, 189 ff.) und Weichbold (2014). Ein sorgfältig durchgeführter Pretest kann in seiner Bedeutung für die Qualitätssicherung des Instruments gar nicht hoch genug eingeschätzt werden. Für diese Phase muss bereits zu Beginn des Projektes ausreichend Zeit eingeplant sein. Es lässt sich nie vollständig vorausahnen, wie ein Fragebogen verstanden wird und welche Missverständnisse auftauchen können. Arten von Pretests kognitives Interview Methode des lauten Denkens <?page no="363"?> 364 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 364 Formen der Befragung Befragungen sind auf unterschiedliche Weise möglich (vgl. die zusammenfassende Abbildung 7.5). Nach der Befragungssituation kann man zwischen mündlicher und schriftlicher Befragung trennen. Bei der mündlichen Befragung (im Allgemeinen Interview genannt) unterscheidet man das Einzel- und das Gruppeninterview. Beim Einzelinterview sucht der Interviewer den Befragten im Allgemeinen in dessen Wohnung auf, es kann aber auch seine Arbeitsstelle oder sonst ein Ort sein, der von der Fragestellung der Untersuchung her geeignet ist. Beim Gruppeninterview sind mehrere Personen anwesend und werden gleichzeitig befragt. Dabei notiert der Interviewer die gegebenen Antworten (nicht zu verwechseln mit der Gruppendiskussion). Eine Sonderform des mündlichen Interviews ist das telefonische Interview. Zunächst wurde es vor allem für so genannte „Blitzumfragen“ mit einem kurzen Fragenkatalog zu eng begrenzten Themen verwendet. Schließlich breitete es sich aus und mündliche Befragung telefonisches Interview Abbildung 7.5: Befragungsformen nicht standardisiert teilstandardisiert vollstandardisiert BEFRAGUNGS- FORMEN mündlich Einzelinterview Gruppeninterview Sonderform: Telefoninterview schriftlich informelle Umfrage bei Experten oder Zielgruppen mündlich Experteninterview Gruppendiskussion narratives, situationsexibles Interview mündlich Leitfadengespräch, Intensivinterview Gruppeninterview schriftlich Experten- oder Zielgruppenbefragung schriftlich Postalische Befragung Verteilung u. Abholung Befragung in der Gruppensituation Sonderform: Online -Befragung <?page no="364"?> 365 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 365 wurde die verbreitetste Interviewform, auch weil praktisch alle Haushalte über ein Telefon verfügten (Frey/ Kunz/ Lüschen 1990, Farago/ Zeugin 1993, Porst 1991). Mittlerweile wird das Telefoninterview wieder seltener angewendet, weil die Teilnahmebereitschaft zurückgeht. 276 Bei den schriftlichen Befragungen gibt es einerseits die postalische Befragung: Zustellung des Fragebogens per Post oder Verteilung von Fragebögen in die Briefkästen durch Boten. Vom Adressaten wird dabei erwartet, dass er den Fragebogen selbst ausfüllt und ihn anschließend an die Forschungsgruppe (das Institut) zurückschickt. Um eine ähnliche Befragungsart handelt es sich, wenn zunächst der Fragebogen durch Interviewer überbracht und nach Erläuterung des Zwecks der Befragung zum Selbstausfüllen im Haushalt gelassen wird. Später holt der Interviewer den Fragebogen wieder ab, wobei er ihn auf Vollständigkeit hin überprüft und eventuell ergänzt (z. B. bei der Volkszählung). Diese Vorgehensweise hat gegenüber der rein postalischen Befragung den Vorteil, dass im Allgemeinen die Ausfallquote geringer ist. Davon zu unterscheiden ist die schriftliche Befragung in einer Gruppensituation: Eine ganze Gruppe von zu Befragenden ist gleichzeitig anwesend und füllt in Anwesenheit einer Aufsichtsperson den Bogen aus (etwa bei schriftlichen Befragungen von Schulklassen). Zunehmend an Bedeutung gewinnen online durchgeführte Befragungen (für Überblicke siehe Couper/ Coutts 2006; Jackob/ Schoen/ Zerback 2009; Wagner/ Hering 2014). Da das Internet als Medium nicht von allen Teilen der Bevölkerung in gleicher Häufigkeit benutzt wird, sind auch Online-Umfragen mit Problemen behaftet. Wagner und Hering (2014, 331) meinen: „Allgemeine Bevölkerungsumfragen sind-… zum jetzigen Zeitpunkt nicht realisierbar.” Für die Bevölkerungssegmente, die häufig das Internet nutzen, sind Online-Umfragen aber eine relevante Alternative. Während Umfragen basierend auf Selbstrekrutierung erheblichen Problemen der Repräsentativität unterliegen (vgl. Kapitel 6.4.1), sind Zufallsstichproben durch das Fehlen einer repräsentativen Ausgangsliste erschwert. Der Internet-Link mit dem Zugang zu einer Befragung wird entweder per E-Mail verschickt, postalisch zugestellt, oder Befragungsinstitute rekrutieren ein Access Panel, also eine Gruppe von Menschen, die regelmäßig an Befragungen teilnehmen (siehe unten). Durch das regelmäßige Speichern der einzelnen Befragungsabschnitte bieten Online-Befragungen neue Möglichkeiten zur Untersuchung von Abbrüchen. Auch sind komplexe Trichter und in verschiedener Form technisch unterstützte Frageformen möglich. Hinsichtlich des Grades an Standardisierung der Befragung unterscheidet man zwischen vollstandardisierter, teilstandardisierter und nicht standardisierter Befragung. Bei der vollstandardisierten Befragung sind sämtliche Fragen explizit vorformuliert. Es ist auch festgelegt, in welcher Reihenfolge die Fragen zu stellen sind, ob die 276 Für Telefonumfragen werden Ausschöpfungsraten von 20 % und weniger berichtet (Engel/ Schmidt 2014, 331). Zwei Gründe lassen sich dafür annehmen: Oft vermuten die Angerufenen eine Verkaufsabsicht und mit der Verbreitung von Mobiltelefonen werden die Angerufenen auch häufiger in Situationen erreicht, die ein Interview nicht zulassen. schriftliche Befragung Online-Befragung Grad der Standardisierung <?page no="365"?> 366 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 366 Fragen „offen“ oder „geschlossen“ gestellt werden, ob Listen oder Karten vorgelegt werden usw. Die Interviewer haben keinen Spielraum bei der Gestaltung ihrer Gespräche. Schriftliche Befragungen sind im Allgemeinen vollstandardisiert. Beim teilstandardisierten Fragebogen handelt es sich dagegen vor allem um ein Fragebogengerüst: In der Hauptsache wird mit offenen Fragen gearbeitet; Sondierungsfragen sind zugelassen; die Interviewer haben die Möglichkeit, die Befragungssituation selbst mit zu strukturieren. Einzelinterviews mit Hilfe eines solchen Fragebogengerüsts oder Interview-Leitfadens werden Leitfadengespräch bzw. Intensiv- oder Tiefeninterview genannt. Diese Form der Befragung erlaubt es, zu bestimmten Themen genauer nachzufragen, Sachverhalte intensiver oder mehr in die Tiefe gehend zu erfassen. Schriftliche teilstandardisierte Befragungen sind selten. Sie richten sich allenfalls mit eng abgegrenztem Themenbereich an Experten oder spezielle Zielgruppen. Das nicht standardisierte Interview verzichtet vollständig auf einen Fragebogen. Vorgegeben sind nur Stichworte oder Themen, die im Interview anzusprechen sind; die Befragten können ohne Vorgabe, ohne präzise Einzelfragen dazu Stellung nehmen (etwa bei Experteninterviews; siehe Brinkmann/ Deeke/ Völkel 1995, Hoffman/ Shadbolt u. a. 1995, Meuser/ Nagel 1991). Die Gruppendiskussion (nicht zu verwechseln mit dem Gruppeninterview) wird meist in dieser Weise geführt. Der Diskussionsleiter gibt lediglich das Rahmenthema vor und achtet darauf, dass nach Möglichkeit jeder zu Wort kommt; er führt zum Thema zurück, wenn die Diskussion abschweift (Kromrey 1986, Lamnek 1998, Vogl 2014). 277 Nach der Häufigkeit der Befragung von Personen unterscheidet man schließlich noch zwischen einmaliger Befragung und Panel, d. h. Befragung derselben Personen zu mehreren Zeitpunkten (Engel/ Reinecke 1994). Das Panel ist sehr kostspielig; man muss mit einer relativ großen Stichprobe arbeiten, da bei jeder neuen Welle von Befragungen eine gewisse Zahl von Ausfällen einzukalkulieren ist (vgl. Haunberger 2011, Rendtel 1990). Nur mit einem direkten Panel, bei dem dieselben Personen mehrfach interviewt werden, lassen sich Veränderungen von Meinungen und Einstellungen wie auch von Verhaltensweisen messen. Bei kommerziellen Forschungsinstituten wird der Begriff Panel auch in einer etwas abweichenden Weise verwendet. Die Institute haben im Allgemeinen einen Pool von Personen gesammelt, die sich bereit erklärt haben, an Befragungen teilzunehmen (Access Panel). Bei Routineerhebungen werden dann diese Personen wiederholt angeschrieben oder angerufen oder von Interviewern aufgesucht oder-- zunehmend-- über E-Mail kontaktiert und um Teilnahme an einer Online-Umfrage gebeten. Je nach Thema können aus diesem Pool auch spezifische Gruppen von Zielpersonen anhand 277 In qualitativ orientierten Forschungsdesigns kommt offenen, nur wenig standardisierten Befragungstechniken ein relativ großer Stellenwert zu. Begriffe wie situationsflexibles, exploratives, narratives oder fokussiertes Interview stehen für entsprechende Konzepte (siehe Kapitel 7.5 und Kapitel 9, vgl. auch Lamnek 1995, Bohnsack 2000; für kurze Überblicke siehe Hoffmann-Riem 1980, Hopf 1978, Kohli 1978). teilstandardisierter Fragebogen nicht standardisierte Interviews Gruppendiskussion Häufigkeit der Befragung Access Panel <?page no="366"?> 367 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 367 der im Institut vorhandenen sozio-demografischen Angaben nach dem Prinzip der bewussten Auswahl herausgefiltert werden. Um Kriterien der Repräsentativität zu genügen, dürfen die teilnehmenden Haushalte allerdings nicht über das Internet, sondern müssen „offline“ rekrutiert worden sein (da relevante Teilgruppen der Gesellschaft nicht über einen privaten Internetzugang verfügen und da zudem bei den Internethaushalten das Medium sehr unterschiedlich genutzt wird). Ein Beispiel für ein methodisch anspruchsvolles Access Panel ist das vom Berliner Markt- und Meinungsforschungsinstitut forsa (Gesellschaft für Sozialforschung und statistische Analysen) aufgebaute „forsa.omninet“ (siehe www.forsa.de/ →Methoden). Haushalte ohne Internet erhalten, um ebenfalls online erreichbar zu sein, vom Institut eine Übertragungseinheit (Set-top-Box) gestellt, das ihre Telefonleitung mit dem Fernseher verbindet. Liegt ein neuer Fragebogen vor, so wird eine entsprechende Mitteilung auf dem Fernsehschirm des zu Befragenden angezeigt. Entscheidet sich die Zielperson zur Teilnahme, so wird eine Verbindung zum Server des Instituts aufgebaut und der Fragebogen Frage für Frage über den Fernsehbildschirm angezeigt. 7.3.4 Befragung als Messvorgang Den standardisierten Fragebogen als „generalisiertes Messinstrument“ behandelte vorausgreifend bereits Kapitel 5.6 (Messen durch Befragung). Wird er in einer Forschungskontaktsituation eingesetzt, die (nach Noelle-Neumann/ Petersen) den Charakter eines „Reaktions-Experiments“ trägt (siehe Kapitel 7.3.1), ergeben sich für die Messsituation keine Besonderheiten: Die Befragten gelten als „Versuchspersonen“ (Vpn.), deren möglichst spontane Antworten auf die „Testfragen“ als Indikatoren für die an ihnen zu messenden Merkmale festzuhalten sind. Dies ist die Aufgabe der Interviewerin bzw. des Interviewers, die/ der anhand des entsprechend konstruierten Befragungsinstruments (siehe Kapitel 7.3.3: Fragebogenkonstruktion) das „Befragtenverhalten“ beobachtet und protokolliert. Die Rollenverteilung ist eindeutig: Die befragte Person ist der „Merkmalsträger“, ihre Reaktionen auf die „verbalen Stimuli“ (die „Testfragen“) sind die zu erhebenden Merkmale, die Interviewerin bzw. der Interviewer ist die messende Person (siehe Abb. 5.4 in Kapitel 5.5). Durch gründliche Schulung des Interviewerstabes sowie durch geeignete Standardisierung des Befragungsinstruments und der Befragungssituation ist so weit wie möglich sicherzustellen, dass keine vom Frage-Stimulus unabhängigen Einflüsse die Reaktion des Befragten (also seine Antwort) beeinflussen. Die gegebenen Antworten haben zudem nicht den Status „objektiver“ Sachinformationen, sondern gelten als Indikatoren für latente Merkmale der befragten Person, z. B. für Einstellungen, Meinungen, Verhaltensbereitschaften, Werthaltungen. 278 278 Dieses Konzept kann ausführlich und mit zahlreichen illustrativen Beispielen nachgelesen werden in Noelle-Neumann/ Petersen 1998. Bei dieser Befragungsstrategie kann der Befragte definitionsgemäß nicht als „Fehlerquelle“ angesehen werden, da jede seiner Antworten als situationsabhängige Reaktion zu deuten ist. Messen bei Befragten als Versuchsperson <?page no="367"?> 368 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 368 Anders stellt sich die Situation dar, wenn Befragte in der Rolle von „Informanten“ angesprochen werden. In diesem Falle ist die Befragungssituation als „Informationsabruf“ charakterisierbar; die Antworten des Befragten gelten jetzt als Auskünfte über die Merkmale der interessierenden Objekte bzw.-- bei Anwendung eines standardisierten Erhebungsinstruments- - als Messwerte. Die Rollenverteilung ist jetzt eine andere: Die befragte Person teilt anhand der im Fragebogen vorgegebenen Skalen oder standardisierten Antwortmöglichkeiten als „informierter Experte“ für den durch die Frage angesprochenen Sachverhalt mit, „was der Fall ist“. Der/ die Befragte wird also in der Forschungskontaktsituation nicht in der Rolle des Untersuchungsobjekts, sondern als Informant und Mitwirkende/ r im Forschungsprojekt angesprochen; er/ sie ist (gemäß der Abbildung 5.4) die „messende Person“. Die Interviewerin/ der Interviewer hat nur noch die Aufgabe der neutralen Übermittlung von Fragen und der Protokollierung von Antworten. Das jeweils „interessierende Objekt der Untersuchung“ kann natürlich auch die befragte Person selbst sowie ihr engerer Lebenskontext sein. In diesem Fall gibt sie Selbstauskünfte (über persönliche Merkmale wie Alter, Bildung, Einkommen, Parteipräferenz etc.) sowie Auskünfte über ihre unmittelbare Umwelt (Anzahl der Mitglieder des Haushalts, Alter und Beruf des Ehepartners, Größe der Wohnung etc.). Den Charakter des „generalisierten Messinstruments“ erhält der Fragebogen jedoch gerade daraus, dass der Gegenstandsbereich, zu dem Fragen gestellt, d. h. Auskünfte und Beurteilungen abverlangt werden können, praktisch unbeschränkt ist. Die formalen Voraussetzungen, die im Idealfall erfüllt sein müssten, damit die „Befragung als Informationsabruf“ gültige und zuverlässige Daten liefert, sind bereits in Kapitel 5.6 aufgelistet. Es dürfte leicht nachzuvollziehen sein, dass sie in der Forschungsrealität niemals in vollem Umfang einlösbar sind. Ist der Interviewer die messende Person, kann er in der Handhabung des Instruments geschult werden. Die Befragten jedoch können nicht in vergleichbarer Weise in diese Aufgabe „eingewiesen“ werden. 279 Es bleibt lediglich die nicht überprüfbare Hoffnung, dass die durch ein unterschiedliches Verständnis der gestellten Fragen möglicherweise auftretenden Fehler (siehe Kapitel 7.3.2) nicht von systematischer Art sind, also nicht die generelle Gültigkeit der Daten beeinträchtigen, sondern lediglich deren Zuverlässigkeit (siehe Kapitel 5.6), so dass sich die Ungenauigkeiten bei hinreichend großer Zahl von Befragten statistisch ausgleichen. 279 Auf ein spezifisches Gültigkeitsproblem bei Befragungen-- auf die Gefährdung der Gültigkeit durch inhaltsunabhängige Antwortverhaltens-Tendenzen (response sets)- - wird im Kapitel 7.4.2 noch eingegangen. Messen bei Befragten als Informanten Befragte nicht am-Fragebogen geschult <?page no="368"?> 369 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 369 7.3.5 Beispiel für einen Fragebogen (mündliches Einzelinterview) Projekt „Wohnverhalten als Kriterium bedarfsgerechten Bauens“, durchgeführt für-…… (Hinweis für den Interviewer: Wenn eckige Kästchen, Code-Ziffern einsetzen; wenn Ziffern vorgedruckt, Zutreffendes einkreisen) Vom Interviewer auszufüllen: Hinweis für den Interviewer: Zielpersonen sind nur der Haushaltsvorstand oder sein Ehepartner! Wohngebiet Nr.:  Interviewer Nr.:  lfd. Nr. des Interviews:  (Es folgen einleitende Erläuterung für den Befragten: -…) Frage 1: Mit wem leben Sie zusammen in einem Haushalt? Befragter lebt-… allein 0 zusammen mit Ehepartner 1 zusammen mit Kindern 2 zusammen mit Geschwistern 3 zusammen mit Eltern 4 zusammen mit sonstigen Verwandten 5 zusammen mit anderen Personen 6 (Interviewer: Mehrfachnennungen möglich! ) Frage 2: Wie viele Personen sind das insgesamt?  Frage 3: Wie groß ist die Wohnfläche, die Ihnen-- also dem gesamten Haushalt-- zur Verfügung steht? Bitte Angabe in-Quadratmetern! qm  Frage 4: Wie viele Zimmer bewohnen Sie (zusammen mit Ihrer Familie und den übrigen Haushaltsmitgliedern)? Gemeint sind alle Wohn- und Schlafräume einschließlich Küche; nicht mitzurechnen sind Badezimmer, WC, Kellerräume usw.  Frage 5: Was für Zimmer sind das? Bitte bezeichnen Sie die Zimmer danach, wie sie genutzt werden (also z. B. Küche, Wohnküche oder Elternschlafzimmer, Schlafzimmer der Oma oder Kinderzimmer, Gästezimmer usw.) (Interviewer: Sämtliche Angaben genau notieren und kontrollieren, ob alle Zimmer aufgeführt worden sind; vgl. Frage 4) ... Frage 12: Wohnen Sie (und Ihre Familie)-… (a) im eigenen Haus? 1 weiter zu (b) in einer Eigentumswohnung? 2 Frage 13 a,b,c (c) zur Miete? 3 weiter zu (d) zur Untermiete? 4 Frage 14 a,b  →  → <?page no="369"?> 370 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 370 (falls Eigentum: ) Frage 13: a) Wie hoch sind Ihre gesamten monatlichen Belastungen für Zinsen, Heizung, Instandhaltung, Steuern, Gebühren sowie für die Tilgung von Krediten? EUR  b) Wie viel davon macht die Kredittilgung aus? EUR  c) Und wie viel von dem Gesamtbetrag machen die Heizkosten aus? EUR  (Interviewer: Falls Antwort „weiß nicht“, bitte 8888 eintragen → weiter zu Frage 15) (falls Miete oder Untermiete: ) Frage 14: a) Wie hoch sind Ihre gesamten monatlichen Belastungen Für Miete, Heizung und andere Nebenkosten? EUR  b) Wie viel davon machen die Heizkosten aus? EUR  Frage 15: […] Frage 16: Wenn Sie nun Ihre jetzige Wohnung beurteilen: Was gefällt Ihnen daran, und was gefällt Ihnen nicht? Ich lese Ihnen jetzt einige Merkmale vor, und Sie sagen mir bitte, ob das in Ihrer Wohnung besonders vorteilhaft oder ob es besonders nachteilig ist. besonders besonders weder/ vorteilh. nachteilig noch (a) Zahl der Zimmer 1 2 3 (b) Größe der Wohnung (Grundfläche) 1 2 3 (c) Wohnungszuschnitt (Grundriss) 1 2 3 (d)-… (e)-… (Interviewer: Falls Antwort „trifft für mich nicht zu“ oder ähnliche Antwort, bitte 8 an den Rand schreiben und einkreisen) ... Frage 31: Bitte sagen Sie mir jetzt noch, was Ihnen an Ihrem Wohngebiet besonders gut gefällt, und was Sie für besonders schlecht halten. besonders gut: besonders schlecht: Zur Erläuterung: Fragen 1 und 2 leiten in das Thema Haushalt und Wohnung ein. Sie sind sehr einfach formuliert, um zunächst das Gespräch in Gang zu setzen (eine geschlossene und eine leichte offene Frage). In Frage 4 wird zur Herstellung eines gemeinsamen sprachlichen Bezugsrahmens für alle Befragten in der Frageformulierung genau festgelegt, welche Räume im Haus als „Zimmer“ gerechnet werden sollen. <?page no="370"?> 371 7.4 Vergleich der ErhebungsverfahrenInhaltsanalyse, Beobachtung, Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 371 Frage 5 ist eine offene Frage mit Erläuterungen und mit Beispielen, in welchen sprachlichen Kategorien der Befragte seine Antwort verschlüsseln soll (Bezeichnung der Zimmer nach ihrer Nutzung). Zugleich ist dies eine Kontrollfrage zu Frage 4 (vgl. den Hinweis an den Interviewer). Bei Frage 31 dagegen handelt es sich um eine offene Frage ohne Angabe, in welchen sprachlichen Kategorien der Befragte seine Antwort formulieren soll. Die Frage ist so angelegt, dass die Antworten darauf als Indikatoren für die Qualitäten und Nachteile des Wohngebiets gelten können, die im Bewusstsein der Befragten besonders stark präsent sind, so dass sie auch ohne weitere thematische Hinführung direkt abgerufen werden können. Bei der Auswertung dieser Antworten wird das Bezugssystem des Befragten zu berücksichtigen sein. Frage 12 dient (neben der Sammlung von Informationen über das Wohnverhältnis) als Filterfrage. Falls der Befragte im eigenen Haus oder in einer eigenen Wohnung lebt, hat der Interviewer die Fragen 13 a bis c zu stellen und dann mit Frage 15 fortzufahren. Falls der Befragte als Mieter oder Untermieter wohnt, hat der Interviewer mit den Fragen 14 a, b fortzufahren und geht dann zur Frage 15 über. In Frage 16 soll durch die Formulierung „ob das in Ihrer Wohnung besonders vorteilhaft oder ob es besonders nachteilig ist“ vermieden werden, dass eine bestimmte Antwortrichtung (z. B. vorteilhaft) nahe gelegt wird. Danach folgt eine Reihe von Bewertungsdimensionen, zu denen der Befragte jeweils anhand der vorgegebenen Bewertungskategorien Stellung nehmen soll. 7.4 Vergleich der Erhebungsverfahren Inhaltsanalyse, Beobachtung, Befragung 7.4.1 Besonderheiten und Ähnlichkeiten: Die Inhaltsanalyse als-Basismodell Mit der Definition als „eine Forschungstechnik, mit der man aus jeder Art von Bedeutungsträgern durch systematische und objektive Identifizierung ihrer Elemente Schlüsse ziehen kann“, ist die empirische Inhaltsanalyse nur vage bestimmt. Sehr unterschiedliche Verfahren, Texte (bzw. andere Dokumente) in „Elemente“ (in Einzelteile) zu zerlegen und diese Elemente dann einem System von Kategorien zuzuordnen, können dem Oberbegriff Inhaltsanalyse zugerechnet werden (vgl. Kapitel 7.1.5). Gemeinsam ist allen diesen Verfahren, dass sie in irgendeiner Weise versuchen, qualitative Inhalte (Bedeutungsinhalte) quantifizierbar zu machen; und je nach der Art und Weise, in der Inhalte quantifiziert werden, sind unterschiedliche inhaltsanalytische Strategien zu unterscheiden. Bei dem lange Zeit geführten Streit um „quantitative“ versus „qualitative“ Inhaltsanalyse (vgl. Ritsert 1972, 14 ff.) handelt es sich also im Grunde um ein Scheingefecht. Selbst wenn auf „rein qualitativer Ebene“ die analysierten Texte entsprechend ihren Aussageinhalten lediglich in Gruppen oder Klassen „qualitativ unterscheidbarer Aussagen“ eingeteilt werden, so wird damit doch zumindest bereits eine einfache Klassifikation von Textelementen vorgenommen, d. h. es wird auf Nominalskalenniveau „gemessen“. Damit aber ist bereits die Basis für eine quantitative Auswertung Breite der Inhaltsanalyse <?page no="371"?> 372 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 372 gelegt (vgl. Kapitel 5.2.2; 5.3.1; 5.4.3). Es macht auch keinen prinzipiellen Unterschied, ob anschließend-- wie bei der Frequenzanalyse-- das Resultat der Klassifikation genau ausgezählt und die Häufigkeit des Auftretens bestimmter Inhalte als Maß ihrer „Bedeutsamkeit“ verwendet wird, oder ob der Forscher sich nur einen groben Überblick über die Verteilung von Inhalten in den analysierten Texten verschafft und für die Bestimmung der „Bedeutsamkeit“ von Aussagen andere Kriterien heranzieht. Genauso einseitig wäre allerdings ein Standpunkt, der auf der Möglichkeit einer „rein quantitativen“ Inhaltsanalyse beharrte. Das Zuordnen von Bedeutungsgehalten eines Textes zu den definierten inhaltsanalytischen Kategorien setzt notwendigerweise „qualitative“ Prozesse des Erkennens und Interpretierens in der Person des Lesers (des Vercoders) voraus. „Jede Identifizierung eines inhaltlichen Textmerkmals durch den Codierer ist zunächst ein qualitativer Analyseakt, dessen zählend-quantifizierende Weiterverarbeitung diesen Charakter nicht aufhebt-… Zwischen qualifizierenden und quantifizierenden Analyseschritten besteht so bei der Inhaltsanalyse eine nicht auflösbare dialektische Wechselbeziehung“ (Früh 1981a, 102). Auch für diese qualitativen Analyseschritte gilt allerdings die Forderung, dass ihre Resultate möglichst intersubjektiv sein sollen (vgl. Kapitel 7.1). Im Unterschied zu den Verfahren Beobachtung und Befragung (wo die Prozesse, über die Daten erhoben werden, unmittelbar bei der Anwendung des Erhebungsinstruments ablaufen: systematisch beobachtete Aktivitäten, protokollierte verbale Reaktionen der Befragten auf verbale Stimuli) richtet sich die empirische Inhaltsanalyse auf Dokumente 280 über stattgefundene soziale Prozesse, auf das Ergebnis der Aktivitäten von Einzelpersonen oder Gruppen/ Organisationen auf „symbolische Materialien“ (Treinen 1979). Diese Materialien sind im Allgemeinen nicht speziell für die Zwecke der Inhaltsanalyse angefertigt worden, sondern spiegeln, anders als bei Befragungen sowie bei Beobachtungen in „künstlichen“ Situationen, soziale Sachverhalte wider, die unabhängig und unbeeinflusst von der Forschungsabsicht existiert haben oder existieren. Dadurch werden wiederholte Analysen derselben Sachverhalte, wie sie im realen Ablauf sozialer Prozesse dokumentiert wurden, erstens überhaupt möglich (im Gegensatz zum Verfahren der Beobachtung); zweitens wird durch wiederholte Analysen derselben Sachverhalte der Forschungsgegenstand in keiner Weise verändert; d. h. die Inhaltsanalyse ist insofern nicht reaktiv (im Unterschied zur Befragung). Wenn trotzdem die Inhaltsanalyse häufig als eine relativ spezielle Datenerhebungsmethode nur für einen eng begrenzten Anwendungsbereich angesehen und auch in Methoden-Lehrbüchern so behandelt wird, dann mag dies durch ihren überwiegenden Einsatz bei der Untersuchung von Problemen der Massenkommunikation erklärbar sein. In Übereinstimmung mit Lisch/ Kriz (1978) wird dagegen im vorliegenden Lehrtext die Auffassung vertreten, „dass Inhaltsanalyse das zentrale Modell zur Erfassung-… sozialwissenschaftlicher Realität ist“ (a. a. O., 11). 280 Der Begriff „Dokument“ ist hier im weitesten Sinne zu verstehen als „jede Art von Bedeutungsträgern“ (s. o.), als jede Art sinnhaltigen Materials (festgehalten z. B. in Schrift, Bild oder Tonaufzeichnung). gleichzeitig qualitativ und quantitativ Analyse von Dokumenten über Realität Analyse bereits vorliegender Dokumente Inhaltsanalyse ist-nicht reaktiv Inhaltsanalyse: zentrales Modell <?page no="372"?> 373 7.4 Vergleich der ErhebungsverfahrenInhaltsanalyse, Beobachtung, Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 373 Zum einen nämlich entstehen inhaltsanalytisch auswertbare symbolische Materialien nicht nur auf dem Feld der Massenkommunikation, sondern-- da soziale Prozesse ohne (verbale oder nichtverbale) Kommunikation nicht denkbar sind-- in einer Vielzahl von sozialen Handlungszusammenhängen: als Akten bei Behörden, Schriftverkehr zwischen Organisationen und Politikern, Protokolle von Vereins- und Parteiversammlungen, Flugblätter von Bürgerinitiativen, Protokolle von Parlamentsberatungen, als „graue Literatur“ in sämtlichen Politik- und Forschungsbereichen, als Kinderzeichnungen, Tagebücher, Eintragungen in den „Klassenbüchern“ von Schulen, als historische Quellen, Romane, Gemälde, Skulpturen usw. Zum anderen stellen sich die Probleme der Entwicklung eines inhaltsanalytischen Erhebungsinstruments in vergleichbarer Weise in jedem empirisch-sozialwissenschaftlichen Forschungsansatz. In jedem Fall sozialwissenschaftlicher Datenerhebung ist die vorherige Entwicklung eines Kategoriensystems erforderlich (inhaltsanalytische und Beobachtungs-Kategorien, Fragen im Fragebogen und Antwortkategorien). In jedem Fall auch wird dieses vorab entwickelte Schema anschließend auf die Untersuchungs-„Objekte“ angewendet (seien diese nun Texteinheiten, Beobachtungssituationen oder Befragte). Die Beobachtung unterscheidet sich dabei von der Inhaltsanalyse im Wesentlichen nur durch die Art ihres Beobachtungsgegenstandes: zum Zeitpunkt des Beobachtens ablaufende Aktivitäten gegenüber dokumentierten Ergebnissen von Aktivitäten. Die Befragungsmethode gar stützt sich vollständig auf Ergebnisse verbaler Kommunikation und enthält in vielfacher Hinsicht Elemente der inhaltsanalytischen „Technik“. Speziell bei der Befragung allerdings werden, wegen ihrer Ähnlichkeit zu Alltagssituationen, dem Forscher wie auch dem Rezipienten der Forschungsergebnisse die methodologischen und theoretisch-inhaltlichen Probleme weit weniger bewusst als bei inhaltsanalytischen Verfahren („Fragen stellen kann jeder“). Ein großer Teil der für das Interview entwickelten „Kunstregeln der Befragung“ (vgl. Kapitel 7.3.3) zeigt, dass die Probleme der Gültigkeit des Instruments (Was „bedeuten“ die mit Hilfe der Befragungstechnik erhobenen Daten eigentlich? ) häufig in technische Handlungsanweisungen verdrängt werden, „in Operationalisierungen, welche hinsichtlich ihres theoretischen Stellenwertes kaum je diskutiert werden“ (Lisch/ Kriz 1978, 11; vgl. auch Cicourel 1974). Die systematische empirische Inhaltsanalyse dagegen „zwingt zur Präzision, und zwar nicht nur der verwandten Forschungstechnik, sondern vor allem dazu, den eigenen theoretischen Hintergrund gründlicher zu reflektieren, als dies häufig der Fall zu sein scheint“ (Treinen 1979, 102). Wie vielseitig die Fragestellungen sind, die mit Hilfe von Inhaltsanalysen angegangen werden können, illustriert das im Folgenden wiedergegebene Übersichtsschema von Holsti (1968), das der Autor zwar speziell für den Anwendungsbereich Kommunikationsforschung entwickelt hat, das prinzipiell aber auch auf andere Bereiche angewendet werden kann. Vielfalt verfügbarer Materialien typische Instrumentenentwicklung methodologische Probleme besonders klar <?page no="373"?> 374 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 374 Tabelle 7.2: Inhaltsanalytische Forschungspläne (nach Holsti 1968, 604) Ziel der Untersuchung Zweig der Semiotik Art des inhaltsanalytischen Vergleichs Frage Untersuchungsproblem (Fragestellung) Beschreibung der Charakteristika von Kommunikation Semantik (Zeichen/ Bezeichnetes) und Syntaktik (Zeichen/ Zeichen) Nachrichten einer Quelle vom Typ A: 1. Variable X im Zeitverlauf 2. Variable X in verschiedenen Situationen 3. Variable X bei verschiedenen „Empfänger“-Gruppen 4. Variablen X und Y innerhalb der gleichen Gesamtheit von Dokumenten WAS? Beschreiben von Trends in Kommunikationsinhalten; Herstellen von Beziehungen (Verbindungen) zwischen bekannten Charakteristika von Quellen und den Nachrichten, die sie produzieren (verbreiten); Überprüfen von Kommunikationsinhalten auf der Basis fester Vergleichsstandards Nachrichten einer Quelle (Sender) A im Vergleich zu Nachrichten einer Quelle (Sender) B WIE? Analysieren von Überredungs-/ Überzeugungstechniken; Stilanalysen Nachrichten in Relation zu einem festen Vergleichsstandard 1. a priori 2. inhaltlich 3. nicht inhaltlich ZU WEM? Herstellen von Beziehungen (Verbindungen) zwischen bekannten Charakteristika der Empfänger und den Nachrichten, die für sie produziert (gesendet) wurden; Beschreiben von Kommunikationsmustern Schlüsse auf die Bestimmungsgründe der Kommunikation, d. h. Schließen auf das, was der Kommunikation vorausging (Verschlüsseln, „Encodieren“) Pragmatik (Zeichen/ Sender) Nachrichten im Vergleich zu nicht symbolischen Verhaltensweisen: 1. direkt 2. indirekt WARUM? Beschaffen politisch oder militärisch bedeutsamer Erkenntnisse; Analyse psychologischer Merkmale von Individuen; Schließen auf Aspekte der Kultur und des kulturellen Wandels; Beschaffen gerichtlich verwertbaren Beweismaterials (legal evidence) WER? Beantworten von Fragen umstrittener Autorenschaft Schlüsse auf die Wirkungen von Kommunikation (Prozess des Entschlüsselns, des Decodierens) Pragmatik (Zeichen/ Empfänger) Nachrichten des Senders im Vergleich zu Nachrichten des Empfängers (Rezipienten) MIT WELCHER WIR- KUNG? Lesbarkeits-Messung; Analyse des Informationsflusses; Einschätzen von Reaktionen auf Kommunikation Nachrichten des Senders im Vergleich zu Verhaltensdaten des-Empfängers (Rezipienten) <?page no="374"?> 375 7.4 Vergleich der ErhebungsverfahrenInhaltsanalyse, Beobachtung, Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 375 7.4.2 Zuverlässigkeit, Gültigkeit, Repräsentativität Bei allen Messoperationen, d. h. bei jeder standardisierten empirischen Erhebung sozialwissenschaftlicher Daten, sollten sich die Forscher darüber vergewissern, ob ihre Instrumente zuverlässig messen (ob die Messergebnisse bei mehrfacher Messung desselben Sachverhalts bzw. bei Messung durch verschiedene Personen stabil sind) und ob ihre Instrumente auch diejenigen Merkmale messen, die sie messen sollen (ob also die Resultate gültig sind, ob den gemessenen unterschiedlichen Merkmalsausprägungen auch Unterschiede auf der „gemeinten“ Bedeutungsdimension in der empirischen Realität entsprechen). Falls schließlich von einer Stichprobe auf eine Grundgesamtheit (auf eine Gesamtpopulation) geschlossen werden soll, müssen die Stichprobenergebnisse „repräsentativ“, also verallgemeinerbar sein. Die drei behandelten Erhebungsinstrumente sind hinsichtlich dieser „Gütekriterien“ erkennbar unterschiedlich einzustufen. Inhaltsanalyse Über die Zuverlässigkeit der systematischen Inhaltsanalyse wurde bereits im Kapitel 7.1.4 das Wesentliche vermittelt. Durch eine präzise Operationalisierung der Kategorien und durch gründliche Schulung der Vercoder/ innen kann sie im Prinzip bis zum gewünschten Grad gesichert werden. Dazu ist allerdings eine präzise semantische Analyse der Sprache in den zu codierenden Dokumenten unerlässlich. Was die Gültigkeit der Kategorien angeht, so liegt die Sache nicht ganz so einfach. Beim Verfahren der Inhaltsanalyse (die Argumentation sei hier auf die Analyse von Zuverlässigkeit der Inhaltsanalyse Gültigkeit der Inhaltsanalyse Zur Erläuterung: Semiotik nennt man die Wissenschaft von der Sprache, von der Funktion der sprachlichen Zeichen. Sie unterteilt sich in die Bereiche Syntaktik, Semantik und Pragmatik: Die Syntaktik handelt von den Beziehungen zwischen den Zeichen untereinander (Häufigkeiten von Zeichen, Grammatik, Syntax). Der Vorgang der Nominaldefinition spielt sich auf syntaktischer Ebene ab: Ein zu definierendes sprachliches Zeichen (Definiendum) wird mit einem oder mehreren definierenden Zeichen (Definiens) gleichgesetzt.-- Die Semantik handelt von den Beziehungen zwischen den sprachlichen Zeichen und ihren Bedeutungen, mit anderen Worten: von den Beziehungen zwischen den sprachlichen Zeichen und den damit bezeichneten Sachverhalten bzw. den sprachlichen Zeichen und ihren „Referenzobjekten“. Der Vorgang der „Referition“, d. h. der Verknüpfung sprachlicher Zeichen mit gemeinten empirischen Sachverhalten, betrifft die semantische Ebene. Durch Bedeutungszuweisungen werden „Wörter“ zu „Begriffen“.- - Die Pragmatik schließlich handelt von den Beziehungen zwischen Zeichen und Menschen. Wenn z. B. gesagt wird, Wissenschaft sei nicht Sache einzelner Wissenschaftler, sondern sei auf die Kommunikation zwischen den am Wissenschaftsprozess Beteiligten angewiesen (vgl. etwa die Forderung nach „Intersubjektivität“), dann wird auf der Ebene der Pragmatik argumentiert. Im obigen Holsti-Schema ist unter den zur Pragmatik zählenden Forschungsfragestellungen einmal das Verhältnis Sender und Sprache (Prozess des Verschlüsselns von zu übermittelnden Aussage-Inhalten), zum anderen das Verhältnis Sprache und Empfänger/ Rezipient (Prozess des Entschlüsselns der übermittelten sprachlichen Zeichen) angesprochen. Für einen kurzen Überblick vgl. Herkner 1974, 164 ff. <?page no="375"?> 376 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 376 Texten beschränkt) wird die Vielfalt sprachlicher Äußerungen in den ausgewerteten Dokumenten auf einen begrenzten Satz von Kategorien und hier wieder auf eine begrenzte Zahl von „Ausprägungen“ (Unterkategorien) reduziert. Das Problem liegt darin, dass die Zuordnung von Textabschnitten zu Kategorien nach dem Kriterium der Bedeutungsgleichheit (der semantischen Äquivalenz) erfolgen soll. Das setzt nicht nur eine operationale Interpretation der Kategorien 281 voraus, die für alle Vercoder/ innen einen identischen (intersubjektiven) Rahmen für die Deutungen der Zuordnungskategorien und der Textabschnitte in intensionaler und extensionaler Hinsicht schafft, dies war ja schon Voraussetzung für die Sicherung der Zuverlässigkeit. Weiterhin müssen die Korrespondenzregeln (die Hypothesen über die Verknüpfung der theoretischen Begriffe der Untersuchung mit den Kategorien des Analyseschemas) zutreffen, und die Deutungsregeln für die Vercoder/ innen zur Verschlüsselung der Texte (Decodierregeln) müssen mit den Deutungen der Textproduzenten (Encodierregeln) übereinstimmen. Schließlich müssen auch die Texteinheiten (Zähleinheiten) im Hinblick auf die theoretischen Begriffe der Untersuchung sinnvoll abgegrenzt sein, wobei man häufig auf die Definition semantischer Einheiten (Texteinheiten, die eine inhaltliche Deutung ermöglichen: zusammenhängende Aussagen, Argumente) zurückgreifen wird. Damit man solche semantischen Einheiten überhaupt sinnvoll abgrenzen kann, müssen, um Willkür zu vermeiden, Bedeutungen bereits im Text eindeutig spezifizierbar und definierbar sein. Dies wirft jedoch wiederum Probleme auf, weil im Falle semantischer Einheiten dem Codierer/ der Codiererin bei der Zuordnung der Texte zu Kategorien ein doppelter Spielraum bleibt (Abgrenzung der Texteinheiten und Codierung der Inhalte), mit der Folge, dass auch bei der Inhaltsanalyse-- die in Kapitel 7.4.1 als ein vergleichsweise nicht reaktives Verfahren bezeichnet wurde-- unter Umständen ein „response set“ (ein der kodierenden Person und nicht dem jeweiligen Text zuzurechnendes Verkodungsverhalten) auftritt: „Der Coder wird nach Strukturierungen suchen, um seine Vorgehensweise einheitlich und für ihn selbst eindeutig zu gestalten. Er greift dabei etwa auf die Forschungshypothesen zurück, auf die Deutung seiner Kollegen oder aber auf unkontrollierbare Einstellungen, die er sich selbst im Verlauf der Untersuchung bildet“ (Treinen 1979, 105). Das heißt: Während der Untersuchungsgegenstand auch durch wiederholte Analysen nicht verändert wird, können doch die erzielten Daten durch nicht vollständig kontrollierte Selektions- und Interpretationskriterien der Vercoder/ innen beeinflusst sein. 281 Wie bei jeder Messung kann man auch bei der inhaltsanalytischen Messung vier „Realitätsschichten“ (Hartmann 1970, 108) unterscheiden: 1. Eine inhaltsanalytische Messung erfasst nicht das eigentliche Objekt, den realen Sachverhalt, sondern den „Begriff“, den sich der Autor eines Dokuments und auch der inhaltsanalytisch arbeitende Forscher davon macht. 2. richtet sie sich nicht auf den Sachverhalt „als Ganzes“, sondern auf ausgewählte Merkmale. Diese werden 3. nicht direkt gemessen, sondern über Indikatoren. Die Indikatoren schließlich (genauer: die beobachteten „Ausprägungen“) werden 4. beschrieben mit Hilfe von Zahlen, werden also in ein numerisches System „übersetzt“. Übereinstimmung der Interpretationen Abgrenzung semantischer Einheiten “response set“ bei kodierender Person <?page no="376"?> 377 7.4 Vergleich der ErhebungsverfahrenInhaltsanalyse, Beobachtung, Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 377 Eine weitere Gefahr für die Gültigkeit der inhaltsanalytisch erzielten Ergebnisse besteht darin, dass Vercoder im Verlaufe ihrer Arbeit ihre persönlichen Textdeutungen verändern, sie ihrem jeweils gewonnenen und fortentwickelten Gesamtverständnis der Texte anpassen, so dass die Zuordnungen gegen Ende des Kodierprozesses andere sind als zu Beginn. Ein Ausweg aus diesem Problem- - bei Verwendung semantischer Texteinheiten für die Analyse-- könnte nach Treinen die Miterfassung der je spezifischen Kontexte bei der Textproduktion sein, die aus dem Gesamtzusammenhang des Textes selbst nicht ableitbar sind. Nach seiner Auffassung ist nämlich „eine ‚reine‘ Inhaltsanalyse gar nicht möglich-…, wenn bedeutungsvolle Fragestellungen auf systematische, objektive und methodisch kontrollierte Weise angegangen werden sollen. Zusätzlich erforderlich sind Messverfahren zur eindeutigen Bestimmung von Kontexten und damit von kontextuellen Variablen, die es erst dem Forscher ermöglichen, die Bedeutung sprachlicher Symbole zu entziffern“ (1979, 106). 282 Angesichts dieser Schwierigkeiten der einheitlichen Interpretation bietet die Inhaltsanalyse allerdings einen entscheidenden Vorteil: Die Messung kann im Nachhinein kontrolliert und korrigiert werden. Da das Ausgangsmaterial unverändert vorliegt, ist eine nochmalige Vercodung des Materials möglich. Auch wenn aus praktischen Erwägungen der Messvorgang sicherlich nicht mehrfach wiederholt werden kann, ist die Behebung punktueller Probleme möglich und üblich. Greift man nicht auf semantische Einheiten als Zähleinheiten zurück, sondern wählt formale Abgrenzungskriterien für die Zähleinheiten (etwa Worte, Sätze, Absätze, Flächenstücke der zu analysierenden Dokumente), dann wird die Identifikation einfacher und eine Veränderung der Interpretation durch die kodierenden Personen unwahrscheinlicher. Allerdings stellt sich normalerweise das Problem, dass diese Abgrenzung von Textteilen nicht immer im Hinblick auf die theoretischen Analysebegriffe sinnvolle Deutungen ermöglicht. Während die geschilderten Schwierigkeiten bei der Sicherung der Gültigkeit kaum oder doch in weit geringerem Maße auftreten, sofern sich die Analyse auf objektive Textbeschreibungen auf syntaktischer Ebene (vgl. Erläuterung zum Holsti-Schema, Tabelle 7.3) beschränkt, verschärfen sich die Probleme bei Einbeziehung auch der pragmatischen Dimension (siehe Merten 1981, 51 ff.). Dies gilt generell, wenn die Textdeutungen Rückschlüsse auf Sachverhalte und/ oder Beziehungen außerhalb der analysierten Texte erlauben sollen (vgl. Kapitel 7.1.4: „externe Validität“). 282 Eine solche Veränderung der Interpretation bei den kodierenden Personen wäre zudem ein Problem der Zuverlässigkeit, denn die Messung wäre bei einer Veränderung der Interpretationen nicht mehr über die Zeit stabil. veränderliche Textdeutungen Möglichkeit nachträglicher Kontrolle Gültigkeit formal definierter Zähleinheiten Gültigkeit der Schlüsse über den-Text hinaus <?page no="377"?> 378 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 378 Relativ unproblematisch ist im Vergleich dazu bei der Inhaltsanalyse die Sicherung der Repräsentativität: Sobald die Grundgesamtheit der relevanten Dokumente definiert und ihre Zugänglichkeit gesichert ist, lässt sich eine „symbolische Repräsentation“ der Grundgesamtheit erstellen und daraus eine repräsentative Stichprobe (z. B. als einfache Zufallsauswahl) ziehen. Beobachtung Bei der Beobachtung gilt für die Zuverlässigkeit des Instruments zunächst einmal das, was hinsichtlich der Inhaltsanalyse schon ausgeführt wurde: Durch systematische Präzisierung der Beobachtungskategorien (z. B. wiederholte Kategorisierungstests anhand von Videoaufzeichnungen oder Fotos) und durch Beobachterschulung lässt sich die Zuverlässigkeit auf ein gewünschtes Maß erhöhen. Nachteilig allerdings wirkt sich bei der Beobachtung der Zeitdruck aus, unter dem die Kategorisierungen durch die Beobachter vorgenommen werden müssen. Zuverlässigkeitsmindernd wirken auch die Wahrnehmungsstrukturen bei den Beobachtern: selektive Wahrnehmung, nachlassende Konzentration; Tendenz zur Angleichung des wahrgenommenen Geschehens an das bisher Geschehene, Tendenz zur „Gestaltschließung“ (d. h. nicht Gesehenes zu ergänzen); Tendenz, extreme Ereignisse zu einer Mittelkategorie hin zu „verschieben“ u. Ä. Auch für die Kontrolle der Repräsentativität der Resultate sind die Bedingungen ungünstiger. Die zu beobachtenden Ereignisse existieren ja bei der Konstruktion der Stichprobe noch nicht, so dass ihre symbolische Repräsentation z. B. durch eine Kartei nicht möglich ist. Die Ereignisse treten erst zum Zeitpunkt der Beobachtung auf; und es muss unterstellt werden, dass die beobachteten Ereignisse eine Zufallsstichprobe aus der Gesamtheit aller möglichen Ereignisse sind, dass also nicht während der Beobachtungen Bedingungen herrschen, die das Ergebnis systematisch verzerren. Es ist leicht erkennbar, dass z. B. für das Verhalten im öffentlichen Raum allein schon so selbstverständliche Randbedingungen wie das Wetter das Verhalten erheblich beeinflussen. Die Gesamtheit aller möglichen Randbedingungen kann jedoch in keinem Fall bei Beobachtungen in natürlichen Situationen kontrolliert werden. Zwar lässt sich die Repräsentativität formal realisieren, indem bestimmte Räume und bestimmte Beobachtungsintervalle entsprechend den Regeln der Stichprobentheorie ausgewählt werden und somit auch repräsentativ in der Auswahl vertreten sind. Ob aber diese Repräsentativität auch für die zu beobachtenden Ereignisse, Merkmale und Merkmalskombinationen gilt, ist nicht zu klären. Als „Faustregel“ gilt: Je alltäglicher, je häufiger und je unabhängiger von äußeren Bedingungen die zu beobachtenden Ereignisse sind, um so eher kann davon ausgegangen werden, dass durch Sicherung der Repräsentativität der Auswahleinheiten (Raum-Zeit-Punkte) auch eine Repräsentativität der zu beobachtenden Merkmale erzielt wird. Die Unsicherheit im Hinblick auf die Repräsentativität beeinflusst natürlich die Einschätzung der Gültigkeit von Beobachtungsergebnissen. Wenn schon die Repräsentativität der erhobenen Daten nicht sicher ist, dann ist auch die externe Gültigkeit, d. h. die Möglichkeit einer Verallgemeinerung über die beobachtete Gesamtheit hin- Repräsentativität der Inhaltsanalyse Zuverlässigkeit der Beobachtung Probleme: Zeitdruck, selektive Wahrnehmung Repräsentativität der Beobachtung Repräsentativität der Ereignisse unklar Gültigkeit der Beobachtung <?page no="378"?> 379 7.4 Vergleich der ErhebungsverfahrenInhaltsanalyse, Beobachtung, Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 379 aus, nicht gesichert. Hinzu kommt, wie schon angedeutet, dass Beobachter bei komplexen Handlungszusammenhängen nicht davon ausgehen können, dass der Sinn, den sie in eine Handlung hineininterpretieren, auch der „tatsächliche“, der vom Handelnden gemeinte Sinn dieser Aktivität ist. Im Übrigen gilt für das Kategorienschema zur Beobachtung analog das für die Inhaltsanalyse Ausgeführte: Wie weit die Beobachtungskategorien die relevanten Dimensionen der Untersuchungsfrage abbilden, wie weit sie den Handlungsprozess nicht in einer Weise zerreißen, dass wesentliche Bestandteile, wesentliche Bedeutungen untergehen, das ist nur aufgrund gesicherter Kenntnisse, aufgrund bestätigter Theorien abzuschätzen. Die systematische Beobachtung ist also hinsichtlich der drei Gütekriterien problematischer einzuschätzen als die Inhaltsanalyse. Für die Untersuchung bestimmter Tatbestände ist ihr Einsatz jedoch unentbehrlich: nonverbale Kommunikation, Verhalten statt Aussagen über Verhalten, Kinder als Untersuchungsobjekte, das Geschehen in räumlichen Einheiten u. Ä. Befragung Die gravierendsten Einschränkungen bei der Erfüllung der Gütekriterien aber sind für die am häufigsten verwendete Strategie der Informationsgewinnung-- Befragung/ Interview-- anzubringen (siehe Kapitel 7.3.4). Schon was die Stabilität der Messergebnisse-- die Zuverlässigkeit-- angeht, kann kaum davon ausgegangen werden, dass dasselbe Interview bei derselben Person zu einem anderen Zeitpunkt durchgeführt, oder dass dasselbe Interview bei derselben Person beispielsweise von einer Interviewerin statt eines Interviewers durchgeführt, das gleiche Ergebnis bringen würde (siehe das Beispiel in Kapitel 7.3.2): „Nicht einmal radikale Behavioristen können sinnvoll bestreiten, dass Befragungen eine soziale Interaktion zwischen den an ihr beteiligten Personen (wenngleich vorwiegend verbaler Art) darstellen. Die besondere Sozialbeziehung mit dem Befrager beeinflusst unvermeidlich das Verhalten der Befragten, damit aber auch deren Reaktion auf Fragen, die doch den Anspruch der Sozialforschung nach situationsunabhängigen Einstellungen und Verhaltensmustern vermitteln sollen“ (Berger 1985, 32 f.). Doch nicht nur die Art des persönlichen Kontakts mit der Interviewerin/ dem Interviewer hat Einfluss auf das Antwortverhalten, sondern auch die unabhängig davon gegebenen jeweiligen Stimmungen der Befragten, ja selbst so äußerliche Gegebenheiten wie das Wetter bleiben nicht ohne Auswirkungen auf den Inhalt der Antworten (Schwarz/ Clore 1983; Mutz/ Kämpfer 2011). Mit anderen Worten: Die Methode Interview ist ein reaktives Verfahren der Informationserhebung. Auch durch noch so intensive Interviewerschulungen und durch Standardisierungsbemühungen lässt sich damit kein Messinstrument entwickeln, das von Situationseinflüssen unbeeinflusste, im methodischen Sinne „zuverlässige“ Daten produziert. Beobachtung bei Gütekriterien problematischer Erfüllung der Gütekriterien problematisch vielfältige Einflüsse auf Interviewsituation Befragung ist ein reaktives Verfahren <?page no="379"?> 380 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 380 Auch hinsichtlich der Repräsentativität der Ergebnisse sind Fragezeichen anzubringen (als Überblick Engels/ Schmidt 2014). Zwar können-- bei Anwendung geeigneter Auswahlpläne-- im Prinzip immer Zufallsauswahlen aus einer Bevölkerungsgrundgesamtheit gezogen werden. 283 Damit ist aber das Problem der Repräsentativität noch nicht gelöst. Anders als bei Inhaltsanalyse und Beobachtung ist bei der Befragung zusätzlich die ausdrückliche Bereitschaft der zu befragenden Person zur Mitarbeit erforderlich. Nicht bei allen ausgewählten Zielpersonen kommt daher eine Befragung (ein Interview) zustande: Es gibt „Ausfälle“. Solche Ausfälle sind naturgemäß besonders zahlreich bei der Form der schriftlichen Befragung, bei der vom Befragten zusätzlich zum Ausfüllen des Fragebogens auch erwartet wird, dass er den ausgefüllten Bogen selbst an die Forschergruppe oder an das Feldforschungs-Institut zurückschickt. Aber auch beim mündlichen Interview darf der Umfang der Ausfälle nicht unterschätzt werden. In der bereits zitierten Untersuchung über die Nutzung und Einschätzung von Informationsmedien findet sich eine Aufstellung, die Auskunft über die Verteilung verschiedener Arten von Ausfällen zwischen Stichprobenziehung und Interviewauswertung gibt (Infratest-Medienforschung 1975, 8). Es wurde eine Zufallsstichprobe von Haushalten anhand einer Adressenkartei im Umfang von n =- 2850 gezogen; diese wurde um 205 „qualitätsneutrale Ausfälle“ (z. B. nicht zutreffende Adressen) bereinigt, so dass 2645 ausgewählte Haushalte verblieben. Pro Haushalt sollte eine Person im Alter von 14 Jahren oder älter interviewt werden, die „anhand eines mathematisch errechneten Zufallsschlüssels“ auszuwählen war. Die sich ergebenden Ausfälle verteilten sich wie folgt: Gesamtstichprobe Adressen-Stichprobe „qualitätsneutrale“ Ausfälle =-bereinigte Stichprobe 2850 205 2645 100,0 % systematische Ausfälle: 1. im Haushalt niemanden angetroffen 2. im Haushalt Auskunft verweigert 3. Zielperson nicht angetroffen 4. Zielperson krank 5. Zielperson verreist, Urlaub 6. Zielperson verweigert das Interview 7. Verständigungsschwierigkeiten 191 88 48 60 31 163 23 7,2 % 3,3 % 1,8 % 2,3 % 1,2 % 6,1 % 0,9 % Summe der systematischen Ausfälle nicht auswertbare Interviews Zur Auswertung gegebene Interviews 604 26 2015 22,8 % 1,0 % 76,2 % 283 Die einschränkende Formulierung „im Prinzip“ ist allerdings sehr wörtlich zu nehmen. Faktisch weichen nämlich selbst in aufwändig konzipierten Auswahlplänen die faktischen Auswahlgesamtheiten (frame population) von den angestrebten Grundgesamtheiten (target population) in mehrfacher Hinsicht ab. Dieser selten behandelten Frage geht ausführlich Rainer Schnell (1991) nach. Repräsentativität der Befragung Problem der Ausfälle Tabelle 7.4: Ausfälle bei einer-Umfrage <?page no="380"?> 381 7.4 Vergleich der ErhebungsverfahrenInhaltsanalyse, Beobachtung, Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 381 Mit über 75 % weist diese 1974 durchgeführte Untersuchung eine für heutige Verhältnisse ausgesprochen hohe Ausschöpfungsrate auf, die seitdem kontinuierlich gesunken ist. So wurden 1980 bei der Erhebung für den ALLBUS (=- Allgemeine Bevölkerungsumfrage der Sozialwissenschaften) nur noch 64 % der Zielpersonen erreicht, 1986 waren es 59 %, 1994 sogar (trotz 15 Wochen Feldarbeit) ebenso wie 1996 lediglich 54 %. Mittlerweile-- seit 2000-- ist die Ausschöpfungsrate weiterhin bis auf sogar nur noch 38 % (ALLBUS 2012) und 35 % (ALLBUS 2014) zurückgegangen. Besonders extrem gestiegen sind dabei die Verweigerungen des Interviews durch die Zielperson (=-49 %! , ALLBUS 2012). 284 Die Repräsentativität einer Zufallsstichprobe würde natürlich dann nicht durch Ausfälle beeinträchtigt, wenn auch die Ausfälle zufallsverteilt wären. Das aber kann nicht unterstellt werden: Ob jemand im Haushalt anzutreffen ist oder nicht, hängt z. B. systematisch mit Merkmalen wie Art der Berufstätigkeit, Alter, Geschlecht zusammen. Ob angetroffene Personen bereit sind, sich dem Interview zu stellen, hängt ebenfalls mit Persönlichkeitsvariablen zusammen: nicht nur mit kategorialen Merkmalen wie Alter und Geschlecht sowie mit sozialer Schicht (die am häufigsten angeführt werden), sondern ebenfalls mit Variablen wie Interesse am Befragungsthema, Vertrautheit mit interviewähnlichen Situationen, allgemeiner „Wissensstock“. Gleiches gilt-- falls sich eine Person auf das Interview eingelassen hat-- für die Bereitschaft, einzelne Fragen zu beantworten, sich auf präzise Meinungen festzulegen, so dass Esser schon in einer 1975 publizierten Untersuchung relativ skeptische Schlussfolgerungen formulierte: „Abgesehen davon, dass bereits durch die Verweigerung von Befragungen insgesamt offensichtlich solche Populationssegmente aus der Untersuchungsgesamtheit ausgefiltert werden, die überdurchschnittlich zur Meinungslosigkeit neigen, zeigt sich, dass die Befragten mit nur mangelhafter Fähigkeit und Bereitschaft zur Rollenübernahme ebenfalls eine z.T. dramatisch hohe Neigung zur Meinungslosigkeit aufweisen“ (1975, 279). 285 Ähnlich ungünstig fällt die Beurteilung der Gültigkeit der durch Befragungen erhobenen Daten aus. Soweit es die Umsetzung der Forschungsfragen in Begriffe und Variablen angeht, gilt dasselbe wie für jedes andere Instrument. Zusätzlich kommt aber hinzu, dass nicht gesichert ist, dass verschiedene Personen unter der gleichen Frage (d. h. unter dem gleichen Fragewortlaut) das Gleiche verstehen. Die zum Punkt „Deutung des Aussagegehalts semantischer Texteinheiten“ für die Inhaltsanalyse gemachten Anmerkungen haben analog auch für die Befragung ihre Berechtigung. Zusätzlich ist zu bedenken, dass die Antworten auf Fragen im Interview (im Befragungsbogen) nicht die Ausprägung des eigentlich interessierenden Merkmals, 284 Details finden Sie in den jeweiligen ZUMA-Methodenberichten zum ALLBUS; www.gesis. org/ allbus/ ). 285 Zu den verschiedenen Determinanten der Kooperationsbereitschaft bei Befragungen vgl. im Einzelnen Esser 1975, S. 29 ff. Zum Problem unvollständiger Daten-- hier: Antwortverweigerung nur bei einzelnen Fragen-- vgl. auch Kapitel 5.3.3 und dort die Fußnote 178. Ausfälle nach systematischen Merkmalen Gültigkeit der Befragung <?page no="381"?> 382 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 382 sondern lediglich Indikatoren für oder Aussagen über die interessierenden Merkmalsausprägungen sind. Das Instrument Befragung misst in hohem Maße indirekt. Zwar wird „an der Berechtigung der Annahme einer unmittelbaren (bzw. angebbar eindeutigen) Korrespondenz von verbalen Äußerungen und faktischen Zuständen-… i. d. R. nicht gezweifelt, allein die Üblichkeit einer Praxis, dass eine nicht nur formale Validierung-… von Befragungsinstrumenten-… unterbleibt, sollte jedoch kein hinreichendes Kriterium für die Richtigkeit dieser Annahme sein“ (Esser 1975, 286). So gibt es denn auch eine größere Zahl von Untersuchungen, die zeigen, dass eine unmittelbare Übereinstimmung von Angaben im Interview mit den „tatsächlichen“ Gegebenheiten nicht in dem Ausmaß existiert, dass Befragungsinformationen als verlässliche Datenbasis zur Überprüfung (Bestätigung/ Falsifizierung) empirischer Hypothesen oder Theorien (vgl. Kapitel 1.3.3, „Basissatzproblem“) geeignet erscheinen könnten. 286 Insbesondere zwei Antwortverhaltens-Tendenzen (response sets) gefährden die Gültigkeit von Befragungsdaten: - eine vom Frageinhalt unabhängige: nämlich die Tendenz, Fragen unabhängig vom Frage-Gegenstand zuzustimmen (Bejahungstendenz, „Akquieszenz“), sowie - eine inhaltsabhängige: die Neigung, sich selbst bei der Beantwortung von Fragen solche Eigenschaften zuzuschreiben, die in der sozialen Umwelt als „erwünscht“ gelten (Tendenz der Orientierung an der sozialen Erwünschtheit, social desirability response set). 287 Laut Esser besteht das Dilemma darin, dass „alle Maßnahmen, den einen RS [response set] auszuschalten, das Eintreten des anderen RS provozieren, kurz: dass die Gültigkeit der Datenerhebung nicht maximiert werden kann“ (1977, 259). Als ein weiteres Dilemma kommt hinzu, dass die gleichen Merkmale von Personen, die die Bereitschaft zur Aufnahme von Forschungskontakten (z. B. Einwilligung in ein Interview) beeinflussen, in gleicher Weise auch die Tendenz beeinflussen, in „sozial erwünschtem“ Sinne zu antworten. Zusammengefasst kann daher behauptet werden, „dass mit abnehmender Annäherung des Auswahlplans einer Befragung an die Zufallsauswahl [d. h. mit zunehmender Zahl von Ausfällen, H. K.] das Ausmaß an Konformität mit dem gesellschaftlich dominanten Wertsystem im Vergleich zu seiner faktischen Entsprechung über die Gesamtpopulation hinweg in Befragungsdaten überpointiert erscheint“ (Esser 1975, 345). 286 Einige Beispiele sind hier angeführt worden (vgl. Kapitel 4.3). Für eine ausführliche Darstellung wird auf Schuman/ Presser (1981) verwiesen. 287 Daneben sind noch die Tendenzen zu nennen, a) auch dann auf eine Frage zu antworten, wenn man eigentlich die Antwort nicht genau weiß, sowie b) auch dann eine Meinung zu äußern, wenn man sich zu dem infrage stehenden Sachverhalt noch gar keine Meinung gebildet hat (in der Methodenliteratur zur Befragung als „Non-Attitude“-Problem abgehandelt). Diese Tendenzen werden gefördert, wenn in Antwortvorgaben zu geschlossenen Fragen eine „weiß nicht“-Kategorie fehlt. Auch die Anwesenheit weiterer Personen (insbesondere aus dem Bekanntenkreis des/ der Befragten) kann die Inhalte der Antworten beeinflussen. Aussagen nur Indikatoren Angaben im Interview fehlerhaft Bejahungstendenz soziale Erwünschtheit Ausschöpfung beeinflusst Antwort- Verzerrungen <?page no="382"?> 383 7.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 383 Trotz aller genannten Einschränkungen aber ist natürlich in der empirischen Sozialforschung der Einsatz der Methode Befragung als Strategie der Informationsgewinnung unverzichtbar; einfach schon weil eine Alternative, die an die Stelle von Befragungstechniken treten könnte, nicht existiert. Aus diesem Grund wurde und wird der Frage der Qualitätssicherung in der Umfrageforschung großes Gewicht beigemessen. 288 Für das Zustandekommen eines standardisierten Erhebungsinstruments, das in methodisch gültiger Weise die Fragestellungen der Untersuchung operationalisiert und verlässliche Daten zu erheben erlaubt, ist in allen Phasen der Präzisierung und „Übersetzung“ der Forschungsfragen eine durchgängige Kontrolle und Reflektion überaus wichtig: von der dimensionalen und semantischen Analyse über die Festlegung geeigneter Indikatoren, die Entscheidung für ein geeignet erscheinendes Erhebungsinstrument und die Suche nach bzw. Entwicklung von auf den spezifischen Informationsbedarf zugeschnittenen Messskalen bis zum Pretest des Instruments. Dies gilt für jede Art von Erhebungsinstrument, für den Fragebogen genauso wie für die Kodierungsanleitungen bei Beobachtung oder Inhaltsanalyse. Diese Überprüfungen können darin bestehen, Zwischenresultate der Entwicklungsarbeit sachverständigen Kollegen zur kritischen Durchsicht zu geben oder- - wenn dafür finanzielle Mittel vorhanden sind-- einen Expertenworkshop zu veranstalten bzw. explorative Gruppendiskussionen oder qualitative Interviews mit „Betroffenen“ durchzuführen. Sich der Kritik anderer auszusetzen, um die Forschung zu verbessern und auch selbst durch (konstruktive) Kritik zum Gelingen von Forschung beizutragen, ist ein wichtiges Element von Wissenschaft. 7.5 Annotationen aus der Perspektive qualitativinterpretativer Methoden Datengewinnung wird in der qualitativ-interpretativen Sozialforschung weniger in der Perspektive einer Instrumentierung verstanden, als vielmehr als das Herstellen vorwiegend dialogischer Settings, in denen sich jeweils spezifische Informationen gewinnen lassen. Entscheidend für das Gelingen der Datengewinnung und für die Validität der Informationen sind damit vor allem bestimmte Interaktionsregeln für Forschungskontakte mit dem Feld. Im Kern bemüht auch die qualitativ-interpretative Sozialforschung die Verfahren des Interviewens, des Beobachtens und der Inhaltsanalyse von Dokumenten, allerdings sind diese Verfahren hier deutlich anders konzipiert und werden auch anders verstanden als in der standardisierten Forschung. Dies beginnt schon damit, dass qualitativ-interpretative Interviews, Beobachtungen und Dokumentenanalysen gerade auf Standardisierung bewusst verzichten und im 288 So haben beispielsweise die kommerziellen Forschungsinstitute Qualitätsstandards entwickelt, zu deren Einhaltung sie sich verpflichten (ADM 1999, 2001). Und von der Deutschen Forschungsgemeinschaft wurde eine Arbeitsgruppe aus Hochschulwissenschaftlern und Marktforschern berufen, die 1999 ein Memorandum „Qualitätskriterien der Umfrageforschung“ veröffentlichte (DFG 1999). Wer selbst ein Umfrageforschungsprojekt durchführen möchte, sollte diese Schrift auf jeden Fall gründlich studieren. Befragungen unverzichtbar Datengewinnung als dialogischer Prozess <?page no="383"?> 384 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 384 Gegenteil eine möglichst umfassende Anpassung an die Gegebenheiten der konkreten Forschungssituation anstreben: Interviewleifäden werden situativ variiert, Beobachtungsperspektiven und -foki fallweise gewechselt, und häufig werden auch Daten auf unterschiedlichen Wegen gewonnen und analytisch aufeinander bezogen (Triangulation; vgl. Flick 2000). 7.5.1 Interviews René König (1962, 27) hat das Interview einmal als „Königsweg der praktischen Sozialforschung“ bezeichnet. Diese Aussage kann durchaus auch und immer noch für die qualitativ-interpretative Sozialforschung Geltung beanspruchen-- zumindest insofern damit die Gebräuchlichkeit und die Verbreitung dieses Verfahrens gemeint sind. Der weit überwiegende Teil qualitativ-interpretativer Studien dürfte sich zumindest auch auf verbale Daten beziehen, die meist mit der einen oder anderen Variante qualitativer Interviews generiert wurden. Entsprechend ausdifferenziert sind hier die Verfahren. Auch wenn qualitative Interviews schon in den stadtsoziologischen Studien der Chicago School gebräuchlich waren-- als klassischer Ursprung des qualitativen Interviews gilt das von Merton und Kendall in den 1940er-Jahren entwickelte fokussierte Interview (Merton/ Kendall 1979, Orig. 1945). Dabei handelt es sich um ein Verfahren, bei dem die zu befragenden Personen zunächst mit einem identischen Grundreiz, etwa eine Filmszene oder einem Bild aus der Werbung, konfrontiert werden, um danach ausführlich zu dem mit dem Grundreiz gesetzten Thema befragt zu werden. Allerdings-- und hier weicht das Vorgehen von Merton und Kendall vom heute gültigen Verständnis qualitativ-interpretativen Forschens deutlich ab-- wird die auf einen Interviewleitfaden gestützte Befragung nicht offen, sondern mit der Absicht geführt, Hypothesen zu testen, die die Forscher zuvor aus einer inhaltsanalytischen Auswertung des Grundreizes gewonnen haben. Seine Bedeutung für die qualitative Interviewforschung hat das fokussierte Interview vor allem gewonnen, weil Merton und Kendall erstmals dezidiert Ziele und Kriterien qualitativer Interviews benannt haben. Anders als in der damals bereits etablierten Umfrageforschung zielen sie mit ihrer Interviewform nicht auf die Abfrage gemeinsamer Merkmale bzw. deren Verteilung in einer Population, sondern auf die „subjektiven Erfahrungen“ (1979, 171) der Befragten. Um diesem Anspruch zu genügen, müssen Interviews folgende Kriterien erfüllen: (1) „Nicht-Beeinflussung“: Minimierung des gesprächsleitenden Einflusses der Interviewer; (2) „Spezifität“: statt um Allgemeinheit geht es um das Besondere der Erlebnisperspektive der Befragten; (3) „Erfassung eines breiten Spektrums“ von Wahrnehmungsweisen und Handlungsperspektiven der Befragten; und schließlich (4) „Tiefgründigkeit und personaler Bezugsrahmen“, also das Ausloten auch der tieferen emotionalen Gehalte und Wertorientierungen (1979, Orig. 1945, 178). fokussiertes Interview subjektive Erfahrung als Ziel <?page no="384"?> 385 7.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 385 Vier Kriterien zur Gewinnung subjektiver Erfahrung in Leitfadeninterviews (nach Merton/ Kendall 1979) f Nicht-Beeinflussung f Spezifität f Erfassung eines breiten Spektrums f Tiefgründigkeit und persönlicher Bezugsrahmen Das von Merton und Kendall entworfene Verfahren ist sehr aufwändig, weil immer erst ein thematisch angemessener Grundreiz produziert, inhaltsanalytisch aufbereitet und den Informanten präsentiert werden muss. Wohl auch aus diesem Grund hat sich in der Praxis der qualitativ-interpretativen Sozialforschung eine andere Befragungsform durchgesetzt, die gleichwohl mit denselben Kriterien operiert: Im sogenannten Leitfadeninterview wird das Interviewgespräch zwar interaktiv zwischen Interviewer und Informanten organisiert, doch Inhalt und Verlauf orientieren sich an dem zuvor ausgehandelten Gesprächsschema (asymmetrisch: Forscher fragen, Befragte antworten), vor allem aber an einem Interviewleitfaden, den die Forschenden zuvor bereits entwickelt haben und der in der Regel bei allen miteinander zu vergleichenden Interviews in identischer oder ähnlicher Form zum Einsatz kommt. Im Unterschied zum standardisierten Fragebogen ist der Leitfaden aber kein „Instrument“, das es anzuwenden, sprich „abzufragen“ gilt, sondern ein begleitendes Hilfsmittel, auf das sich die Interviewer in ihrer Interaktion mit den Informanten beziehen und das im Verlauf des Forschungsprojektes weiterentwickelt wird. Ziel ist die Herstellung eines thematischen Gespräches, in dem die für das Forschungsvorhaben relevanten Themen so zur Sprache kommen, dass die Informanten ihre subjektive Erfahrungen und Sichtweisen möglichst ausführlich und orientiert an ihren eigenen Relevanzstrukturen äußern können. Das gelingende Leitfadeninterview verwickelt die Interviewten in ein intensives Gespräch und leitet sie zur Erzählung selbst erlebter Ereignisse sowie zur Reflexion über eingenommene Haltungen und durchgeführte Handlungen. Daraus folgt, dass geschlossene Fragen mit vorgegebenen Antwortkategorien hier dysfunktional wären, weil das Interview gerade darauf zielt, dass die Befragten selbst in eigene Worte fassen, was ihnen zu einem Thema oder einer Frage wichtig erscheint. Die ‚Kunst‘ der Befragung besteht bei qualitativen Interviews also nicht darin, analog zum Fragebogendesign einen möglichst perfekten Interviewleitfaden zu entwickeln. Gefragt ist vielmehr die Kompetenz der Interviewer, das mit dem Leitfaden nur gerahmte Erkenntnisinteresse im Interviewgespräch so zu präsentieren, dass die Befragten entsprechend den von Merton und Kendall entwickelten Kriterien möglichst „spezifisch“ und „tiefgründig“ ihre Perspektive dazu artikulieren können. Eine formal durch Standardisierung abgesicherte Gleichförmigkeit der Befragung ist nach dem Verständnis qualitativen Interviewens nicht nur verzichtbar, sie ist nach dieser Auffassung auch grundsätzlich nicht leistbar, weil allein die identische Reproduktion der Interviewfragen die weiterhin bestehenden Unterschiede zwischen den konkreten Leitfadeninterview als asymmetrisches Gesprächsschema offene Fragen stellen flexible Interviewführung <?page no="385"?> 386 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 386 Interviewsituationen (Sprachverständnis, Artikulationsfähigkeit, Vertrautheit etc.) nicht beheben kann. Sie ist darüber hinaus auch nicht erwünscht, würde sie doch der Grundauffassung einer qualitativ-interpretativen Vorgehensweise diametral widersprechen. In der Methodenliteratur zum qualitativen Interview sind neben dem Leitfadeninterview (das mitunter auch als halb-standardisiertes Interview bezeichnet wird) eine Reihe weiterer Formen des Interviews zu finden. In den meisten Fällen handelt es sich dabei um Varianten des Leitfadeninterviews, die entweder eine spezifische Art der angestrebten Information adressieren (insbesondere bei Experteninterviews, die nicht subjektive Perspektiven der Handlungsbeteiligten, sondern Wissen externer Experten über den Untersuchungsbereich abfragen; vgl. Meuser/ Nagel 1991) oder aber den Grad der Narrativität des Interviewgesprächs problembezogen variieren (so etwa im problemzentriertem Interview; Witzel 2000). Eine Sonderstellung im Spektrum qualitativer Interviews nimmt das narrative Interview ein, das in den späten 1970er-Jahren von Fritz Schütze im Rahmen der Biografie- und Gesprächsforschung entwickelt wurde (Schütze 1977). Hier werden nicht einzelne Fragen im Interview mehr oder weniger erzählstimulierend formuliert, sondern die Interviewer beschränken sich im Hauptteil des Interviews auf einen ausführlichen, inhaltlich weitestgehend offenen Erzählstimulus, der im Erfolgsfall die Informanten dazu anregt, eine ausführliche, chronologisch-lebensgeschichtlich organisierte Erzählung selbst erlebter Ereignisse und Prozesse zu generieren, die dann später mit erzähltheoretisch begründeten, biografisch-rekonstruktiven Analysen in ihrem sozialwissenschaftlichen Gehalt erschlossen werden (Hermanns 1991). 7.5.2 Ethnografie und Beobachtung Die der Gewinnung verbaler Daten komplementäre Methode, die Beobachtung, begegnet uns in der qualitativ-interpretativen Sozialforschung insbesondere in Form der Ethnografie oder Feldforschung. Dabei handelt es sich um länger andauernde oder über einen längeren Zeitraum wiederholt durchgeführte Aufenthalte in dem für die Untersuchung relevanten Feld. Die Ethnografie hat eine ihrer beiden Wurzeln in der frühen ethnologischen und kulturanthropologischen Forschung. Wenngleich immer noch dem kolonialen Typus des (gerne heroisierten) Entdeckers verpflichtet, überwanden Ethnografen wie Franz Boas, Bronislaw Malinowski sowie Margaret Mead und Gregory Bateson in den ersten Jahrzehnten des vergangenen Jahrhunderts die zuvor übliche Forschungsweise, bei der die Kolonialherren sich auf der Veranda ihrer Villen über die Lebensweise der ‚Wilden‘ berichten ließen, um dann später in ihren Londoner Clubs damit zu reüssieren. Der neu entstehende Typ von Entdecker-Ethnografen begab sich stattdessen zur Erforschung fremder, ‚wilder‘ Kulturen zunehmend selbst vor Ort, um aus eigener Anschauung die Lebensgewohnheiten außereuropäischer, meist als exotisch wahrgenommener Gesellschaften zu studieren und die Entstehung von Zivilisation zu erklären (Malinowski 1984, Orig. 1922, Bateson/ Mead 1962). Varianten qualitativer Interviews spätkoloniale Ethnologie als Ursprung der Ethnografie <?page no="386"?> 387 7.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 387 Eine zweite Wurzel der sozialwissenschaftlichen Ethnografie ist genuin soziologischen Ursprungs: Es handelt sich um die von Robert Ezra Park ab 1915 an der University of Chicago etablierte und vom aufkommenden Journalismus inspirierte Praxis sozialwissenschaftlicher Vorort-Recherche (vgl. dazu Lindner 1990), für die sich damals in der sozial und wirtschaftlich geradezu explodierenden Stadt Chicago ein reiches Anwendungsfeld fand (programmatisch: Park 1915, klassische empirische Studien: Anderson 1923, Cressey 1932, Wirth 1956. Orig, 1928). Ein auf den ersten Blick markanter Unterschied zwischen kulturanthropologischer und soziologischer Ethnografie besteht darin, dass erstere sich zunächst vornehmlich mit fremden Kulturen und Gesellschaften befasste, während letztere sich der vermeintlich ungleich vertrauteren ‚eigenen‘ Gesellschaft zuwendet. Dieser Unterschied erodiert allerdings zunehmend: Während die Kulturanthropologie und die Ethnologie sich mehr und mehr auch des eigenen Kulturraums annehmen (etwa in der neueren Richtung einer ‚Europäischen Ethnologie‘), behandelt die soziologische Ethnografie ihren Untersuchungsgegenstand ‚eigene Gesellschaft‘ bewusst als fremd (Amann/ Hirschauer 1997). Der gemeinsame methodische Kern ethnografischer Verfahren besteht zum einen in der Nutzung dieser Fremdheit, also der Erfahrung von Differenz als heuristisches Mittel. Dabei wird allerdings mitunter kritisch ergänzt, dass dieses Modell der „Alienität“ nicht das einzige plausible Konzept zur Erklärung der Möglichkeit des Fremdverstehens ist. So argumentieren Knoblauch und Schnettler (2004) aus phänomenologischer Perspektive, dass die Erfahrbarkeit der Andersartigkeit des Gegenüber auf einer initialen Identitätsunterstellung („wie ich“) beruht, von der aus die Differenz erst entwickelt wird (sie bezeichnen dies als „Alterität“): Weil Handeln immer schon Beobachten voraussetzt und einschließt, machen nicht erst Ethnografen in fremden Kulturen, sondern schon die von uns beobachteten Akteure in ihrem Alltagshandeln ausgehend von der Perspektive des „wie ich“ Erfahrungen der Differenz von Selbst-Sein und Anders-Sein. Ethnografisches Forschen muss mithin nicht die Differenz von Kulturen voraussetzen, sondern sie kann auch die alltägliche Differenzerfahrung methodisieren. Daran wird schon deutlich, dass in der Ethnografie mit der beobachtenden Präsenz im Feld zugleich ein analytischer Prozess einsetzt, der Engagement und Distanzierung, „Rapport und Report“ (Wolff 1987) gleichermaßen verlangt. Dies kommt in der Art des ethnografischen Schreibens zum Tragen, denn anders als beim Interview berichten nicht die Handelnden über sich, sondern die Ethnografen stellen dar, was sie beobachtet haben. Insofern ist Ethnografie nicht nur eine „Methode zur Erforschung sozialer Phänomene“, sondern zugleich „ein Denk- und Darstellungsstil […] mit dem ethnografische Autoren soziale Praktiken und ihre Bedeutungen analytisch beschreiben“ (Kalthoff 2006, 149). Es geht also nicht um die Idee einer abbildhaften Wiedergabe sozialer Wirklichkeit, sondern um die Präsentation einer analytischen Perspektive auf das beobachtete Feld. Clifford Geertz hat diese ethnografische Haltung entscheidend mit geprägt und dafür den Begriff der „dichten Beschreibung“ eingeführt (Geertz 1973). Ganz in dem Sinne, dass die Kunst der Datengewinnung in der qualitativ-interpretativen Sozialforschung nicht eine Kunst der Instrumentierung, sondern der Gestaltung dialogischer Beziehungen ist, sieht sich die Ethnografie mit vielfältigen Bezie- Chicago School als-soziologische Quelle der Ethnografie Heuristik der Befremdung Methodisierung alltäglicher Differenzerfahrung Ethnografie als-Denk- und Darstellungsstil <?page no="387"?> 388 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 388 hungsproblemen bei Anwesenheit vor Ort konfrontiert. Dies beginnt mit dem häufig beschriebenen Problem des ‚Feldzugangs‘, das man in der ethnografischen Literatur lange als ein Problem der aktiven Selbstpräsentation des Forschers im Feld thematisiert hat (vgl. etwa Schatzman/ Strauss 1979, Fischer 1981). Erst spät wurde deutlich, dass der Zugang zum Feld sehr wesentlich auch ein Prozess des Ausgewählt-Werdens und der reziproken Rollenzuschreibung ist: Die Akteure im Feld haben die ‚fremden‘ Forscher schon eingeschätzt, typisiert und ihnen einen Platz zugewiesen, bevor sie sich selbst im Feld verorten können (Lindner 1981). Ein zweites relevantes Beziehungsproblem resultiert aus der dilemmatischen Grundstruktur der Figur des ‚fremden‘ Ethnografen: Einerseits gehalten, sich möglichst intensiv in die Kultur und die Praktiken des untersuchten Feldes hinein zu begeben, um „dicht“ beschreiben zu können, dient der Feldaufenthalt doch andererseits dazu, im analytischen Schreiben eine Distanz herzustellen, aus der heraus es erst möglich ist, die Signifikanz des Untersuchten sichtbar zu machen. Hieraus resultiert insbesondere das Problem von Distanzverlust und Überanpassung, eines so intensiven Eintauchens in das Feld also, dass der Rückzug auf einen distanzierend-analytischen Blick misslingt. Dieses Problem ist als „going native“ Gegenstand ethnografisch-methodischer Reflexionen. Während die Methode der Beobachtung, gleichviel ob standardisiert oder qualitativ-offen, sich auf die Wahrnehmung von Interaktionen und Handlungsverläufen beschränkt und andere Informationsquellen nicht berücksichtigt, versteht sich die Ethnografie als umfassender und aktiver Prozess der Datengewinnung. Neben der teilnehmenden Beobachtung führen Ethnografen auch- - spontane wie geplante- - Interviews mit den Akteuren im Feld, sammeln Dokumente und andere Artefakte, die im Untersuchungsbereich relevant zu sein versprechen. Vor allem aber setzen sie zunehmend auch Medien wie Fotografie und Videografie zur Dokumentation ihrer Beobachtungen ein (vgl. Mohn 2002, Ballhaus/ Engelbrecht 1995), wobei der Status der genutzten Medien durchaus kontrovers diskutiert wird (wie die Debatte um die „fokussierte Ethnografie“ zeigt; siehe Knoblauch 2001, Breidenstein/ Hirschauer 2002, Knoblauch 2002). Eine relativ neue Spielart ethnografischen Forschens stellt die „Ethnografie des Internet“ oder auch „virtuelle Ethnografie“ (Domínguez et al. 2007) dar: In dem Maße, in dem sich relevante Sozialkontakte und Kulturleistungen in den unterschiedlichen Diensten des Internet (Suchmaschinen, soziale Netzwerke, Streaming-Dienste) manifestieren und partiell gar als ‚virtuelle Welten‘ wahrgenommen werden (wie etwa die Internetplattform „Second Life“), in dem Maße wird dieser Bereich auch zu einem Gegenstand ethnografischer Neugierde. Er wird allerdings zu einem sehr speziellen Gegenstand, weil die Sozialräumlichkeit ‚des Internet‘ immer zu einem Teil auf einer Fiktion beruht: Die handelnden Menschen sind nicht ‚im‘ Internet, sondern an ihren Schreibtischen, in Internet-Cafés oder im heimischen Schlafzimmer (Strübing 2006). Ethnografisch-methodische Aufmerksamkeit erregt das Internet aber vor allem, weil es ersichtlich besonderer Formen des forschenden Zugangs bedarf, die Ethnografie sich dabei also stärker in Richtung qualitative Medienforschung (Ayaß/ Bergmann 2006) bewegt. In der Diskussion über die Beschaffenheit des Feldes in der Internet-Ethnografie findet zugleich eine kritische Diskussion Problem des ethnografischen Feldzugangs Dilemma von Nähe und Distanz Ethnografie: umfassende Datengewinnung Ethnografie und-Internet <?page no="388"?> 389 7.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 389 des Feldbegriffs ihren Widerhall, die sich vor allem in den letzten zwei Jahrzehnten ausgehend von den Überlegungen des indischen Kulturanthropologen Arjun Appadurai (Breckenridge/ Appadurai 1989) entwickelt hat. Appadurai kritisierte vor dem Hintergrund seiner Erforschung von Migrationsprozessen die in der ethnologischen Ethnografie vorherrschende Konzeption des Feldes als einer Lokalität, einer abgegrenzten und abgrenzbaren Örtlichkeit also. Diese Kritik ist mittlerweile breit rezipiert und forschungspraktisch in Ansätze zu einer translokalen Ethnografie („multi-sited Ethnography“; Marcus 1995) weiterentwickelt worden, die nicht mehr vor Ort verharrt, sondern ihren Gegenständen und Akteuren durch verschiedene Kulturen folgt (Hannerz 1995, Welz 1998). 7.5.3 Inhaltsanalyse In qualitativ-interpretativer Perspektive ist es wenig sinnvoll, die Inhaltsanalyse als eigenständige Methode der Datengewinnung anzuführen. Zwar werden auch hier für bestimmte Untersuchungsfragen (z. B. in der Diskursanalyse) Korpora textuellen Materials wie Zeitungsartikel oder E-Mail-Threads zusammengestellt, doch liegt die eigentliche Leistung der qualitativen Inhaltsanalyse gerade im interpretativ-analytischen Arbeitsschritt und nicht in der Situation der Gewinnung der Daten. Den Inhalt von vorwiegend textuellem Datenmaterial zu interpretieren und zu analysieren, macht nun umgekehrt ohnehin den wesentlichen Teil des qualitativ-interpretativen Umgangs mit Informationsmaterial aus, stellt also nicht an sich schon eine spezifische Methode dar. Vielmehr liegt die methodische Vielfalt und Spezifik innerhalb des Spektrums qualitativer Verfahren gerade in den unterschiedlichen Vorschlägen für das inhaltsanalytische Procedere und für die Arten möglicher Aussagen, die daraus generiert werden können, etwa in der objektiven Hermeneutik, der dokumentarischen Methode, der sozialwissenschaftlichen Hermeneutik oder der Grounded Theory. 7.5.4 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Verschiedene Formen qualitativer Interviews Gubrium, Jaber F.; Holstein, James A.; Marvasti, Amir B.; McKinney, Karyn D., 2012: Handbook of Interview Research. The Complexity of the Craft, Thousand Oaks, Calif [u. a.] Helfferich, Cornelia 2004: Die Qualität qualitativer Daten: Manual für die Durchführung qualitativer Interviews, Wiesbaden: VS-Verlag (Eine gründliche Einführung in die Pragmatik qualitativen Interviewens mit praktischen Übungen.) Hermanns, Harry, 1991: Narratives Interview, in: Flick, U.; Kardorff, E. v.; Keupp, H.; Rosenstiel, L. v.; Wolff, S. (Hg.): Handbuch qualitative Sozialforschung, München, 182-185 (Diskutiert die Probleme bei der Anbahnung und Durchführung qualitativer Interviews und gibt praktische Ratschläge für die Gesprächsführung.) Multi-sited Ethnography <?page no="389"?> 390 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 390 Hopf, Christel, 1978: Die Pseudo-Exploration-- Überlegungen zur Technik qualitativer Interviews in der Sozialforschung, in: Zeitschrift für Soziologie, 7. Jg., H. 2, 97-115 (Ein mittlerweile klassischer und höchst lehrreicher Aufsatz, in dem Hopf an Beispielen aus der Forschung die möglichen Fehler bei der Verwendung von Interviewleitfäden diskutiert.) Kruse, Jan (Hg.), 2014: Qualitative Interviewforschung: Ein integrativer Ansatz. Weinheim/ Basel (Eine sehr ausführliche und gründliche Einführung in alle Aspekte qualitativer Forschung mit verbalen Daten.) Merton, Robert K.; Kendall, Patricia L., 1979, Orig,. 1945: Das fokussierende Interview, in: Hopf, C.; Weingarten, E. (Hg.): Qualitative Sozialforschung, Stuttgart, 171-204 (Klassischer Text, in dem nicht nur das fokussierte Interview vorgestellt, sondern vor allem die wesentlichen Kriterien für die Durchführung qualitativer Interviews definiert werden.) Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Qualitative Sozialforschung. Ein Arbeitsbuch, München (Kap. 3.3 u. 3.4, S. 53-147) (Eine sehr gründliche und mit verschiedenen Beispielen operierende Darstellung ganz verschiedener Arten der Gewinnung und Nutzung verbaler Daten) Strübing, Jörg, 2013: Qualitative Sozialforschung. Eine komprimierte Einführung für Studierende, München (Kapitel 4, S. 79-107) Ethnografie Breidenstein, Georg; Hirschauer, Stefan; Kalthoff, Herbert; Nieswand, Boris, 2013: Ethnographie. Die Praxis der Feldforschung, Stuttgart Hammersley, Martyn; Atkinson, Paul, 2007, Orig. 1983: Ethnography. Principles in Practice, London Kalthoff, Herbert, 2006: Beobachtung und Ethnographie, in: Ayaß, R.; Bergmann, J. (Hg.): Qualitative Methoden der Medienforschung, Reinbek b. Hamburg, 146- 182 (Eine knappe kritische Einführung in die Ethnografie, die vor allem aus der Perspektive des praxistheoretischen Ansatzes argumentiert.) Lüders, Christian, 2000: Beobachten im Feld und Ethnographie, in: Flick, U.; Kardorff, E. v.; Steinke, I. (Hg.): Qualitative Forschung. Ein Handbuch, Reinbek b. Hamburg, 384-401 Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Qualitative Sozialforschung. Ein Arbeitsbuch, München (Kap. 3.1 u. 3.2, S. 39-53) (Diese Darstellung wird von der These strukturiert, dass qualitative Forschung grundsätzlich Feldforschung ist.) Schatzman, Leonard; Strauss, Anselm L., 1973: Field Research: Strategies for a Natural Sociology, Englewood Cliffs, NJ Audiovisuelle Daten und ihre Analyse Breckner, Roswitha, 2003: Körper im Bild. Eine methodische Feinanalyse, in: Zeitschrift für Qualitative Bildungs-, Beratungs- und Sozialforschung, 4. Jg., H. 1, 33-60 Tuma, René; Schnettler, Bernt; Knoblauch, Hubert, 2013: Videographie. Einführung in die Video-Analyse sozialer Situationen, Wiesbaden <?page no="390"?> 391 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 391 8 Methoden und Modelle der deskriptiven Statistik Es ging bisher schon mehrfach um die Rolle der Statistik bei empirischen Untersuchungen. Im vorgestellten Schema des Forschungsprozesses (vgl. Kapitel 2.2) nehmen Überlegungen zur statistischen Auswertung in der Reihenfolge der Entscheidungs- und Arbeitsschritte zwar einen der letzten Plätze (Punkt i) vor der Interpretation und der abschließenden Präsentation der erzielten Ergebnisse ein. Das bedeutet jedoch nicht, dass die Forscherin oder der Forscher sich erst nach Abschluss des Erhebungsprozesses über die anzuwendenden statistischen Modelle Gedanken zu machen braucht. Die geplanten Auswertungsverfahren sind vielmehr bereits in der Phase des ersten Entwurfs eines Forschungsdesigns mit festzulegen, und die Operationalisierung der zentralen Begriffe hat sich daran zu orientieren. Statistische Auswertung und inhaltlich-theoretische Interpretation machen zusammen die „Analyse“ der mit empirischen Instrumenten erhobenen Daten, also des in Form von Zahlen vorliegenden empirischen Materials aus. Dabei schließt sich die (statistische) Auswertung „besonders eng an das Material [an], während die Interpretation auf Schlussfolgerungen ausgeht, die das Material übergreifen“ (Hartmann 1970, 152). Im Zuge der Interpretation berechneter statistischer Werte ist insbesondere der Rückbezug zur Fragestellung, zu den untersuchungsleitenden Hypothesen herzustellen (vgl. Kapitel 2.2, Punkt j). Statistische Modelle (vgl. Abschnitt 5.2.1) und Verfahren werden benötigt, um Ordnung in die Daten zu bringen, die nach dem Einsatz empirischer Erhebungsinstrumente zunächst in ungeordneter und unübersichtlicher Form vorliegen. Für das statistische Instrumentarium gilt dabei ebenfalls die Feststellung, die wir schon zu Beginn von Kapitel 7 für die Instrumente der Datenerhebung getroffen haben: Die von der Statistik als Wissenschaft (theoretische Statistik) zur Verfügung gestellten Modelle und Methoden sind für den empirisch arbeitenden Sozialwissenschaftler ein wichtiges Hilfsmittel, um die in den Daten enthaltenen Informationen herauszuarbeiten und zu verdichten, so dass diese Informationen- - die empirischen Ergebnisse-- für die Ziele der Untersuchung verwertet werden können (angewandte Statistik). Die Statistik kann aber auch nicht mehr sein als dies: ein Hilfsmittel. Sie kann keine Informationen produzieren, die nicht schon-- wenn auch in weniger deutlicher Form-- in den Daten vorhanden sind. 289 Die Leserinnen und Leser sollten sich deshalb unbedingt ins Gedächtnis zurückrufen, was in Kapitel 5.2 über Möglichkeiten und Grenzen statistischer Argumentation in den Sozialwissenschaften, insbesondere was dort über die Gefahren der Anwendung inadäquater statistischer Modelle ausgeführt wurde! 289 „The magic of numbers cannot produce cognitive rabbits out of truly empty hats“ (Kaplan 1964, 220). Vgl. auch Patzelt (1985, 16 ff.). geplante Auswertung beeinflusst Operationalisierung Ordnung und Verdichtung der-Daten <?page no="391"?> 392 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 392 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 393 8. Methoden und Modelle der deskriptiven Statistik Die in der theoretischen Statistik entwickelten Modelle beruhen auf idealisierten Annahmen über Eigenschaften der Daten (insbesondere über Messniveaus und Verteilungsformen). Und nur dann, wenn die Daten diese als Bedingung unterstellten Eigenschaften aufweisen (genauer: wenn die Realität, die in den Daten abgebildet wird, diese Eigenschaften aufweist), kann das entsprechende statistische Modell „unverfälschte“ Resultate über die Eigenschaften der Realität liefern. 290 Zwar produziert die Anwendung bestimmter mathematisch-statistischer Methoden auch dann zahlenmäßig eindeutige Resultate, wenn die Modellvoraussetzungen in den Daten nicht erfüllt sind. 291 Diese sind dann jedoch lediglich ein Produkt der Anwendung eines falschen Modells (ein „statistisches Artefakt“) und nicht die Abbildung etwa von Zusammenhängen in der Realität. Eine entscheidende Aufgabe ist deshalb vor Anwendung der Statistik immer die Prüfung, ob die statistischen Modellannahmen bei gegebener Datenbasis erfüllt sind oder- - weil das in den Sozialwissenschaften selten hundertprozentig der Fall sein wird- - ob sie zumindest hinreichend genau erfüllt sind. Das von Statistikgegnern häufig zu hörende Argument, man könne mit Statistik alles beweisen, auch das Gegenteil davon, lässt also das Problem der Auswahl des geeigneten Auswertungsmodells außer Acht. Wenn bei gleichen Sachverhalten mit Hilfe statistischer Verfahren verschiedene Untersuchungen einander widersprechende Ergebnisse erzielen, dann muss- - falls die Ursache nicht schon bei der Datenerhebung liegt- - zumindest in einem Fall ein unangemessenes statistisches Modell verwendet worden sein. Die Antwort auf die Frage, ob die Voraussetzungen für die Anwendung eines Modells in der empirischen Realität als „hinreichend genau erfüllt“ gelten können, gehört zu den immer wiederkehrenden und in jedem einzelnen Fall aufs Neue zu begründenden Entscheidungen in der angewandten Statistik. Schließlich kann ja die Konsequenz aus der Tatsache, dass die idealtypisch konstruierten Modelle der theoretischen Statistik nur selten empirisch in vollem Umfang einlösbar sind, nicht in dem vollständigen Verzicht auf deren Anwendung bestehen. Vielmehr ist zu überlegen, ob im Einzelfall Abweichungen vom Modell-Ideal als „geringfügig“, d. h. als tolerierbar anzusehen sind, da sie- - z. B. bei ohnehin nur recht grob formulierten Hypothesen-- das Analyse-Ergebnis „nicht nennenswert“ beeinflussen. Ein typischer und in der Forschungspraxis häufig auftretender Streitfall, an dem sich die methodologischen „Hardliner“ von den „Pragmatikern“ scheiden, ist die Behandlung ordinalskalierter Werte als „annähernd intervallskaliert“. Einerseits fordern nämlich leistungsfähige statistische Analyseverfahren häufig metrische (d. h. mindestens intervallskalierte) Daten, andererseits erreichen sozialwissenschaftliche Variablen meist nur ordinales Messniveau. 290 Vgl. etwa Abschnitt 5.4.4 über „empirisch sinnlose Statistik“. Zu den vielfältigen Möglichkeiten, statistische Modelle falsch zu verwenden, s. Krämer 1991. 291 Wenn z. B. statistische Transformationen sich auch auf Relationen im numerischen Relativ beziehen, die im empirischen Relativ keine Entsprechung haben; vgl. Abschnitt 5.4.2. Bedeutung von Modellannahmen angemessene Modelle wählen VERTIEFUNG <?page no="392"?> 393 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 393 8. Methoden und Modelle der deskriptiven Statistik Die Sozialwissenschaftler Opp/ Schmidt empfehlen vor diesem Hintergrund ein ausgesprochen pragmatisches Vorgehen: Falls das „Rechnen“ mit ordinalen Variablen zu Resultaten führt, die empirisch zutreffend erscheinen, dann ist es ihrer Meinung nach durchaus sinnvoll, die eigentlich nur ordinalen Werte wie metrische zu behandeln. „Dies gilt“- - so Opp/ Schmidt (1976, 35)- - „insbesondere dann, wenn die ordinalen Variablen nicht ,allzu weit‘ von quantitativen Variablen ,entfernt‘ sind“ (ähnlich Allerbeck 1978, 212). Überraschend pragmatisch argumentiert auch der Statistiker Jürgen Bortz: Zum einen seien die Bedingungen, die Daten zu erfüllen hätten, um als intervallskaliert akzeptiert zu werden, häufig „derart restriktiv-…, dass praktisch keine sozialwissenschaftliche Messung sie erfüllen kann“. Darüber hinaus sei fraglich, „ob diese Voraussetzungen überhaupt überprüfbar sind“ (1977, 30). 292 Seine Vermutung: „Sozialwissenschaftliche Messungen sind-… im allgemeinen besser als reine ordinale Messungen, aber schlechter als Messungen auf Intervallskalen“ (a. a. O.). Sein Fazit: „Wurde ein Datenmaterial erhoben, bei dem vermutet werden kann, dass die Skalenqualität im Bereich zwischen Ordinal- und Intervallskala liegt (…), bleibt es dem Untersucher überlassen anzunehmen, dass äquidistante Beziehungen zwischen den Zahlen des numerischen Relativs äquidistante Beziehungen zwischen den gemessenen Objekten abbilden, dass also eine Intervallskala vorliegt. Ist diese Hypothese falsch, wird man schwerlich damit rechnen können, dass statistische Auswertungen-… zu Ergebnissen führen, die plausibel und sinnvoll sind. Unsinnige und widersprüchliche Ergebnisse können deshalb ein guter Indikator sein, dass die Skalenqualität der Daten falsch eingeschätzt wurde“ (Bortz 1977, 32). Eine derart „liberale“ Haltung gegenüber den auszuwertenden Daten empfiehlt das vorliegende Lehrbuch nicht. Es sollten schon vor der statistischen Analyse gute Gründe angeführt werden können, die die Behandlung von Messwerten als „näherungsweise intervallskaliert“ rechtfertigen. Andernfalls ist die Gefahr, lediglich Forschungsartefakte zu produzieren, unkalkulierbar groß. Es ist ja gerade ein Charakteristikum solcher Artefakte, dass sie „plausibel und sinnvoll“ erscheinen. 293 Im Übrigen existieren mittlerweile auch anspruchsvolle und über Statistikpakete wie SPSS allgemein zugängliche Auswertungsmodelle für Messwerte niedrigerer Skalenqualität (für einen Überblick siehe Agresti 2013, Backhaus u. a. 2016, 357ff, Diaz-Bone 2013, 66ff ), so dass eine „volle Ausschöpfung“ der in den Daten enthaltenen Informationen möglich ist, ohne ein unbegründbar hohes Skalenniveau unterstellen zu müssen. 292 Das gilt insbesondere für die verschiedenen Modelle der „Indexmessung“ (vgl. Kapitel 5.5). 293 Als Beispiel für eine vorgängige Überprüfung von Annahmen über das mit dem Instrument Befragung erzielbare Skalenniveau wird erneut auf Rohrmann (1978) verwiesen.-- Für statistische Artefakte finden sich Beispiele bei Kriz (1981). <?page no="393"?> 394 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 394 8.1 Einige zentrale Begriffe Im bisherigen Text war pauschal von der Statistik oder von den statistischen Modellen die Rede. Bevor in den folgenden Abschnitten auf einzelne Verfahren eingegangen werden kann, müssen wir eine Differenzierung vornehmen und zusätzliche Begriffe einführen. Zunächst ist entsprechend ihren Hauptfunktionen die Statistik in eine beschreibende und eine schließende, hypothesen-testende Aufgabenstellung zu unterteilen. Die deskriptive (beschreibende) Statistik zielt darauf ab, die in einem Datensatz enthaltenen Informationen möglichst übersichtlich darzustellen, so dass „das Wesentliche“ schnell erkennbar wird. Diese Beschreibungen können grafischer und/ oder numerischer Art sein. Sie beschränken sich in ihrer Geltung auf die Menge von Fällen (Untersuchungseinheiten), für die Daten erhoben worden sind. Die Aufbereitung von Daten zum Zwecke der Beschreibung kann einerseits so geschehen, dass die ursprünglich in der Datenbasis (vgl. Abschnitt 5.3.3: Datenmatrix) enthaltenen Informationen-- mit Ausnahme der zeitlichen Abfolge der Datenerhebung-- erhalten bleiben. In diesem Fall wird lediglich die Redundanz verringert (=-Informationsverdichtung). Die Datenbasis lässt sich aber auch so aufbereiten, dass der für die interessierende Fragestellung nicht relevante Teil der ursprünglichen Informationen „ausgefiltert“ wird (=-Informationsreduktion). Die schließende Statistik (auch analytische oder Inferenzstatistik genannt) begnügt sich nicht mit der Beschreibung der in einer Untersuchung erhobenen Datenmenge. Die schließende Statistik hat zum Ziel, von den bei einer begrenzten Zahl von Fällen gefundenen Ergebnissen auf eine größere Gesamtheit zu schließen, d. h. ausgehend von Stichprobenwerten verallgemeinernde Schlussfolgerungen zu ziehen. 294 Dies kann zu dem Zweck geschehen, ausgehend von Stichprobendaten auf Werte in der Grundgesamtheit „hochzurechnen“, oder zu dem Zweck, auf der Basis von Stichprobendaten Hypothesen zu prüfen, die für die Grundgesamtheit aufgestellt wurden („Hypothesentest“; siehe Abschnitt 2.4.2). Voraussetzung ist allerdings, dass die Daten an einer Zufallsstichprobe von Untersuchungseinheiten (vgl. Kapitel 6.5) erhoben wurden. Die Brücke zwischen beiden- - der unmittelbaren Beschreibung einer vorhandenen Datenbasis und der über die vorliegenden Daten hinausreichenden Schlussfolgerungen-- bildet die Wahrscheinlichkeitsrechnung. 294 Vergleiche die Erläuterungen zum Repräsentationsschluss in Kapitel 6. deskriptive Statistik Informationsverdichtung / Informationsreduktion schließende Statistik von Stichprobe auf Grundgesamtheit schließen <?page no="394"?> 395 8.1 Einige zentrale Begriffe www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 395 Statistische Kennwerte (z. B. Mittel- oder Anteilswerte), die sich auf die Grundgesamtheit beziehen, nennt man Parameter (vgl. Kapitel 6.5). Kennwerte für Teilgesamtheiten (Stichproben) werden als Statistiken bezeichnet. Während die Parameter der Grundgesamtheit einen bestimmten, eindeutig fixierten Wert aufweisen, 295 variieren die Statistiken von Stichprobe zu Stichprobe, bei Zufallsstichproben im Rahmen wahrscheinlichkeitstheoretisch berechenbarer Schwankungsintervalle. Der vorliegende Text befasst sich ausschließlich mit der deskriptiven Statistik. Dabei werden in Kapitel 8.2 Möglichkeiten der univariaten Auswertung der Datenmatrix (Beschreibung jeweils nur einer einzelnen Variablen) behandelt. Anschließend (Kapitel 8.3) werden einige Verfahren der Analyse von Zusammenhängen zwischen Variablen vorgestellt, allerdings beschränkt auf Möglichkeiten bivariater Auswertung der Datenmatrix (Beschreibung der gemeinsamen Variation jeweils zweier Variablen). Wird simultan die Variation von mehr als zwei Merkmalen (Variablen) beschrieben, spricht man von multivariater Analyse. Was verschiedene multivariate Analyseverfahren leisten, ist Thema im Kapitel 8.4, wobei dies nur eine allererste Orientierung bietet. Um diese Verfahren verstehen und anwenden zu können, ist weitere Literatur erforderlich, auf die wir in dem Kapitel hinweisen. In Abschnitt 5.3.2 wurde der Begriff „Variable“ als Merkmalsbzw. Eigenschaftsdimension definiert, die mehrere Ausprägungen annehmen kann. Für einige im Folgenden vorkommende Argumentationen ist es sinnvoll, zwischen möglichen Werten (Ausprägungen, engl.: values) einer Variablen X 296 und faktisch beobachteten Werten der gleichen Variablen X zu unterscheiden. Die Definition „Variable =-Merkmalsdimension, die mehrere Ausprägungen annehmen kann“ bezieht sich auf die möglichen Ausprägungen. Bei einer Reihe von Messungen eines Merkmals an verschiedenen Untersuchungseinheiten kann dagegen durchaus der Fall eintreten, dass als Ergebnis der Messungen nicht alle prinzipiell möglichen Werte auftreten oder dass von den möglichen Variablenwerten bei den konkreten Untersuchungseinheiten sogar immer wieder der gleiche Wert auftritt. Für die Entscheidung über den Einsatz geeigneter statistischer Methoden ist weiterhin eine Differenzierung in diskontinuierliche (auch: diskrete oder kategoriale) Variablen und kontinuierliche (oder stetige) Variablen bedeutsam. Diese Unterscheidung bezieht sich ebenfalls auf die möglichen Ausprägungen der Variablen, nicht auf die faktisch beobachteten. Bei kontinuierlichen Variablen-- also solchen, die stetige Merkmalsdimensionen repräsentieren und bei deren Operationalisierung diese Stetigkeit der Merkmalsdimension berücksichtigt wurde-- stellen die individualisierenden ganzen Zahlen (die natürlichen Zahlen 1, 2, 3,-…, die Null und die negativen Zahlen) nicht die ange- 295 Da dieser Wert meist unbekannt ist, besteht eine Aufgabe der Inferenzstatistik darin, mit ihrem Instrumentarium diesen Parameter aus den Stichprobendaten zu schätzen. 296 Die in diesem Text verwendete verkürzende Schreibweise im Zusammenhang mit statistischen Argumentationen wird auf den folgenden Seiten erläutert. Parameter / Statistiken mögliche / beobachtete Werte kontinuierliche Variablen <?page no="395"?> 396 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 396 messene mathematische Abbildung bereit. Vielmehr sind zwischen zwei Werten beliebige Zwischenwerte möglich. Die abzubildende empirische Merkmalsdimension stellt ein lückenloses Kontinuum möglicher Ausprägungen dar; es gibt keine Bruch- oder Sprungstellen. Mathematisch ausgedrückt: Die Variable kann im Prinzip jeden beliebigen Wert eines bestimmten Intervalls der reellen Zahlengeraden annehmen. X sei das Lebensalter oder das Körpergewicht oder die Körpergröße einer Person; X sei die Entfernung zwischen zwei Orten oder die benötigte Zeit zum Durchlaufen einer 100-m-Strecke. Bei diskontinuierlichen (diskreten, kategorialen) Variablen existieren zwischen je zwei möglichen Ausprägungen Sprungstellen; diskrete Variablen können nur ganz bestimmte Werte annehmen, die streng voneinander getrennt sind. Auf der Zahlengeraden bestehen zwischen ihnen „Lücken“. Mathematisch ausgedrückt: Diskrete Variablen können nur endlich viele oder abzählbar unendlich viele Werte der reellen Zahlengeraden annehmen. Im einfachsten Fall sind bei einer diskreten Variablen lediglich zwei mögliche Ausprägungen definiert. Man spricht dann von einer dichotomen Variablen. Zahl der Personen im Haushalt mit den Ausprägungen 1, 2, 3,-…; Religionszugehörigkeit mit den Ausprägungen „keine Konfession“, „katholisch“, „evangelisch“, „sonstige Konfessionen“; Bildung mit den Ausprägungen „höchstens Hauptschulabschluss“, „mittlere Reife“, „Abitur“, „Studium“.-- Dichotome Variablen sind: Geschlecht mit den Ausprägungen männlich/ weiblich“; Berufstätigkeit mit den Ausprägungen „berufstätig/ nicht berufstätig“; Bildung mit den Ausprägungen „höchstens Hauptschulabschluss/ mehr als Hauptschulabschluss“. Die strenge Unterscheidung in stetige und diskrete Variablen ist allerdings wiederum eine mathematische Modellvorstellung. Ob für die empirischen Variablen der Sozialwissenschaften das Modell einer diskreten oder das Modell einer stetigen (kontinuierlichen) Variablen angemessener ist, ist eher eine graduelle als eine prinzipielle Frage und abhängig von der jeweils gewählten Operationalisierung. Das Merkmal „Einkommen“ wird praktisch immer als stetige Variable behandelt, obwohl zwischen den kleinsten Geldeinheiten (hier: Cent-Beträge) Sprungstellen existieren; streng genommen handelt es sich also um eine diskrete Variable mit endlich vielen Ausprägungen. Die Differenz von einem Cent zwischen zwei nebeneinander liegenden möglichen Werten ist jedoch praktisch bedeutungslos, sofern es sich um größere Beträge handelt. Die Merkmale „Größe“ oder „Länge“ werden dagegen häufig als diskrete Variablen definiert, obwohl es sich im Prinzip um stetige Merkmale handelt. So interessieren häufig nicht präzise Längenangaben, sondern es wird lediglich zwischen Längenintervallen unterschieden, wobei man von Vorstellungen über die Exis- BEISPIELE diskontinuierliche Variablen dichotome Variable BEISPIELE BEISPIELE <?page no="396"?> 397 8.1 Einige zentrale Begriffe www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 397 tenz bestimmter Schwellenwerte ausgeht, etwa bei der Messung der Länge des Arbeitsweges: weniger als 1 km, bis 2 km, bis 5 km, bis 10 km, bis 30 km, mehr als 30 km. Auch die Körpergröße oder das Alter von Personen werden (obwohl kontinuierliche Merkmale) üblicherweise als diskrete Variablen gemessen (aufbzw. abgerundet in cm-Werten bzw. Jahren). Bevor im nächsten Abschnitt auf Verfahren der univariaten Statistik eingegangen wird, seien zunächst noch einige verkürzende symbolische Darstellungsweisen vorgestellt, die in diesem Text im Zusammenhang mit statistischen Argumentationen und in den-- nicht zu vermeidenden-- Formeln vorkommen. 297 Große lateinische Buchstaben (gewöhnlich X, Y, Z) werden verwendet, wenn eine Variable mit allen (beobachteten oder möglichen) Ausprägungen bezeichnet werden soll. Sind dagegen einzelne Ausprägungen der Variablen gemeint, wird dies durch entsprechende kleine lateinische Buchstaben angedeutet (z. B. x, y, z). Subskripte (Laufindizes) dienen der weiteren Unterscheidung der einzelnen Ausprägungen untereinander (z. B. x 1 , x 2 ,-…, x i ,-…, x n ). Gilt die Aufmerksamkeit den beobachteten Werten bei den einzelnen Untersuchungseinheiten, dann wird der Laufindex „i“ verwendet. „i“ kann die Werte 1 bis n annehmen (n =-Zahl der Fälle in der Stichprobe; d. h. Zahl der Untersuchungseinheiten, für die Daten erhoben worden sind). So heißt z. B. x 2 : Ausprägung der Variablen X für die zweite Untersuchungseinheit, und x n : Ausprägung der Variablen X für die letzte Untersuchungseinheit im Datensatz. Bezieht sich die Argumentation nicht auf die bei den einzelnen Untersuchungseinheiten tatsächlich beobachteten, sondern entweder auf die bei einer Variablen möglichen Ausprägungen oder auf Gruppen (Klassen) zusammengefasster Beobachtungswerte, dann nimmt man als Laufindex den Buchstaben „j“. Er kann die Werte 1 bis k (Zahl der Klassen von Beobachtungswerten bzw. Zahl der möglichen Ausprägungen) annehmen. Zu jedem möglichen Variablenwert bzw. zu jeder Klasse zusammengefasster Beobachtungswerte ist dann zusätzlich die Häufigkeit des Auftretens (abgekürzt „f “; engl.: frequency =-Häufigkeit, Frequenz) anzugeben. Nehmen wir als Beispiel einen Lottospieler, der in den 52 Wochen eines Jahres insgesamt 416 Tippreihen (n=416) ausgefüllt und für jede Tippreihe die Zahl der Treffer (x) notiert hat. Dies kann die folgende Beobachtungsreihe ergeben: 2, 0, 1, 2, 0, 3, 1, 0, 2, 0, 3+SZ,-…, 4. Für x i mit i=1 (erster Eintrag für die Variable X) können wir die Ausprägung „2“ ablesen; d. h. in der ersten ausgefüllten Tippreihe fanden sich zwei richtig getippte Lottozahlen. Für x i mit i=2 (2. Tippreihe) können wir die Ausprägung „0“ (keine richtig getippte Zahl), für x i mit i=416 (letzte Tippreihe) können wir die Ausprägung „4“ (vier Richtige) ablesen. 297 Leider haben sich in der Statistik keine generell verbindlichen mathematischen Symbole und Abkürzungen eingebürgert. Sie werden sich daher ärgerlicherweise, wenn Sie zur Vertiefung auf ausführlichere Lehrbücher zugreifen, immer zunächst mit der darin jeweils verwendeten Symbolik vertraut machen müssen. Konventionen über-Symbolik Variablen Laufindizes Häufigkeit BEISPIELE <?page no="397"?> 398 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 398 In diesem Beispiel existieren als mögliche Ausprägungen die Werte 0, 1, 2, 2+SZ (zwei Zahlen richtig getippt + Superzahl), 3, 3+SZ, 4, 4+SZ, 5, 5+SZ, 6, 6+SZ (6 richtig getippte Zahlen + Superzahl); d. h. die Variable X („Trefferzahl“) hat zwölf mögliche Ausprägungen x j . Für x j mit j=1 (erste mögliche Ausprägung) steht der Wert 0 (keine richtig getippte Zahl), für x j mit j=12 steht die Ausprägung 6+SZ. Übersichtlicher als im obigen Beispielstext können jetzt die genannten Werte wie folgt zusammengefasst werden: x j f j 0 49 1 188 2 145 2+SZ 20 3 10 3+SZ 2 4 1 4+SZ 1 5 0 5+SZ 0 6 0 6+SZ 0 416 Soll eine Reihe von Werten addiert werden, dann wird dies durch das Summenzeichen Σ und zusätzliche Angaben, welche Wertereihe aufsummiert werden soll, gekennzeichnet. So bedeutet z. B. Addiere die Ausprägungen der Variablen X für alle n Untersuchungseinheiten; bzw.: Addiere alle x i mit i =-1, 2, 3,-…, n; bzw. x 1 + x 2 + x 3 +-… + x n . Dagegen bedeutet Addiere die Häufigkeiten, mit denen die einzelnen Aus prägungen im Beobachtungszeitraum aufgetreten sind; bzw.: Addiere alle fj mit j =-1, 2,-…, k; bzw. im Beispielsfall 49 + 188 + 145 + 20 + 10 + 2 + 1 + 1 + 0 + 0 + 0 =-416 =-n. Tabelle 8.1: Summe X n i ¼ 1 x i : X k j ¼ 1 f j : <?page no="398"?> 399 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 399 8.2 Univariate Statistik Zu Beginn dieses Kapitels hieß es, dass statistische Verfahren dazu benötigt werden, Ordnung in die Daten zu bringen, die zunächst in ungeordneter und unübersichtlicher Form vorliegen. Man stelle sich vor, es seien mit dem Verfahren standardisiertes Interview 1000 Personen je 100 Fragen vorgelegt worden, so dass vor Beginn der Auswertung 100.000 Einzeldaten zur Verfügung stehen. Die erste- - allerdings lediglich formale-- Ordnung der Daten wird durch die zeilen- und spaltenweise Anordnung der codierten Antworten der Befragten auf die 100 Fragen in Form einer Datenmatrix vorgenommen. In diesem Fall hätte die Matrix einen Umfang von 1000 Zeilen und 100 Spalten. Wollte der Forscher allerdings versuchen, die Einzeldaten unmittelbar durchzusehen, um daraus Antworten auf seine Forschungsfragen zu gewinnen, würde er sicher an dieser Aufgabe scheitern. Er wird daher gut daran tun, die Datenmatrix lediglich als Basis für Auswertungen mit Hilfe statistischer Verfahren (als Daten-„Urliste“) zu verwenden. Die Daten müssen also in geeigneter Weise weiter aufbereitet werden, so dass die interessierenden Inhalte in leicht überschaubarer Weise zum Ausdruck kommen. 8.2.1 Häufigkeitsverteilungen Ein einfaches Verfahren zur übersichtlichen Darstellung der in den Daten enthaltenen Informationen ist die Erstellung univariater (eindimensionaler) Häufigkeitsverteilungen. Eine Häufigkeitsverteilung ergibt sich dadurch, dass festgestellt wird, wie häufig die einzelnen Ausprägungen eines Merkmals in der Gesamtheit der Untersuchungseinheiten aufgetreten sind. Anders ausgedrückt: Die Untersuchungseinheiten werden entsprechend der jeweils beobachteten Ausprägungen einer Variablen (=-der Messwerte) den möglichen Ausprägungen dieser Variable zugeordnet. Die Zahl der Fälle, die dabei je Merkmalsausprägung oder je Intervall (x j ) ausgezählt wird, nennt man die absolute Häufigkeit (f j ) dieser Merkmalsausprägung. Die Verteilung der Häufigkeiten auf alle unterschiedenen Ausprägungen (bzw. Intervalle) der Variablen X nennt man die Verteilung der absoluten Häufigkeiten (oder absolute Häufigkeitsverteilung). Die Zuordnung der Häufigkeiten erreichter „Trefferzahlen“ im Lottospieler- Fall zu den möglichen Ausprägungen der Variablen „Trefferzahl“ (Tabelle 8.1) ist ein Beispiel für ein solches Vorgehen. Bei diskreten Variablen, insbesondere bei solchen mit relativ wenigen möglichen Ausprägungen, bereitet die Bildung von Häufigkeitsverteilungen wenig Schwierigkeiten, da nur ganz bestimmte Ausprägungen vorkommen können. Falls sämtliche möglichen Ausprägungen bei Erstellung der Häufigkeitsverteilung erhalten bleiben, ist diese Art der Datenaufbereitung ein Verfahren, bei dem- - mit Ausnahme der Reihenfolge des Auftretens von Messwerten-- keine Information verloren geht. Falls BEISPIEL Häufigkeitsverteilung absolute Häufigkeiten <?page no="399"?> 400 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 400 eine diskrete Variable allerdings sehr viele mögliche Ausprägungen aufweist, wird eine Häufigkeitsverteilung, die sämtliche einzelnen Ausprägungen beibehält, sehr schnell unübersichtlich; sie erfüllt nicht mehr hinreichend die Funktion der Informationsverdichtung. In solchen Fällen wird man sinnvollerweise jeweils mehrere benachbarte Werte zu Gruppen (Klassen) zusammenfassen und die Häufigkeit für diese Werte-Klassen angeben. Man spricht dann von einer Häufigkeitsverteilung mit gruppierten (oder klassierten) Werten. X sei das Alter von Befragten, das als diskrete Variable (in ganzen Jahren, jeweils auf- oder abgerundet) operationalisiert wurde. Eine Häufigkeitsverteilung der Befragten nach ihrem Alter mit den Ausprägungen z. B. 16, 17, 18,-…, 103 Jahre wäre äußerst unübersichtlich. Außerdem würden einige der möglichen Ausprägungen die empirische Häufigkeit 0 aufweisen. Es ist deshalb sinnvoller, Altersklassen zu bilden, etwa: bis 20 Jahre, 21-25 Jahre, 26-30 Jahre, 31-35 Jahre,- …, 61-65 Jahre, 66-70 Jahre, 71 Jahre und älter. Auch im Lottospieler-Beispiel könnte die Darstellung noch übersichtlicher werden, ohne dass Informationen verloren gehen: Die Ausprägungen fünf und sechs Richtige sowie 5 und 6 mit Superzahl, die jeweils die empirische Häufigkeit 0 aufweisen, können zu einer Gruppe „5 und mehr Richtige“ zusammengefasst werden. Aus inhaltlichen Überlegungen bietet es sich schließlich an, zusätzlich auch die Ausprägungen 0, 1 und 2 (=- keine Gewinne) zusammenzufassen und deren Häufigkeiten zu addieren (49 + 188 + 145). In diesem Fall wird eine gewollte Informationsreduktion vorgenommen; die interne Differenzierung innerhalb der Klasse „keine Gewinne“ nämlich wird als weniger relevant in der Darstellung vernachlässigt: x j f j keine Gewinne: 0-2 Richtige 382 Gewinne: 2 Richtige + Superzahl 20 3 Richtige 10 3 Richtige + Superzahl 2 4 Richtige 1 4 Richtige + Superzahl 1 5 und mehr Richtige 0 Treibt man die Zusammenfassung der einzelnen Ausprägungen so weit, dass nur noch zwei Werteklassen unterschieden werden, spricht man von einer Dichotomisierung der Variablen. Hierbei gehen allerdings im Regelfall sehr viele ursprünglich vorhandene Informationen verloren. Häufigkeitsverteilung mit gruppierten Werten BEISPIEL Tabelle 8.2: Dichotomisierung: Reduktion auf zwei-Werte <?page no="400"?> 401 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 401 Im Lottobeispiel etwa ließe sich eine Dichotomisierung in Tippreihen ohne Gewinne und solche mit Gewinnen vornehmen: x j f j keine Gewinne: 0-2 Richtige 382 Gewinne: 2+SZ bis 4+SZ 34 Eine Gruppierung (Klassierung) von Ausprägungen zu Werteklassen ist immer erforderlich, wenn für kontinuierliche Variablen Häufigkeitsverteilungen zu erstellen sind. Durch die Einteilung des Kontinuums möglicher Ausprägungen in Intervalle wird das stetige Merkmal in ein diskretes transformiert. X sei das monatliche Bruttoeinkommen von Befragten, das als (annähernd) kontinuierliche Variable operationalisiert wurde (etwa durch die präzise Feststellung des Einkommens in Euro und Cent anhand von Verdienstabrechnungen). Eine Häufigkeitsverteilung, die von den möglichen Ausprägungen ausginge (kleinste Maßeinheit: Cent), wäre völlig unzweckmäßig. Auch eine Häufigkeitsverteilung auf der Basis der empirisch festgestellten Werte ergäbe keine informative Darstellung; im Extremfall würde die Variable bei 1000 Untersuchungseinheiten ebenso viele verschiedene Merkmalsausprägungen mit jeweils der empirischen Häufigkeit von f j =-1 aufweisen. Das Merkmalskontinuum ist also in Intervalle einzuteilen; etwa: 0 € (kein eigenes Einkommen), unter 500 €, 500 bis unter 1.000 €, 1.000 bis unter 2.000 €, 2.000 bis unter 3.000 €, 3.000 bis unter 4.000 €, 4.000 bis unter 6.000 €, 6.000 bis unter 10.000 €, 10.000 € und mehr. Ein Vergleich der Klassenbildung bei diskreten und bei kontinuierlichen Variablen zeigt, dass die Klassengrenzen auf unterschiedliche Weise gekennzeichnet werden müssen. Bei diskreten Variablen, die ja nur ganz bestimmte Ausprägungen annehmen können, existieren genau angebbare Ober- und Untergrenzen für jede Klasse. Etwa: 0-2 Richtige im Lottobeispiel oder: 21-25 Jahre im Falle eines als diskrete Variable operationalisierten Merkmals „Alter“. Bei kontinuierlichen Variablen dagegen gibt es keine natürlichen Klassengrenzen, da zwischen zwei beliebigen Werten immer noch (im Prinzip) ein weiterer Wert vorkommen kann. Die Intervalle werden deshalb voneinander so getrennt, dass eine Klassengrenze (Ober- oder Untergrenze) exakt angegeben und die andere offen gelassen wird. Im Beispiel oben wurden „rechts-offene“ Einkommensintervalle gebildet, etwa: (genau) 500 bis unter 1.000 €, (genau) 1.000 bis unter 2.000 €. Natürlich kann man die Intervalle auch „links-offen“ definieren, etwa: über 500 bis (genau) 1.000 €, über 1.000 bis (genau) 2.000 € usw. BEISPIEL Tabelle 8.3: BEISPIEL Klassengrenzen BEISPIEL <?page no="401"?> 402 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 402 Einige Anmerkungen und Faustregeln zur Bildung von Werteklassen: - Hat eine Häufigkeitsverteilung viele Werteklassen, dann enthält sie zwar mehr Informationen als im Falle nur weniger Werteklassen. Jedoch wird der Zweck der Vereinfachung (die Informationsreduktion) verfehlt. - Man kann Werteklassen so abgrenzen, dass die Intervalle jeweils gleich groß sind. In diesem Falle geht man von den möglichen Ausprägungen der Variablen aus und untersucht, wie sich die empirisch beobachteten Werte auf diese Intervalle verteilen. - Man kann Werteklassen auch so abgrenzen, dass die empirischen Häufigkeiten je Intervall möglichst gleich groß sind. In diesem Fall geht man von den beobachteten (gemessenen) Ausprägungen aus. - Eine feste Regel, ob gleiche Intervalle oder gleiche Häufigkeiten je Klasse bei der Klassierung vorzuziehen sind, existiert nicht. Dies muss im Einzelfall entschieden werden. Annähernd gleiche Häufigkeiten je Intervall sind für manche statistischen Auswertungsverfahren (etwa Zusammenhangsanalyse mit Hilfe von Kontingenztabellen, vgl. 8.3.2) vorteilhaft. Andererseits können bestimmte Klassengrenzen sich aus inhaltlichen Überlegungen aufdrängen. Bei Klassierung des Merkmals „Alter“ z. B. sollten möglicherweise aus theoretischen Gründen solche Zäsuren wie Schulbeginn, Beendigung der Ausbildung und Aufnahme der Berufstätigkeit oder Zeitpunkt der Pensionierung auch bei der Abgrenzung der Werteklassen zum Ausdruck kommen. Die bisher behandelten absoluten Häufigkeiten eignen sich jedoch schlecht zum Vergleich von Ergebnissen aus verschiedenen Erhebungen, sofern nicht jeweils die gleiche Gesamtzahl von Fällen beschrieben worden ist. x j (kandidierende Parteien) f j (abgegebene gültige Stimmen in 1000) 1985 1995 2005 CDU 3.463,7 3.124,8 3.696,5 SPD 4.942,3 3.816,6 3.059,0 FDP 565,4 332,6 508,3 Die Grünen 431,4 830,9 509,3 Sonstige 76,7 189,3 470,9 Σ f j 9.479,4 8.294,2 8244,0 Um solche Ergebnisse unmittelbar vergleichbar zu machen, ist es sinnvoll, die absoluten Häufigkeiten zur jeweiligen Gesamtzahl der Fälle in Relation zu setzen und so relative Häufigkeiten (f ’ j ) zu bestimmen. Mit anderen Worten: Es wird nach der Formel f ’ j =- f j / Σf j =- f j / n der Anteil der absoluten Häufigkeit einer Merkmalsausprägung an der Gesamtzahl der Fälle berechnet. Multipliziert man die relativen Häufigkeiten mit dem Faktor 100, erhält man Prozentwerte. Faustregeln zur Klassenbildung Tabelle 8.4: Landtagswahlergebnisse in Nordrhein-Westfalen 1985, 1955 und 2005 Quelle: Statistische Jahrbücher für die Bundesrepublik Deutschland BEISPIEL relative Häufigkeiten Prozentwerte <?page no="402"?> 403 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 403 Bezogen auf das oben angeführte Beispiel: x j (kandidierende Parteien) 1985 1995 2005 f ’ j % f ’ j % f ’ j % CDU 0,365 36,5 0,377 37,7 0,448 44,8 SPD 0,521 52,1 0,460 46,0 0,371 37,1 FDP 0,060 6,0 0,040 4,0 0,062 6,2 Die Grünen 0,046 4,6 0,100 10,0 0,062 6,2 Sonstige 0,008 0,8 0,023 2,3 0,057 5,7 Σ f ’ j 1,000 1,000 1,000 Für manche Fragestellungen ist nicht nur die absolute und/ oder relative Häufigkeit je Merkmalswert (bzw. je Klasse von Werten) wichtig, sondern es interessiert auch die sukzessive Zusammenfassung (Kumulierung) 298 der Häufigkeiten. Das ist immer dann der Fall, wenn man wissen möchte, wie viele der beobachteten Merkmalsausprägungen kleiner als ein bestimmter Wert sind. 299 Zu diesem Zweck ordnet man zunächst die Merkmalsausprägungen (oder Klassen) nach ihrer Größe und summiert dann sukzessive die Häufigkeiten auf, so dass die kumulierte (absolute) Häufigkeit (f cj ) der beiden niedrigsten Ausprägungen (Klassen) =-f 1 + f 2 , die kumulierte Häufigkeit der drei niedrigsten Ausprägungen (Klassen) =-f 1 + f 2 + f 3 ist usw. In gleicher Weise kann man auch die relativen Häufigkeiten kumulieren. x j (Vermögen in DM) f j f cj f ’ j f ’ cj (Haushalte in Mio.) 0 1,8 1,8 0,083 0,083 bis 5.000 2,3 4,1 0,107 0,190 üb. 5.000-- 35.000 8,0 12,1 0,370 0,560 üb. 35.000-- 100.000 4,3 16,4 0,199 0,759 üb. 100.000-- 500.000 4,6 21,0 0,213 0,972 üb. 500.000-- 2,5 Mio. 0,5 21,5 0,023 0,995 üb. 2,5 Mio. 0,1 21,6 0,005 1,000 21,6 298 Kumulieren heißt „anhäufen“ und wird hier in der Bedeutung von „schrittweise von Anfang an aufaddieren“ benutzt. 299 Die Kumulierung, die vom kleinsten Wert ausgeht und zum größten fortschreitet, heißt Aufwärtskumulierung. Falls die Fragestellung lautet „Wie viele Beobachtungswerte sind größer als ein bestimmter Wert? “, kann man die Rangfolge umkehren und vom größten zum kleinsten Wert fortschreiten. Dieses Vorgehen nennt man Abwärtskumulierung. BEISPIEL Tabelle 8.5: kumulierte Häufigkeiten BEISPIEL Tabelle 8.6: Verteilung des Vermögens auf die-Haushalte in der-BRD 1973 <?page no="403"?> 404 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 404 8.2.2 Die Darstellung von Häufigkeitsverteilungen Die übliche Form der Präsentation univariater statistischer Informationen ist die numerische mit Hilfe von Tabellen. Statistische Tabellen bestehen aus einer Überschrift (aus der hervorgeht, welche Art von Informationen aufbereitet worden ist), der Vorspalte (in der die Merkmalsausprägungen oder deren Zusammenfassung zu Klassen beschrieben sind), der Kopfzeile (die Erläuterungen zur Form der statistischen Aufbereitung der Daten enthält) sowie dem eigentlichen Zahlenkörper. 300 Zusätzlich ist die Quelle anzugeben, aus der die Informationen stammen. Das oben (in Tab. 8.6) angeführte Beispiel könnte tabellarisch aufbereitet wie folgt aussehen: Kopfzeile: es besitzen: Haushalte (in Mio.) Anteil an der Gesamtzahl der Haushalte (%) kumulierte Anteile (%) Vorspalte: keine finanziellen Rücklagen 1,8 8,3 8,3 einen „Notgroschen“ (bis 5.000 DM) 2,3 10,7 19,0 Rücklagen (5.000-- 35.000 DM) 8,0 37,0 56,0 „Polster“ (35.000-- 100.000 DM) 4,3 19,9 75,9 kleines Vermögen z. B. Eigenheim (100.000-- 500.000 DM) 4,6 21,3 97,2 Vermögen (0,5 bis -2,5 Mio. DM) 0,5 2,3 99,5 großes Vermögen (über 2,5 Mio. DM) 0,1 0,5 100,0 Tabellen werden oft durch grafische Darstellungen ergänzt. Liegen statistische Angaben vor, die sich auf eine diskrete Variable beziehen, dann ist das Stabdiagramm (oder Balkendiagramm) die übliche Form der grafischen Präsentation. Dazu wird ein rechtwinkeliges Koordinatensystem benutzt, auf dessen Ordinate man die Häufig- 300 Die tabellarische Darstellung univariater Verteilungen darf nicht mit der Kontingenztabelle als Instrument der Zusammenhangsanalyse verwechselt werden (vgl. Abschnitte 8.3.1 und 8.3.2). 301 Für neuere Daten s. Schüssler, R.; Funke, C., 2002: Vermögensbildung und Vermögensverteilung. Eine Untersuchung der Prognos AG für die Hans-Böckler-Stiftung, Düsseldorf.; Frick, Joachim R.; Grabka, Markus M.; Hauser, Richard, 2010: Die Verteilung der Vermögen in Deutschland-- Empirische Analysen für Personen und Haushalte, Berlin. (Forschung aus der Hans-Böckler-Stiftung, Bd. 118) Tabellen BEISPIEL Tabelle 8.7: Verteilung des Vermögens in der Bundesrepublik Deutschland 1973 301 Quelle: Mierheim, H.; Wicke, L.: Die personelle Vermögensverteilung in-der Bundesrepublik Deutschland, Tübingen 1978 Stab- oder Balkendiagramm <?page no="404"?> 405 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 405 keiten und auf dessen Abszisse die Merkmale abträgt. Über jedem abgetragenen Merkmalswert werden senkrechte Balken („Stäbe“) errichtet, deren Längen den zugehörigen Häufigkeiten entsprechen. 302 Die Landtagswahlergebnisse NRW (vgl. Tabelle 8.5) sind mit Hilfe von Stabdiagrammen wie folgt darstellbar: Das Stabdiagramm ist eine geeignete Form der grafischen Darstellung von Häufigkeitsverteilungen diskreter Merkmale mit geringer Zahl von Ausprägungen sowie bei nominalskalierten Variablen. Hat man dagegen gruppierte Werte einer kontinuierlichen Variablen vorliegen, ist die übliche Darstellungsform das Histogramm. Auch hierbei geht man (wie beim oben abgebildeten Stabdiagramm) von einem rechtwinkeligen Koordinatenkreuz aus. Auf der Abszisse sind wieder die Merkmalsausprägungen abzutragen, und zwar entsprechend der gewählten Klassierung, wobei unterschiedliche Klassenbreiten maßstabgetreu zu berücksichtigen sind. Die Häufigkeiten werden nun durch Rechteckflächen über den jeweiligen Intervallen dargestellt. Bei unterschiedlichen Klassenbreiten (Intervallen) ist die Höhe des Rechtecks entsprechend umzurechnen (Prinzip der Flächentreue; siehe das Beispiel auf der folgenden Seite). 302 Im vorliegenden Text werden nur die einfachsten Formen grafischer Illustration vorgestellt. Wer an anspruchsvolleren Verfahren grafisch gestützter Datenanalyse interessiert ist, sei auf die Spezialliteratur (z. B. Schnell 1994) verwiesen. Abbildung 8.1: Wahlergebnisse in-Nordrhein- Westfalen-- Balkendiagramm Histogramm 1985 1995 2005 30 20 10 50 40 % CDU Die Grünen Sonstige FDP SPD <?page no="405"?> 406 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 406 Monatliches Haushaltseinkommen von-… bis unter-… DM Haushalte d a r u n t e r : in 1000 % Selbständige in 1000 Rentner, Versorgungsempfänger % unter 1.000 6765 29,1 - - 5953 25,6 1.000-- 2.000 3088 13,3 9 0,0 1243 5,3 2.000-- 3.000 3194 13,7 84 0,4 262 1,1 3.000-- 4.000 2808 12,1 232 1,0 70 0,3 4.000-- 5.000 2498 10,7 263 1,1 14 0,1 5.000-- 7.000 2561 11,0 458 2,0 14 0,1 7.000-- 10.000 1530 6,5 511 2,2 4 0,0 10.000 oder mehr 831 3,6 503 2,2 - - 23275 100,0 2060 8,9 7560 32,5 Im obigen Beispiel ist das Intervall 5.000-7.000 (mit 11 % der Haushalte) doppelt, das Intervall 7.000-10.000 (mit 6,5 % der Haushalte) dreimal so breit wie die vorhergehenden Intervalle. Für die grafische Darstellung hat man sich vorzustellen, diese Intervalle seien aus zwei (bzw. drei) Teilintervallen mit jeweils einer Klassenbreite von 1.000 zusammengesetzt. Auf jedes dieser Teilintervalle entfällt dann eine gleichgroße Häufigkeit von 11,0 % : 2 =- 5,5 % (bzw. von 303 Für neuere Daten s. Statistisches Bundesamt (Hg.), 2001: Fachserie 15, Wirtschaftsrechnungen-- Einkommens- und Verbraucherstichprobe 1998, Heft 4, Stuttgart (und spätere Jahrgänge). BEISPIEL BEISPIEL Tabelle 8.8: Schichtung des Bruttoerwerbs- und Vermögenseinkommens in der-Bundesrepublik Deutschland 1978 303 Quelle: Bedau, K.-D., 1979: Das Einkommen sozialer Gruppen in der Bundesrepublik Deutschland von 1970 bis 1978; WSI-Mitteilungen, Jg. 32, Heft 12, 645. Abbildung 8.2: Einkommensverteilung-- Histogramm 3 30 1 2 4 5 6 7 8 9 10 11 12 13 14 15 Einkommen in 1000 DM 25 20 15 10 5 <?page no="406"?> 407 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 407 6,5 % : 3 =-2,2 %). Für das letzte, nicht geschlossene Intervall wird man für die grafische Darstellung eine fiktive Obergrenze so festlegen, dass die überwiegende Zahl der zu dieser Merkmalsklasse zählenden Haushalte erfasst sein dürfte (vielleicht bei 20.000). Verbindet man im Histogramm die oberen Klassenmittelpunkte durch Geraden, so erhält man den sogenannten Polygonzug (s. o.). Histogramm und Polygonzug vermitteln im Prinzip dieselben Informationen wie die entsprechende Tabelle. Jedoch wird in der grafischen Darstellung durch die räumliche Veranschaulichung ungleicher Klassenbreiten die relevante Information (hier: Ungleichheit der Einkommensverteilung) offensichtlicher. Häufigkeitsverteilungen werden oft nach ihrer bei der grafischen Darstellung erkennbaren Form charakterisiert. Typische Verteilungsformen sind: symmetrische Ver- Polygonzug linksschief (rechtssteil) rechtsschief (linkssteil) steil ach U-förmig bimodal (zweigipfelig) b) c) d) e) f) g) symmetrisch a) Abbildung 8.3: Typische Verteilungsformen <?page no="407"?> 408 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 408 teilungen (um einen Punkt maximaler Häufigkeit nehmen die Häufigkeiten nach beiden Seiten in gleicher Weise ab), links- oder rechtsschiefe, ein- oder mehrgipfelige, flache, steile oder U-förmige Verteilungen. Bei den folgenden Abbildungen kann man sich vorstellen, sie seien aus Histogrammbzw. Polygonzug-Darstellungen kontinuierlicher Variablen entstanden, wobei auf der Basis einer großen Zahl von Messungen die Intervalle verschwindend klein gehalten wurden (vgl. Abb. 8.3). 8.2.3 Maße der zentralen Tendenz einer Verteilung (Mittelwerte) Bei den bisher behandelten Darstellungsformen univariater Verteilungen blieb noch ein relativ großer Teil der ursprünglich in den Daten vorhandenen Informationen erhalten. Für manche Zwecke reicht die damit erzielte Informationsreduktion jedoch nicht aus. Stattdessen sucht man eine einzige Zahl, die das Charakteristische (das „Typische“) einer Verteilung repräsentieren soll: Man sucht den „Schwerpunkt“ oder „Mittelpunkt“ einer gegebenen Häufigkeitsverteilung, ihre „zentrale Tendenz“. In solchen Maßen der zentralen Tendenz (üblicherweise auch als Mittelwerte bzw. umgangssprachlich als „Durchschnitt“ bezeichnet) wird die gesamte Datenmenge einer Variablen (z. B. die Bruttomonatseinkommen von 23,275 Mio. Haushalten) in nur einer Zahl zusammengefasst; die Gesamtheit der Einzelinformationen wird zu einer einzigen statistischen Kennziffer verdichtet. Unter den Maßen der zentralen Tendenz sind die lagetypischen von den rechnerischen Mittelwerten zu unterscheiden. Die rechnerischen Mittelwerte erhält man durch algebraische Berechnung, die lagetypischen durch Ordnen bzw. Gruppieren der beobachteten Ausprägungen einer Variablen. Wichtig ist in jedem Fall, - dass der Mittelwertbildung eine homogene statistische Masse zugrunde gelegt wird (vgl. Abschnitt 5.2.3), - dass die zu beschreibende Reihe von Werten ein Mindestmaß an Veränderlichkeit (an Variation, Dispersion) zeigt; andernfalls wäre die Berechnung eines Mittelwertes überflüssig; - dass die zu beschreibende Reihe eine gewisse Konzentration innerhalb der beobachteten Elemente aufweist. Andernfalls hätte die Verteilung keine „zentrale Tendenz“; ein berechneter Mittelwert würde nichts Typisches über die Verteilung aussagen. Modus Unter den lagetypischen Mittelwerten ist der Modus (Modalwert, häufigster Wert) am einfachsten zu bestimmen: Es wird eine Häufigkeitsverteilung der beobachteten Werte erstellt und diejenige Variablenausprägung bestimmt, für die die empirische Häufigkeit maximal ist. typische Verteilungsformen Maße der zentralen-Tendenz lagetypische/ rechnerische Mittelwerte- Bedingungen angemessener Mittelwertbildung Modus, Modalwert <?page no="408"?> 409 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 409 Der Modus ist also als die am häufigsten vorkommende Ausprägung einer Variablen definiert: Formel (1): x M =-x j mit max(f j ) Entsprechend dieser Definition ist der Modus dann nicht eindeutig bestimmbar, wenn zwei oder mehrere Merkmalsausprägungen mit gleicher Häufigkeit an der Spitze liegen. Der Modus kann bei Daten jeden Messniveaus bestimmt werden; er ist also auch bei nominalskalierten Variablen anwendbar. Ein Gymnasium ermittelt in seinen Abschlussklassen die gewünschten Studienorte A, B, C, D, E, F seiner Abiturienten (=-Variable X mit den Ausprägungen A bis F). Es ergeben sich folgende Häufigkeiten: f A =-93, f B -=-102, f C =-28, f D =-105, f E =- 12, f F =- 57. Die maximale Häufigkeit beträgt f D - =- 105. Modalwert ist also Studienort D (=-Ausprägung D auf der Variablen „gewünschter Studienort“). 304 Der Modus vermittelt nur sehr geringe Informationen über das Typische, über die zentrale Tendenz einer Variablen. Insbesondere ist die Berechnung des Modus dann wenig sinnvoll, wenn, etwa bei annähernd kontinuierlichen Variablen, sehr viele Werte auftreten können, so dass die Häufigkeiten pro Wert im Allgemeinen nur gering sind. Quantile Praktisch bedeutsamer sind unter den lagetypischen Maßen die Quantile. Quantile zerlegen eine Reihe von ihrer Größe nach geordneten einzelnen Werten x i in gleichgroße Abschnitte, in bestimmte Mengenverhältnisse (Percentile zerlegen die Reihe in hundert gleichgroße Abschnitte, Dezile in zehn Abschnitte usw.). War für die Ermittlung des Modus die Feststellung der empirischen Häufigkeiten je Merkmalswert erforderlich, so ist zur Bestimmung der Quantile das Sortieren der einzelnen Messwerte entsprechend ihrem Rangplatz notwendig. Daraus folgt, dass zur Bestimmung von Quantilen die Daten mindestens ordinales Messniveau aufweisen müssen (vgl. Abschnitt 5.4.3). Besonders gebräuchlich unter den Quantilen sind die Quartile, die die geordnete Reihe der Beobachtungswerte in vier Abschnitte zerlegen. In erster Annäherung kann 304 Ein häufig vorkommendes Missverständnis ist, die größte Häufigkeit einer Verteilung als den Modus anzusehen. Richtig ist: Der Modus ist diejenige Variablenausprägung, die in einer Reihe von beobachteten Werten am häufigsten vorkommt. Die Häufigkeit ist lediglich der „Wegweiser“, um an den gesuchten Wert zu kommen. Definition: Modus beliebiges Messniveau BEISPIEL Definition: Quantile mindestens ordinales Messniveau Quartile <?page no="409"?> 410 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 410 definiert werden, dass das 1. Quartil (Q 1 ) derjenige gemessene Wert ist, der die Reihe der geordneten Merkmalswerte im Verhältnis 1: 3 teilt. Entsprechend zerlegt das 2. Quartil (Q 2 ; üblicherweise als Median oder Zentralwert x z bezeichnet) die Reihe im Verhältnis 2: 2 und das 3. Quartil (Q 3 ) im Verhältnis 3: 1. Die numerische Bestimmung der Quartile ist im Prinzip denkbar einfach, falls die Daten als Einzelwerte und nicht zu Intervallen zusammengefasst vorliegen. In diesem Fall kann man- - jedenfalls bei nicht zu großen Datenmengen- - sämtliche Messwerte größenmäßig geordnet auflisten und durch einfaches Abzählen den Wert bestimmen, der die Reihe im Verhältnis 1: 3 (Q 1 ) oder 2: 2 (Q 2 ) oder 3: 1 (Q 3 ) zerlegt. Bei zwanzigmaligem Würfeln wurden folgende Ergebnisse notiert (hier bereits nach der Größe der Zahlen geordnet): 1, 1, 1, 2, 2, 2, 2, 3, 3, 3, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6. Als Wert, der die Reihe im Verhältnis 1: 3 zerlegt, kommt offenbar das Ergebnis „2“ in Betracht. Ebenso zerlegt offenbar das Ergebnis „5“ die Reihe im Verhältnis 3: 1. Dagegen bereitet es nach der oben gegebenen Definition Schwierigkeiten zu entscheiden, welcher Wert die Beobachtungsreihe im Verhältnis 2: 2 zerlegt, das Ergebnis „3“ (10. Wert) oder das Ergebnis „4“ (11. Wert). Der Schnittpunkt, der die Reihe in genau zwei Hälften teilt, müsste zwischen diesen beiden Ergebnissen liegen. Für Q 1 und Q 3 ergab sich nach der bisherigen Definition allerdings das Problem, dass mehrere gleichgroße Werte vor und hinter Q 1 bzw. Q 3 existierten. Die Definition soll deshalb wie folgt präzisiert werden: Das 1.Quartil (Q 1 ) ist derjenige Wert in einer geordneten Reihe von Beobachtungswerten, der von einem Viertel der gemessenen Werte nicht über- und von dreiviertel der gemessenen Werte nicht unterschritten wird. Analoges gilt für das 2. und 3. Quartil. Außerdem sei für die numerische Bestimmung der Quartile folgende Regelung vereinbart: Formel (2): Q 1 Formel (3): Q 3 Hierbei sei k eine natürliche Zahl (1, 2, 3,-…). Die vereinbarte Regelung führt dann zu einem eindeutigen Ergebnis, wenn n / 4 bzw. 3n / 4 nicht zur Menge der natürlichen Zahlen 305 gehört. Sie ist jedoch unbestimmt in den Fällen, dass n / 4 bzw. 3n / 4 eine natürliche Zahl ergeben sollte. Daher wird zusätzlich vereinbart, dass in diesen Fällen 305 Als natürliche Zahlen werden die beim Zählen verwendeten Zahlen 1, 2, 3, 4, 5, 6 usw. bezeichnet. BEISPIEL Definition: 1. Quartil ¼ x k mit n 4 < k < n 4 þ 1 ¼ x k mit 3n 4 < k < 3n 4 þ 1 <?page no="410"?> 411 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 411 für Q 1 ein Wert zwischen x n/ 4 und x (n/ 4 + 1) sowie für Q 3 ein Wert zwischen x 3n/ 4 und x (3n/ 4 + 1) gewählt werden kann. Auf das obige Beispiel (n =-20) angewandt, bedeutet dies: Q 1 =-x k mit 20 / 4 < k < 20 / 4 + 1; da 20 / 4 =-5 eine natürliche Zahl ist, wird ein Wert zwischen x 5 und x 6 gewählt; da jedoch sowohl x 5 als auch x 6 den Wert (das Würfelergebnis) 2 aufweisen, ist Q 1 =-2. Q 3 =-x k mit 60 / 4 < k < 60 / 4 + 1; da 60 / 4 =-15 eine natürliche Zahl ist, wird ein Wert zwischen x 15 und x 16 gewählt; sowohl x 15 als auch x 16 weisen den Wert 5 auf, also ist Q 3 =-5. Q 2 =-x k mit 40 / 4 < k < 40 / 4 + 1; da 40 / 4 =-10 eine natürliche Zahl ist, wird ein Wert zwischen x 10 und x 11 gewählt; da x 10 den Wert 3, und x 11 den Wert 4 aufweist, bietet es sich an, als Q 2 den (unter den Würfelresultaten nicht erzielbaren, also faktisch nicht vorkommenden) Wert 3,5 zu wählen. 306 Median Der bedeutendste Quantilswert ist der Median (das 2. Quartil). Er wird auch als Zentralwert bezeichnet. Der Median ist derjenige Merkmalswert, der in der Mitte einer ihrer Größe nach geordneten Reihe von Messwerten liegt. Der Median ist also im wörtlichen Sinne ein Mittelwert: er wird im Folgenden durch x z (Zentralwert) symbolisiert. Nach der allgemeinen Quantilsdefinition, wie sie oben eingeführt wurde, ist der Median somit derjenige Wert in einer geordneten Reihe von Beobachtungswerten, der von der Hälfte der gemessenen Werte nicht über- und von der anderen Hälfte der gemessenen Werte nicht unterschritten wird. Für seine numerische Bestimmung gilt: Formel (4): wobei k eine natürliche Zahl ist und n / 2 nicht zur Menge der natürlichen Zahlen gehört. Falls n / 2 eine natürliche Zahl ist, kann für x z ein Wert zwischen x n/ 2 und x (n/ 2 + 1) gewählt werden. Dies führt zu folgenden üblicherweise genannten Formeln: Formel (4a): x z =x (n+ 1)/ 2 , falls n ungerade; Formel (4b): x z =-0,5∙(x n/ 2 + x (n/ 2+ 1) ), falls n gerade. 306 Jeder beliebige andere Wert zwischen 3 und 4 würde jedoch die gleiche Funktion erfüllen, nämlich die Wertereihe in zwei gleichgroße Abschnitte zu teilen. BEISPIEL Definition: Median, Zentralwert x z ¼ x k mit n 2 < k < n 2 þ 1 <?page no="411"?> 412 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 412 Bei der numerischen Bestimmung des Medians muss man sich stets vor Augen halten, dass die angegebenen Formeln sich auf die Reihe der tatsächlich beobachteten (gemessenen) Werte, nicht auf die möglichen Ausprägungen einer Variablen beziehen. Der Median ist nicht der mittlere Wert der möglichen Ausprägungen, sondern der mittlere Wert in der geordneten Reihe der beobachteten Ausprägungen. Im Würfelbeispiel (s. o.) kommt der Medianwert 3,5 nicht deswegen zustande, weil er die sechs möglichen Würfelwerte im Verhältnis 1: 1 teilt, sondern weil von den 20 notierten und geordneten Wurfresultaten in unserem Beispiel der 10. Wert „3“ und der 11. Wert „4“ beträgt. Die für die Bestimmung von Quantilen bei überschaubarer Zahl von Daten skizzierte Vorgehensweise (sämtliche Beobachtungswerte größenmäßig auflisten und den Quantilswert durch Auszählen bestimmen) empfiehlt sich nicht bei größeren Fallzahlen. Vielmehr ist als Vorarbeit zunächst eine kumulierte absolute Häufigkeitsverteilung zu erstellen, aus der das Ergebnis dann relativ leicht abgelesen werden kann. Zur Illustration sei auf das Lottospieler-Beispiel (Kapitel 8.2, Tabelle 8.1) zurückgegriffen: x j f j f cj 0 49 49 1 188 237 2 145 382 2+SZ 20 402 3 10 412 3+SZ 2 414 4 1 415 4+SZ 1 416 5 0 416 5+SZ 0 416 6 0 416 6+SZ 0 416 Bei n =-416 ergibt sich für den Median laut Formel (4b): x z =-0,5·(x 208 + x 209 ). In der nach der Zahl der Treffer geordneten Reihe der Tipp-Ergebnisse weist sowohl der 208. als auch der 209. Wert die Ausprägung „1“ auf (die Ausprägung „1“ erstreckt sich-- s. obige Tabelle-- vom 50. bis zum 237. Beobachtungswert). x z ist also 0,5·(1+ 1) =-1. Median: Mittelwert beobachteter Ausprägungen BEISPIEL BEISPIEL Tabelle 8.9: Kumulierte absolute Häufigkeit (Lotto-Beispiel) <?page no="412"?> 413 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 413 Schwieriger ist die Berechnung des Medians bei klassierten (d. h. zu Werte-Intervallen zusammengefassten) Messwerten. Hier lässt sich der Median nicht durch Abzählen oder durch Rückgriff auf die Häufigkeitsverteilung für Einzelwerte genau ermitteln, sondern muss geschätzt werden. Dies geschieht, indem zunächst das Intervall bestimmt wird, in dem der Zentralwert liegt (Medianklasse); anschließend wird durch Interpolation der Zentralwert (Median) annäherungsweise bestimmt. Dies geschieht nach der Formel (5): Dies sei am Beispiel der Vermögensverteilung 1973 (Abschnitt 8.2.1, Tabelle 8.6) illustriert: x j f j f cj 0 1,8 Mio. 1,8 Mio. bis 5.000 2,3 Mio. 4,1 Mio. üb. 5.000-35.000 8,0 Mio. 12,1 Mio. üb. 35.000-100.000 4,3 Mio. 16,4 Mio. üb. 100.000-500.000 4,6 Mio. 21,0 Mio. üb. 500.000-2,5 Mio. 0,5 Mio. 21,5 Mio. üb. 2.5 Mio. 0,1 Mio. 21,6 Mio. Bei n =-21,6 Mio. (Zahl der Haushalte) ist der Median der 10,8millionste Beobachtungswert; dieser liegt (s. Tabelle) im Merkmalsintervall 5000-35.000 DM (Medianklasse). Anhand von Formel (5) beträgt der Schätzwert für den Median: Nach den in Tabelle 8.10 zusammengefassten Werten lässt sich also schätzen, dass die Hälfte der Haushalte in der alten Bundesrepublik Deutschland im Jahre 1973 nicht mehr als 30.125 DM Vermögen besaß. Der Median hat die folgenden Eigenschaften: - Er lässt die extremen Werte einer Verteilung unberücksichtigt. - Er stellt bei einer ungeraden Zahl von Beobachtungen immer einen Wert dar, der in der Reihe der Beobachtungswerte tatsächlich vorkommt. Bei einer geraden Zahl von Fällen kann er allerdings eine hypothetische Ausprägung annehmen (einen Wert, der weder zu den möglichen, noch zu den beobachteten Ausprägungen gehört, vgl. das Würfel-Beispiel). Median bei klassierten Messwerten x z ¼ Untergrenze der Medianklasse þ n = 2 � kum : Häufigkeit unterhalb der Medienklasse Häufigkeit innerhalb der Medienklasse  Breite des Intervalls BEISPIEL Tabelle 8.10: Kumulierte absolute Häufigkeit (Beispiel Vermögensverteilung) x z ¼ 5000 þ 10,8 � 4,1 8,0  30 : 000 ¼ 5000 þ 0,8375  30 : 000 ¼ 30 : 125 DM : Eigenschaften des-Median <?page no="413"?> 414 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 414 - Die Summe der Abweichungen der Beobachtungswerte vom Median ist, ohne Berücksichtigung der Vorzeichen, kleiner als die Summe der Abweichungen von irgendeinem anderen Wert. - Der Median kann in die Irre führen, wenn die Reihe nicht in der Mitte konzentriert ist. - Der gemeinsame Median zweier statistischer Mengen kann nicht durch Zusammenfassen der entsprechenden Mediane beider Beobachtungsreihen ermittelt werden. Vielmehr müssen die Elemente beider Mengen zunächst erneut geordnet werden. Ein „gewogener Median“ lässt sich also nicht ermitteln. Arithmetisches Mittel Wenn in der Umgangssprache vom „Mittelwert“ oder „Durchschnitt“ die Rede ist, dann ist üblicherweise das arithmetische Mittel gemeint. Das arithmetische Mittel (x) ist der Schwerpunkt einer Verteilung: Die Summe aller Abweichungen vom arithmetischen Mittel (mit Berücksichtigung der Vorzeichen) ist gleich Null; d. h. die Summe aller Abweichungen x i -x für x i >x ist genauso groß wie die Summe aller Abweichungen x-x i für x i <x. Im Falle des Vorliegens von Einzel-Messwerten geschieht die numerische Bestimmung des arithmetischen Mittels dadurch, dass sämtliche Einzelwerte addiert und durch die Zahl der Fälle dividiert werden: Formel (6a): Liegt eine Häufigkeitsverteilung für Einzelwerte vor, kann man die Berechnung dadurch vereinfachen, dass man zunächst die jeweiligen Ausprägungen (x j ) mit der zugehörigen Häufigkeit (f j ) multipliziert, diese Zwischenresultate über alle Merkmalsausprägungen addiert und dann durch die Zahl der Fälle dividiert. Formel (6b): Die gleiche Formel ist bei klassierten (zu Intervallen zusammengefassten) Werten anzuwenden. Für x j ist in diesem Falle die Klassenmitte (der Mittelpunkt des Werte- Intervalls) einzusetzen. Definition: arithmetisches Mittel x ¼ 1 n X n i ¼ 1 x i x ¼ 1 n X k j ¼ 1 x j f j <?page no="414"?> 415 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 415 Die Berechnung sei wieder am Beispiel der Vermögensverteilung vorgeführt: x j f j x j (Klassenmitte) x j ∙ f j 0 1,8 Mio. 0 0 bis 5.000 2,3 Mio. 2500 5,75 Mrd.. üb. 5.000-35.000 8,0 Mio. 20000 160,00 Mrd.. üb. 35.000-100.000 4,3 Mio. 67500 290,25 Mrd.. üb. 100.000-500.000 4,6 Mio. 300000 1380,00 Mrd.. üb. 500.000-2,5 Mio. 0,5 Mio. 1,5 Mio. 750,00 Mrd.. üb. 2.5 Mio. 0,1 Mio. (6,0 Mio.) 307 600,00 Mrd. n = 21,6 Mio. ∑x j f j = 3186,00 Mrd. Nach Formel (6b) ergibt sich x = Es lässt sich also (bei Unterstellung einer Klassenmitte von 6,0 Mio. in der höchsten Vermögensgruppe) nach den Werten dieser Tabelle feststellen, dass das Vermögen der Haushalte in der BRD 1973 „im Durchschnitt“ 147.500 DM betrug. Vergleichen Sie diesen Wert mit dem Median (s. o. Tabelle 8.10)! Bei der Gegenüberstellung von Median (Zentralwert) und arithmetischem Mittel (Verteilungsschwerpunkt) lassen sich folgende Unterschiede herausarbeiten: - Bei Berechnung des Medians besteht die Aufgabe darin, in einer nach ihrer Größe geordneten Reihe von Beobachtungswerten den Wert zu finden, der die Wertereihe genau in der Hälfte trennt. - Bei Berechnung des arithmetischen Mittels lautet die Aufgabe, denjenigen Wert zu finden, von dem aus die Summe der Abweichungen nach oben und nach unten gleich groß ist. Das arithmetische Mittel ist also durch eine Forderung definiert, die sich auf Abweichungen, auf Differenzen zwischen Merkmalswerten bezieht. Daraus ergibt sich, dass das arithmetische Mittel nur für Daten berechnet werden darf, die mindestens intervallskaliert sind. 307 Die Klassenmitte wird bei diskreten Merkmalen bestimmt nach der Formel: (Klassenobergrenze + Klassenuntergrenze)/ 2; bei stetigen Merkmalen lautet die Regel: (Klassenobergrenze j + Klassenobergrenze j-1 )/ 2. Bei offenen Intervallen (wie hier: über 2,5 Mio.) lässt sich ohne weitere Informationen ein Klassenmittelpunkt nicht bestimmen. Im dargestellten Beispiel konnte der Schätzwert für die Klassenmitte aufgrund der zusätzlichen Angabe, das Gesamtvermögen der privaten Haushalte betrage deutlich „über drei Billionen DM“, eingesetzt werden. BEISPIEL Tabelle 8.11: Berechnung arithmetisches Mittel (Beispiel Vermögensverteilung) 1 21,6 Mio :  3186,0 Mrd : ¼ 147 : 500 DM : Vergleich Median/ arithmetisches Mittel arithmetisches Mittel mindestens intervallskaliert <?page no="415"?> 416 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 416 Das arithmetische Mittel hat folgende Vorzüge: - Es ist (im Unterschied zu den lagetypischen Mittelwerten) immer eindeutig bestimmt. - Die Summe der quadrierten Abweichungen Σ(x i - x) 2 ergibt ein Minimum. - Multipliziert man das arithmetische Mittel mit der Anzahl der Einzelwerte, so erhält man deren Summe: n · x =-Σx i . Dadurch ist es möglich, ein gemeinsames arithmetisches Mittel aus den Mittelwerten zweier Beobachtungsreihen zu berechnen: x (1+ 2) =- (x 1 · n 1 + x 2 · n 2 )/ (n 1 + n 2 ). Man nennt dies das gemeinsame „gewogene“ (d. h. mit den jeweiligen Fallzahlen der beiden Wertereihen gewichtete) arithmetische Mittel. Die Nachteile des arithmetischen Mittels sind: - Durch die Einbeziehung aller Einzelwerte erhalten die extremen Werte einer Verteilung ein hohes Gewicht. Im obigen Beispiel zur Vermögensverteilung hätte für die Veränderung des berechneten arithmetischen Mittels von 147.500 DM ein einziger Milliardär ein genauso großes Gewicht wie 6738 Haushalte ohne Vermögen. Ein zusätzlicher Milliardär würde den x-Wert um 46 DM nach oben verschieben; für eine gleichgroße Verschiebung nach unten wären demgegenüber 6738 Haushalte ohne Vermögen erforderlich. - Das arithmetische Mittel kann auf einem Punkt liegen, für den nur wenige oder gar keine Beobachtungswerte existieren; die Anwendung ist deshalb z. B. bei bimodalen Verteilungen wenig sinnvoll. - Bei gruppierten (klassierten) Werten ist das arithmetische Mittel nicht zu berechnen, wenn offene Klassenanfangs- oder -endintervalle definiert sind und wenn nicht durch zusätzliche Informationen ein Klassenmittelpunkt geschätzt werden kann. - Bei gruppierten (klassierten) Werten ist das arithmetische Mittel in jedem Fall nur ein Schätzwert, da der Klassenmittelpunkt immer unter der (in der Regel unrealistischen) Annahme bestimmt wird, dass die einzelnen zu einem Intervall zusammengefassten Beobachtungswerte gleichmäßig über das gesamte Intervall verteilt sind. Die drei behandelten Maße der zentralen Tendenz einer univariaten Verteilung lassen sich in ihrem Verhältnis zueinander wie folgt charakterisieren: - Alle drei Werte zielen darauf ab, die gesamte Information innerhalb einer Beobachtungsreihe auf einen einzigen „typischen“ Wert zu reduzieren. - „Typisch“ wird für das statistische Modell „Modus“ interpretiert als „am häufigsten vorkommend“, für den Median als „in der Mitte einer geordneten Reihe liegend“ und für das arithmetische Mittel als „den Schwerpunkt der gesamten Werte darstellend“. Vorteile des arithmetischen Mittels Nachteile des arithmetischen Mittels BEISPIEL Vergleich der Maße <?page no="416"?> 417 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 417 - Bei Daten, aus denen ein arithmetisches Mittel berechnet werden darf, die also mindestens intervallskaliert sind, können auch der Median (Zentralwert) und der Modus bestimmt werden. Die drei Maße stellen jedoch jeweils eine andere Information in den Vordergrund und weisen daher normalerweise unterschiedliche Zahlenwerte auf. Die Entscheidung für eines dieser Maße muss also von der Fragestellung der Auswertung her begründet werden. - Lediglich im Sonderfall einer eingipfeligen und vollkommen symmetrischen Verteilung fallen x, x z und x M zusammen. - Bei asymmetrischen eingipfeligen Verteilungen liegt der Modus immer genau unter dem Gipfelpunkt der Kurve. Median und arithmetisches Mittel liegen auf der flacheren Seite, wobei das arithmetische Mittel, da es von den extremen Werten der Verteilung stark beeinflusst wird, den größeren Abstand vom Modus aufweist (siehe Abbildung): 8.2.4 Streuungsmaße Mit den Maßen der zentralen Tendenz sollte die Frage beantwortet werden: Welches ist der „typische Wert“ (Mittelwert) einer univariaten Verteilung? Bei den Maßen für die Kennzeichnung der Streuung der einzelnen Merkmalsausprägungen (Variabilität, Variation, Dispersion) geht es dagegen um die Frage: „Wie typisch ist der errechnete Mittelwert für die Gesamtreihe der Messwerte? Die einfache Überlegung ist: Je geringer die Messwerte um den Mittelwert streuen, um so „typischer“ ist der Mittelwert, d. h. umso treffender charakterisiert er die Verteilung. Streuungsmaße können insofern als „Gütemaße“ für Mittelwerte verstanden werden. Zur Charakterisierung einer Verteilung durch einzelne Kennziffern empfiehlt es sich also, nicht nur den Mittelwert (x, x z oder x M ) anzugeben, sondern zusätzlich ein Maß für die Streuung. Die deskriptive Statistik kennt unterschiedliche Modelle, um die Streuung innerhalb einer Messwertereihe abzubilden. Es existieren: a) Maßzahlen, die die Differenzen aller Einzelwerte untereinander berücksichtigen; sie sind sehr rechenaufwändig und haben in der angewandten Statistik geringe Bedeutung; sie werden in diesem Text nicht behandelt; b) Maßzahlen, die die Abweichungen einzelner Positionswerte voneinander angeben („lagetypische“ Streuungsmaße): Zu diesen gehören der Range, der Quartils- und der Semiquartilsabstand; Streuungsmaß als-Gütemaß für Mittelwerte Arten von Streuungsmaßen x M < x Z < x rechtsschiefe Verteilung linksschiefe Verteilung x < x Z < x M Abbildung 8.4: Mittelwerte in Verteilungen <?page no="417"?> 418 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 418 c) Maßzahlen, die auf der Basis der Differenzen zwischen den Einzelwerten und einem Mittelwert berechnet werden; hierzu zählen die durchschnittliche lineare Abweichung, die Varianz und die Standardabweichung. Range / Spannweite Das einfachste Streuungsmaß ist die Spanne zwischen den Grenzwerten der gesamten Reihe. Sie wird Spannweite, Variationsbreite oder Range genannt: Formel (7): Range =-max(x i )-- min(x i ). Die Nachteile dieses Koeffizienten sind: - Die Lage der extremen Werte einer Reihe kann für die Streuung innerhalb der gesamten Reihe völlig nichtssagend sein; die Extremwerte können stark von Zufallseinflüssen abhängen. - Die Angabe in absoluten Werten macht einen Vergleich zwischen verschiedenen Messreihen schwer. - Trotz des geringen Informationswertes verlangt dieses Streuungsmaß mindestens intervallskalierte Daten (es wird ja eine Differenz berechnet). Quartilsabstand Der zuerst genannte Nachteil des Range wird vermieden, wenn die „Ausreißer“ nach oben und unten bei der Berechnung unberücksichtigt bleiben. Beispielsweise könnte man sich dafür entscheiden, die oberen 10 % sowie die unteren 10 % der Fälle als „untypisch“ für die Beobachtungsreihe außer Betracht zu lassen. Das am weitesten verbreitete lagetypische Streuungsmaß, das auf dieser Überlegung beruht, ist der Quartilsabstand. Er lässt die 25 % niedrigsten und die 25 % höchsten Messwerte unberücksichtigt und ist daher definiert durch die Differenz zwischen dem 1. und dem 3. Quartil: Formel (8): Q =-Q 3 -- Q 1 . Der Quartilsabstand sagt also aus, wie groß das Werte-Intervall ist, das die „mittleren“ 50 % aller Fälle einer Beobachtungsreihe umfasst. Auch für den Quartilsabstand bleibt als Nachteil festzuhalten, dass der Vergleich zwischen verschiedenen Messwertreihen dadurch erschwert wird, dass die Angabe des Abstandes in absoluten Werten erfolgt. Voraussetzung seiner Anwendung sind-- da eine Differenz zwischen zwei Skalenpunkten bestimmt wird-- intervallskalierte Daten. Die Charakterisierung der Streuung ist jedoch auch bei ordinalskalierten Messwerten möglich, wenn man statt der Differenz die beiden Positionswerte Q 1 und Q 3 angibt, so dass auch hier die Interpretation möglich ist: 50 % der gemessenen Merkmalsausprägungen unterschreiten nicht Q 1 und überschreiten nicht Q 3 , liegen also innerhalb deren Grenzen. Zusammen mit dem Median (x z ) ergeben diese Kennwerte bereits wesentliche und anschauliche Informationen über eine Verteilung. Spannweite Quartilsabstand <?page no="418"?> 419 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 419 Zur Illustration sei wieder auf das Beispiel der Vermögensverteilung (s. o., Tabelle 8.10) zurückgegriffen. Bei analoger Anwendung der Formel (5)-- Median für klassierte Werte-- ergibt sich für sowie für Der Quartilsabstand Q 3 -Q 1 beträgt also 96.977-9.875 =-87.102 DM. Demnach befinden sich die 50 % „mittelvermögenden“ Haushalte in einem Intervall von 87.102 DM. Berechnet man zusätzlich den Median (hier 30.125 DM), kann man daraus die zusätzliche Information entnehmen, dass die Verteilung stark linkssteil ist (der Abstand von Q 1 zum Median ist erheblich kleiner als der Abstand von Q 3 zum Median): Relativ viele Haushalte haben also nur geringe Vermögen, und relativ wenige Haushalte haben hohe Vermögen. Von verschiedenen Statistikern wird anstelle des Quartilsabstands der Semiquartilsabstand empfohlen, der jedoch keine zusätzlichen Informationen vermittelt: Formel (9): Mittlere lineare Abweichung Von den Streuungsmaßzahlen, die auf der Überlegung beruhen, dass die Differenzen zwischen den Messwerten und einem Mittelwert als Basis zur Kennzeichnung der Variation dienen können, 308 ist die mittlere lineare Abweichung „d“ (engl.: mean deviation) am einfachsten zu berechnen und zu interpretieren. Die mittlere lineare Abweichung ist definiert als das arithmetische Mittel der Abweichungen aller Messwerte vom Mittelwert (üblicherweise vom arithmetischen Mittel) ohne Berücksichtigung der Vorzeichen: Formel (10): 308 Bei den zuvor behandelten lagetypischen Streuungsmaßen wird im Unterschied dazu die Differenz zwischen zwei Positionswerten zur Beschreibung der Streuung herangezogen, d. h. die Differenz zwischen zwei Werten, die einen bestimmten Platz in der geordneten Reihe der Beobachtungswerte einnehmen. Für nominalskalierte Variablen, die eine solche Ordnung der Ausprägungen nicht zulassen, gibt es keine Streuungsmaße. BEISPIEL Q 1 ¼ 5 : 000 þ 5,4 � 4,1 8,0  30 : 000 ¼ 5 : 000 þ 4 : 875 ¼ 9 : 875 DM Q 2 ¼ 35 : 000 þ 16,2 � 12,1 4,3  65 : 000 ¼ 35 : 000 þ 61 : 977 DM ¼ 96 : 977 DM : Q 1 = 2 ¼ Q 3 � Q 1 2 d ¼ 1 n  X n i ¼ 1 j x i � x j <?page no="419"?> 420 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 420 Die mittlere lineare Abweichung vom arithmetischen Mittel wird in der Praxis selten benutzt, die ebenfalls mögliche mittlere lineare Abweichung vom Median fast überhaupt nicht. Dennoch sind diese Maße für Zwecke der beschreibenden Statistik brauchbare und anschaulich interpretierbare Kennziffern zur Messung der Streuung. Varianz und Standardabweichung Außerordentliche Bedeutung hat dagegen ein sehr ähnlich konstruiertes Streuungsmaß, die Varianz. Die Varianz (s 2 ) ist die mittlere quadratische Abweichung der Messwerte vom arithmetischen Mittel. Fast ebenso verbreitet ist die-- in Einheiten des gemessenen Merkmals interpretierbare-- Standardabweichung. Die Standardabweichung (s) ist die Quadratwurzel aus der Varianz. Im Unterschied zur mittleren linearen Abweichung wird nicht der Durchschnitt aller Absolutbeträge der Differenzen zwischen den Einzelmesswerten und dem arithmetischen Mittel berechnet, sondern der Durchschnitt der quadrierten Differenzen zwischen den Einzelmesswerten und dem arithmetischen Mittel (Abweichungsquadrate). Das hat zur Konsequenz, dass größere Abweichungen vom Mittelwert erheblich stärker ins Gewicht fallen als kleinere Abweichungen. Der Unterschied zur mittleren linearen Abweichung besteht also in der Gewichtung der Abweichungen. Während bei der Maßzahl „d“ alle Abweichungen genau proportional zu ihrem absoluten Abweichungsbetrag in die Rechnung eingehen, kommt bei der Berechnung der Varianz als zusätzliche Gewichtungsoperation das Quadrieren der Abweichungsbeträge hinzu, so dass größere Abweichungen gegenüber kleineren überproportional berücksichtigt werden. Diese „Verzerrung“ ist erwünscht: In der durch die Messwerte abgebildeten Realität ist es nämlich oft relativ unerheblich, wenn zahlreiche kleinere Abweichungen vom Mittelwert vorkommen; dagegen kann das Auftreten einiger weniger großer „Ausreißer“ von erheblicher Bedeutung sein. Wenn dies der Fall ist, dann ist es sinnvoll, ein Streuungsmaß zu verwenden, das große Abweichungen überproportional gewichtet. Ein Handelsunternehmen will aus den monatlichen Verkaufszahlen des abgelaufenen Geschäftsjahres für jede Filiale seiner Handelskette den durchschnittlichen Verkauf pro Monat sowie die Streuung um den Durchschnitt berechnen. Welcher Mittelwert und welches Dispersionsmaß sind geeignet? Da jeder einzelne Monatsumsatz für das Geschäftsergebnis zählt (besonders hohe und besonders niedrige Verkaufserfolge in einzelnen Monaten also nicht als „Ausreißer“ außer Betracht bleiben dürfen), bietet sich als Durchschnittswert das arith- Definition: Varianz Definition: Standardabweichung Durchschnitt der quadrierten Differenzen BEISPIEL <?page no="420"?> 421 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 421 metische Mittel an. Für die Entscheidung über das Streuungsmaß kommt es nun darauf an, ob eine Reihe kleiner oder mittlerer Abweichungsbeträge für die Fragestellung, deretwegen man die Statistik berechnet, das gleiche Gewicht haben wie ein einzelner besonders großer Abweichungsbetrag. Nehmen wir an, der Unternehmer wolle sich anhand der Statistiken darüber informieren, wie erfolgreich die einzelnen Filialen verkauft haben. In diesem Fall haben fünf Monate mit einem um jeweils 10.000 € über dem Durchschnitt liegenden Verkaufserlös ein genauso großes Gewicht wie ein Monat, in dem für 50.000 € mehr verkauft wurde. Die durchschnittliche lineare Abweichung erscheint hier als das geeignete Streuungsmaß. Nehmen wir dagegen an, der Unternehmer wolle anhand der monatlichen Verkaufszahlen und deren Variation den erforderlichen Lagerbestand für die jeweiligen Filialen planen. Jetzt sind die Abweichungen vom Monatsdurchschnitt anders einzuschätzen: Ein Monat mit weit überdurchschnittlichem Verkauf könnte dazu führen, dass nicht mehr genügend Ware in ausreichender Auswahl vorrätig ist und dass die Kunden dann langfristig wegbleiben. Monate mit stark unterdurchschnittlichem Verkauf wiederum würden dazu führen, dass das Lager „überquillt“, dass also für neue Saisonartikel nicht ausreichend Platz vorhanden ist; als Folge entstünde die Notwendigkeit, überschüssige Ware als „Sonderangebot“ unter Preis zu verkaufen. Für Zwecke der Entscheidung über die Lagerhaltung hat also eine einzelne besonders große Abweichung vom Mittelwert ein entschieden höheres Gewicht als mehrere kleine Differenzen. In diesem Fall ist ein Streuungsmaß zu wählen, das „Ausreißer“ überproportional gewichtet. Die spezifische Art der Gewichtung durch Quadrieren, wie sie bei der Berechnung der Varianz vorgenommen wird, ist nicht rein willkürlich gewählt worden. Das Streuungsmaß Varianz (sowie die Standardabweichung als Quadratwurzel davon) stammen vielmehr aus der Gleichung der „Normalverteilung“, die in der schließenden Statistik eine überragende Rolle spielt (vgl. Kapitel 6.5). Obwohl in der deskriptiven Statistik anstelle von Varianz und Standardabweichung in manchen Fällen die mittlere lineare Abweichung als Variationsmaß sinnvoll benutzt werden könnte (vgl. obiges Beispiel), hat es sich eingebürgert, generell die Maßzahlen der schließenden Statistik zu verwenden. Wie oben bereits beschrieben, berechnet man die Varianz auf der Basis von Einzelwerten nach der Formel (11a): Sofern eine Häufigkeitsverteilung für geordnete Einzelwerte vorliegt, empfiehlt sich die Anwendung der Formel (11b): s 2 ¼ 1 n  X n i ¼ 1 x i � x ð Þ 2 s 2 ¼ 1 n  X k j ¼ 1 f j x j � x �  2 <?page no="421"?> 422 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 422 Die gleiche Formel ist bei klassierten (zu Intervallen zusammengefassten) Werten anzuwenden. x j sind in diesem Falle die Klassenmitten. Die Standardabweichung gewinnt man als positive Quadratwurzel aus der Varianz. Formel (11c): Die Berechnung soll auch hier wieder am Beispiel der Vermögensverteilung (s. o., Tabelle 8.11) aufgezeigt werden. Es empfiehlt sich in jedem Fall, ausgehend von der verwendeten Formel eine Arbeitstabelle zu erstellen. Bei Anwendung von Formel (11b) hat diese folgendes Aussehen (Spalten 1-5): (1) x j Klassenmitte (2) f j (· 10 6 ) (3) (x j -x) (· 10 3 ) (4) (x j -x) 2 (· 10 10 ) (5) f j (x j -x) 2 (· 10 16 ) (6) f j (|x j -x|) (· 10 9 ) 0 1,8 - 147,5 2,176 3,917 265,50 2.500 2,3 - 145,0 2,103 4,837 333,50 20.000 8,0 - 127,5 1,626 13,008 1020,00 67.500 4,3 - 80,0 0,640 2,752 344,00 300.000 4,6 152,5 2,326 10,700 701,50 1,5 Mio. 0,5 1352,5 182,926 91,463 676,25 6,0 Mio. 0,1 5852,5 3425,176 342,518 585,25 ∑ = 469,195 ∑ = 3926,00 Die Varianz ist demnach: Daraus errechnet sich als Standardabweichung: s = =-4,661 · 10 5 =-466.100 DM. Ein Vergleich mit der mittleren linearen Abweichung zeigt, wie stark sich die überproportionale Gewichtung großer Differenzen (x i -x) durch die Quadrierung auswirkt. Die mittlere lineare Abweichung beträgt für dieselben Daten (vgl. Spalte 6 der Arbeitstabelle): Das Beispiel illustriert, dass Varianz und Standardabweichung relativ umständlich zu berechnen sind. Angesichts der Möglichkeit des Einsatzes von Rechenanlagen und ausgearbeitet vorliegender Datenanalyseprogramme (wie beispielss ¼ ffiffiffiffi s 2 þ p : BEISPIEL Tabelle 8.12: Arbeitstabelle zur Berechnung der Varianz s 2 ¼ 469,195  10 16 21,6  10 6 ¼ 21,722  10 10 ¼ 217,22 Mrd : DM 2 ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi 21,722  10 10 þ p d ¼ 3 : 926,0  10 9 21,6  10 6 ¼ 181,759  10 3 ¼ 181 : 759 DM <?page no="422"?> 423 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 423 weise SPSS) bei umfangreichen Datenmengen fällt dies jedoch kaum ins Gewicht. Im Bereich der schließenden Statistik kann auf diese beiden Streuungsmaße ohnehin nicht verzichtet werden. Variationskoeffizient Wie leicht erkennbar, hängen Varianz und Standardabweichung in ihrer Höhe u. a. von der Maßeinheit ab, in der die Merkmalsausprägungen protokolliert werden: etwa Alter in Jahren oder Monaten, Entfernungen in Meilen oder Kilometern oder Metern, Einkommen in Euro oder Dollar. Mit anderen Worten: Man kann die Streuung zweier Verteilungen nicht direkt vergleichen, sobald die Maßeinheiten unterschiedlich sind. Dies gilt umso mehr, wenn die Variation von Variablen verglichen werden soll, die sich auf verschiedene Eigenschaftsdimensionen beziehen. Für solche Zwecke benötigt man eine Kennzeichnung der Streuung, die erstens unterschiedliche Maßeinheiten ausgleicht, die aber zum anderen auch unabhängig von der gemessenen Merkmalsdimension (also „dimensionslos“) ist. Für vergleichende Fragestellungen dieser Art wurde der Variationskoeffizient entwickelt. Der Variationskoeffizient (V) ist als „relative Standardabweichung“ definiert und entsteht bei Division der Standardabweichung durch das arithmetische Mittel einer Verteilung: Formel (12): Als Beispiel stelle man sich eine fiktive Jugendsportgruppe mit folgender Altersstruktur vor: x j (Jahre) f j 13 4 14 5 15 8 16 3 Berechnet man die Streuung des Merkmals Alter in dieser Gruppe, so erhält man s =-0,975 Jahre. Wäre das Alter in Monaten (statt in Jahren) angegeben, wäre die Streuung s =- 11,7 Monate. Da es sich um die Variation des Merkmals Alter in derselben Gruppe handelt, müssen beide Werte notwendigerweise eine gleichgroße Streuung symbolisieren. Das wird unmittelbar erkennbar, wenn für beide Werte der Variationskoeffizient V bestimmt wird: V 1 =-s (in Jahren) : x (in Jahren) =-0,975 : 14,5 =-0,0672. V 2 =-s (in Monaten) : x (in Monaten) =-11,7 : 174 =-0,0672. Definition: Variationskoeffizient V ¼ s x BEISPIEL <?page no="423"?> 424 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 424 Der Variationskoeffizient V ist (anders als Mittelwert und durchschnittliche lineare Abweichung) nicht in Einheiten des gemessenen Merkmals interpretierbar. 309 Seine „Maßeinheit“ ist das arithmetische Mittel. 310 Seine Aussagekraft gewinnt er erst durch den Vergleich von Variationskoeffizienten für mehrere Verteilungen: Je größer V für eine Merkmalsverteilung ausfällt, desto größer ist relativ zur anderen Verteilung deren Streuung. Dem Variationskoeffizienten ist gegenüber anderen Maßzahlen auch dann der Vorzug zu geben, wenn die Streuung eines Merkmals zu verschiedenen Zeitpunkten verglichen werden soll und wenn zwischen den Vergleichszeitpunkten die Merkmalsausprägungen generell gestiegen oder gefallen sind. Beispielsweise sei das Durchschnittseinkommen der privaten Haushalte (x) zwischen 1980 und 2005 von 3.000 DM auf 2800 Euro gestiegen (1 Euro ≈ 2 DM). Falls nun die Streuung (berechnet als Standardabweichung s)- - angenommen-- 2.100 DM im Jahre 1980 sowie 1960 Euro im Jahre 2005 beträgt, dann ergibt sich für den Koeffizienten s im Jahr 2005 ein niedrigerer Wert als im Jahr 1980. Ist aber auch die Streuung (verstanden als Ungleichverteilung) geringer geworden? In diesem (konstruierten) Beispiel nicht. Der Zunahme von s entspricht keine größere Ungleichheit zwischen den einzelnen Einkommensbeziehern; der Betrag von s ist lediglich genau proportional zu x gesunken: In den Variationskoeffizienten wird dies eindeutig erkennbar: V 1980 =-2100/ 3000 =-0,7; V 2005 =- 1960/ 2800 =- 0,7. Mit anderen Worten: Die Streuung beträgt in den beiden Jahren jeweils 0,7 Mittelwerte. 8.2.5 Messung der Konzentration einer Verteilung Der statistische Begriff der Konzentration hat eine sehr spezifische und gegenüber dem alltäglichen Sprachgebrauch eingeschränkte Bedeutung. Vom alltäglichen Sprachverständnis ausgehend, könnte man sagen, dass auch mit den im vorigen Abschnitt behandelten Streuungsmaßen der Grad der Konzentration einer Verteilung beschrieben wird: Je geringer die Streuung (Dispersion) der beobachteten Merkmalsausprägungen ist, desto stärker „konzentrieren“ sich diese auf einen Teilbereich der möglichen Ausprägungen. Wie wir gesehen haben, wird dabei üblicherweise der Mittelwert 309 Auch die Standardabweichung (als Wurzel aus der Varianz) besitzt die Dimension des gemessenen Merkmals (z. B. Jahre oder Monate im gegebenen Beispiel). Sie ist aber streng genommen nicht „in Einheiten des gemessenen Merkmals“ interpretierbar; ihr Betrag ergibt sich ja dadurch, dass große Abweichungen vom Mittelwert mit überproportionalem Gewicht in die Berechnung eingehen. Wie stark sich dies auswirken kann, zeigt das obige Beispiel der Vermögensverteilung. 310 Im obigen Beispiel: Die Streuung des Merkmals Alter in der Jugendgruppe beträgt 0,0672 Mittelwerte. Vergleichsmöglichkeit BEISPIEL <?page no="424"?> 425 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 425 der Verteilung als Bezugsgröße herangezogen. Die Fragestellung lautet bei den Streuungsmaßen also: Wie liegen die Merkmalsausprägungen der Untersuchungseinheiten (der Elemente der statistisch beschriebenen Menge) zueinander? Insbesondere der Variationskoeffizient (V) ist ein geeignetes Instrument zur Beantwortung der Frage nach der Stärke der Tendenz einer Verteilung, sich um einen Zentralwert (Mittelwert) herum zu gruppieren. Im Zusammenhang dieses Abschnitts wird der Begriff Konzentration allerdings in einem anderen, davon zu unterscheidenden Sinne gebraucht. Es geht nicht darum, wie sich die einzelnen Beobachtungswerte um einen Zentralwert herum verteilen, sondern es geht um die Frage, ob sich große Merkmalsbeträge „geballt“ auf nur wenige (oder relativ wenige) Merkmalsträger „konzentrieren“; z. B. ob relativ wenige Haushalte in einer Volkswirtschaft den Großteil des insgesamt vorhandenen Vermögens besitzen oder ob der Großteil des Gesamtumsatzes einer Branche auf nur wenige Unternehmen entfällt (in Abschnitt 6.4.2 haben Sie diesen Gedankengang bereits als Basis für die Begründung eines spezifischen Modells der Konstruktion einer Stichprobe kennengelernt: „Auswahl nach dem Konzentrationsprinzip“). Ausgehend von einer Menge von Untersuchungseinheiten und der dazugehörigen Gesamtsumme der Ausprägungen eines Merkmals wird gefragt, wie sich diese Merkmalssumme auf einzelne Merkmalsträger (oder Gruppen von Merkmalsträgern) aufteilt. Unter Konzentration versteht man die (ungleiche) Verteilung der Merkmalssumme eines Erhebungsmerkmals auf die Merkmalsträger. Eine Anzahl von Gemeinden (kurz: n Gemeinden) und deren gesamte Einwohnerzahl oder n Gemeinden und deren gesamte Ausgaben für das weiterführende Schulwesen; n Industriebetriebe einer Branche und der gesamte Jahresumsatz dieser Branche oder n Industriebetriebe und die Gesamtzahl der Beschäftigten; n Einkommensbezieher und die Gesamtsumme der Monatseinkünfte dieser Personen; n Tageszeitungen und die gesamte tägliche Auflagenstärke dieser Tageszeitungen: In allen diesen Fällen kann es für bestimmte Zwecke wichtig sein zu wissen, ob einige wenige Merkmalsträger über einen Großteil der gesamten Merkmalssumme verfügen: ob es Gemeinden gibt, in denen ein erheblicher Teil der Gesamtbewohner eines Staates leben („Großstädte“); ob es Industriebetriebe gibt, die einen erheblichen Teil des Gesamtumsatzes ihrer Branche auf sich vereinigen („Marktführer“) etc. Die Verteilung der Merkmalsbeträge auf die Untersuchungseinheiten kann demnach so sein, dass sich bei wenigen ein Großteil der Merkmalssumme konzentriert (dann sprechen wir von „Disparität“). Die Verteilung könnte aber auch so sein, dass die Merkmalssumme gleichmäßig auf alle Merkmalsträger aufgeteilt ist („Gleichverteilung“). Konzentration Definition: Konzentration BEISPIELE Disparität / Gleichverteilung <?page no="425"?> 426 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 426 „Wenige“ kann in diesem Zusammenhang bedeuten: - „absolut wenige“, d. h. abzählbar wenige, etwa drei bis sechs Merkmalsträger; oder: - „relativ wenige“, d. h. ein geringer Prozentanteil der Merkmalsträger. a) 2014 hatten in der Bundesrepublik Deutschland die vier größten Konzerne der Stahlindustrie zusammen einen Anteil von 76 % an der Gesamtproduktion ihrer Branche. Oder: 1992 wohnten in den drei größten der 16 deutschen Bundesländer (NRW, Bayern und Baden-Württemberg) 48,8 % der Gesamtbevölkerung und erwirtschafteten 55,4 % des gesamten Bruttoinlandsprodukts; 2002 waren die entsprechenden Anteile nahezu unverändert: 49,8 % und 54,1 %. 311 b) In der Bundesrepublik verfügten 1966 1,7 Prozent der Haushalte über rund 75 Prozent des Produktivvermögens; 312 oder: Die Betriebe im Bauhauptgewerbe mit 20 und mehr Beschäftigten (=-9,5 % der Betriebe) erzielten 2008 66,5 % des Umsatzes ihrer Branche; 1988 waren dies 16 % der Betriebe, auf die sich 74 % des Umsatzes konzentrierte. 313 Im Fall a) wird etwas ausgesagt über die Konzentration eines großen Teils des Produktionsvolumens einer Branche auf (in absoluten Zahlen) sehr wenige Konzerne, nämlich vier (bzw. über die Konzentration eines großen Teils von Bevölkerung und Sozialprodukt auf wenige Bundesländer). Man spricht von absoluter Konzentration. Im Fall b) dagegen wird etwas über die Konzentration des Produktivvermögens bzw. des Umsatzes in der Bauwirtschaft bei relativ wenigen Einheiten ausgesagt: Auf einen geringen Bevölkerungsanteil (auf relativ wenige Haushalte) entfällt ein großer Anteil am Produktivvermögen; bzw. auf einen vergleichsweise geringen Anteil von Betrieben (auf relativ wenige Betriebe) entfällt ein hoher Anteil am Umsatz. In absoluten Zahlen ausgedrückt, handelt es sich hier dennoch um ziemlich viele Haushalte bzw. um ziemlich viele Betriebe. Man spricht von relativer Konzentration. Will man Maßzahlen zur Bestimmung der Stärke der Konzentration (bzw. Disparität) konstruieren, sind zunächst die beiden möglichen Grenzwerte „keine Konzentration“ und „stärkst mögliche Konzentration“ zu definieren: - Keine Konzentration liegt vor, wenn die Merkmalssumme gleichmäßig auf alle Untersuchungseinheiten aufgeteilt ist, d. h. wenn jeder Merkmalsträger dieselbe Merkmalsausprägung aufweist. 311 Quellen: Wirtschaftsvereinigung Stahl, Stahlinstitut VDEh: Fakten zur Stahlindustrie in Deutschland 2014, Düsseldorf; sowie Fischer Weltalmanach 2004. 312 Vgl. Jaeggi, Urs, 1973: Kapital und Arbeit in der Bundesrepublik. Frankfurt/ M., 69 ff.; für neuere Zahlen s. Thiele, Silke, 2000: Chancen der Beteiligung privater Haushalte m Produktivvermögen, working paper EWP 0007, Universität Kiel (http: / / opus.zbw-kiel.de/ volltexte/ 2005/ 3692/ ); siehe auch www.wirtschaftslexikon24.com. 313 Quelle: Statistische Jahrbücher für die Bundesrepublik Deutschland. BEISPIELE absolute Konzentration relative Konzentration Grenzwerte von Konzentration <?page no="426"?> 427 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 427 - Die stärkst mögliche Konzentration liegt vor, wenn ein einziger Merkmalsträger die gesamte Merkmalssumme auf sich vereinigt und alle übrigen die Merkmalsausprägung Null aufweisen; etwa: ein einziges Unternehmen vereinigt sämtliche lohnabhängig Beschäftigten einer Branche auf sich, alle übrigen Unternehmen sind Familienbetriebe ohne zusätzlich beschäftigte Arbeitskräfte. Absolute Konzentration Eine verbreitete Art der Darstellung und Messung der absoluten Konzentration ist vom Prinzip her sehr einfach: Man ordnet die Merkmalsträger in der Reihenfolge der Größe ihres Merkmalsbetrages, wählt die m größten aus, bestimmt deren Anteile an der Gesamtsumme des Merkmals (d i =- x i / Σx i ) und kumuliert diese Anteile. Der kumulierte Anteilswert sei hier (in Anlehnung an Wagenführ 1971, 134) als kumulierter Konzentrationsanteil bezeichnet (von anderen Autoren auch „Konzentrationsrate“ genannt): Formel (13): Man gelangt so zu Aussagen wie im obigen Beispiel zu a). Für die grafische Darstellung eignet sich der Polygonzug der kumulierten Anteile. Unternehmen 2008 Mio. Euro d j d cj 2009 Mio. Euro d j d cj Edeka-Gruppe 37294 0,168 0,168 42980 0,195 0,195 Rewe-Gruppe 34945 0,157 0,325 36627 0,163 0,358 Metro-Gruppe 32137 0,145 0,470 31165 0,139 0,497 Schwarz-Gruppe 26500 0,119 0,589 27550 0,123 0,620 Aldi-Gruppe 24500 0,110 0,699 25100 0,112 0,732 Tengelmann-Gruppe 14001 0,063 0,762 7188 0,032 0,764 Lekkerland 7904 0,036 0,798 7900 0,035 0,799 Schlecker 5115 0,023 0,821 5000 0,022 0,821 Karstadt 4400 0,020 0,841 4300 0,019 0,840 Globus 3942 0,018 0,859 4181 0,019 0,859 dm 3361 0,015 0,874 3700 0,016 0,875 Rossmann 2902 0,013 0,887 3171 0,014 0,889 : : (übrige) : Insgesamt 222.228 1,000 224.433 1,000 Bestimmung der absoluten Konzentration K cum ¼ X m i ¼ 1 d i  BEISPIEL Tabelle 8.13: Lebensmitteleinzelhandel in Deutschland Quelle: TradeDimensions 2010: Die TOP 30 des Lebensmittelhandels nach Gesamt-Umsätzen (aus Vorlesungsmaterialien von Prof. Dr. H. Schröder, DH_33_ Gesamtwirtschaftliche_ Betrachtung _der_ Gueterdistribution.pdf, www.wiwi.uni-due.de). <?page no="427"?> 428 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 428 Zum Ausmaß der absoluten Konzentration kann man sagen, dass 2008 die drei größten Lebensmittelketten 47,0 % des Gesamtumsatzes ihrer Branche getätigt haben, die „Top Five“ erzielten 69,9 % des Umsatzes. Auch ein Vergleich der Konzentration zu verschiedenen Zeitpunkten („dynamische“ Konzentrationsbetrachtung) ist unmittelbar möglich: Von 2008 auf 2009 hat sich der Anteil der drei größten Unternehmen am Gesamtumsatz ihrer Branche von 47,0 auf 49,7 % weiter erhöht („Top Five“: von 69,9 auf 73,2 %). 314 Der Nachteil dieser Betrachtungsweise liegt darin, dass zum einen die Zahl der „größten Fälle“, über die die Merkmalsanteile kumuliert werden, willkürlich festgesetzt werden muss. Außerdem sagt der kumulierte Konzentrationsanteil der m größten Merkmalsträger nichts darüber aus, wie viele Merkmalsträger es insgesamt gibt. Letzteres ist jedoch bei einem Vergleich von Konzentrationsanteilen nicht unwichtig. 315 Wenn in einer Region drei Grundeigentümern 50 % des gesamten Grund und Bodens gehören, dann ist dieses Faktum unterschiedlich zu beurteilen, je nachdem, ob insgesamt nur 10 oder ob insgesamt 1000 Grundeigentümer existieren. Und falls zwischen zwei Zeitpunkten zwar der Anteil der drei größten Grundeigentümer unverändert bei 50 % geblieben ist, die Gesamtzahl derjenigen, denen Grund und Boden gehört, sich aber von 1000 auf vielleicht 720 verringert hat, dann ist offenbar die Konzentration gestiegen, ohne dass sich dies im Konzentrationsanteil widerspiegelt. Als aussagekräftiger werden daher von manchen Statistikern sogenannte „summarische Konzentrationsmaße“ vorgeschlagen, von denen hier lediglich der Hirschmann-Index (von einigen Autoren auch Herfindahl-Index genannt) vorgestellt werden soll. Hierbei wird für jede Untersuchungseinheit deren Merkmalsanteil an der Gesamtsumme aller Merkmale bestimmt (d i ; s. o.). Diese Konzentrationsanteile werden anschließend quadriert und über alle Fälle addiert: Formel (14a): Der Hirschmannbzw. Herfindahl-Index kann Werte im Intervall 1 / n ≤ K H ≤ 1 annehmen. 314 Auf solche Daten schaut beispielsweise das Bundeskartellamt, wenn es um die Entscheidung geht, ob etwa die marktführende Edeka-Gruppe zusätzlich noch die Tengelmann-Filialen übernehmen darf. 315 So hat sich nach den Erhebungen des Marktforschungsinstituts M+M Eurodata in der (alten) BRD zwischen 1974 und 1997 die Anzahl der Handelsunternehmen mit Vollsortiment von 704 auf 124 verringert (s. www.mm-eurodata.de). BEISPIEL Hirschmann-Index K H ¼ X n i ¼ 1 d 2 i mit d i ¼ x i P x i <?page no="428"?> 429 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 429 Die untere Grenze (keine Konzentration) wird erreicht, wenn alle d i - =- 1 / n sind, d. h. wenn der Merkmalsgesamtbetrag auf alle Untersuchungseinheiten gleich verteilt ist. Dann gilt: K H =-Σ ( 1 / n ) 2 =- n·( 1 / n 2 ) =- 1 / n . Die Obergrenze (stärkst mögliche Konzentration) wird erreicht, wenn x i =-0 (d. h. d i =-0) für i =-1 bis n-1 und x i =-Σx i für i =-n (d. h. d i -=-1; eine Untersuchungseinheit vereinigt den gesamten Merkmalsbetrag auf sich). Dann gilt K H =- d 2 n =- 0 + 0 +…+ 0 + 1 2 =-1. K H wird als ein Maß für die Kennzeichnung der absoluten Konzentration angesehen, da es-- bedingt durch die Quadrierung der d i -- Untersuchungseinheiten mit großen Konzentrationsanteilen überproportional gewichtet. Gegenüber der einfachen Kumulierung der Konzentrationsanteile (K cum ) hat es den Vorteil, dass es auch die Zahl der Fälle sowie Veränderungen der Konzentration unterhalb der jeweils m größten Merkmalsträger mitberücksichtigt. Sein Nachteil ist die geringere Anschaulichkeit im Vergleich zum kumulierten Konzentrationsanteil. Relative Konzentration Die gebräuchlichste Art der Darstellung der relativen Konzentration eines Merkmals ist die sogenannte Lorenz-Kurve, genannt nach dem amerikanischen Statistiker Max Otto Lorenz, der sie entwickelt und erstmals 1904/ 05 vorgestellt hat. Hierbei werden in einem Koordinatensystem für Gruppen von Untersuchungseinheiten zwei Aspekte der Verteilung einer Variablen gegenübergestellt: Auf der Abszisse erscheinen für die Gruppen von Untersuchungseinheiten (geordnet nach der Größe des Merkmalsbetrags, beginnend mit den kleinsten Merkmalsausprägungen) deren kumulierte relative Häufigkeiten (f ' cj ; vgl. Abschnitt 8.2.1). Auf der Ordinate erscheinen die zugehörigen kumulierten Anteile an der Merkmalssumme. Lorenz-Kurve kumulierte Konzentrationsanteile (z. B. Vermögensanteile von Gruppen von Haushalten am Gesamtvermögen 0,2 0,4 0,6 0,8 1,0 D cj f ’ cj kumulierte relative Häugkeiten (z. B. Anteile von Gruppen von Haushalten an der Gesamtzahl der Haushalte) 1,0 0,8 0,6 0,4 0,2 0 Abbildung 8.5: Koordinatensystem zur Erstellung der Lorenz-Kurve <?page no="429"?> 430 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 430 Im Falle von Einzelwerten wären dies die (s. o., Formel 13). Normalerweise wird die Lorenz-Kurve auf der Basis klassierter Werte erstellt. 316 In diesem Fall wird zur Unterscheidung die Kennzeichnung gewählt. 317 Die Konstruktion des Lorenz-Kurven-Schemas anhand vorgegebener Daten wird im Folgenden an den bereits bekannten Beispielen der Verteilung des Vermögens (Tabelle 8.6 und 8.11) sowie des Erwerbs- und Vermögenseinkommens (Tabelle 8.8) erläutert. Die Fragestellung sei: Weist die Verteilung des Vermögens eine stärkere Konzentration auf als die Einkommensverteilung? Um diese Frage zu beantworten, soll das Ausmaß der relativen Konzentration beider Verteilungen in einem gemeinsamen Diagramm vergleichend gegenübergestellt werden. Zur Ermittlung der Werte f' cj und D cj ist es wieder empfehlenswert, auf der Grundlage der obigen Angaben eine übersichtliche Arbeitstabelle zu erstellen. Die f’ cj -Werte erhält man über die Zwischenschritte f j und f' j . Für die D cj -Werte werden zusätzlich die Klassenmitten x j , die Merkmalsbeträge je Klasse x j f j sowie die relativen Anteile jeder Klasse am Gesamtmerkmalsbetrag D j =-x j f j / Σx j f j benötigt. Daraus folgt zunächst für die Vermögensverteilung: Vermögensklassen (DM) f j (in Mio) f ’ j f ’ cj x j (in 1000) x j f j (in Mrd.) D j D cj 0 1,8 0,083 0,083 0,0 0,0 0,0 0,0 bis 5.000 2,3 0,107 0,190 2,5 5,75 0,002 0,002 üb. 5.000-- 35.000 8,0 0,370 0,560 20,0 160,0 0,050 0,052 üb. 35.000 -100.000 4,3 0,199 0,759 67,5 290,25 0,091 0,143 üb. 100.000-- 0,5 Mio. 4,6 0,213 0,972 300,0 1380,0 0,433 0,576 üb. 0,5 Mio.-- 2,5 Mio. 0,5 0,023 0,995 1500,0 750,0 0,236 0,812 üb. 2,5 Mio. 0,1 0,005 1,000 6000,0 600,0 0,188 1,000 21,6 3186,0 316 Lediglich im Falle einer sehr geringen Zahl von Untersuchungseinheiten ist es praktikabel, die relative Konzentration auf der Basis von Einzelwerten grafisch darzustellen. 317 Die Kennzeichnung d j beim Hirschmann/ Herfindahl-Index bezieht sich dagegen auf den Anteil des Klassenmittelpunktes am Gesamtbetrag: d j =- x j / Σx j ·f j . Für die Erstellung der Lorenz-Kurve wird der Anteil des auf die jeweilige Klasse entfallenden Merkmalsbetrags am Gesamtbetrag benötigt: D j =-x j f j / Σx j f j . d ci ¼ X n i ¼ 1 d i mit d i ¼ x i P x i D cj ¼ X k j ¼ 1 D j mit D j ¼ x j  f j P x j f j BEISPIEL Tabelle 8.14: Arbeitstabelle zur Berechnung der Lorenz-Kurve (Vermögensverteilung) <?page no="430"?> 431 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 431 In gleicher Weise wird mit den Daten des Bruttoerwerbs- und Vermögenseinkommens der privaten Haushalte 1978 eine Arbeitstabelle erstellt: Monatliches Haushaltseinkommen (von-… bis unter-… DM) f j (in Mio) f ’ j f ’ cj x j (in 1000) x j f j (in Mrd.) D j D cj unter 1.000 6,765 0,291 0,291 0,5 3,4 0,044 0,044 1.000-- 2.000 3,088 0,133 0,424 1,5 4,6 0,059 0,103 2.000-- 3.000 3,194 0,137 0,561 2,5 8,0 0,103 0,206 3.000-- 4.000 2,808 0,121 0,682 3,5 9,8 0,126 0,332 4.000-- 5.000 2,498 0,107 0,789 4,5 11,2 0,144 0,476 5.000-- 7.000 2,561 0,110 0,899 6,0 15,4 0,198 0,674 7.000-- 10.000 1,530 0,065 0,964 8,5 13,0 0,167 0,841 10.000 o. mehr 0,831 0,036 1,000 (15,0) 318 12,4 0,159 1,000 23,275 77,8 Die jeweiligen Wertepaare (f' cj , D cj ) werden im Koordinatensystem durch Punkte repräsentiert und anschließend durch Geraden miteinander verbunden. Um abschätzen zu können, in welchem Ausmaß die so erhaltenen Kurven die relative Konzentration des jeweiligen Merkmals widerspiegeln, sind allerdings noch die beiden Vergleichsmaßstäbe „keine Konzentration“ und „stärkst mögliche Konzentration“ erforderlich: a) Die Situation der Gleichverteilung des Gesamtbetrags über alle Merkmalsträger würde sich in den obigen Werte-Tabellen so niederschlagen, dass sämtliche f' cj - Werte mit den zugehörigen D cj -Werten identisch wären. Das heißt: Wenn jeder Merkmalsträger den gleichen Anteil am Gesamtbetrag hat, dann haben z. B. 10 % der Merkmalsträger genau 10 % der Gesamtmerkmalssumme, 50 % der Merkmalsträger genau 50 % der Gesamtmerkmalssumme usw. Alle Wertepaare (f' cj , D cj ) lägen dann auf einer Diagonalen, beginnend mit den Koordinaten (0,0) und endend mit den Koordinaten (1,1); in der Abbildung unten die Strecke OA b) Die Situation, dass sich der gesamte Merkmalsbetrag auf einen einzigen Merkmalsträger konzentriert und alle anderen Elemente überhaupt keinen Anteil am Merkmalsbetrag haben, würde sich in den obigen Werte-Tabellen so niederschlagen, dass die D cj -Werte bis zum Merkmalsträger n-1 bei 0 verbleiben, während die f' cj -Werte bis auf annähernd 1 anwachsen. Für den Merkmalsträger n würde dann 318 Für das obere Intervall ist zwar die Klassenobergrenze nicht angegeben. Die Klassenmitte ist jedoch wiederum indirekt bestimmbar, da als Gesamtsumme der Bruttoerwerbs- und Vermögenseinkommen für 1978 der Betrag von 933,9Mrd. DM in der verwendeten Quelle genannt ist (=-77,825 Mrd. im Monatsdurchschnitt). Tabelle 8.15: Arbeitstabelle zur Berechnung der Lorenz-Kurve (Einkommensverteilung) Lorenz-Kurve: Gleichverteilung Lorenz-Kurve: maximale Konzentration <?page no="431"?> 432 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 432 der D cj -Wert auf genau 1,0 springen. Im Falle einer Darstellung der Konzentration auf der Basis von unendlich vielen Einzelwerten entspräche dieser Situation stärkst möglicher Konzentration die Strecke OBA im Koordinatensystem. Das vollständige Lorenz-Kurven-Koordinatensystem, wie es sich nach den Werten der Tabellen 8.14 und 8.15 ergibt, hat das folgende Aussehen: Die Lorenz-Kurve beginnt beim Wertepaar 0; 0 (0 % der Merkmalsträger haben 0 % der Merkmalssumme), und sie endet beim Wertepaar 1; 1 (100 % der Merkmalsträger vereinigen 100 % der Merkmalssumme auf sich). Je näher die empirisch ermittelte Konzentrationskurve an der Diagonalen OA liegt, um so geringer ist die relative Konzentration; je näher sie an die Strecke OBA rückt, um so stärker ausgeprägt ist die relative Konzentration. Die grafische Darstellung mittels mehrerer Lorenz-Kurven in einem Diagramm eignet sich besonders gut zur Visualisierung des unterschiedlichen Grades der Konzentration verschiedener Merkmale (s. o.) oder auch der zeitlichen Entwicklung der Konzentration eines Merkmals. 319 319 So zeigt z. B. Silke Thiele (2000) mit diesem Instrument sehr anschaulich die Entwicklung der Verteilung des Geldvermögens privater Haushalte 1973, 1983 und 1993 als deutliche Tendenz zur Verstärkung der Ungleichheit. Weitere Beispiele finden sich in einem umfangreichen Forschungsbericht von Ammermüller u. a. (2005) zur Entwicklung des Produktivvermögens. Vergleich von Lorenz-Kurven D cj f cj Vermögensverteilung Einkommensverteilung B A 0,6 0,4 0 1,0 0,2 0,8 0,2 0,4 0,6 0,8 1,0 OA = keine Konzentration OBA = größtmögliche Konzentration Abbildung 8.6: Lorenz-Kurve <?page no="432"?> 433 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 433 Aus dem Kurvenverlauf in der obigen Abbildung ist auf einen Blick zu entnehmen, dass die Verteilung der Vermögen in der BRD eine erheblich stärkere Konzentration auf relativ wenige Haushalte aufweist als die Verteilung der Bruttoeinkommen. Nicht unmittelbar ablesbar ist dagegen, wie viel stärker die Konzentration der einen gegenüber der anderen Verteilung ist. Für diese Fragestellung-- Messung des Stärke der relativen Konzentration-- wurde auf der Basis der grafischen Darstellung eine spezifische Maßzahl entwickelt, das Lorenzkurvenmaß, manchmal auch Konzentrationsverhältnis genannt. 320 Es ist definiert als das Verhältnis der empirischen Abweichung von der Gleichverteilung zur maximal möglichen Abweichung. Es nimmt dementsprechend im Falle völliger Gleichverteilung (keine Konzentration) den Wert 0 an und geht im Falle stärkst möglicher Konzentration gegen den Grenzwert 1. Die Herleitung einer Formel zur Berechnung des Lorenzkurvenmaßes lässt sich anhand der Abbildung 8.7 veranschaulichen. Darin ist F 1 die Fläche zwischen der Lorenzkurve und der Gleichverteilungsdiagonalen OA, F 2 die Fläche zwischen der Lorenzkurve und der Strecke OBA, die die stärkst mögliche Konzentration repräsentiert. 320 Aufgrund anders gearteter Überlegungen haben, ausgehend von Einzelwerten, der italienische Statistiker Gini (1912) und der deutsche Statistiker Münzner (1963) Konzentrationsmaße entwickelt, die in ihrem Ergebnis mit dem Lorenzkurvenmaß übereinstimmen (vgl. Ferschl 1978, 128). Verschiedentlich wird daher in statistischen Veröffentlichungen das Lorenzkurven-Konzentrationsmaß K L (vgl. unten: Formeln 15a-15c) als Ginisches Konzentrationsverhältnis bezeichnet. BEISPIEL Lorenzkurvenmaß VERTIEFUNG Abbildung 8.7: Berechnung des Lorenzkurven- Maßes 0 B F 2 f’ j D cj-1 T j D cj F 1 A          <?page no="433"?> 434 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 434 Die Aussage: „Je näher die empirisch ermittelte Lorenzkurve an der Gleichverteilungsdiagonalen OA liegt, desto geringer ist die relative Konzentration“ ist gleichbedeutend mit der Aussage: „Je kleiner die Fläche F 1 ist, desto geringer ist die relative Konzentration“. Im Falle empirisch ermittelter Gleichverteilung des Merkmals würde F 1 verschwinden. Im Falle stärkst möglicher Konzentration würde F 1 die Gesamtfläche des Dreiecks OBA ausmachen. Das oben definierte Lorenzkurvenmaß ist nun zahlenmäßig beschreibbar als das Verhältnis der Fläche F 1 zur Gesamtfläche des Dreiecks OBA (=-F 1 -+-F 2 ): F 1 ist allerdings aus den gegebenen Werten der kumulierten Verteilungen f' cj und D cj nicht direkt bestimmbar. Anders ist die Situation für die Fläche F 2 ; sie ist im Falle klassierter Werte leicht als die Summe der Trapeze (T j ) zwischen den Streckenabschnitten von OB und den entsprechenden Streckenabschnitten auf der Lorenzkurve zu berechnen. F 1 wird deshalb durch den Ausdruck 0,5---F 2 (=-Dreieck OBA-- F 2 ) ersetzt. Damit ergibt sich: . Aus der obigen Abbildung sind die Werte abzulesen, die zur Berechnung der Trapezfläche erforderlich sind: Grundlinie =-f' j ; Höhe 1 =-D cj-1 ; Höhe 2 =-D cj . Daraus folgt: Wird die Konstante 2 vor dem Summenzeichen gegen die 2 unter dem Bruchstrich gekürzt, erhält man zur Berechnung des Lorenzkurvenmaßes die Formel (15a): Für den Fall gleicher Klassenhäufigkeiten (f' j =-konstant =- 1 / k ) vereinfacht sich diese Formel zu: Formel (15b): K L ¼ F 1 F 1 þ F 2 ¼ F 1 Dreieck OBA bzw : F 1 0,5 da das Dreieck OBA ¼ 1  1 2 ¼ 0,5 : K L ¼ F 1 0,5 ¼ 0,5 � F 2 0,5 ¼ 1 � F 2 0,5 ¼ 1 � 2F 2 ¼ 1 � 2 X T j ð T j ¼ G  H 1 þ H 2 2 Þ T j ¼ f 0 j  D cj � 1 þ D cj 2 und K L ¼ 1 � 2 X k j ¼ 1 T j ¼ 1 � 2 X k j ¼ 1 f 0 j  D cj � 1 þ D cj 2 K L ¼ 1 � X k j ¼ 1 f 0 j D cj � 1 þ D cj �  K L ¼ 1 � 1 k 2 X k � 1 j ¼ 1 D cj þ 1 ! <?page no="434"?> 435 8.2 Univariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 435 Rechenbeispiel: Aus den beiden Arbeitstabellen (Tabellen 8.14 und 8.15) zur Erstellung der Lorenzkurve für die Vermögens- und für die Einkommensverteilung sind die Werte zur Berechnung des Lorenzkurvenmaßes nach Formel (15a) zu entnehmen. Zunächst berechnen wir anschließend wird dieser Wert von 1 subtrahiert. a) Vermögensverteilung: 0,083(0,000 + 0,000) = 0,00 0,107(0,000 + 0,002) = 0,00 0,370(0,002 + 0,052) = 0,02 0,199(0,052 + 0,143) = 0,04 0,213(0,143 + 0,576) = 0,15 0,023(0,576 + 0,812) = 0,03 0,005(0,812 + 1,000) = 0,01 0,25 K L (Vermögensverteilung) =-1-- 0,25 =-0,75 b) Einkommensverteilung: 0,291(0,000 + 0,044) = 0,01 0,133(0,044 + 0,103) = 0,02 0,137(0,103 + 0,206) = 0,04 0,121(0,206 + 0,332) = 0,07 0,107(0,332 + 0,476) = 0,09 0,110(0,476 + 0,674) = 0,13 0,065(0,674 + 0,841) = 0,10 0,036(0,841 + 1,000) = 0,07 0,53 K L (Einkommensverteilung) =-1-- 0,53 =-0,47 Wir sehen aus den K L -Werten, dass die Disparität bei der Verteilung des Vermögens sehr stark ist und 75 % des maximal möglichen Ausmaßes erreicht. Auch die Verteilung der Bruttoeinkommen weist ein beachtliches Maß an Ungleichheit auf; sie liegt etwa auf der Hälfte zwischen den beiden Extrempunkten der Gleichverteilung und der stärkst möglichen Disparität. Die Darstellung der relativen Konzentration in Form der Lorenz-Kurve ebenso wie das numerisch berechnete Lorenzkurvenmaß haben den Vorteil, anschaulich und leicht interpretierbar zu sein. Dem stehen einige Nachteile entgegen, von denen einer bereits in der Definition als Maß der relativen Konzentration begründet liegt. Man stelle sich vor, drei Konzerne seien alleinige Oligopolisten auf dem Chemiemarkt und teilten sich zu je einem Drittel den Gesamtumsatz. In relativer Hinsicht ist dann überhaupt keine Konzentration vorhanden, die Disparität ist gleich Null. BEISPIEL X k j ¼ 1 f 0 j D cj � 1 þ D cj �  ; Nachteile der Lorenz-Kurve <?page no="435"?> 436 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 436 Jeder Ökonom würde jedoch in einem solchen Fall von extremer Konzentration sprechen; d. h. es besteht eine sehr starke absolute Konzentration, die sich weder aus der Lorenzkurve noch aus dem Lorenzkurvenmaß ablesen lässt. Dieser Nachteil wird auch deutlich, wenn Tendenzen zur Verstärkung der absoluten Konzentration existieren, ohne dass sich an der relativen Stärke der „Großen“ untereinander etwas ändert (kleine Betriebe werden von den Großunternehmen am Markt aufgekauft). Dieser Nachteil der Lorenzkurvendarstellung kann ausgeglichen werden, wenn ergänzend ein Maß der absoluten Konzentration berechnet wird, z. B. der Hirschmann/ Herfindahl-Index (Formel 14). 8.3 Bivariate Statistik Bisher stand die Charakterisierung der Verteilung einer einzigen Variablen insbesondere durch Häufigkeitsauszählungen, Mittelwerte, Streuungs- und Konzentrationsmaße im Vordergrund. Dabei handelt es sich insgesamt um Verfahren, die sich auf die Wiedergabe des Datenmaterials in verkürzter Form beschränken. Allerdings sind diese relativ einfachen statistischen Modelle der Datenauswertung in der angewandten Statistik (wohl gerade wegen ihrer Einfachheit) weit verbreitet. Dies gilt insbesondere für die Auszählung von Häufigkeiten und ihre Darstellung in Prozentwerten. Zur eigentlichen Datenanalyse jedoch gehört vor allem die Erforschung von Zusammenhängen, das Herausarbeiten von Beziehungen zwischen mehreren Merkmalen. Hier wollen wir allerdings lediglich die generelle Logik der Analyse statistischer Beziehungen illustrieren und beschränken uns daher auf Modelle für die Darstellung von Beziehungen zwischen nur zwei Variablen. Grundsätzlich sind zwei Möglichkeiten der Analyse von Zusammenhängen gegeben: - die Berechnung sogenannter „Beziehungszahlen“ aufgrund unverbundener Beobachtungen (s. u.); - die Darstellung von „Assoziationen“ (Kontingenzen, Korrelationen) auf der Basis verbundener Beobachtungen. Beziehungszahlen werden insbesondere in der amtlichen Statistik 321 häufig und in großer Vielfalt berechnet. 321 Für die amtliche Statistik, die ebenfalls in diesem Lehrtext nicht behandelt wird, sei insbesondere verwiesen auf: Statistisches Bundesamt 1997 und www.destatis.de; vgl. auch Anderson u. a. 1988, Pfanzagl 1983, Westerhoff 2007 sowie Müller 1993 insbesondere für die Bevölkerungsstatistik. Beziehungszahlen <?page no="436"?> 437 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 437 Ihre Verwendung ist unproblematisch, solange sie lediglich deskriptiv zwei Sachverhalte in Beziehung setzen. Problematisch dagegen ist der Versuch, aufgrund solcher Beziehungszahlen weitergehende Schlüsse empirisch zu begründen. So ist es z. B. unmöglich, aus Beziehungszahlen kausal verknüpfte soziale Tatsachen, d. h. mögliche Ursachen und Wirkungen von sozialen Gegebenheiten, abzuleiten. Der Berechnung von Beziehungszahlen liegen allerdings häufig Vermutungen über ursächliche Zusammenhänge zugrunde. Bei einer solchen Verhältniszahl ist logisch nicht auszuschließen, dass alle Krebserkrankten Nichtraucher waren. Denn die Zahl der Krebserkrankten und die Zahl der Raucher wurden unabhängig voneinander festgestellt; etwa die Erkrankungen über Angaben der Krankenkassen, die Zahl der Raucher über eine Repräsentativbefragung und Hochrechnung auf die Gesamtbevölkerung. Danach wurden die beiden Globalziffern miteinander in Beziehung gesetzt. Man spricht in solchen Fällen von unverbundenen Beobachtungen: Die Verbindung „Person x ist Raucher und krebserkrankt“ bzw. „Person y ist Nichtraucher und nicht krebserkrankt“ lässt sich nicht herstellen. Ähnlich problematisch ist die Argumentation, wenn „Sättigungsgrade“ in Form von Beziehungszahlen berechnet werden. In der Großstadt X gebe es 300.000 Haushalte und 300.000 Wohnungen. Der Sättigungsgrad der Wohnversorgung wäre in dieser Stadt: (300.000 Wohnungen / 300.000 Haushalte) =-1,0 oder 100 %. Aus dieser Ziffer wäre nicht eine Schlussfolgerung wie die folgende zu begründen: „Alle Haushalte haben eine Wohnung; es existiert kein Wohnungsmangel.“ Es ist durchaus möglich (und wahrscheinlich), dass manche Haushalte mehr als eine Wohnung haben und dass Wohnungen leer stehen (etwa weil sie zu teuer oder von Größe und Zuschnitt her nicht bedarfsentsprechend sind), so dass bestimmte Haushalte und bestimmte Haushaltstypen (etwa Kinderreiche) ohne geeignete Wohnung sind. Auch hier wird mit unverbundenen Beobachtungen argumentiert. Der vorliegende Text beschränkt sich auf Verfahren der Analyse von Zusammenhängen zwischen zwei Merkmalen, die sich auf sogenannte verbundene Beobachtungen stützen: Für jede Untersuchungseinheit (Person, Ereignis etc.) werden gleichzeitig mehrere Merkmale erhoben und in einer Weise protokolliert, dass die verschiedenen Merkmale einander zugeordnet werden können. Die Datenmatrix in Abschnitt 5.3.3 BEISPIELE Sterbeziffern ¼ Anzahl der Todesfälle von ð z : B : Þ über 60-Jährigen im Jahr t Anzahl der Personen im Alter von ð z : B : Þ über 60 J : im Jahr t allgemeine Geburtenziffer ¼ Anzahl der Geburten im Jahr t Mittlere Wohnbevölkerung im Jahr t Beziehungszahl/ Kausalität BEISPIEL Raucher-Krebsgefährdung ¼ Anzahl der Krebserkrankungen Anzahl der Raucher unverbundene Beobachtungen BEISPIEL Zusammenhänge bei verbundenen Beobachtungen <?page no="437"?> 438 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 438 ist ein Beispiel dafür: Zu jedem Befragten wird eine Reihe von Merkmalen nebeneinander aufgelistet. Bei der Auswertung solcher Daten können die oben aufgezeigten Möglichkeiten von Fehlschlüssen nicht auftreten. Die Darstellung von Beziehungen zwischen zwei Variablen auf der Basis verbundener Beobachtungen ist auf zweierlei Weise möglich: a) Im Falle nominal- oder ordinalskalierter Merkmale werden die möglichen Ausprägungen der beiden Variablen einander in Form einer Kontingenztabelle zugeordnet, d. h. die Ausprägungen der einen Variablen werden nebeneinander in die Kopfzeile, die der anderen Variablen untereinander in die Vorspalte eingetragen. Danach wird ausgezählt, wie häufig welche Kombinationen beider Merkmale in der Stichprobe, d. h. in den erhobenen Daten vertreten sind. Diese Form der Datenaufbereitung einer zweidimensionalen (bivariaten) Verteilung darf nicht verwechselt werden mit der tabellarischen Darstellung der Verteilung einer einzigen Variablen (vgl. Abschnitt 8.2.2). Bei metrischen (d. h. mindestens intervallskalierten) Daten sowie bei ordinalskalierten Variablen mit einer zu großen Zahl möglicher Ausprägungen sind die möglichen Einzelausprägungen zunächst zu gruppieren, d. h. benachbarte Werte sind zu Intervallen zusammenzufassen. b) Wir behalten-- bei mindestens ordinalskalierten Daten-- die beobachteten Einzelausprägungen der Merkmale für alle Untersuchungseinheiten bei und stellen die Beziehung grafisch in Form eines Streudiagramms und/ oder rechnerisch in Form statistischer Kennziffern dar (z. B. Regressions- und Korrelationskoeffizienten im Falle intervall- oder ratioskalierter Daten). Beispiel zu a) Kontingenztabelle (die Zahlen in den Tabellenfeldern sind die Häufigkeiten, mit denen die Kombinationen von Ausprägungen zweier Variablen vorkommen =-Besetzungszahlen): Y: Mietbelastung (in % des Haushaltsnettoeinkommens) X: monatliches Nettoeinkommen des Haushalts 1972 (in DM) unter 800 800 bis unter 1200 1200 bis unter 1600 1600 bis unter 3000 Haushalte insgesamt unter 10 % 228 574 711 1345 2858 10 bis unter 15 % 474 906 786 927 3093 15 bis unter 20 % 546 725 526 426 2223 20 bis unter 25 % 435 423 229 131 1218 25 % oder mehr 966 392 133 60 1551 2649 3020 2385 2889 10943 322 Zusammengestellt nach Angaben in: Bundesminister für Raumordnung, Bauwesen und Städtebau, 1975, 58 (Haushalte mit Einkommen von 3000 DM oder mehr im Monat werden dort nicht aufgeführt). Neuere Daten: Mikrozensus Zusatzerhebungen zur Wohnsituation, seit 1998 alle vier Jahre, Statistisches Bundesamt Wiesbaden, www.destatis.de. Kontingenztabelle Streudiagramm und Kennziffern BEISPIEL Tabelle 8.16: 322 Einkommen und Mietbelastung <?page no="438"?> 439 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 439 Beispiele zu b): Streudiagramme (die einzelnen Untersuchungseinheiten sind als Punkte im zweidimensionalen Merkmalsraum repräsentiert; vgl. Abschnitt 5.3.3): (1) und (2) sind Beispiele für lineare Beziehungen, (3) bis (5) sind Beispiele für nicht-lineare (kurvilineare) Beziehungen. Zusammengefasst: Aufgabe der univariaten Statistik ist die Beschreibung der Verteilung der Werte einer Variablen durch numerische oder grafische Darstellungsweisen (Häufigkeitsverteilungen, Statistiken, Diagramme etc.). Aufgabe der bivariaten Statistik ist die Beschreibung der simultanen Verteilung zweier Variablen in Form gemeinsamer Häufigkeitsverteilungen (Tabellen, Streudiagramme) oder durch Statistiken, die Auskunft über Art und Stärke der Beziehung zweier Variablen geben (Regressionssowie Kontingenz- oder Korrelationskoeffizienten). Einige grundlegende Modelle zur Lösung dieser Aufgaben präsentiert der folgende Abschnitt. (1) positiv linear (2) negativ linear (3) positiv nicht-linear (J-förmig) (4) positiv nicht-linear (Sättigungskurve) (5) U-förmig nicht-linear Abbildung 8.8: Beispiele für Streudiagramme <?page no="439"?> 440 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 440 8.3.1 Modelle zur Messung der „statistischen Beziehung“ zwischen-Variablen Zu Beginn des Kapitels hieß es, zur eigentlichen Datenanalyse gehöre die Erforschung von Zusammenhängen, das Herausarbeiten von Beziehungen zwischen mehreren Merkmalen. Solche „statistischen Beziehungen“ werden- - teils mit gleicher, teils mit geringfügig unterschiedlicher Bedeutung- - in den einschlägigen Texten Assoziation, Kontingenz oder Korrelation genannt. Im vorliegenden Lehrbuch wird „Assoziation“ als Oberbegriff für unterschiedliche Modelle der Messung statistischer Beziehungen verwendet, während die Begriffe Kontingenz und Korrelation auf die Bezeichnung spezifischer Modelle der Assoziationsmessung (Kontingenztabelle, Kontingenzkoeffizient; Korrelationskoeffizient) beschränkt bleiben. Bevor wir jedoch auf solche spezifischen Modelle eingehen, soll das Konzept der statistischen Beziehung oder Assoziation herausgearbeitet werden: Während in der univariaten Statistik die Variation einer einzelnen Variabeln untersucht wird, weitet sich in der bivariaten Statistik der Blickwinkel auf zwei Variablen und auf die Frage aus, ob die beiden Variablen gemeinsam oder unabhängig voneinander variieren. Man fragt also, ob es in den gemessenen Ausprägungen beider Merkmale Regelmäßigkeiten gibt, etwa derart: Wenn eine Person bei Variable X einen hohen Wert aufweist, dann hat sie auch bei Variable Y einen relativ hohen Wert; und entsprechend: Wenn eine Person bei Variable X einen niedrigen Wert aufweist, dann hat sie auch bei Variable Y einen relativ niedrigen Wert. In diesem Fall sprechen wir von einer gleichläufigen oder positiven statistischen Beziehung: Wenn X hoch, dann auch Y hoch; wenn X niedrig, dann auch Y niedrig. Falls wir die entgegengesetzte Regelmäßigkeit beobachten können, sprechen wir von einer gegenläufigen oder negativen statistischen Beziehung; also: Wenn eine Person bei Variable X einen hohen Wert aufweist, dann hat sie bei Y einen relativ niedrigen Wert; wenn eine Person bei Variable X einen niedrigen Wert aufweist, dann hat sie bei Y einen relativ hohen Wert. Um von einer statistischen Beziehung sprechen zu dürfen, muss diese Regelmäßigkeit allerdings nicht bei allen Personen zutreffen, sondern es genügt schon ein relativ großer Anteil. In erster Annäherung können wir festhalten: Je größer der Anteil der Beobachtungen ausfällt, in denen eine Regelmäßigkeit der beschriebenen Art feststellbar ist, desto stärker ist die statistische Beziehung, die Assoziation. Nach diesen Vorüberlegungen kann für das Konzept der Assoziation eine Definition eingeführt werden, die sich an der tabellarischen Darstellung der gemeinsamen Verteilung zweier Variablen orientiert und dadurch den Vorteil hat, anschaulich zu sein. Sie lautet: Zwei Variablen sind miteinander assoziiert, wenn die konditionalen Verteilungen (ausgedrückt in Prozentsätzen oder Proportionen) voneinander abweichen. Konzept der statistischen Beziehung statistische Beziehung Konzept der Assoziation <?page no="440"?> 441 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 441 Anders formuliert: Zwei Variablen stehen nicht miteinander in Beziehung, wenn die konditionalen Verteilungen identisch sind (Benninghaus 1974, 78). Hierbei heißt „konditionale (bedingte) Verteilung“ von Y: Häufigkeitsverteilung von Y unter der Bedingung, dass X die Ausprägung x j aufweist. Dies sei an zwei Fällen illustriert. Nehmen wir zunächst das im vorigen Abschnitt vorgestellte Beispiel einer Kontingenztabelle mit den Variablen „Mietbelastung in % des Einkommens“ (Y) und „monatliches Nettoeinkommen“ (X) von Haushalten (Tab. 8.16) und fassen der besseren Übersichtlichkeit wegen die Variable X zu nur drei Kategorien (niedrig, mittel, hoch) zusammen. Wir betrachten also die Verteilung der Variablen Y für drei Vergleichsgruppen von Haushalten, nämlich zum einen für diejenigen Haushalte, die ein niedriges Einkommen beziehen (X < 800), zum anderen für eine (zusammengefasste) Gruppe mit mittlerem Einkommen (800 ≤ X < 1600) sowie schließlich für die Haushalte mit höherem Einkommen (1600 ≤ X < 3000). Aus einer anderen Perspektive gesehen: Wir untergliedern die Gesamtverteilung von Y in eine Verteilung, die nur unter der Bedingung gilt, dass die Haushalte ein niedriges Einkommen haben (konditionale Verteilung von Y für X < 800), in eine zweite, die nur unter der Bedingung gilt, dass die Haushalte ein mittleres Einkommen beziehen (konditionale Verteilung von Y für 800 ≤ X < 1600), sowie eine dritte, die nur unter der Bedingung gilt, dass den Haushalten ein höheres Einkommen zur Verfügung steht (konditionale Verteilung von Y für 1600 ≤ X < 3000). 323 Verteilung von Y (alle Fälle) konditionale Verteilungen von Y für X<800 für 800≤X<1600 für1600≤X<3000 y j f j f ’ j f j f ’ j f j f ’j f j f ’j unter 10 % 2858 0,261 228 0,086 1285 0,238 1345 0,466 10 - u.15 % 3093 0,283 474 0,179 1692 0,313 927 0,321 15 - u.20 % 2223 0,203 546 0,206 1251 0,231 426 0,147 20 - u.25 % 1218 0,111 435 0,164 652 0,121 131 0,045 25 % od. mehr 1551 0,142 966 0,365 525 0,097 60 0,021 10943 2649 5405 2889 Es ist offensichtlich, dass die konditionalen Verteilungen von Y nicht miteinander übereinstimmen. Beispielsweise betragen die Anteile der Haushalte mit Mietbelastungen unter 10 % bei den drei Haushaltsgruppen (den Vergleichgruppen mit niedrigem bzw. mittlerem bzw. höherem Einkommen) 0,086 bzw. 0,238 bzw. 0,466, und die Anteile der Haushalte mit Mietbelastungen von 25 % oder 323 Natürlich könnte man auch eine kleinere oder größere Zahl konditionaler Verteilungen bilden: z. B. zwei oder-- wie in Tabelle 8.16-- vier. BEISPIEL Tabelle 8.17: Mietbelastung und Einkommen (konditionale Verteilungen) <?page no="441"?> 442 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 442 mehr liegen in den drei Gruppen bei 0,365 bzw. 0,097 bzw. 0,021. Es steht also fest: Gemäß der obigen Definition liegt eine Assoziation vor zwischen den Merkmalen X (Haushaltseinkommen) und Y (Mietbelastung), und zwar handelt es sich um eine gegenläufige („negative“) Beziehung: Bei höherem Einkommen ist die prozentuale Mietbelastung tendenziell niedrig, bei niedrigerem Einkommen ist sie tendenziell höher. Betrachten wir einen zweiten (diesmal konstruierten) Fall. Y sei die Verweildauer der Examenskandidaten an der Universität U; X sei das Geschlecht der Examenskandidaten. Gegeben seien die folgende Verteilung von Y sowie die konditionalen Verteilungen von Y für x j =-weiblich und x j =-männlich: Verteilung von Y (alle Fälle) konditionale Verteilungen von Y für x j =-weiblich für x j =-männlich y j f j f ’ j f j f ’ j f j f ’j bis 9 Semester 60 0,30 24 0,30 36 0,30 10-11 Semester 100 0,50 40 0,50 60 0,50 12 Sem. u. mehr 40 0,20 16 0,20 24 0,20 200 80 120 Ein Vergleich der konditionalen Verteilungen zeigt hier, dass die Anteile der jeweiligen Studiendauer-Intervalle y j für die weiblichen und die männlichen Examenskandidaten identisch sind. Gemäß der obigen Definition liegt keine Assoziation vor; Y und X variieren unabhängig voneinander. Zusammenfassend lässt sich mit Benninghaus feststellen: „Die Betrachtung bzw. Diskussion der Beziehung zwischen Variablen impliziert immer den Vergleich von Subgruppen. Es ist nämlich sinnlos, danach zu fragen, ob eine Variable mit einer anderen in Beziehung steht, ohne einen Vergleich der Untersuchungseinheiten, die eine bestimmte Ausprägung einer bestimmten Variablen aufweisen, mit anderen Untersuchungseinheiten, die eine andere Ausprägung dieser Variablen aufweisen, anzustellen“ (1974, 81 f.). Bevor die Argumentation weitergeführt wird, ist die Explizierung der Hypothesen, also das explizite Offenlegen der Annahmen notwendig, die die Erstellung der konditionalen Verteilungen in den beiden obigen Beispielen implizit geleitet haben. Wenn die konditionalen Verteilungen für Y (monatliche Mietbelastung) unter der Bedingung X (monatliches Nettoeinkommen: niedrig/ mittel/ hoch) sowie-- im anderen Beispiel- - für Y (Verweildauer an der Universität) unter der Bedingung X (Geschlecht: weiblich bzw. männlich) berechnet wurden, so heißt dies, dass die monatliche Mietbelastung in Abhängigkeit von der Höhe des Einkommens und dass die Verweildauer an der Universität in Abhängigkeit vom Geschlecht der Examens- Tabelle 8.18: Studiendauer und Geschlecht Explizierung der Hypothesen konditionale Verteilung prüft Abhängigkeit <?page no="442"?> 443 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 443 kandidaten betrachtet worden sind. Es wurden also Annahmen gemacht, die sich in dieser Anordnung der Variablen ausdrücken. Im ersten Fall etwa: Die Variation der Einkommenshöhen ist größer als die Variation der Mieten, die auf dem Wohnungsmarkt zu zahlen sind, so dass bei niedrigeren Einkommen zunehmend der finanzielle Dispositionsspielraum durch die notwendigen Mietzahlungen stärker eingeschränkt wird. 324 Im zweiten Fall: Das Merkmal „Geschlecht“ hat Einfluss auf die Dauer des Studiums; d. h. man vermutet, aus welchen Gründen auch immer, geschlechtsspezifisch unterschiedliche Studienverläufe. Wir kommen damit zu einer für die Datenanalyse wichtigen Definition: Diejenige Variable, die als abhängig von einer anderen angenommen wird, heißt in der Datenanalyse abhängige Variable. Die Variable, die als „Ursache“ oder als „Bedingung“ für eine andere angesehen wird (anders formuliert: die Variable, von der man annimmt, dass sie auf eine andere einwirkt), heißt unabhängige (oder explikative) Variable. Dazu sogleich eine Vereinbarung: In der bivariaten Statistik wird die abhängige Variable durch den Buchstaben Y, die explikative („unabhängige“) Variable durch den Buchstaben X symbolisiert; in statistischer Schreibweise: Y =-f(X). Es ist wichtig, sich klarzumachen, dass eine Variable nicht „von Natur aus“ oder ein für allemal „unabhängig“ ist; sie wird lediglich im Zuge einer spezifischen Auswertung als solche definiert. So ist der Fall durchaus nicht selten, dass eine Variable X in einer Hypothese-1 als Ursache für eine Variable Y angesehen wird, während in einer alternativen Hypothese 2 umgekehrt die Variable Y als Ursache für Variable X genannt wird. Man nehme beispielsweise den empirischen Befund, dass Haushalte mit höherem Einkommen tendenziell in größeren (und besseren) Wohnungen leben (vgl. Bundesminister für Raumordnung, Bauwesen und Städtebau, 1975, 74). Hypothese 1 könnte diesen Sachverhalt wie folgt „erklären“: Mit höherem Einkommen nimmt die Möglichkeit zu, höhere Mieten zu zahlen und sich eine Wunschwohnung zu leisten. X (Einkommen) wird als „Ursache“ für Y (Höhe der gezahlten Mieten) angesehen. 324 Oder anders formuliert: Wohnungen mit einem gewissen Mindeststandard gehören zur Grundversorgung des Haushalts (unabhängig von der Höhe des verfügbaren Einkommens); Familien mit niedrigem Einkommen werden daher durch die Miete relativ stärker belastet als Familien mit hohem Einkommen. abhängige Variable unabhängige Variable Variable als (un)abhängig definiert BEISPIEL <?page no="443"?> 444 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 444 Eine alternative Hypothese 2 könnte dagegen die Argumentationsrichtung umkehren, etwa so: Da die Wohnung ein Wirtschaftsgut ist, das erstens für jeden unbedingt notwendig ist, dessen erforderliche Qualitätsmerkmale (Größe, Ausstattung) zweitens vom Wohnungssuchenden nicht beliebig gewählt werden können, sondern weitgehend vom Familienstand und von der Familiengröße abhängen, und das drittens teuer ist, muss der Wohnungssuchende sein Einkommen an die geforderten Mieten „anpassen“. Im Klartext: Wer eine große und gute Wohnung benötigt und nicht genügend verdient, um sich diese leisten zu können, macht Überstunden oder ist auf die Erwerbstätigkeit mehrerer Haushaltsmitglieder angewiesen. Bei einer solchen Sicht würde die Einkommenshöhe (Y) als abhängig von der Höhe der Miete (X), die jemand für eine angemessene Wohnung zahlen muss, definiert. Da der Terminus „unabhängige Variable“ leicht irreführend wirken kann, wird häufig vorgeschlagen, stattdessen den Begriff explikative Variable zu benutzen. Dieser Terminus bringt besser zum Ausdruck, dass es sich hierbei um ein Merkmal handelt, das lediglich im jeweiligen Auswertungszusammenhang als eine mögliche „Erklärung“ für die Variation der anderen (der als abhängig angesehenen) Variablen herangezogen wird. Kehren wir zurück zum Konzept der Assoziation: Mit der Feststellung, ob eine Assoziation zwischen zwei Variablen besteht, ist natürlich noch nicht sehr viel erreicht. Zusätzlich und vor allem interessiert, wie stark denn eine festgestellte Beziehung ist. Bisher wurde dazu lediglich in erster Annäherung gesagt, eine Assoziation sei umso stärker, je größer der Anteil der Untersuchungseinheiten ist, bei dem Regelmäßigkeiten der Art beobachtet wurden: wenn X hoch, dann auch Y hoch (oder umgekehrt: wenn X hoch, dann Y niedrig). Um die Stärke der Beziehung in einem einzigen statistischen Koeffizienten ausdrücken zu können, benötigt man wieder (ähnlich wie bei der Messung der Konzentration; vgl. Abschnitt 8.2.5) eine Definition der beiden Extrempunkte „keine Assoziation“ (bzw. statistische Unabhängigkeit) und „stärkst mögliche Assoziation“ (bzw. vollständige statistische Abhängigkeit). Erst in Relation zu diesen Bezugspunkten kann die Größe der Abweichung von der definierten statistischen Unabhängigkeit bzw. kann der Grad der Annäherung an die vollständige statistische Abhängigkeit gemessen werden. Je nach der Art der Definition der statistischen Unabhängigkeit bzw. Abhängigkeit existieren unterschiedliche Modelle zur Messung der Stärke der Assoziation. - Ein erstes Modell nimmt unmittelbar Bezug auf die hier eingeführte Definition des Begriffs „Assoziation“, wonach zwischen zwei Variablen dann eine Beziehung besteht, wenn die konditionalen Verteilungen voneinander abweichen. Als Maß für die Stärke der Assoziation bietet sich dann unmittelbar die Größe der Subgruppendifferenzen an. explikative Variable Stärke statistischer Beziehungen Modelle für Stärke der Assoziation Größe der Subgruppendifferenzen <?page no="444"?> 445 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 445 Um bei den vorgestellten Beispielen zu bleiben: Für die Ausprägung y j =- unter 10 % (Tab. 8.17) besteht zwischen der Haushaltsgruppe, die unter 800, und der Haushaltsgruppe, die zwischen 1600 und 3000 DM Einkommen bezieht, eine Differenz der relativen Häufigkeiten von 0,086-0,466 =- -0,380 =- -38,0 Prozentpunkte; für die Ausprägung y j =- 10 bis unter 15 % ist dies 0,179-0,321 =--0,142 =--14,2 Prozentpunkte 325 usw. Im Falle der Verweildauer der Examenskandidaten (Tab. 8.18) betragen die Subgruppendifferenzen jeweils 0,000. Auf dieser Überlegung beruht das Assoziationsmaß Prozentsatzdifferenz, das im Abschnitt 8.3.2 (Tabellenanalyse) behandelt wird. - Ein zweites Modell zur Messung der Stärke der Beziehung zweier Merkmale stützt sich auf die Abweichung von der statistischen Unabhängigkeit. Während beim Konzept „Subgruppendifferenz“ je zwei oder mehrere (konditionale) empirische Verteilungen innerhalb derselben Tabelle miteinander verglichen werden, wird in diesem Modell die gesamte empirisch ermittelte Tabelle (Kontingenztabelle) zu einer anderen, einer hypothetischen Nichtkorrelations-Tabelle (Indifferenztabelle) in Beziehung gesetzt. Man fragt sich also zunächst, welche gemeinsame Häufigkeitsverteilung von X und Y zu erwarten wäre (=-welche Besetzungszahlen innerhalb der Tabellenfelder auftreten müssten), wenn die Merkmale statistisch unabhängig voneinander wären. Eine solche Vergleichstabelle ist unter Rückgriff auf das Konzept der Assoziation leicht bestimmbar: Statistische Unabhängigkeit liegt vor, wenn (s. o.) alle konditionalen Verteilungen der Variablen Y innerhalb der Tabelle identisch sind; und das kann nur dann der Fall sein, wenn alle konditionalen Verteilungen mit der nicht konditionalen Verteilung von Y übereinstimmen. Die so ermittelte hypothetische Nichtkorrelations-Tabelle ist die Bezugsgröße für die Bestimmung der Assoziation: Aus dem Vergleich der empirisch beobachteten gemeinsamen Häufigkeiten (Besetzungszahlen in der Kontingenztabelle) mit den hypothetisch bestimmten gemeinsamen Häufigkeiten, die sich im Falle statistischer Unabhängigkeit hätten einstellen müssen (Indifferenztabelle), wird die Stärke der statistischen Beziehung zwischen X und Y berechnet. 326 - Ein weiteres Modell basiert auf dem paarweisen Vergleich der Merkmalsausprägungen über alle Untersuchungseinheiten. Bei diesem Vergleich wird geprüft, ob bei je zwei Untersuchungseinheiten (UE i ; z. B. Personen) der Vergleich der Variablenausprägungen in die gleiche Richtung weist (wenn bei UE 1 X höher ist als bei UE 2 , dann ist auch Y höher; oder: wenn bei UE 1 X niedriger ist als bei UE 2 , dann ist auch Y niedriger =-konkordante Paare von Untersuchungseinheiten) oder ob die Variablenausprägungen in unterschied- 325 Beachten Sie die korrekte Bezeichnung: Eine Zunahme von 20 % auf 30 % beträgt 10 Prozentpunkte; dies entspricht einer Steigerung um die Hälfte. 326 In Abschnitt 8.3.2 (Tabellenanalyse) werden vier einfache Assoziationsmaße dieses Typs vorgestellt. BEISPIEL Abweichung von-statistischer Unabhängigkeit paarweiser Vergleich konkordante/ diskordante Paare <?page no="445"?> 446 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 446 liche Richtungen weisen (bei UE 1 ist X höher als bei UE 2 , aber Y niedriger; oder: bei UE 1 ist X niedriger als bei UE 2 , aber Y höher =-diskordante Paare). Das Überwiegen konkordanter Paare ist dann ein Anzeichen für die Existenz einer positiven statistischen Beziehung; entsprechend ist das Überwiegen diskordanter Paare ein Anzeichen für eine negative Beziehung. 327 - Eine vierte Gruppe von Assoziationsmaßen schließlich basiert auf dem Modell der proportionalen Fehlerreduktion (häufig abgekürzt als PRE-Maße, nach der englischen Bezeichnung „proportional reduction in error measures“). Die Grundüberlegung ist: In dem Maße, wie zwei Variablen miteinander in einer statistischen Beziehung stehen, enthalten sie wechselseitig redundante Informationen. Wenn demnach gilt: „Je höher X, desto höher Y“ oder: „Wenn X hoch, dann auch Y hoch“, dann kann man aufgrund der Kenntnis der Verteilung der einen (der unabhängigen) Variablen auf die Verteilung der anderen (der abhängigen) Variablen schließen. Auf die Merkmalsträger bezogen: Wenn z. B. gilt, dass mit zunehmender Höhe des Einkommens die relative Mietbelastung sinkt, dann kann bei Kenntnis des Monatseinkommens eines Haushalts auch dessen relative Mietbelastung bis zu einem gewissen Grade geschätzt („vorhergesagt“) werden. Natürlich wird diese Schätzung nicht immer richtig sein; es werden Schätzfehler vorkommen. Diese reduzieren sich jedoch in dem Maße, in dem die Variablen stärker assoziiert sind. Im Extremfall, dass zwei Merkmale vollständig abhängig voneinander sind, lässt sich auf der Basis der Kenntnis der Ausprägung der unabhängigen Variablen sogar für jede Untersuchungseinheit die Ausprägung der abhängigen Variablen exakt berechnen (=-stärkst mögliche prädiktive Assoziation). 328 Der Gedankengang lässt sich nun umkehren: Wenn in der Datenmatrix Informationen über zwei Merkmale vorliegen und wenn es möglich ist, anhand der Verteilung des einen, des „unabhängigen“ Merkmals (Prädiktorvariable) die Ausprägungen des anderen, des „abhängigen“ Merkmals (Kriteriumsvariable) bis zu einem gewissen Grade richtig zu schätzen, dann existiert zwischen den beiden Variablen eine „prädiktive Assoziation“. 329 327 Dies entspricht der zu Beginn dieses Abschnitts 8.3.1 angestellten Überlegung, wonach eine Assoziation als umso stärker angesehen werden könne, je höher der Anteil der Beobachtungen ist, in denen eine gleichläufige (oder in denen eine gegenläufige) Beziehung zwischen X und Y auftritt. Im vorliegenden Text (Abschnitt 8.3.2) werden lediglich zwei einfache Beispiele für Maßzahlen dieses Typs (Gamma und Tau-a) behandelt. Für eine ausführlichere Behandlung verweisen wir auf die Spezialliteratur (Einführungen in Assoziationsmaße auf der Basis der vorgestellten Modelle bieten etwa Benninghaus 1974 und 1990, Diaz-Bone 2013, Patzelt 1985 oder Klemm 2002). 328 „Vorhersage“ im Zusammenhang mit „prädiktiver Assoziation“ ist also lediglich in der Weise zu verstehen, dass bei Kenntnis einer Variablenausprägung Vermutungen über den (unbekannten) Wert einer anderen Variablen angestellt werden können. Diese Art von „Vorhersage“ sollte man zur Vermeidung von Missverständnissen besser „Schätzung“ nennen; sie darf nicht mit der Voraussage künftiger Entwicklungen („Prognose“) verwechselt werden. 329 Im Abschn. 8.3.2 wird als einfaches, auch für nominale Daten geeignetes prädiktives Assoziationsmaß 8 (Lambda) vorgestellt. Der Abschn. 8.3.4 behandelt als Maß der prädiktiven Assoziation für mindestens intervallskalierte Variablen den Determinationskoeffizienten r 2 . proportionale Fehlerreduktion von X auf Y schließen Reduzierung von Schätzfehlern <?page no="446"?> 447 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 447 8.3.2 Tabellenanalyse Wird eine zweidimensionale Häufigkeitsverteilung (d. h. die gemeinsame Verteilung zweier Merkmale) in Form einer Tabelle dargestellt, spricht man von einer Kontingenztabelle. 330 Bivariate Tabellen entstehen durch die Kreuztabellierung (Kreuztabulation) zweier Merkmale. Sie sind nichts anderes als eine Auflistung der konditionalen Verteilungen der Variablen Y (vgl. Abschnitt 8.3.1). Die Form dieser Auflistung, d. h. die formale Art und Weise der zusammenfassenden Darstellung der konditionalen Verteilungen, wird aus der folgenden Abbildung ersichtlich. Kategorien der „unabhängigen“ Variablen (X) 1 2 3 Kategorien der „abhängigen“ Variablen (Y) 1 f 11 f 12 f 13 f 1. 2 f 21 f 22 f 23 f 2. 3 f 31 f 32 f 33 f 3. f .1 f .2 f .3 n Erläuterungen: f ij = konditionale Häufigkeiten (Häufigkeit in der Tabellenzelle von Zeile i und Spalte j) 331 f i1 = konditionale Verteilung der Variablen Y bei gegebenem x=-1 (Spalte 1 bzw. „unter der Bedingung x=-1“) f 1j = konditionale Verteilung der Variablen X bei gegebenem y=-1 (Zeile 1 bzw. „unter der Bedingung y=-1“) f i. = Randverteilung (oder marginale Verteilung) 332 der Variablen Y f .j = Randverteilung (oder marginale Verteilung) der Variablen X n ¼ X r i ¼ 1 X s j ¼ 1 f ij ¼ X r i ¼ 1 f i ¼ X s j ¼ 1 f : j Wie erkennbar, enthält diese Darstellung spaltenweise nebeneinander die konditionalen Verteilungen der Variablen Y für die x-Werte 1, 2,-… (und zeilenweise untereinander die konditionalen Verteilungen der Variablen X für die y-Werte 1, 2,-… Die Kreuzpunkte je zweier konditionaler Verteilungen (f ij ) stellen die Tabellenfelder oder Tabellenzellen dar. In ihnen ist die Häufigkeit angegeben, mit der die jeweilige Wertekombination (z. B. y=-1, x=-2 : f 12 ) in den empirischen Beobachtungen vorkommt (=-Besetzungszahl des Tabellenfeldes). In der rechten Randspalte der Tabelle erscheinen die Summen der Besetzungszahlen für y =-1, 2,-… (f 1. , f 2. ,-…). Diese entsprechen der Häufigkeitsverteilung der Variablen Y, wie sie in der univariaten Statistik 330 Synonym dazu findet man die Bezeichnung Korrelationstabelle. Manche Autoren unterscheiden noch zwischen „Korrelationstabelle“ bei mindestens ordinalskalierten Merkmalen und „Kontingenztabelle“ im Falle nominalskalierter Variablen. 331 Die Laufindizes i und j bezeichnen hier - anders als in der univariaten Statistik - nicht Einzelbeobachtungswerte bzw. gruppierte Werten, sondern Zeilen und Spalten der Tabelle; dabei kann i die Werte 1 bis r (r = Reihen), j die Werte 1 bis s (s = Spalten) annehmen. 332 engl.: margin = Rand. Kontingenztabelle Besetzungszahl <?page no="447"?> 448 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 448 (Abschnitt 8.2.1) behandelt wurde. Hier wird sie „Randverteilung“ oder „marginale Verteilung“ der Variablen Y genannt. In der untersten Zeile der Tabelle erscheinen die Summen der Besetzungszahlen für x =-1, 2,-… (f .1 , f .2 ,-…). Diese entsprechen der Häufigkeitsverteilung der Variablen X (hier „Randverteilung“ oder „marginale Verteilung“ der Variablen X genannt). Um die Übersichtlichkeit der Darstellung zu erhöhen und um Flüchtigkeitsfehler bei weiteren Berechnungen anhand der so aufbereiteten Daten zu vermeiden, empfiehlt es sich, der abhängigen und der unabhängigen (explikativen) Variablen jeweils einen festen Platz in der Tabelle zuzuweisen. Überwiegend ist es üblich, die Variable, die für die jeweilige Auswertung als unabhängig (explikativ) gelten soll, in den Kopf der Tabelle zu schreiben und mit dem Buchstaben X zu bezeichnen. Dementsprechend hat die Variable, die für die jeweilige Auswertung als abhängig angesehen wird (deren Variation „erklärt“ werden soll), ihren Platz am linken Rand der Tabelle; sie wird mit Y bezeichnet. Als Beispiel, an dem die folgende Argumentation entwickelt wird, möge ein Befund aus Forschungen zur Stigmatisierung (negative Typisierung) Obdachloser dienen. Eine durch zahlreiche Studien gestützte Hypothese lautet, dass die Bereitschaft, Obdachlose pauschal negativ zu beurteilen, davon abhängt, ob der Urteilende den Obdachlosen die „Schuld“ an ihrer Lage selbst zuschreibt, oder ob er die Obdachlosigkeit als ein gesellschaftliches Phänomen ansieht. Eine empirische Untersuchung ergab zu dieser Frage die folgenden Daten: 333 Y: negative Beurteilung der Obdachlosen X: Individualisierung der Obdachlosigkeit gering (1) (angenommene Fremdverschuldung) stark (2) (angenommene Selbstverschuldung) insgesamt f i1 % f i2 % f i. % keine (1) 20 31,3 61 18,0 81 20,1 gering (2) 26 40,6 68 20,1 94 23,3 stark (3) 14 21,9 108 31,8 122 30,3 sehr stark (4) 4 6,2 102 30,1 106 26,3 64 100,0 339 100,0 403 100,0 Erläuterungen: Die Variable X bezieht sich auf die„Schuldvermutung“ und misst die Tendenz der Befragten, die „Schuld“ an der Obdachlosigkeit zu individualisieren, d. h. den einzelnen Obdachlosen selbst anzurechnen. Die Variable Y gibt Auskunft über die Bereitschaft der Befragten, die Obdachlosen als Randgruppe zu stigmatisieren, d. h. ihnen pauschal negative Eigenschaften („asozial“, „unordentlich“, „unzuverlässig“ u. ä.) zuzuschreiben. 333 Quelle: Roschinsky, B., 1974: Die Situation der Obdachlosen in Duisburg; Köln; zit. nach Vaskovics, L.; Weins, W., 1979: Stand der Forschung über Obdachlose, Stuttgart, Berlin, 135. Randverteilung übliche Variablenanordnung in Tabellen BEISPIEL Tabelle 8.19: Stigmatisierung der Obdachlosigkeit <?page no="448"?> 449 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 449 Die Daten dieser Studie bestätigen offensichtlich die formulierte Hypothese: In der Gruppe der Befragten, die Obdachlosigkeit als ein Schicksal ansehen, das nicht von den Betroffenen selbst verschuldet wurde (x j =-1), findet man überwiegend keine bzw. nur gering ausgeprägte Vorbehalte gegenüber Obdachlosen (71,9 %). In der Gruppe der Befragten dagegen, die der Meinung sind, die Obdachlosen trügen selbst die Verantwortung für ihre Lage, herrschen starke bis sehr starke negative Pauschalurteile vor (61,9 %). Die Berechnung der relativen Häufigkeiten (hier: Prozentwerte) in der Tabelle wurde-- wie ersichtlich-- für jede der konditionalen Verteilungen (y i unter der Bedingung x j =- 1; y i unter der Bedingung x j =- 2) getrennt vorgenommen. Das heißt: Für jede Gruppe von Untersuchungseinheiten, die gleiche Ausprägungen auf der als unabhängig betrachteten Variablen (X) aufweisen, wurden die Anteile je y i -Wert bestimmt. Das lässt sich zu folgender Prozentuierungsregel verallgemeinern: Bei der Zusammenhangsanalyse mit Hilfe von Kontingenztabellen ist die als unabhängig betrachtete Variable (die explikative Variable) als Basis der Prozentuierung zu nehmen. Von der vorgeschlagenen Anordnung der Variablen ausgehend (X im Tabellenkopf ), bedeutet dies: Es ist „spaltenweise“ zu prozentuieren mit der Spaltensumme (f. j ) als Basis. Entsprechend sind die Prozentwerte der konditionalen Verteilungen „zeilenweise“ zu vergleichen. Assoziationsmodell „Subgruppendifferenzen“ Betrachten wir in Tabelle 8.19 die beiden konditionalen Verteilungen und führen wir in jeder Zeile einen Vergleich der Anteilswerte für y 1 bis y 4 durch, dann finden wir folgende Subgruppendifferenzen: für y i =-1: 31,3-18,0 =-13,3 Prozentpunkte; für y i =-2: 40,6-20,1 =-20,5 Prozentpunkte; für y i =-3: 21,9-31,8 =--9,9 Prozentpunkte; für y i =-4: 6,2-30,1 =--23,9 Prozentpunkte. In Worten: In der Befragtengruppe mit gering ausgeprägter Tendenz zur Individualisierung der Obdachlosigkeit ist der Anteil von Personen, die Obdachlose nicht bzw. nur gering stigmatisieren, um 13,3 (bzw. 20,5)- Prozentpunkte höher als in der Befragtengruppe mit starker Tendenz zur Individualisierung der Obdachlosigkeit. Die entgegengesetzte Beziehung gilt für die Bereitschaft, Obdachlose pauschal stark bzw. sehr stark negativ zu beurteilen. Prozentuierungsregel: spaltenweise prozentuieren zeilenweise vergleichen Subgruppendifferenzen <?page no="449"?> 450 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 450 Die berechneten Subgruppendifferenzen können im Prinzip als Maß der Stärke der Assoziation der beiden Variablen interpretiert werden (vgl. Abschnitt 8.3.1). Das Problem besteht jedoch darin, dass im vorgestellten Beispiel die Subgruppendifferenzen keine einheitliche Aussage über die Stärke der Assoziation liefern: es existieren hier vier unterschiedliche Werte. Die Situation würde noch unübersichtlicher, wenn auch die Variable X mehr als zwei Ausprägungen aufwiese (vgl. etwa Tab. 8.17 in Abschnitt 8.3.1). Lediglich im Falle zweier dichotomer (oder dichotomisierter) Variablen, deren konditionale Häufigkeiten also eine 2x2-Tabelle (Vierfeldertabelle) ergeben, weisen die beiden existierenden Subgruppendifferenzen-- ohne Berücksichtigung des Vorzeichens-- den gleichen Betrag auf. In diesem Fall ist die Größe der Subgruppendifferenz ein brauchbares und eindeutig interpretierbares Maß für die Stärke der Assoziation. In Prozentwerten ausgedrückt, handelt es sich hierbei um die häufig benutzte Prozentsatzdifferenz (d%). Die Prozentsatzdifferenz nimmt bei statistischer Unabhängigkeit der dichotomen (oder dichotomisierten) Variablen den Wert 0, bei stärkst möglicher Assoziation den Wert ±100 an. Dichotomisieren wir die Variable Y durch Zusammenfassung der Ausprägungen „keine“ und „geringe negative Beurteilung“ einerseits sowie „starke“ und „sehr starke negative Beurteilung“ andererseits, so erhalten wir folgende 2x2-Tabelle: Y: negative Beurteilung der Obdachlosen X: Individualisierung der Obdachlosigkeit gering (1) stark (2) insgesamt f i1 % f i2 % f i. % keine oder gering 46 71,9 129 38,1 175 43,4 stark oder sehr stark 18 28,1 210 61,9 228 56,6 64 100,0 339 100,0 403 100,0 Die Prozentsatzdifferenz beträgt nun 71,9 - 38,1 =-33,8 Prozentpunkte; d. h. in der Befragtengruppe mit gering ausgeprägter Tendenz zur Individualisierung der Obdachlosigkeit ist der Anteil der Personen, die gar nicht oder höchstens in geringem Maße Obdachlose pauschal negativ bewerten, um 33,8 Prozentpunkte höher als in der zweiten Befragtengruppe. Die entgegengesetzte Beziehung gilt für das Vorhandensein starker bis sehr starker Stigmatisierungsbereitschaft. 334 Falls man von einer Tabelle ausgeht, in der die Prozentwerte für die konditionalen Verteilungen noch nicht berechnet sind, kann bei Berücksichtigung der oben genannten Prozentuierungsregel die Prozentsatzdifferenz unmittelbar aus den Besetzungszahlen der Vierfeldertabelle bestimmt werden: 334 Wie leicht erkennbar, hängt die Prozentsatzdifferenz von der Art der Dichotomisierung ab. Sie wäre z. B. niedriger, wenn die Ausprägung „keine negative Beurteilung“ den (zusammengefassten) übrigen drei Ausprägungen der Variablen Y gegenübergestellt würde. Daher darf die Prozentsatzdifferenz nur als ein Maß für die Stärke der Assoziation der Variablen in der Form, wie sie dichotomisiert worden sind, interpretiert werden. Prozentsatzdifferenz BEISPIEL Tabelle 8.20: Stigmatisierung der Obdachlosigkeit (dichotomisiert) <?page no="450"?> 451 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 451 Formel (16): Hierbei haben die Buchstaben a bis d folgende Bedeutung: X Y 1 2 1 a b a+b 2 c d c+d a+c b+d n Auf unser Beispiel angewandt: Die Prozentsatzdifferenz ist wie gesehen ein sehr einfach bestimmbares Maß für die Stärke der Korrelation in tabellarisch aufbereiteten Informationen, das zudem unabhängig vom Messniveau der Daten berechnet werden kann. Zwar weist d% nur für 2x2-Tabellen einen eindeutigen Betrag auf, doch ist das Konzept auch bei größeren Tabellen durchaus nutzbringend einsetzbar, etwa für Extremgruppenvergleiche. Benninghaus tritt sogar nachdrücklich für dieses Konzept ein: „Es gibt keinen Grund, die Prozentsatzdifferenz als ein primitives Assoziationsmaß zu betrachten, das eines qualifizierten Forschers unwürdig ist, weil es keinen Grund gibt, ein Konzept seiner klaren Bedeutung wegen abzulehnen. Prozentwerte sind die einzigen Kennwerte, die nicht professionellen Lesern geläufig sind. Man kann sicher sein, dass jedes andere Assoziationsmaß bei Laien auf größere Verständnisschwierigkeiten stößt. Da aber viele sozialwissenschaftliche Aussagen und Forschungsberichte an ein nicht einschlägig vorgebildetes Publikum gerichtet sind, sollte man die erhellende Funktion eines leicht verständlichen Assoziationsmaßes nicht unterschätzen“ (1990, 202). Assoziationsmodell „Abweichung von der statistischen Unabhängigkeit“ Bei der Bestimmung der Stärke des statistischen Zusammenhangs mit Hilfe des Konzepts „Subgruppendifferenzen“ haben wir für Vergleichsgruppen jeweils die empirisch ermittelten Merkmalsverteilungen gegenübergestellt und deren Unterschiedlichkeit durch die Maßzahl d% zum Ausdruck gebracht. Die empirische Verteilung der abhängigen Variablen Y in einer Gruppe wird zum Maßstab der Verteilung von Y in der anderen Gruppe. Wie geht der Statistiker nun vor, wenn er die Assoziation nach dem Modell „Abweichung von der statistischen Unabhängigkeit“ berechnen will? Auch hier wird ein Vergleichsmaßstab benötigt. Allerdings besteht er nicht mehr in empirisch ermittelten, sondern in hypothetischen Daten. Als Vergleichsmaßstab d % ¼ 100  a a þ c � b b þ d ! BEISPIEL d % ¼ 100  46 46 þ 18 � 129 129 þ 210 ! ¼ 100  ð 0,719 � 0,381 Þ ¼ 33,8 %-Punkte : <?page no="451"?> 452 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 452 dient eine Tabelle, so wie sie aussehen würde, wenn X und Y nicht korreliert wären („Indifferenztabelle“ genannt). Diese Indifferenztabelle erhält man dadurch, dass man die nicht konditionale Verteilung von Y auf jede einzelne Tabellenspalte anwendet, also auf die Spalte für x j = 1, für x j = 2 usw. Man teilt also in jeder Kontrollgruppe die Untersuchungseinheiten in demselben Verhältnis auf, wie es empirisch für die Gesamtheit aller Fälle festgestellt wurde. Die so ermittelten hypothetischen Besetzungszahlen heißen „erwartete Häufigkeiten“. 335 Das Ergebnis dieses Verfahrens ist: Alle konditionalen Verteilungen sind identisch; es existiert (in dieser hypothetischen Tabelle) keine Assoziation zwischen X und Y. Wenden wir dieses Verfahren auf die Werte von Tabelle 8.20 an: Von den insgesamt 403 Befragten hatten 175 (= 43,4 %) die Obdachlosen nicht negativ oder allenfalls gering negativ bewertet. Dieser Anteil wird jetzt auch auf die 64 Fälle mit x = 1 und auf die 339 Fälle mit x = 2 übertragen. In die erste Zeile der Tabelle tragen wir also unter x = 1 als hypothetische Besetzungszahl den Wert 27,8 (=-43,4 % von 64), unter x = 2 den Wert 147,2 (=-43,4 % von 339) ein. Von den insgesamt 403 Befragten hatten 228 (=-56,6 %) die Obdachlosen stark oder sehr stark negativ bewertet. Dieser Anteil wird jetzt auch auf die Fälle mit x = 1 und mit x = 2 angewendet. Damit ergeben sich als hypothetische Besetzungszahlen in der zweiten Zeile der Indifferenztabelle die Werte 36,2 (=-56,6 % von 64) und 191,8 (=-56,6 % von 339). Die Indifferenztabelle hat damit folgendes Aussehen: Y: negative Beurteilung der Obdachlosen X: Individualisierung der Obdachlosigkeit insgesamt gering (x = 1) f i1 stark (x = 2) f i2 f i. % höchstens gering 27,8 147,2 175 43,4 stark bis sehr stark 36,2 191,8 228 56,6 64,0 339,0 403 100,0 Im Prinzip könnten wir jetzt die „Abweichung von der statistischen Unabhängigkeit“ dadurch berechnen, dass wir die Besetzungszahlen jeder Tabellenzelle in der empirischen Kontingenztabelle mit dem Wert der entsprechenden Zelle in der Indifferenztabelle (der „erwarteten Häufigkeit“) vergleichen, die Abweichungsbeträge aufsummieren und anschließend einen (durchschnittlichen) Abweichungskoeffizienten bestimmen. Wir hätten lediglich dafür zu sorgen, dass dieser Koeffizient im Falle der Nichtkorrelation von X und Y den Betrag von 0, im Falle maximaler Assoziation den Betrag von 1,0 (oder 100) annimmt, damit ein Vergleich zwischen Tabellen mit unterschiedlicher Fallzahl möglich wird. Bei einem solchen Vorgehen würde eine 335 Es handelt sich also um diejenigen Besetzungszahlen, die man erwarten dürfte, wenn die Variablen X und Y statistisch unabhängig, also unkorreliert wären. Indifferenztabelle BEISPIEL Tabelle 8.20a: (Indifferenztabelle): Stigmatisierung der Obdachlosigkeit (Indifferenztabelle) <?page no="452"?> 453 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 453 große Abweichung in einer Tabellenzelle mit dem gleichen relativen Gewicht in die Berechnung eingehen wie mehrere kleinere Abweichungen. 336 Auf diese (einfache) Weise werden jedoch Assoziationsmaße nach dem Modell „Abweichung von der statistischen Unabhängigkeit“ nicht konstruiert. Vielmehr lehnen sich die Statistiker an eine aus den empirischen Werten berechenbare Messgröße an, die in der schließenden (induktiven) Statistik außerordentliche Bedeutung hat, weil sie Eigenschaften einer wichtigen mathematisch-theoretischen Verteilung, der sogenannten Chi-Quadrat-Verteilung (χ 2 ), aufweist. In der Induktivstatistik kann diese Größe für den Test herangezogen werden, ob im Falle von Zufallsstichproben die Abweichungen der empirischen Tabelle von der Indifferenztabelle „noch zufällig“ zustande gekommen sein können oder ob sie als nicht mehr zufällig (als „statistisch signifikant“) anzusehen sind. Aus diesem Grunde werden Assoziationskoeffizienten nach dem hier behandelten Modell im Allgemeinen als „χ 2 -basierte Maße“ bezeichnet. Die (näherungsweise χ 2 -verteilte) Testgröße U, 337 die die Abweichung der Kontingenzvon der Indifferenztabelle repräsentiert und die Grundlage für eine ganze Familie von Assoziationsmaßen bildet, berechnet sich nach folgender Formel: Formel (17): Hierbei bezeichnen die f ij die Besetzungszahlen in der Kontingenztabelle, die e ij die „erwarteten Häufigkeiten“ (d. h. die Besetzungszahlen in der Indifferenztabelle). Wie aus der Formel ersichtlich, wird jeweils die empirische Besetzungszahl mit dem entsprechenden Erwartungswert in der Indifferenztabelle verglichen; durch Quadrieren der Differenzen (f ij -- e ij ) erhalten große Abweichungen ein überproportionales Gewicht. 338 Anschließend wird das Abweichungsquadrat durch den Erwartungswert geteilt. Schließlich werden die so berechneten „relativen Abweichungsquadrate“ aller Tabellenzellen addiert (Summierung über alle Reihen und alle Spalten). Die Summe der relativen Abweichungsquadrate (U) eignet sich jedoch noch nicht als Maß der Assoziation, da sie von der Zahl der Fälle abhängt, für die die Tabelle erstellt wurde. Hat man Daten für die doppelte Fallzahl, so erhöht sich bei gleichstarker Assoziation der U-Wert auf das Doppelte. Dieser unerwünschte Effekt lässt sich dadurch ausschalten, dass man den U-Wert durch die Zahl der Fälle dividiert: U / n. Der auf diese Weise erhaltene Wert entspricht dem Quadrat des von dem Mathematiker K. Pearson vorgeschlagenen Koeffizienten Phi. 339 336 Dies entspräche (analog) dem Vorgehen bei der Berechnung des Streuungsmaßes „durchschnittliche lineare Abweichung“ in der univariaten Statistik. 337 Der Buchstabe U steht als Symbol für die Abweichung von der statistischen Unabhängigkeit. 338 Dies entspricht (analog) dem Vorgehen bei der Berechnung des Streuungsmaßes „Varianz“ in der univariaten Statistik 339 Häufig wird in der statistischen Literatur anstelle von U das Symbol für die entsprechende theoretische Verteilung-- χ 2 -- verwendet. Chi-Quadrat ( χ 2 ) Test auf zufällige Abweichung U ¼ X r i ¼ 1 X s j ¼ 1 ð f ij � e ij Þ 2 e ij Pearsons Koeffizient Phi ( ϕ ) <?page no="453"?> 454 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 454 Formel (18a): Formel (18b): Von den Werten der Tabellen 8.20 und 8.20a ausgehend, erhalten wir für die Maßzahl U: r s (f ij ---e ij ) (f ij ---e ij ) 2 (f ij ---e ij ) 2 / e ij 1 1 46 - 27,8 331,24 11,92 1 2 129 - 147,2 331,24 2,25 2 1 18 - 36,2 331,24 9,15 2 2 210 - 191,8 331,24 1,73 U = 25,05 Daraus folgt: =-0,249. Der Phi-Koeffizient ist allerdings lediglich für 2x2-Tabellen sinnvoll verwendbar. Bei größeren Tabellen kann er Werte annehmen, die größer als 1 sind. Dies widerspricht der üblicherweise aufgestellten Forderung, dass Assoziationsmaße so standardisiert sein sollen, dass der Betrag 0 für statistische Unabhängigkeit und der Betrag 1 (bzw. 100 bei d%) für vollständige Korrelation zwischen X und Y steht. Pearson hat deshalb für größere als 2x2-Tabellen eine andere Berechnungsweise vorgeschlagen, die zum relativ weit verbreiteten Kontingenzkoeffizienten C führt: Formel (19): Das Maß C P (lies: Kontingenzkoeffizient nach Pearson) ist zwar bei beliebig großen quadratischen und rechteckigen Tabellen anwendbar, hat jedoch den im Vergleich zu Phi entgegengesetzten Nachteil: Er erreicht auch bei vollständiger Assoziation nicht den Betrag 1. Phi 2 ¼ 2 ¼ U n bzw :  2 n Phi ¼ ¼ ffiffiffiffiffi U n r bzw : ffiffiffiffiffi  2 n r BEISPIEL ¼ ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi 25,05 = 403 p nur für 2x2-Tabellen Kontingenzkoeffizient C P C P ¼ ffiffiffiffiffiffiffiffiffiffiffiffiffi U U þ n r bzw : ffiffiffiffiffiffiffiffiffiffiffiffiffiffi  2  2 þ n s <?page no="454"?> 455 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 455 Auf eine andere Weise konstruierte der russische Mathematiker Tschuprow ein χ 2 basiertes Maß für beliebig große Tabellen. Sein Assoziationsmaß C T (lies: Kontingenzkoeffizient nach Tschuprow) geht von Pearsons ϕ aus, ergänzt den Nenner der Formel jedoch um den Faktor . Dadurch wird ein Überschreiten der Obergrenze 1 verhindert, und Φ wird zum Spezialfall für 2x2-Tabellen (da dann der Korrekturfaktor zu = 1 wird). Formel (20): Eine weitere Variante ist der von Cramer vorgeschlagene Koeffizient V, der sich von der-Tschuprow-Formel lediglich darin unterscheidet, dass im Nenner an die Stelle von das Minimum aus r-1 und s-1 gestellt wird. Formel (21): Wenden wir die neuen Formeln auf unser bisheriges Beispiel an: Tabelle 8.19 enthält die nicht zusammengefassten Ergebnisse der Befragung zur Einstellung gegenüber Obdachlosen. Darauf aufbauend, kommen wir zu folgender Arbeitstabelle: r s (f ij ---e ij ) (f ij ---e ij ) 2 (f ij ---e ij ) 2 / e ij 1 1 20-- 12,9 50,41 3,91 1 2 61-- 68,1 50,41 0,74 2 1 26-- 14,9 123,21 8,27 2 2 68-- 79,1 123,21 1,56 3 1 14-- 19,4 29,16 1,50 3 2 108-- 102,6 29,16 0,29 4 1 4-- 16,8 163,84 9,75 4 2 102-- 89,2 163,84 1,84 U = 27,86 Daraus folgt nach Formel 19: Kontingenzkoeffizient C T ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi ð r � 1 Þð s � 1 Þ p ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi ð 2 � 1 Þð 2 � 1 Þ p C T ¼ ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi U n  ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi r � 1 ð Þ s � 1 ð Þ p s bzw : ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi  2 n  ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi r � 1 ð Þ s � 1 ð Þ p s Cramer V ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi ð r � 1 Þð s � 1 Þ p V ¼ ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi U n  min r � 1, s � 1 ð Þ s bzw : ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi  2 n  min r � 1, s � 1 ð Þ s BEISPIEL C P ¼ ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi ð 27,86 = ð 27,86 þ 403 Þ p ¼ ffiffiffiffiffiffiffiffiffiffiffiffiffiffi 0,0647 p ¼ 0,254 <?page no="455"?> 456 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 456 Und Formel 20 führt zu: Cramer’s V schließlich (Formel 21) erreicht: Ein Vergleich der vier χ 2 -basierten Koeffizienten ergibt in diesem Fall, dass Phi für die 2x2-Tabelle und C P für die 4x2-Tabelle annähernd gleichgroße Assoziations-Maßzahlen ausweisen. Cramers V liegt etwas höher, C T dagegen niedriger. Das Beispiel illustriert, dass- - selbst bei Verwendung des gleichen Basismodells (hier: Abweichung von der statistischen Unabhängigkeit)-- die Höhe des Koeffizienten auch davon abhängt, in welcher Weise die Übersetzung des jeweiligen Assoziationskonzepts in eine Berechnungsformel vorgenommen worden ist. Es ist deshalb wenig sinnvoll, Werte miteinander zu vergleichen, die anhand unterschiedlicher Formeln bestimmt wurden. χ 2 -basierte Assoziationsmaße weisen, obwohl sie relativ oft verwendet werden, insbesondere zwei ins Gewicht fallende Nachteile auf: - Erstens erreichen nicht alle Koeffizienten im Falle vollständiger Assoziation die Obergrenze 1; zudem variiert der maximal erreichbare Wert mit der Größe der Kontingenztabelle. - Zweitens sind die Koeffizienten ein reines Rechenkonstrukt 340 und in keiner Weise inhaltlich interpretierbar. Eigentlich kann, so Benninghaus (1990, 190 f.), von ihrer Verwendung in der deskriptiven Statistik nur abgeraten werden: „Die vielleicht wichtigste Forderung ist die einer klaren Interpretation. Der Koeffizient sollte eine eindeutige Aussage ermöglichen-… Einige Maßzahlen erlauben jedoch keine andere Aussage als die, dass ein höherer Zahlenwert des Koeffizienten eine engere Beziehung zum Ausdruck bringt als ein niedrigerer Wert.“ Assoziationsmodell „paarweiser Vergleich“ Das dritte in Abschnitt 8.3.1 genannte Assoziationskonzept beruht auf der Überlegung, dass eine enge statistische Beziehung zwischen zwei Merkmalen bei Vergleichen zwischen je zwei Untersuchungseinheiten zu folgenden Konsequenzen führen muss: Ist die statistische Beziehung positiv, dann werden die Vergleiche überwiegend so ausfallen, dass die Person mit höherem X-Wert auch den höheren Y-Wert (bzw. die 340 Verfolgen Sie anhand der Formeln 17, 19 und 20 noch einmal den Rechengang: Gewichtung durch Quadrieren der Differenzen, Standardisierung am Erwartungswert, Addition der relativen Abweichungsquadrate, erneutes Standardisieren zur Vermeidung von Werten >1, Berechnung der Quadratwurzel aus dem bisherigen Ergebnis. C T ¼ ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi 27,86 = 403 ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi ð 4 � 1 Þð 2 � 1 Þ p q ¼ ffiffiffiffiffiffiffiffiffiffiffiffiffiffi 0,0399 p ¼ 0,200 : V ¼ ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi ð 27,86 = 403  ð 2 � 1 Þ p ¼ ffiffiffiffiffiffiffiffiffiffiffiffiffiffi 0,0691 p ¼ 0,263 : Nachteile χ 2 -basierter Maße <?page no="456"?> 457 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 457 Person mit niedrigerem X-Wert auch den niedrigeren Y-Wert) aufweist. Solche Fälle werden konkordante Paare genannt: Das Merkmal X definiert zwischen je zwei Untersuchungseinheiten die gleiche Rangordnung wie das Merkmal Y. 341 Ist der Zusammenhang negativ, dann werden überwiegend die Vergleiche so ausfallen, dass die Person mit höherem X-Wert den niedrigeren Y-Wert (bzw. die Person mit niedrigerem X-Wert den höheren Y-Wert) aufweist. Solche Fälle nennt man diskordante Paare : Merkmal X definiert zwischen je zwei Untersuchungseinheiten die entgegengesetzte Rangordnung wie Merkmal Y. Je stärker nun die positive statistische Beziehung ist, desto häufiger werden beim Vergleich jeder Untersuchungseinheit mit jeder anderen konkordante Paare auftreten. Je stärker die negative statistische Beziehung ist, desto häufiger werden diskordante Paare auftreten. Das numerische Überwiegen in positiver bzw. negativer Richtung (n c -n d >0 bzw. n c -n d <0) ist also ein Ausdruck für die Enge der statistischen Beziehung. Um zu einem Assoziationsmaß zu gelangen, benötigt man jetzt lediglich noch einen Vergleichsmaßstab, um die Absolutziffer zu relativieren und einen Koeffizienten zu erhalten, der von der Zahl der gemessenen Fälle unabhängig ist. Dieser Vergleichsmaßstab kann entweder die Summe der konkordanten und diskordanten Paare oder die Gesamtzahl aller möglichen Paare sein. Im ersten Fall gelangt man zum Gamma-Koeffizienten (γ) von Goodman und Kruskal, im zweiten Fall zum Tau-a-Koeffizienten (τ a ) von Kendall. Formel (22): Formel (23): Beide Maßzahlen lassen sich eindeutig inhaltlich interpretieren. Beide messen das Überwiegen konkordanter Paarvergleiche gegenüber den diskordanten. Beide erreichen den Wert + 1, wenn keine diskordanten Paare vorhanden sind; und sie erreichen den Wer - 1, wenn keine konkordanten Paare existieren. Während aber Gamma das „relative Überwiegen“, gemessen an der Summe konkordanter plus diskordanter Paare, ausdrückt, verwendet Tau-a einen härteren Maßstab: die Gesamtzahl aller möglichen Paare. Tau-a kann also nur dann den Maximalbetrag 1 annehmen, wenn es nur konkordante oder nur diskordante Paare, jedoch keine Merkmalsgleichheiten gibt. Neben den Fällen, dass ein Vergleich zweier Untersuchungseinheiten das Ergebnis UE 1 <UE 2 oder UE 1 >UE 2 hinsichtlich des Merkmals X (oder Y) erbringt, existiert ja noch das mögliche Resultat UE 1 =UE 2 . Solche Fälle gleicher Merkmalsausprägung bei je zwei Untersuchungseinheiten heißen im gegebenen Zusammenhang „ties“ (Verknüpfungen). Werden die „ties“ bei der Einschätzung der Assoziation mitberücksichtigt, gelangt man zu weiteren (zum Teil recht komplexen) Koeffizienten, die 341 Man erkennt an dieser Überlegung, dass Maßzahlen nach dem Konzept des paarweisen Vergleichs Messungen auf mindestens Ordinalskalenniveau voraussetzen. konkordante Paare diskonkordante Paare Gamma-Koeffizient, Tau-a-Koeffizient Gamma ð Þ ¼ n c � n d n c þ n d  a Tau � a ð Þ ¼ n c � n d n ð n � 1 Þ = 2 Interpretation Gamma, Tau-a <?page no="457"?> 458 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 458 jedoch kein Thema dieses Lehrtextes sind. Interessenten werden auf die anschauliche Einführung bei Benninghaus (1974, 1990) verwiesen. Die Berechnung von Assoziationsmaßen des Typs „paarweiser Vergleich“ mit Hilfe des Taschenrechners ist nicht sehr empfehlenswert, da der Aufwand bei großen Tabellen erheblich sein kann. In der Forschungspraxis übernimmt ohnehin das eingesetzte Datenanalyseprogramm diese Arbeit, so dass lediglich der Nachvollzug der Logik dieses Assoziationsmodells für die nutzbringende Verwendung der verschiedenen Koeffizienten erforderlich ist. Die Bestimmung der Zahl konkordanter und diskordanter Paare soll deshalb im Folgenden lediglich für den einfachen Fall der 2x2-Tabelle illustriert werden. Hierbei ist wieder die allgemeine Form der Tabellendarstellung (mit den Symbolen a bis d für die vier Tabellenzellen) von Nutzen. X Y 1 2 1 a b a+b 2 c d c+d a+c b+d n Für diesen Spezialfall vereinfachen sich die Formeln 22 und 23 zu: Formel (22a): Formel (23a): An der obigen Tabelle können wir das nachvollziehen. Suchen wir also zunächst nach konkordanten Paaren. Ausgangspunkt sei die Merkmalskombination x = 1 und y = 1; die Anzahl der Untersuchungseinheiten mit diesen Messwerten kann in Tabellenzelle a abgelesen werden. Soll der Vergleich mit anderen Untersuchungseinheiten zum Resultat „konkordant“ führen, müssen diese UE i sowohl beim Merkmal X als auch beim Merkmal Y höhere Werte oder bei beiden niedrigere Werte aufweisen. Niedrigere Werte existieren in dieser Tabelle nicht. Höhere Werte bei X und Y weisen lediglich die Fälle in Tabellenzelle d auf. Für jede UE in Tabellenzelle a gilt nun: Der Vergleich mit jeder UE in Zelle d führt zum Resultat „konkordant“. Das ergibt insgesamt a⋅d konkordante Paare. Für die Fälle in den Tabellenzellen b und c finden sich keine „konkordanten“ Vergleichsobjekte; und die Fälle in Zelle d sind bereits berücksichtigt. Weitere konkordante Paare existieren somit nicht. Suchen wir nun nach diskordanten Paaren. Ausgangspunkt sei diesmal die Merkmalskombination x = 2 und y = 1 (Tabellenzelle b). Soll der Vergleich mit anderen UE „diskordant“ ausfallen, muss der Vergleichsfall entweder ein niedrigeres X und ein höheres Y oder ein höheres X und ein niedrigeres Y aufweisen. Die BEISPIEL ¼ ad � bc ad þ bc  a ¼ ad � bc n ð n � 1 Þ = 2 <?page no="458"?> 459 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 459 zuletzt genannte Konstellation kann in der gegebenen Tabelle nicht auftreten (X-Werte größer als 2 und Y-Werte kleiner als 1 existieren nicht). Es bleiben somit nur die in Tabellenzelle c eingruppierten Untersuchungseinheiten (mit x = 1 und y = 2). Für die noch nicht berücksichtigten Zellen a und d finden wir keine „diskordanten“ Vergleichsobjekte. Als Anzahl diskordanter Paare erhalten wir daher insgesamt b⋅c. 342 Die Berechnung von γ und τ a sei nun noch am Beispiel der Tabelle 8.20 illustriert. Für den Fall von 2x2-Tabellen können wir-- wie eben gezeigt-- die vereinfachten Formeln (22a) und (23a) verwenden. Setzen wir die Tabellenwerte in die Formeln ein, so erhalten wir für γ =-(46 · 210 - 129 · 18)/ (46 · 210 + 129 · 18) =-7338/ 11.982 =-0,612. Tau-a führt zu einem erheblich niedrigeren Wert, nämlich: τ a =-(46 · 210 - 129 · 18)/ (403 · 402/ 2) =-0,091. In Worten: Personen, die ihr Urteil über Obdachlose in Übereinstimmung mit ihrer Überzeugung über die Schuld an der Obdachlosigkeit (selbst verschuldet oder aber gesellschaftlich verursacht) fällen, überwiegen bei weitem gegenüber Personen mit „dissonantem Urteil“; der „Überschuss“ beträgt 61,2 Prozentpunkte (Gamma-Koeffizient). Bezogen auf die Gesamtzahl aller möglichen paarweisen Vergleiche allerdings macht dieser „Überschuss“ lediglich 9,1 Prozentpunkte aus (Tau-a). 343 Assoziationsmodell „proportionale Fehlerreduktion“ Maße auf der Grundlage des Modells der proportionalen Fehlerreduktion bzw. der „prädiktiven Assoziation“ 344 erlauben eine besonders klare inhaltliche Interpretation der berechneten Koeffizienten. Sie geben Auskunft darüber, in welchem Ausmaß sich die Schätzung der Ausprägungen, die die Untersuchungseinheiten auf der abhängigen Variablen aufweisen, durch die Einbeziehung von Informationen über die unabhängige (explikative) Variable verbessert (vgl. Abschnitt 8.3.1). 342 Auf die Berechnung der Verknüpfungen („ties“) wird hier verzichtet, da sie für die exemplarisch vorgestellten Koeffizienten Tau-a und Gamma nicht benötigt werden. 343 Somit existieren zahlreiche Verknüpfungen („ties“), also Personenpaare, die auf mindestens einer der beiden Variablen ein gleiches Urteil geäußert haben. Im gegebenen Fall sind es z. B. 339 der 403 Befragten (84,1 %), die Obdachlosigkeit als weitgehend selbstverschuldet betrachten. Wegen der Unbestimmtheit der Deutung eines niedrigen Wertes als entweder Ausdruck einer schwachen Korrelation zwischen X und Y oder als Ausdruck eines hohen Anteils an Verknüpfungen „ist der Koeffizient Tau-a in der empirischen Sozialforschung ausgesprochen unpopulär“ (Benninghaus 1990, 248). Kendall hat deshalb als Alternative u. a. Tau-b (mit expliziter Berücksichtigung von Verknüpfungen) entwickelt. 344 Häufig abgekürzt: PRE-Maße (engl.: proportional reduction in error measures). proportionale Fehlerreduktion <?page no="459"?> 460 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 460 Solche Koeffizienten existieren für nominal-, für ordinal- und für intervallskalierte Daten. Sie haben alle die gleiche Logik und unterscheiden sich jeweils nur a) in der Formulierung der Regeln für die Schätzung bzw. „Vorhersage“ der Merkmalsausprägungen (Regel 1: Schätzung der abhängigen Variablen ohne Auswertung der Informationen über die explikative Variable, Regel 2: Schätzung der abhängigen Variablen mit Auswertung der Informationen über die explikative Variable), b) in der Definition der „Fehler“, die bei der Schätzung der abhängigen Variablen nach den Regeln 1 und 2 aufgetreten sind; abgekürzt: E 1 (error 1) und E 2 (error 2). Gemeinsam ist ihnen, dass die Zahl oder die Größe der Schätzfehler, die man ohne Kenntnis der explikativen Variablen begehen würde, als Basis für die Berechnung des Assoziationskoeffizienten dient: Speziell für Kontingenztabellen wurde von Goodman und Kruskal sowie zuvor schon von Guttman ein prädiktives Assoziationsmaß konzipiert, dessen Berechnung nicht auf 2x2-Tabellen beschränkt ist und das zugleich einfach zu berechnen und klar zu interpretieren ist. Der Koeffizient wird im Allgemeinen mit dem griechischen Buchstaben λ (lambda) bezeichnet, manchmal auch „Guttman’s coefficient of (relative) predictability“ (g) genannt (Benninghaus 1990, 218). Lambda (oder „g“) ist zwar speziell auf nominalskalierte Daten zugeschnitten; die Verwendung ist jedoch auch bei ordinalskalierten Variablen noch empfehlenswert, sofern nicht zu viele Merkmalsausprägungen existieren. 345 Assoziations-Koeffizienten auf der Grundlage des Modells der proportionalen Fehlerreduktion benötigen-- wie dargelegt-- spezifische Schätz- und Fehlerdefinitionen. Für das PRE-Maß λ (lambda) gelten folgende Festlegungen: Problemstellung: Schätzung (oder „Vorhersage“) der Ausprägungen y i , die die Untersuchungseinheiten auf der abhängigen Variablen Y aufweisen. Dies ist bei nominalskalierten Daten gleichbedeutend mit der Klassifikation der Untersuchungseinheiten (=-Einteilung in Gruppen von Fällen mit jeweils gleichem Variablenwert y i ). Die Schätzregel 1 (ohne Auswertung der Informationen über die explikative Variable X) dient dazu, die y i -Werte allein auf der Basis ihrer eigenen Verteilung „vorherzusagen“, und zwar so, dass die Schätzfehler minimal sind. Dies ist allgemein der Fall, wenn als Schätzwert ein geeigneter „typischer“ Wert der Verteilung gewählt 345 Zwar berücksichtigt die Maßzahl λ nicht die zusätzliche Information der Rangordnung, die in ordinalskalierten Daten enthalten ist. Bei nur geringer Zahl von Ausprägungen ist der damit in Kauf genommene Informationsverlust jedoch nicht sehr groß. Koeffizienten, die auf ordinalskalierte Variablen zugeschnitten sind, sind z. B. die im vorigen Abschnitt dargestellten Maße des „paarweisen Vergleichs“. Unterschiede nach Skalenniveau PRE-Maß ¼ ð Fehler nach Regel 1 Þ � ð Fehler nach Regel 2 Þ ð Fehler nach Regel 1 Þ ¼ E 1 � E 2 E 1 λ (lambda) Schätzung der Ausprägungen y i Schätzung auf Basis eigener Verteilung <?page no="460"?> 461 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 461 wird. Bei nominalskalierten Daten stellt der Modus (die am häufigsten vorkommende Ausprägung; vgl. Abschnitt 8.2.3) diesen geeigneten typischen Wert dar. 346 Regel 1 lautet dann: Für jede Untersuchungseinheit wird die Modalkategorie „vorhergesagt“: y' i (Schätzwert) =-y i mit max(f i ) in der Randverteilung. Nach Schätzregel 2 (mit Auswertung der Informationen über die explikative Variable) wird demgegenüber die „Vorhersage“ der y i -Werte auf der Basis ihrer konditionalen Verteilungen (f i unter den Bedingungen x j =1, x j =2,-…; s. Abschnitt 8.3.2) vorgenommen, und zwar wiederum so, dass der Schätzfehler minimal ist. Bei nominalskalierten Daten bedeutet dies, dass für jede konditionale Verteilung von Y deren Modalkategorie gewählt wird. Regel 2 lautet dann: Für jede Untersuchungseinheit mit der Ausprägung x j wird die Modalkategorie der zugehörigen konditionalen Verteilung von Y „vorhergesagt“: y' i =-y i mit max(f ij ) in der konditionalen Verteilung. Zu definieren ist nun noch der „Schätzfehler“: Als Fehler gilt jeder Fall, der aufgrund der Schätzregeln unzutreffend klassifiziert wurde. Mit anderen Worten: Wenn wir die (nach Regel 1 bzw. nach Regel 2) geschätzten Werte y' i mit den „wahren Werten“ (den Messwerten) y i vergleichen, dann gilt jede Nichtübereinstimmung als „Fehler“. Daraus folgt: E 1 =-Fehler nach Regel 1 =-n-- max(f i. ) (Randverteilung Y); E 2 =-Fehler nach Regel 2 Die Berechnung von λ yx (lambda bei Schätzung der y i -Werte mit X als explikativer Variable) geschieht nach dem oben genannten generellen Schema: (E 1 -- E 2 )/ E 1 . Daraus folgt nach den gegebenen Definitionen die Formel (24): λ yx ist in der obigen Definition ein asymmetrisches Maß; d. h. es nimmt in aller Regel einen anderen Wert an, wenn X und Y vertauscht werden (d. h. wenn die Definition, welches Merkmal als explikative Variable und welches als abhängige Variable gelten soll, verändert wird; s. Abschnitt 8.3.1). 346 Jede andere, seltener vorkommende Ausprägung als Schätzgrundlage muss selbstverständlich zu einer größeren Zahl von Fehlklassifizierungen führen. Schätzung auf Basis der konditionalen Verteilung Schätzfehler ¼ X s j ¼ 1 � f : j � max ð f ij Þ   yx ¼ � n � max ð f i : Þ  � P s j ¼ 1 � f : j � max ð f ij Þ  n � max ð f i : Þ asymmetrisches Maß <?page no="461"?> 462 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 462 Im Obdachlosen-Beispiel (Tab. 8.19) kommen wir, wenn die vier Ausprägungen von Y (negative Beurteilung der Obdachlosen) geschätzt werden sollen, zu folgendem Resultat: Nach Vorhersageregel 1 (ohne Auswertung der Informationen über die Tendenz der Befragten, Obdachlosigkeit zu individualisieren = X) werden wir für jeden Befragten die Ausprägung y i = 3 (starke negative Beurteilung) schätzen, weil diese insgesamt am häufigsten vorkommt (max- f i. = 122). Jeder andere Wert würde zu einer größeren Zahl von Fehlklassifikationen führen. Nach Vorhersageregel 2 werden wir für jeden Befragten mit geringer Tendenz zur Individualisierung der Obdachlosigkeit (also bei x j = 1) die Ausprägung y i = 2 (geringe negative Beurteilung; max-f i1 =-26), für jeden Befragten mit starker Tendenz zur Individualisierung der Obdachlosigkeit (also bei x j = 2) die Ausprägung y i = 3 (starke negative Beurteilung; max f i2 = 108) schätzen. E 1 beträgt dann 403- 122 = 281; E 2 summiert sich auf (64-26)+(339-108) = 269. Das führt zu λ yx Die prädiktive Assoziation ist demnach sehr schwach: Bei Auswertung der Informationen über die explikative Variable verringern sich die Schätzfehler nur geringfügig gegenüber der Schätzung, die sich lediglich auf die Verteilung von Y selbst beschränkt. In einer Zahl ausgedrückt: Die proportionale Fehlerreduktion beträgt lediglich 4 %. Schrauben wir den Anspruch an die Präzision unserer prädiktiven Aussage etwas zurück und versuchen wir lediglich zu schätzen, ob die Bereitschaft zur negativen Beurteilung Obdachloser bei den Befragten „gar nicht oder allenfalls gering“ bzw. „stark oder sehr stark“ ausgeprägt ist (Tab. 8.20). Jetzt werden wir nach Vorhersageregel 1 für alle Personen „starke oder sehr starke“ Bereitschaft zu negativer Beurteilung prognostizieren. Nach Vorhersageregel 2 schätzen wir, dass Personen mit geringer Tendenz zur Individualisierung der Obdachlosigkeit diese Randgruppe „gar nicht oder allenfalls gering“, Personen mit starker Tendenz zur Individualisierung der Obdachlosigkeit dagegen „stark oder sehr stark“ negativ beurteilen (Tabelle 8.20). Somit ergibt sich: λ yx Es zeigt sich, dass die Stärke der prädiktiven Assoziation auch von der Anzahl der Kategorien abhängen kann, die die abhängige Variable aufweist: Werden Kategorien zusammengefasst, wird die Vorhersage „leichter“, und der Assoziationskoeffizient fällt häufig größer aus. Dies muss jedoch nicht immer der Fall sein; es kann auch vorkommen, dass eine Differenzierung, die vorher möglich war (etwa zwischen stark und sehr stark), durch die Zusammenfassung wegfällt und dadurch die Schätzung „schlechter“ wird. BEISPIEL ¼ E 1 � E 2 E 1 ¼ 281 � 269 281 ¼ 12 281 ¼ 0,04 : ¼ ð 403 � 228 Þ � ð 64 � 46 þ 339 � 210 Þ 403 � 228 ¼ 28 175 ¼ 0,16 : <?page no="462"?> 463 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 463 Bei einem Vergleich der Prozentsatzdifferenz mit dem λ-Maß wird eine weitere Besonderheit erkennbar. Während die Prozentsatzdifferenz in unserem Beispiel eine relativ starke Assoziation ausdrückt (33,8 %-Punkte Subgruppendifferenz; stark oder sehr stark negative Urteile sind in der Subgruppe x j = 2 mehr als doppelt so häufig vertreten wie in der Subgruppe x j = 1), ist die prädiktive Assoziation nur schwach. Noch stärker ist der Unterschied in der Größe des berechneten Koeffizienten, wenn wir den Wert von γ (Gamma) einbeziehen. Diese auf den ersten Blick ins Auge fallende Widersprüchlichkeit ist allerdings nur eine scheinbare; sie ist in den unterschiedlichen Konstruktionsvorschriften der Assoziationsmodelle begründet. Die Prozentsatzdifferenz vergleicht die relativen Häufigkeiten zwischen den Subgruppen, so dass ungleiche Häufigkeiten in den Kategorien der explikativen Variablen (hier: f .1 = 64 und f .2 = 339) unberücksichtigt bleiben; die Subgruppen werden als (qualitativ) gleichgewichtig betrachtet. λ dagegen wird anhand der absoluten Häufigkeiten berechnet, so dass die Abweichungen mit den Häufigkeiten der explikativen Variablen gewichtet werden; die Subgruppen sind aus dieser Sicht von (quantitativ) ungleichem Gewicht. Im obigen Beispiel führt die Vorhersageregel-2 in den meisten Fällen (f .2 = 339) zum identischen Resultat wie die Vorhersageregel-1 und damit zu keiner Fehlerreduktion. Nur in der weitaus geringeren Zahl von Fällen (f .1 = 64) bringt die Vorhersageregel- 2 eine Verbesserung der Schätzung. Dadurch bleibt insgesamt die Verbesserung gegenüber Regel 1 relativ unbedeutend. Gamma schließlich setzt ganz andere Sachverhalte miteinander in Beziehung als d% und λ (nämlich nicht die Untersuchungseinheiten selbst, sondern Vergleichsvorgänge zwischen Paaren von Untersuchungseinheiten). Man erkennt an diesem Beispiel, dass auch hinsichtlich der Messung der Stärke von Variablen-Beziehungen unterschiedliche Modelle zu unterschiedlichen Resultaten führen. Dies ist kein Nachteil; es bedeutet lediglich, dass jedes Modell unterschiedliche Aspekte des Begriffs Assoziation hervorhebt. Neben dem Messniveau der Daten hängt es vor allem von der Fragestellung der Untersuchung ab, welches Assoziationsmaß das jeweils geeignete ist. 8.3.3 Lineare Einfachregression Während die Tabellenanalyse-- das in den Sozialwissenschaften wohl am häufigsten verwendete Datenanalyseverfahren- - unabhängig vom Messniveau der Variablen immer anwendbar ist, beschränkt sich die Regressionsrechnung auf metrische, d. h. mindestens intervallskalierte Daten. 347 Die Regressionsrechnung- - speziell in ihrer Ausweitung auf das Modell der Mehrfachregression-- wird häufig als besonders geeig- 347 Auf Möglichkeiten der Ausweitung des Verfahrens auch auf Variablen niedrigeren Skalenniveaus-- etwa durch Transformation in „Indikatorvariablen“-- soll hier nicht eingegangen werden. Wir verweisen auf die Anmerkungen in Abschnitt 8.4 und die ausführliche Einführung mit Anwendungsbeispielen bei Andreß/ Hagenaars/ Kühnel 1997. Vergleich Prozentsatzdifferenz/ λ Prüfung quantitativer Zusammenhänge <?page no="463"?> 464 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 464 net für die Überprüfung von Hypothesen empfohlen, in denen quantitative Zusammenhänge postuliert werden (Je-desto-Sätze: Je größer X, desto größer/ kleiner Y). Das bei der linearen Einfachregression zu lösende Problem ist mathematisch eindeutig definiert: Es gilt eine Gleichung zu finden, die den linearen Zusammenhang zwischen einer auf mindestens Intervallskalenniveau gemessenen explikativen Variablen und einer ebenfalls mindestens auf Intervallskalenniveau gemessenen abhängigen Variablen in bestmöglicher Weise zum Ausdruck bringt. Anders formuliert: Es gilt eine Gleichung zu finden, mit deren Hilfe die Werte der abhängigen Variablen (in diesem Zusammenhang häufig „Kriterium“ genannt) aufgrund der Werte der explikativen Variablen (hier „Prädiktor“ genannt) so geschätzt werden können, dass die Schätzfehler minimal sind. Diese Problemstellung auf der Ebene der bivariaten Statistik ist analog zur Suche nach einem Mittel- oder Zentralwert im Falle der univariaten Statistik zu sehen. Der Mittel- oder Zentralwert soll im Rahmen bestimmter Modellvoraussetzungen etwas „Typisches“ über die Verteilung einer einzigen Variablen aussagen. Bei der linearen Einfachregression wird danach gefragt, was im Rahmen der Modellvoraussetzungen (u. a. Linearität der Beziehung: mit zunehmendem X nimmt Y kontinuierlich und proportional zu/ ab) das „Typische“ der gemeinsamen Verteilung zweier Variablen ist. Das Resultat wird in der Form der Gleichung einer Geraden (ŷ i = a + bx i ) ausgedrückt. 348 Die lineare Einfachregression beschränkt sich demnach auf nur die lineare (proportionale) Beziehung zwischen einer unabhängigen (explikativen) und einer abhängigen Variablen. Falls also unter diesen Voraussetzungen eine statistische Beziehung zwischen den untersuchten Variablen nicht festgestellt werden kann, bedeutet dies noch nicht, dass überhaupt keine Beziehung, sondern lediglich, dass keine lineare Beziehung zwischen ihnen besteht. Man wird sich deshalb sinnvollerweise vor Anwendung dieses statistischen Modells darüber vergewissern, dass die Annahme der Linearität zutrifft, indem man etwa ein Streudiagramm (vgl. Abschnitt 8.3) der gemeinsamen Verteilung beider Variablen erstellt. 349 Die Bezeichnung „Regression“ entstammt einer ganz spezifischen Fragestellung aus der Biologie. Der Biologe Francis Galton hatte beim Studium der Vererbung entdeckt, dass groß gewachsene Eltern auch relativ groß gewachsene Kinder haben, genauer: dass zwar die Körpergrößen der erwachsenen Kinder nicht mit den Körpergrößen der Eltern übereinstimmten, dass aber offenbar für die Durchschnittsgröße der Kinder eine Tendenz existierte, sich zur Durchschnittsgröße ihrer Eltern hin zu entwickeln (engl.: regression =- Zurückentwicklung, Rückbildung). Um diese „Regressionstendenz“ (Galton: line of regression) zahlenmäßig zu erfassen, suchte er 348 In der univariaten Statistik ist das Resultat der Suche nach dem „Typischen“ einer Verteilung dagegen ein einziger Punkt auf der beobachteten Merkmalsdimension. 349 Es existieren auch Regressionsmodelle für nicht lineare Variablenbeziehungen; genauso gibt es Regressionsansätze für die Bestimmung des gemeinsamen Einflusses mehrerer explikativer auf eine abhängige Variable. Der vorliegende Text beschränkt sich auf die Darstellung des Modells der linearen Einfachregression für deskriptive Zwecke. mathematisches Problem der linearen Regression das Typische der gemeinsamen Verteilung lineare Beziehung Prüfung der Linearität <?page no="464"?> 465 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 465 a) nach einer mathematisch definierten „Regressionslinie“, die die Tendenz der Beziehung zwischen den Körpergrößen von Eltern und Kindern unter Vernachlässigung der jeweiligen Abweichungen klarer zum Ausdruck bringt (Beschreibung der Art der Beziehung), b) nach einem Koeffizienten, mit dessen Hilfe Daten verschiedener Beobachtungsgruppen miteinander verglichen werden können (Bestimmung der Stärke der Beziehung). Der Mathematiker Karl Pearson nahm sich dieses Problems an und entwickelte um 1880 zu a) eine Regressionsgleichung und zu b) den sogenannten Produkt-Moment-Korrelationskoeffizienten r (r von „regression“), der in Abschnitt 8.3.4 behandelt wird. Pearson machte dabei zwei allgemeine mathematische Annahmen, die beide auf Galtons Problem mit sehr guter Annäherung zutrafen (vgl. Neurath 1974, 127 f.): - Die beiden Variablen, deren Beziehung zueinander dargestellt werden sollte, sind jede für sich normalverteilt, so dass sie zusammen eine bivariate Normalverteilung bilden; 350 - die „Regression“, d. h. die unterstellte Beziehung zwischen den beiden Variablen, ist geradlinig (oder linear). 351 Die Logik des Vorgehens soll an einem (konstruierten) Beispiel veranschaulicht werden: Der energieverbrauchsbewusste, in einem Luxusappartement wohnende, statistisch geschulte, jedoch technisch nicht sehr beschlagene Student S aus B möchte wissen, wie hoch der Verbrauch seines elektrischen Wäschetrockners ist. Er notiert deshalb bei jeder Benutzung die Laufzeit des Geräts und fasst die Zeiten monatsweise zusammen (Variable X). Zugleich entnimmt er seiner Elektrizitätsrechnung den Gesamtverbrauch pro Monat in Kilowattstunden (Variable Y). Da er in seinem Appartement nicht nur den Wäschetrockner, sondern auch andere elektrische Geräte betreibt, kann er nicht unmittelbar aus diesen Angaben den Stromverbrauch des Wäschetrockners berechnen. Der Student S ist jedoch sicher, dass der gesamte übrige Elektrizitätsbedarf unabhängig von der Trocknerbenutzung variiert (d. h. mit zunehmender Trocknerbenutzung erhöht/ vermindert sich nicht systematisch der sonstige Elektrizitätsverbrauch). Nach einem Jahr Buchführung entscheidet der geduldige Student S sich daher für die Anwendung des Modells der linearen Einfachregression, um endlich eine Antwort auf seine dringende Frage zu finden. Die von ihm notierten 12 Wertepaare ergeben, in einem Streudiagramm dargestellt, die im Folgenden dargestellte gemeinsame Verteilung (Tabelle 8.21). Das Streudiagramm lässt erkennen, dass die Annahme einer linearen Beziehung zwischen X (Betriebsdauer des 350 Diese Einschränkung gilt nicht für Anwendungen in der deskriptiven Statistik. Aber auch in der schließenden Statistik reduziert sie sich auf die Forderung, dass die Abweichungen der Kriteriumswerte von der beobachteten Regressionstendenz normalverteilt sein (und gleiche Varianz aufweisen) müssten; d. h. die Annahme der Normalverteilung wird im Regressionsmodell nur für die Schätzfehler gemacht (vgl. Gaensslen/ Schubö 1976, 45 ff.). 351 Im Falle zweier normalverteilter Variablen ist diese Bedingung immer erfüllt. Produkt-Moment- Korrelationskoeffizienten r mathematische Annahmen BEISPIEL <?page no="465"?> 466 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 466 Wäschetrockners) und Y (Gesamtverbrauch an Elektrizität) gerechtfertigt ist: Proportional zur zunehmenden Betriebszeit des Trockners steigt tendenziell auch der Gesamtverbrauch. monatliche Betriebszeit des-Trockners (Stunden): monatlicher Gesamtverbrauch an Elektrizität (kWh): 10 20 0 10 20 30 40 50 60 70 x i y i x i y i 20 72 10 52 16 55 4 46 22 64 0 20 18 74 12 56 2 36 8 51 14 63 6 35 Diese (positive) proportionale Beziehung wird durch die von links unten nach rechts oben verlaufende „Trendgerade“ zum Ausdruck gebracht, die wir, zunächst nach Augenmaß, „mitten durch“ die Punkte (die im Koordinatensystem eingetragenen Wertepaare) legen. Dabei sieht man, dass erstens noch zusätzliche Verbrauchsursachen existieren müssen; denn auch in dem Monat ohne Trocknerbenutzung (x 6 =- 0) wurde Elektrizität verbraucht (y 6 =- 20). Zweitens liegen die Punkte nicht genau auf der „Trendgeraden“, sondern weisen mehr oder weniger große Abweichungen auf. Demnach variiert also nicht nur die Trocknerbetriebszeit, sondern auch der übrige Verbrauch ist nicht in jedem Monat gleich hoch. Aufgabe der Regressionsrechnung ist es nun, die zunächst lediglich „freihändig“ oder nach Augenmaß gezeichnete Trendgerade mathematisch präzise zu bestimmen. Diese „Regressionsgerade“ soll dabei ein bestimmtes Gütekriterium maximieren, sie soll nämlich die „beste Schätzlinie“ für die gemeinsame Verteilung der Variablen X und Y (d. h. für den Punkteschwarm im Streudiagramm) sein. Die Bezeichnung „Schätzlinie“ stammt von der bereits genannten spezifischen Aufgabenstellung, für die die Regressionsrechnung häufig verwendet wird: Auf der Basis der (bekannten) Ausprägungen der unabhängigen Variablen X (Prädiktor) sollen die (unbekannten) Ausprägungen der abhängigen Variablen Y (Kriterium) geschätzt werden. Falls nun im Koordinatensystem die Regressionsgerade eingezeich- Tabelle 8.21: Beispiel für Regressionsgerade Regressionsgerade als beste Schätzlinie <?page no="466"?> 467 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 467 net ist, kann man mit ihrer Hilfe zu jedem Wert auf der Abszisse (x i ) den zugehörigen Schätzwert der abhängigen Variablen (ŷ i ) ablesen. Bei der linearen Regressionsrechnung geht es also darum, die mathematische Gleichung für diese Schätzgerade so zu bestimmen, dass der Schätzwert (ŷ i ) als lineare Funktion der Prädiktorvariablen dargestellt wird. Eine lineare Funktion hat die Form Y =-a + bX und ist eine spezielle, mathematisch-formale Fassung des Je-desto-Satzes (s. o.). Falls der Koeffizient b > 0 ist, entspricht sie der Formulierung: Je größer X, desto größer Y; falls b < 0 ist, entspricht sie der Formulierung: Je größer X, desto kleiner Y. Die Konstante a bezeichnet denjenigen Wert, den die Variable Y annimmt, falls X die Ausprägung 0 aufweist. Die Gleichung ist jedoch insofern eine spezielle Fassung des Je-desto-Satzes, als bei ihr größeren X-Werten nicht lediglich größere Y-Werte entsprechen, sondern darüber hinaus gleichen Differenzen in X auch gleiche Differenzen in Y (vgl. Gaensslen/ Schubö 1976, 19). Anders formuliert: Die lineare Funktion Y =-a + bX ist die mathematisch-formale Fassung des Je-desto-Satzes für den Fall, dass einem Zuwachs in X jeweils ein proportionaler Zuwachs (oder eine proportionale Abnahme) in Y entspricht, wobei b der Proportionalitätsfaktor ist. 352 In der grafischen Darstellung (im Streudiagramm) entspricht b der Steigung der Geraden und a ihrem Schnittpunkt mit der Y-Achse. Die Werte der Y-Variablen werden jedoch durch die Gleichung Y-=-a-+-bX nur in dem Grenzfall zutreffend dargestellt, dass Y hundertprozentig eine Funktion von X ist. In allen sonstigen Fällen treten Abweichungen (e i ) zwischen den empirisch beobachteten Werten y i und den durch „a + bX“ definierten Werten auf; dies ist im Streudiagramm zu erkennen. Für die empirische Variable Y muss die Gleichung daher lauten: y i =-a + bx i + e i . Das heißt: Jeder Beobachtungswert y i wird in zwei Komponenten zerlegt: in den Teil, der mit Hilfe der Regressionsgleichung geschätzt werden kann (a + bx i ), und den Teil, der nach Abzug des Schätzwertes übrig bleibt. Zur Unterscheidung von dem empirisch beobachteten Wert y i wird der Schätzwert durch ŷ i gekennzeichnet, so dass nun gilt: ŷ i =-a + bx i . Die Gesamtheit der einzelnen Schätzwerte ist dann die Schätzvariable Ŷ. Die Differenz zwischen den empirischen und den geschätzten Werten nennt man Schätzfehler oder Residuum (Rest) und wählt dafür das Symbol e i (e =-error), so dass gilt: y i -- ŷ i =-e i . Die Gesamtheit der einzelnen Schätzfehler oder Residuen ist die Fehler- oder Residualvariable e. Nach diesen Vorüberlegungen können wir zu der mathematischen Problemstellung, der Bestimmung einer Regressionsgeraden, zurückkehren. Damit diese eine „beste Schätzlinie“ ist, muss sie bestimmte Eigenschaften aufweisen: 1) Sie darf nicht zu systematischen Über- oder Unterschätzungen führen; d. h. die Summe der Schätzfehler muss 0 ergeben, oder: Die Abweichungen von der 352 Bei überproportionalen Zuwächsen/ Abnahmen wären nicht lineare Funktionen zu formulieren, etwa: Y =-a + bX + cX 2 , falls gleichzeitig ein linearer und ein quadratischer Zusammenhang besteht. lineare Funktion Abweichungen (e i ) Schätzfehler, Residuum Eigenschaften der besten Schätzlinie Schätzfehlersumme-=-0 <?page no="467"?> 468 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 468 Schätzgeraden „nach oben“ müssen insgesamt genauso groß sein wie die Abweichungen „nach unten“. Diese Bedingung ist erfüllt, wenn die Schätzgerade durch den Punkt läuft, der aus den arithmetischen Mittelwerten beider Variablen (x, y) bestimmt ist, denn das arithmetische Mittel erfüllt die Bedingung, dass die Abweichungen der Einzelwerte nach oben und nach unten insgesamt gleich groß sind (vgl. Abschnitt 8.2.3). 2) Die Regressionsgerade soll zu einem Minimum an Schätzfehlern führen. Dabei gilt als Schätzfehler die quadrierte Abweichung des Beobachtungswertes vom Schätzwert, so dass die zweite Bedingung präziser formuliert lautet: Die Summe der quadrierten Abweichungen der Beobachtungswerte von der Schätzgeraden soll ein Minimum ergeben: Oder: Die Regressionsgerade soll so bestimmt werden, dass die Schätzfehlervarianz minimiert wird: Diese Bedingungen entsprechen der von dem Mathematiker C. F. Gauß entwickelten „Methode der kleinsten Quadrate“. Gauß hatte sich die Aufgabe gestellt, aufgrund nicht ganz übereinstimmender Beobachtungen von Planetenbahnen den „wahren Wert“ eines Punktes auf einer Planetenbahn zu schätzen. Nach dem Prinzip der kleinsten Quadrate 353 ist die beste Schätzung „jener Punkt, für den die Wahrscheinlichkeit, dass die Beobachtungswerte rein zufällige Beobachtungsfehler darstellen, am größten ist; was wiederum bedeutet: jener Punkt, um den die Varianz der Beobachtungswerte ein Minimum ist“ (Neurath 1974, 130). In Anlehnung an dieses Verfahren nennt man die nach den genannten Bedingungen bestimmte Regressionslinie auch die „Linie der kleinsten Quadrate“. Da in der oben genannten zweiten Bedingung (Minimierung der Fehlervarianz) die erste Bedingung bereits enthalten ist (die Fehlervarianz kann nur dann minimal sein, wenn es keine systematischen Über- oder Unterschätzungen gibt), bleibt nur diese eine Minimierungsaufgabe zu lösen, um die numerischen Werte der Konstanten a und des Steigungskoeffizienten b in der Regressionsgleichung zu bestimmen. Zur Lösung von Maximierungs-/ Minimierungsproblemen ist in der Mathematik das Instrumentarium der Differenzialrechnung entwickelt worden. Allerdings brauchen wir nicht in jedem Einzelfall anhand der empirischen Daten diese Minimierungsaufgabe zu lösen, sondern es genügt, den Rechengang anhand allgemeiner Zahlen durchzuführen und so Formeln für die numerische Bestimmung von a und b zu entwickeln. 353 Genauer müsste es eigentlich heißen: „Prinzip der kleinsten quadrierten Abweichungen“. Minimum der Schätzfehler P e 2 i ¼ P y i � ^ y i �  2 ¼ Minimum : P e 2 i n ¼ P y i � ^ y i �  2 n ¼ Minimum Methode der kleinsten Quadrate <?page no="468"?> 469 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 469 Nach Bedingung 2) soll die Regressionsgerade so bestimmt werden, dass die Summe der quadrierten Abweichungen der Beobachtungswerte von den Schätzwerten ein Minimum ergibt: Σe 2 i = Σ(y i - ŷ i ) 2 =-Σ(y i - a - bx i ) 2 =-Minimum. Um die Konstanten a und b so zu bestimmen, dass die Minimierungsbedingung erfüllt ist, wird der Ausdruck Σ(y i - a - bx i ) 2 zunächst nach a und b partiell abgeleitet (was hier jedoch nicht im Detail dargestellt werden soll 354 ). Durch Nullsetzen dieser partiellen Ableitungen und geeignete Umstellungen erhält man die Formeln für die Berechnung der Regressionsparameter a und b, wobei im Folgenden die Konstante a als „Regressionskonstante“ und der Steigungskoeffizient b als „Regressionskoeffizient“ bezeichnet werden sollen. Da es sich beim Regressionsproblem wieder um eine asymmetrische Fragestellung handelt (vgl. Abschnitt 8.3.2), ist die Richtung der Schätzung durch Subskripte zu kennzeichnen. Wenn-- wie in der bisherigen Argumentation-- die y i anhand der x i -Werte geschätzt werden sollen, wird dies durch die Regressionskonstante a yx und den Regressionskoeffizienten b yx angedeutet. Kehrt man die Richtung um, so dass die x i anhand der Kenntnis der y i -Werte geschätzt werden sollen, werden auch die Subskripte vertauscht: a xy und b xy . Formeln bei der Schätzung der y i auf der Basis von x i : Formel (25): Formel (26): Formeln bei Schätzung der x i auf der Basis von y i : Formel (27): bzw. Formel (28): 354 Das Ziel dieses Textes ist nicht die mathematische Herleitung der folgenden Formeln, sondern die Vermittlung der logischen Basis zum Verständnis und zur inhaltlichen Interpretation des häufig verwendeten statistischen Modells der Regressions- und Korrelationsrechnung. VERTIEFUNG asymmetrische Fragestellung b yx ¼ P x i � x ð Þ y i � y ð Þ P x i � x ð Þ 2 a yx ¼ 1 n X n i ¼ 1 y i � b yx x i �  ¼ y � b yx  x b xy ¼ P x i � x ð Þ y i � y ð Þ P y i � y ð Þ 2 a xy ¼ 1 n X n i ¼ 1 x i � b xy y i �  ¼ x � b xy  y <?page no="469"?> 470 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 470 Das Beispiel des Studenten S aus B (Tab. 8.21) soll unter Verwendung der Formeln (25) und (26) durchgerechnet werden. Wir benötigen dazu wieder eine Arbeitstabelle, deren Spalten sich aus den verwendeten Formeln ergeben: x i y i (x i -x) (y i -y) (x i -x)(y i -y) (x i -x) 2 20 72 9 20 180 81 10 52 -1 0 0 1 16 55 5 3 15 25 4 46 -7 -6 42 49 22 64 11 12 132 121 0 20 -11 -32 352 121 18 74 7 22 154 49 12 56 1 4 4 1 2 36 -9 -16 144 81 8 51 -3 -1 3 9 14 63 3 11 33 9 6 35 -5 -17 85 25 ∑-=-132 X-=-11 ∑ =-624 Y-=-52 ∑-=-1144 ∑-=-572 Die Regressionsgleichung für den Gesamtelektrizitätsverbrauch des Studenten S aus B in Abhängigkeit von der Betriebsdauer seines Wäschetrockners lautet: ŷ i = 30 + 2x i . Der Regressionskoeffizient b = 2,0 gibt ihm die gewünschte Antwort: Je Betriebsstunde des Trockners (x i ) steigt der Gesamtverbrauch an Strom um zwei Kilowattstunden (die Leistungsaufnahme des Trockners beträgt also 2kW). Die Regressionskonstante a = 30,0 lässt sich in unserem Beispiel so interpretieren, dass ohne Berücksichtigung des Trocknerbetriebs (d. h. bei x i = 0) der Student S monatlich im Durchschnitt 30 Kilowattstunden Strom verbraucht. Welche Fragen lassen sich mit Hilfe der linearen Einfachregression beantworten? 1) Wir wollen die Grundrichtung der Beziehung zwischen X und Y ermitteln, d. h. wir wollen wissen, wie groß die proportionale Veränderung in Y ist, wenn X um eine Einheit erhöht oder vermindert wird. Dies ist der häufigste Anwendungsfall. Man hat eine Hypothese (z. B.: Das monatliche Arbeitseinkommen von Berufstätigen steigt mit dem Grad der formalen Schulbildung, gemessen in Schuljahren; oder in Je-desto-Formulierung: Je höher der Grad der formalen Schulbildung, desto höher das monatliche Arbeitseinkommen von Berufstätigen) und überprüft diese mit dem Instrument der Regressionsanalyse. Falls die Daten eine Bestätigung für die Hypothese bieten, liefert der Regressionskoeffizient b den Proportionalitätsfaktor: Pro BEISPIEL Tabelle 8.22: Berechnung der Regressionsgleichung (Arbeitstabelle) b yx ¼ 1144 572 ¼ 2,0 ; a yx ¼ 52 � 2  11 ¼ 30,0 : Informationen der Einfachregression Grundrichtung der Beziehung <?page no="470"?> 471 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 471 Jahr zusätzlicher Schulbildung steigt bei den Untersuchungseinheiten im Durchschnitt das Einkommen um b Einheiten. 355 2) Wir wollen einen Schätzwert der abhängigen Variablen Y für einen X-Wert ermitteln, der außerhalb der Reihe der Beobachtungswerte liegt (Extrapolation). 3) Mitunter interessiert auch der Schätzwert der abhängigen Variablen Y für einen X-Wert, der zwischen zwei bekannten X-Werten liegt, selbst aber nicht realisiert ist (Interpolation). 4) Schließlich wird nicht selten aufgrund von Beobachtungen des gleichen Sachverhalts zu verschiedenen Zeitpunkten (Zeitreihenwerte, Längsschnittbetrachtung) ein Entwicklungstrend berechnet und als Prognose in die Zukunft fortgeschrieben. Der Logik nach ist dieses ein ähnliches Vorgehen wie bei der Extrapolation aufgrund von Werten aus einer Querschnittsbetrachtung. In beiden Fällen hat man von der Annahme auszugehen, dass sich an der Art der Beziehung der Variablen nichts ändert, wenn der Bereich der empirischen Beobachtungen überschritten wird. Extrapolationen sind z. B. unzutreffend, wenn außerhalb des Wertebereichs, über den Daten vorliegen, die Beziehung nicht mehr linear ist. Prognosen aufgrund von Zeitreihenwerten erweisen sich als falsch, sobald sich Randbedingungen, die bisher die beobachteten Werte beeinflusst haben, in unerwarteter Weise in der Zukunft ändern. 8.3.4 Korrelationsrechnung Mit dem Modell der Regressionsrechnung steht uns ein Instrument zur Verfügung, das es erlaubt, die Parameter einer Gleichung so zu bestimmen, dass bei gegebenen Daten eine abhängige Variable (Kriterium) in bestmöglicher Weise aus einem Satz explikativer Variablen (Prädiktoren) geschätzt werden kann. Im hier behandelten Spezialfall der linearen Einfachregression reduziert sich dies auf die Bestimmung der Gleichung der Regressionsgeraden, um aufgrund der Werte einer explikativen Variablen die Ausprägungen der abhängigen Variablen zu schätzen. Die Gleichung gibt Auskunft über die Art der statistischen Beziehung zwischen zwei Variablen (positive oder negative Assoziation) sowie über den Proportionalitätsfaktor b yx (vgl. den vorigen Abschnitt); sie gibt jedoch keine Auskunft über die Stärke der Assoziation. Bei identischen Regressionsgleichungen können die beobachteten (gemessenen) empiri- 355 Bei Daten, die für eine Mehrzahl von Untersuchungseinheiten zum gleichen Zeitpunkt erhoben wurden (Querschnittsanalyse), darf der Koeffizient b nicht in dieser Weise „dynamisch“ interpretiert werden, wie es Formulierungen wie („Pro Jahr-… steigt das Einkommen um-…“) auszudrücken scheinen. Vielmehr handelt es sich um einen (statischen) Vergleich der Einkommen bei Subgruppen von Untersuchungseinheiten mit je unterschiedlicher Schulbildung. Genau genommen müsste man also sagen: „Bei den Untersuchungseinheiten weist das Merkmal Arbeitseinkommen um b Einheiten höhere Werte auf, wenn das Merkmal Schulbildung um eine Einheit höher liegt.“ So umständliche Formulierungen wird man jedoch in keinem Forschungsbericht finden. Extrapolation Interpolation Prognose <?page no="471"?> 472 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 472 schen Werte der Variablen Y unterschiedlich stark um die Schätzgerade streuen, wie das folgende Beispiel zeigt: a) Werte aus Tab. 8.21 b) geänderte y i -Werte x i y i x i y i 20 72 20 87 10 52 10 47 16 55 16 45 4 46 4 51 22 64 22 54 0 20 0 10 18 74 18 79 12 56 12 51 2 36 2 51 8 51 8 56 14 63 14 68 6 35 6 25 Beide Wertetabellen führen zu der Regressionsgleichung ŷ i =-30 + 2x i (bitte prüfen Sie dies durch eigene Berechnungen nach). Dennoch liefert offensichtlich die Schätzgerade im Streudiagramm a) eine bessere Anpassung an den Punkteschwarm als im Streudiagramm b). Die Abweichungen der gemessenen y i -Werte (=- Punkte im Koordinatensystem) von den Schätzwerten ŷ i (=- Punkte auf der Geraden) sind bei a) insgesamt geringer als bei b). Mit anderen Worten: Die Schätzung der y i -Werte mit Hilfe der Gleichung ŷ i =-30 + 2x i gelingt im Falle a) „besser“, verlässlicher, präziser als im Falle b). BEISPIEL Tabelle 8.23: Beispiel für unterschiedliche Assoziationsstärke y i 10 20 0 20 40 60 80 Streudiagramm zu a) 10 20 y i 20 40 60 80 x i Streudiagramm zu b) 0 x i <?page no="472"?> 473 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 473 Wir benötigen also zur Charakterisierung der gemeinsamen Verteilung zweier metrischer Variablen neben der Regressionslinie (hier Regressionsgerade), die den „typischen Verlauf“ der gemeinsamen Verteilung (ihre „Tendenz“) wiedergibt, zusätzlich ein Maß für deren „Güte“. Zur Erinnerung: In der univariaten Statistik geben wir die „Tendenz“ einer univariaten Verteilung durch einen geeigneten Mittelwert wieder und messen die „Güte“ des Mittelwerts durch ein Streuungsmaß. Dabei gilt: Je geringer die Streuung ist, desto besser charakterisiert der Mittelwert das „Typische“ der Verteilung. Analog dazu kann man sagen: Je geringer die Abweichungen der gemessenen y i -Werte von den Schätzwerten-- d. h. von der Regressionsgeraden-- ausfallen, desto besser charakterisiert die Regressionsgleichung den „typischen Verlauf“ einer bivariaten Verteilung. Bleiben wir beim Vergleich mit der univariaten Statistik: Als Streuung oder Merkmalsvariation wird dort bei metrischen Variablen die Verteilung der Differenzen zwischen den Messwerten und einem Mittelwert-- üblicherweise dem arithmetischen Mittel-- definiert (vgl. Abschnitt 8.2.4). Auf die bivariate Statistik übertragen bedeutet dies: Zur Charakterisierung der Güte der Regressionsgeraden bietet sich die Streuung der Schätzfehler (e i )-- d. h. die Verteilung der Differenzen zwischen den gemessenen y i - und den geschätzten ŷ i -Werten-- an (vgl. Tab. 8.21 sowie das Diagramm neben der Tabelle). Da jedoch für die Bestimmung der Regressionskonstanten a und des Regressionskoeffizienten b als „Schätzfehler“ nicht die einfache Abweichung e i , sondern die y i ŷ 1 y i ( x i y i ) x 1 x i ŷ 1 y 1 e 1 ŷ 1 = a + bx i Erläuterungen: ŷ i = a + bx i = Regressionsgerade; y i = gemessener Wert der Variablen Y bei UE1; x 1 = gemessener Wert der Variablen X bei UE 1 ; (x 1 , y 1 ) = Wertepaar bei UE 1 , ŷ i = Hilfe der Regressionsgleichung aufgrund der Kenntnis von x 1 geschätzter Wert der Variablen Y bei UE 1 ; e 1 = Abweichung des gemessenen Wertes y 1 vom Schätzwert ŷ i .    Abbildung 8.9: Bestimmung der Fehlervarianz <?page no="473"?> 474 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 474 quadrierte Abweichung des Beobachtungswertes vom Schätzwert definiert wurde (vgl. Abschnitt 8.3.3), ist die Summe der Schätzfehler gleich der Summe der quadrierten Abweichungen der Beobachtungswerte y i von den zugehörigen Schätzwerten ŷ i : also Σ(y i -- ŷ i ) 2 . Als Maß für die Größe der Streuung der Schätzfehler bietet sich dann analog zur Varianz im Falle der univariaten Statistik 356 der „durchschnittliche Schätzfehler“ oder die „Fehlervarianz“ an: Je kleiner (größer) die Fehlervarianz ist, desto besser (weniger gut) charakterisiert die Regressionsgleichung die gemeinsame Verteilung der (x i ,y i )-Werte. Bei dieser Feststellung-- nämlich der Bestimmung der Fehlervarianz s 2 e =- 1 / n ·Σe 2 i -- bleibt man in der bivariaten Statistik jedoch nicht stehen. Die zu Beginn dieses Abschnitts im Zusammenhang mit den Streudiagrammen a) und b) gemachte Aussage: „Die Schätzung der y i -Werte mit Hilfe der Gleichung ŷ i -=-30 + 2x i gelingt im Falle a) präziser als im Falle b)“ ist gleichbedeutend mit der Aussage, dass die prädiktive Assoziation zwischen dem Prädiktor X und dem Kriterium Y im Falle a) stärker ist als im Falle b). Es bietet sich also an, zusätzlich zur Regressionsgleichung nicht lediglich die Streuung der Differenzen e i zu berechnen, sondern ein Assoziationsmaß nach dem Modell der proportionalen Fehlerreduktion (vgl. Abschnitt 8.3.1: PRE-Maße) zu bestimmen. Damit hätte man nicht nur eine Maßzahl zur Verfügung, die die „Güte“ einer Regressionsgleichung zu charakterisieren erlaubt, sondern zugleich ein Maß für die Stärke der Assoziation zweier metrischer Variablen. Determinationskoeffizient (r 2 ) Die statistische Kennziffer, die aufgrund dieser Überlegungen entwickelt wurde, ist das sogenannte Bestimmtheitsmaß, auch Determinationskoeffizient genannt (Kurzbezeichnung: r 2 ). Diese Kennziffer gibt Auskunft darüber, in welchem Ausmaß die Werte der abhängigen Variablen Y durch die Werte der explikativen Variablen X „statistisch determiniert“ sind, d. h. mit welcher Genauigkeit man die y i -Werte aufgrund der x i -Werte schätzen kann. r 2 nimmt den Wert 1 an, wenn Y vollständig durch X „statistisch determiniert“ ist, wenn also die Ausprägungen der Variablen Y für alle Untersuchungseinheiten exakt (ohne jede Abweichung) aus den x i -Werten geschätzt werden können. r 2 nimmt den Wert 0 an, wenn Y vollständig unabhängig von X variiert, wenn also die Kenntnis der x i -Werte überhaupt keinen Beitrag zur Verbesserung der Schätzung der y i -Ausprägungen leistet. 356 s 2 x =- durchschnittliches Abweichungsquadrat der Variablen X vom arithmetischen Mittel =-1/ n·∑(x i -x) 2 . Schätzfehler: Summe quadrierter Abweichungen Fehlervarianz s 2 e ¼ 1 n  X y i � ^ y i �  2 ¼ 1 n  X e 2 i Assoziationsmaß der Fehlerreduktion Determinationskoeffizient r 2 <?page no="474"?> 475 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 475 Zur Ermittlung des PRE-Maßes r 2 (Determinationskoeffizient) benötigen wir, um die allgemeine Formel für PRE-Maße (E 1 -E 2 )/ E 1 auszufüllen, wieder zwei Vorhersageregeln- - Regel 1 für die Schätzung der Merkmalsausprägungen der abhängigen Variablen auf der Basis ihrer eigenen Verteilung, Regel 2 für die Schätzung mit Auswertung der Informationen über die explikative Variable-- sowie geeignete Fehlerdefinitionen E 1 und E 2 (vgl. im Abschnitt 8.3.2 die Ausführungen zum λ-Maß). Nach den bisherigen Ausführungen steht bereits fest, dass als „Schätzfehler“ in jedem Falle quadrierte Abweichungen gelten sollen. Auch die weiteren Überlegungen sind im Anschluss an die bisherige Argumentation leicht nachzuvollziehen. Schätzregel 1 (ohne Auswertung der Informationen über die explikative Variable) legt fest, wie die y i -Werte allein auf der Basis ihrer eigenen Verteilung geschätzt werden, und zwar so, dass die Schätzfehler minimal sind. Wie schon aus dem Abschnitt 8.3.2 (Beispiel Lambda-Maß) bekannt, bedeutet dies: Wenn die (unbekannten) Ausprägungen einer Variablen Y für die einzelnen Untersuchungseinheiten UE i „vorhergesagt“ werden sollen und wenn zu diesem Zweck außer allgemeinen Eigenschaften der Verteilung von Y weitere Informationen nicht zur Verfügung stehen, empfiehlt es sich, für jede Untersuchungseinheit einen „typischen Wert“ der Variablen Y als Schätzwert zu wählen. Bei metrischen Merkmalen ist das arithmetische Mittel aus zwei Gründen der geeignetste „typische Wert“: Erstens gleichen sich die positiven und negativen Abweichungen vom arithmetischen Mittel aus, zweitens ergibt die Summe der quadrierten Abweichungen vom arithmetischen Mittel ein Minimum (vgl. Abschnitt 8.2.3). Für den Determinationskoeffizienten lautet demnach die Regel 1: Für jede Untersuchungseinheit wird das arithmetische Mittel der abhängigen Variablen „vorhergesagt“: y’ i (Schätzwert) =-y für alle UE i . Als Schätzregel 2 (mit Auswertung der Informationen über die explikative Variable) ist nun ein Verfahren zu finden, durch das die y i -Werte auf der Grundlage ihrer Abhängigkeit von den Ausprägungen der Variablen X „vorhergesagt“ werden können, und zwar wiederum so, dass die Schätzfehler minimal sind. Für den Fall metrischer Variablen haben wir-- unter der zusätzlichen Bedingung, dass die Abhängigkeit als linear unterstellt wird-- als Instrument zur Lösung dieser Schätzaufgabe im vorigen Abschnitt bereits die lineare Einfachregression kennengelernt. Regel 2 lautet also: Für jede Untersuchungseinheit mit der Ausprägung x i wird der Regressionswert „vorhergesagt“: y’ i =-ŷ i =-a yx + b yx · x i . Zu definieren ist nun noch der Schätzfehler: Im Falle der Regressionsmethode als Schätzverfahren gilt als Fehler für jede UE i die quadrierte Abweichung des Messwerts (Beobachtungswerts) vom berechneten Wert. Zusammengefasst: Als E 1 erhält man somit die Summe der quadrierten Abweichungen der y i -Werte vom arithmetischen Mittel: Σ (y i -y i ) 2 . Als E 2 ergibt sich ent- Ermittlung des Determinationskoeffizienten r 2 Schätzregel 1 Schätzregel 2 Schätzfehler <?page no="475"?> 476 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 476 sprechend die Summe der quadrierten Abweichungen der y i -Werte von den Regressionswerten: Σ(y i- - ŷ i ) 2 =-Σe 2 i . Für die Bestimmung von r 2 folgt daraus die Definitionsformel: Formel (29a): Statt der Summe der quadrierten Abweichungen können wir, ohne den Zahlenwert von r 2 zu verändern, jeweils die mittleren quadratischen Abweichungen (d. h. die Varianzen) in die Definitionsformel einsetzen, so dass diese folgendes Aussehen hat: Formel (29b): Varianzzerlegung Die Formeln (29a) und (29b) weisen auf eine wichtige Eigenschaft der Merkmalsvariation, definiert als Summe der quadrierten Abweichungen der Beobachtungswerte vom arithmetischen Mittel, hin: Mit Hilfe der Regressionsrechnung lässt sich diese Variation in zwei Komponenten zerlegen, nämlich in die Variation der Regressionswerte um das arithmetische Mittel Σ(ŷ i -ӯ) 2 einerseits und die Variation der Beobachtungswerte um die Regressionswerte ∑(y i -ŷ i ) 2 andererseits. Betrachten wir zunächst die einfachen (linearen) Abweichungen, so stellt sich deren Verhältnis- - wie aus der Abbildung auf der folgenden Seite ersichtlich-- wie folgt dar: (y i -ӯ)=(y i -ŷ i )+(ŷ i -ӯ). Nach Quadrierung und Summierung erhalten wir: ∑(y i -ӯ) 2 = ∑[(y i -ŷ i ) + (ŷ i -ӯ)] 2 = ∑(y i -ŷ i ) 2 + 2∑(y i -ŷ i ) ∙ (y i -ӯ) + ∑(ŷ i -ӯ) 2 . Bei Schätzung der ŷ i nach der Methode der kleinsten Quadrate-- d. h. bei Schätzung mit dem vorgestellten Instrumentarium der Regressionsrechnung-- nimmt der mittlere (Produkt-)Ausdruck den Zahlenwert 0 an, so dass die folgende Gleichung der Variations-Zerlegung verbleibt: Formel (30a): Formel des Determinationskoeffizienten r 2 r 2 ¼ E 1 � E 2 E 1 ¼ P n i ¼ 1 ð y i � y Þ 2 � P n i ¼ 1 ð y i � y i Þ 2 P n i ¼ 1 ð y i � y Þ 2 r 2 ¼ 1 n P n i ¼ 1 y i �  y ð Þ 2 � P n i ¼ 1 y i � ^ y i �  2   1 n P n i ¼ 1 y i �  y ð Þ 2 ¼ s 2 y � s 2 e s 2 y Komponenten der quadrierten Abweichungen X n i ¼ 1 y i �  y ð Þ 2 ¼ X n i ¼ 1 ^ y i �  y �  2 þ X n i ¼ 1 y i � ^ y i �  2 <?page no="476"?> 477 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 477 Wird die gesamte Gleichung mit dem Faktor 1 / n multipliziert, erhalten wir auf der linken Seite des Gleichheitszeichens die Varianz von Y und auf der rechten Seite die Varianzzerlegung: Formel (30b): bzw. Formel (30c): Für die beiden Komponenten auf der rechten Seite der Gleichung existieren unterschiedliche Bezeichnungen. Der Grund dafür liegt darin, dass sich je nach der Problemstellung, für die das Regressionsmodell verwendet wird, die Differenz zwischen Beobachtungswert und Schätzwert (y i -ŷ i ) auf dreierlei Weise interpretieren lässt (vgl. Neurath 1974, 163): 1. als Fehler, der beim Schätzen der y i -Werte in Kauf genommen wird (rein deskriptive Fragestellung); 2. als verbleibender Rest (Residuum), nachdem von den y i -Werten derjenige Teil abgezogen wurde, der rechnerisch auf den „Einfluss“ von X zurückgeführt werden kann (dies setzt eine kausale Hypothese voraus: X ist-- zumindest teilweise-- „Ursache“ für Y); Varianzzerlegung s 2 y ¼ 1 n X n i ¼ 1 y i �  y ð Þ 2 ¼ 1 n X n i ¼ 1 ^ y i �  y �  2 þ 1 n X n i ¼ 1 y i � ^ y i �  2 s 2 y ¼ s 2 ^ y þ s 2 e Interpretationen: Fehlervarianz Residualvarianz Abbildung 8.10: Varianzzerlegung y i x i y ŷ i = a + bx i ( y 2 - y) ( ŷ 2 - y) ( y 2 - ŷ 2 ) ( x 2 , y 2 ) ( ŷ 1 - y) ( y 1 - ŷ 1 ) ( y 1 - y) ( x 1 , y 1 ) y                             <?page no="477"?> 478 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 478 3. als der Anteil der Variablen Y, der durch eine statistische Beziehung zwischen X und Y nicht „erklärbar“ ist (dies setzt lediglich die Hypothese einer Assoziation voraus: X und Y „hängen zusammen“). Entsprechend heißt der Ausdruck s 2 e entweder Fehlervarianz oder Residualvarianz oder nicht erklärte Varianz. Die in den Sozialwissenschaften vorherrschende Interpretation ist die unter 3. genannte. Dividieren wir die Gleichung (30c) durch den Ausdruck auf der linken Seite- - also durch die Varianz s 2 y - - und setzen wir das Ergebnis zur Gleichung (29b) in Beziehung, so erhalten wir daraus die Interpretation für die Maßzahl r 2 . Aus (30c) wird: Aus (29b) wird durch Umformen: Also: bzw. 1 = Oder: 1=r 2 +(1-r 2 ) bzw. 1 = Anteil der Varianz von Y, der durch die Assoziation mit X „erklärbar“ ist + Anteil der Varianz von Y, der durch die Assoziation mit X nicht „erklärbar“ ist Der Determinations- oder Bestimmtheitskoeffizient r 2 stellt sich somit dar als der Anteil der Varianz der abhängigen Variablen Y, der unter Hinweis auf die Beziehung zur explikativen Variablen X statistisch erklärt werden kann. Anders formuliert: r 2 ist der Anteil der Varianz der berechneten Werte ŷ i an der Gesamtvarianz der gemessenen Merkmalsausprägungen y i . Je größer dieser Anteil ist, desto stärker ist das Ausmaß der prädiktiven Assoziation zwischen X und-Y. Dies sei am Beispiel der Werte in Tab. 8.23 illustriert, wo zwei unterschiedlich stark streuende (x,y)-Verteilungen zu identischen Regressionsgleichungen (ŷ i = 30 + 2x i ) führen: Aus der Tabelle (auf der folgenden Seite) errechnet sich für den Fall a: s 2 y = 231,66 sowie für den Fall b: s 2 y = 400. nicht erklärte Varianz Interpretation des Determinationskoeffizienten r 2 s 2 y s 2 y ¼ s 2 ^ y s 2 y þ s 2 e s 2 y bzw : 1 ¼ s 2 ^ y s 2 y þ s 2 e s 2 y : r 2 ¼ 1 � s 2 e s 2 y bzw : 1 ¼ r 2 þ s 2 e s 2 y bzw : s 2 e s 2 y ¼ 1 � r 2 1 ¼ s 2 ^ y s 2 y þ s 2 e s 2 y erklärte Varianz Varianz von Y þ nicht erklärte Varianz Varianz von Y BEISPIEL <?page no="478"?> 479 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 479 x i ŷ i = 30 + 2x i y 1 (Fall a) y 1 (Fall b) Fälle a und b (ŷ i -y) (ŷ i -y) 2 20 70 72 87 18 324 10 50 52 47 -2 4 16 62 55 45 10 100 4 38 46 51 -14 196 22 74 64 54 22 484 0 30 20 10 -22 484 18 66 74 79 14 196 12 54 56 51 2 4 2 34 36 51 -18 324 8 46 51 56 - 6 36 14 58 63 68 6 36 6 42 35 25 -10 100 y-=-52 y-=-52 0 2288 Weil in diesem Beispiel die x i -Werte für a und b identisch sind, ist die Reihe der geschätzten ŷ i -Werte für beide Fälle gleich. Da außerdem die arithmetischen Mittel y in den Fällen a und b identisch sind, sind auch die Abweichungen der Schätzwerte vom arithmetischen Mittel und schließlich die Varianz der Schätzwerte (die „erklärte Varianz“) in beiden Fällen identisch, nämlich: s 2ŷ = 190,66. Dennoch ergeben sich unterschiedliche Anteile der erklärten Varianz an der Gesamtvarianz von Y, da die y i -Werte im Falle b stärker streuen als im Falle a. Wir erhalten somit für den Fall a: r 2 =- 190,66/ 231,66 =- 0,823 und für den Fall b: r 2 -=-190,66/ 400 =-0,477. In Worten: Die Regressionsgleichung erklärt im Falle a) 82,3 % der Varianz des Merkmals Y, d. h. über 80 % der Variation des Elektrizitätsverbrauchs des Studenten S sind auf die unterschiedlich lange Benutzung seines Wäschetrockners zurückzuführen. Im Falle b) erklärt die Regressionsgleichung lediglich 47,7 % der Varianz des Merkmals Y, d. h. weniger als die Hälfte der Variation des Elektrizitätsverbrauchs ist auf die unterschiedlich lange Benutzung des Wäschetrockners zurückzuführen (die übrigen Verbrauchsquellen variieren hier also erheblich stärker). Korrelationskoeffizient (r xy ) Ein bei der Analyse mindestens intervallskalierter Daten häufig verwendetes Assoziationsmaß ist der sogenannte Produkt-Moment-Korrelationskoeffizient nach Bravais-Pearson oder Koeffizient der linearen Korrelation. Er entspricht in seinem Betrag der Quadratwurzel aus dem Determinationskoeffizienten und hat das gleiche Vorzeichen wie der Regressionskoeffizient b: Formel (31): Produkt-Moment- Korrelationskoeffizient r xy ¼ ffiffiffiffi r 2 p Tabelle 8.24: Berechnung erklärte Varianz <?page no="479"?> 480 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 480 Im Unterschied zu r 2 ist der Korrelationskoeffizient r xy nicht als Maß der prädiktiven Assoziation interpretierbar. Trotz seiner eindeutigen betragsmäßigen Beziehung zum Determinationskoeffizienten r 2 ist er unabhängig davon aus anders gearteten Überlegungen-- in Analogie zum Assoziationsmodell des paarweisen Vergleichs-- herleitbar. Nach dem Modell des paarweisen Vergleichs (vgl. Abschnitt 8.3.1) stehen zwei Variablen dann in einer statistischen Beziehung, wenn die beiden Merkmale bei der überwiegenden Zahl der Untersuchungseinheiten entweder „gleichsinnig“ (positive Assoziation) oder „gegensinnig“ (negative Assoziation) variieren. Von gleichsinniger Variation spricht man, wenn tendenziell gilt: Wenn X hoch (niedrig), dann auch Y hoch (niedrig); gegensinnige Variation liegt dementsprechend vor, falls tendenziell gilt: Wenn X hoch (niedrig), dann Y niedrig (hoch). Bei metrischen Merkmalen wird als Bezugspunkt für die Feststellung gleich- oder gegensinniger Variation das arithmetische Mittel herangezogen, so dass hier die Aussage lautet: Zwei Variablen X und Y stehen in positiver statistischer Beziehung, sofern für die überwiegende Zahl von Untersuchungseinheiten gilt: Wenn x i -x positiv (negativ), dann auch y i -y positiv (negativ); sie stehen in negativer statistischer Beziehung, wenn für die überwiegende Zahl von Untersuchungseinheiten gilt: Wenn x i -x positiv (negativ), dann y i -y negativ (positiv). Als ein Maß für Richtung und Stärke dieser „Kovariation“ könnte Σ(x i -x)(y i -y) also die Produktsumme der Abweichungen von den Mittelwerten, dienen. Da diese Summe jedoch von der Zahl (n) der Untersuchungseinheiten abhängt, eignet sich wieder besser die mittlere Kovariation, die als Kovarianz bezeichnet wird: Formel (32a): bzw. Formel (32b): Die Kovarianz hängt jedoch (ebenso wie in der univariaten Statistik die Varianz) 357 in ihrem Betrag von den Maßeinheiten der Merkmale ab. Um zum Vergleich der Stärke der Assoziation verschiedener Merkmalspaare geeignet zu sein, muss deshalb die Maßzahl noch vereinheitlicht werden. Dies geschieht, indem die Kovarianz der Variablen X und Y zur positiven Quadratwurzel aus dem Produkt s 2 x · s 2 y in Bezie- 357 Die Varianz kann praktisch als ein Sonderfall der Kovarianz angesehen werden, nämlich als die Kovarianz einer Variablen mit sich selbst: s 2 x -=- 1 / n · Σ (x i -x)(x i -x) =- 1 / n · Σ (x i -x) 2 . VERTIEFUNG Kovarianz Cov x ; y ð Þ ¼ s xy ¼ 1 n  X x i � x ð Þ y i � y ð Þ Cov x ; y ð Þ ¼ s xy ¼ 1 n X n i ¼ 1 x i y i � 1 n X n i ¼ 1 x i X n i ¼ 1 y i ! : <?page no="480"?> 481 8.3 Bivariate Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 481 hung gesetzt wird. 358 Das Ergebnis ist der oben genannte Korrelationskoeffizient nach Bravais-Pearson (r xy ). Anders formuliert: Der Korrelationskoeffizient r xy ist definiert als die Kovarianz der Variablen X und Y, dividiert durch das geometrische Mittel ihrer Varianzen. 359 r xy bezeichnet also den Anteil der gemeinsamen Varianz zweier Merkmale am geometrischen Durchschnitt ihrer Einzelvarianzen. Formel (33): Der Korrelationskoeffizient hat folgende Eigenschaften: - Wegen der positiven Wurzel aus den Varianzen in Formel (33) nimmt er das gleiche Vorzeichen an wie die Kovarianz, d. h. r xy ist positiv, wenn die beiden Variablen gleichsinnig variieren, und negativ, wenn die Variablen gegensinnig variieren. - Der Korrelationskoeffizient erreicht die maximalen Beträge +1 bei perfekter positiver sowie--1 bei perfekter negativer Assoziation. Er wird 0, wenn die Kovarianz gleich Null ist, d. h. wenn die beiden Variablen überhaupt nicht linear voneinander abhängig sind. - Der Korrelationskoeffizient ist schließlich-- anders als der Regressionskoeffizient b-- symmetrisch, d. h. sein Wert wird nicht davon beeinflusst, ob die Variable Y als abhängig von X oder umgekehrt X als abhängig von Y definiert ist. Vergleichen wir schließlich noch die Formeln für die beiden Regressionskoeffizienten b yx und b xy -- (25) und 27)--, dann erkennen wir, dass b yx =-s xy / s 2 x und b xy =-s xy / s 2 y ist. Daraus folgt, dass das Produkt b yx · b xy =-(s xy ) 2 / s 2 x · s 2 y =-r 2 ist (vgl. Formel 33). Dies gibt uns eine weitere Möglichkeit der Bestimmung des Determinationskoeffizienten: Formel (34): r 2 =b yx ∙b xy Die Berechnung sei abschließend noch an den Werten in Tab. 8.23 unter Verwendung von Formel (33) demonstriert. Die vollständige Arbeitstabelle besteht aus folgenden Spalten (Tab. 8.25a und 8.25b). 358 In der univariaten Statistik werden Streuungen unterschiedlicher Merkmale vergleichbar gemacht, indem man die Standardabweichungen zum jeweiligen arithmetischen Mittel in Beziehung setzt (vgl. Abschnitt 8.2.4: Variationskoeffizient). 359 Als „geometrisches Mittel“ wird die n-te Wurzel aus dem Produkt von n Faktoren bezeichnet: . Korrelationskoeffizient nach Bravais-Pearson r xy ¼ P n i ¼ 1 x i � x ð Þ y i � y ð Þ ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi P n i ¼ 1 x i � x ð Þ 2  P n i ¼ 1 y i � y ð Þ 2 þ r ¼ s xy ffiffiffiffiffiffiffiffiffiffiffi s 2 x  s 2 y þ q Eigenschaften des Korrelationskoeffizienten BEISPIEL x G ¼ ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi x 1  x 2  x 3  : : :  x n n p <?page no="481"?> 482 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 482 x i (x i -x) (x i -x) 2 y i (y i -y) (x i -x)(y i -y) (y i -y) 2 20 9 81 72 20 180 400 10 -1 1 52 0 0 0 16 5 25 55 3 15 9 4 -7 49 46 -6 42 36 22 11 121 64 12 132 144 0 -11 121 20 -32 352 1024 18 7 49 74 22 154 484 12 1 1 56 4 4 16 2 -9 81 36 -16 144 256 8 -3 9 51 -1 3 1 14 3 9 63 11 33 121 6 -5 25 35 -17 85 289 x =-11 Σ =-572 y-=-52 Σ =-1144 Σ =-2780 x i (x i -x) (x i -x) 2 y i (y i -y) (x i -x)(y i -y) (y i -y) 2 20 9 81 87 35 315 1225 10 -1 1 47 -5 5 25 16 5 25 45 -7 -35 49 4 -7 49 51 -1 7 1 22 11 121 54 2 22 4 0 -11 121 10 -42 462 1764 18 7 49 79 27 189 729 12 1 1 51 -1 -1 1 2 -9 81 51 -1 9 1 8 -3 9 56 4 -12 16 14 3 9 68 16 48 256 6 -5 25 25 -27 135 729 x =-11 Σ =-572 y-=-52 Σ =-1144 Σ =-4800 In Formel (33) eingesetzt, erhalten wir für den Fall a (Tab 8.25a) einen Korrelationskoeffizienten bzw. einen Determinationskoeffizienten r 2 -=-(0,907) 2 =-0,823. Im Fall b (Tab 8.25b) beträgt und r 2 =-(0,6904) 2 =-0,477. Ein Vergleich mit den vorn im Zusammenhang mit der Darstellung des Determinationskoeffizienten angestellten Berechnungen (Tab. 8.24) zeigt, dass die Ergebnisse übereinstimmen. r xy ¼ 1144 = ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi 572  4800 p ¼ 1144 = 1657,0 ¼ 0,6904 Tabelle 8.25b: Fall b Tabelle 8.25a: Fall a r xy ¼ 1144 = ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi 572  2780 p ¼ 1144 = 1261,0 ¼ 0,907 <?page no="482"?> 483 8.4 Weiterführende Analyseverfahren und Software www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 483 Nach Formel (34) ist schließlich das gleiche Resultat zu erzielen, wenn die Regressionskoeffizienten b yx (die y i werden aus den x i geschätzt) und b xy (die x i werden aus den y i geschätzt) miteinander multipliziert werden. Aus Tab. 8.22 haben wir für b yx =-2,0. b xy ist leicht unter Verwendung von Formel (27) aus obiger Tab. 8.25 bestimmbar: b xy =-1144/ 2780 =-0,4115 (Fall a). Wir erhalten also für den Fall a) r 2 =-2·0,4115 =-0,823. Für den Fall b) möge der Leser die Berechnung zur Kontrolle selbst durchführen. 8.4 Weiterführende Analyseverfahren und Software Die Datenanalyse ist ein umfangreicher Arbeitsschritt, der hier nur in seinen Grundlagen behandelt werden kann. Einführungen in die verschiedenen Auswertungsverfahren und die Benutzung von Auswertungssoftware liegen vielfältig vor. Um den Einstieg in diese Vertiefung zu erleichtern, geben wir hier einen kurzen Überblick über weitere Analyseverfahren sowie die Vor- und Nachteile der gebräuchlichsten statistischen Analysesoftware. 8.4.1 Weitere Analyseverfahren im kurzen Überblick Zwar beschränkt sich für einen großen Teil wiederkehrender Routine-Erhebungen der nicht wissenschaftlichen Forschung die Datenauswertung häufig auf die Anwendung univariater und bivariater statistischer Verfahren. Doch auch für die Beantwortung anspruchsvollerer Fragestellungen ist dieser erste Schritt der Analyse notwendig. Er öffnet einen ersten wichtigen Zugang zu den Ergebnissen, gibt entsprechend erste Antworten und wirft weitere Fragen auf, die komplexere Analyseverfahren benötigen. Verfahren, die mit einer größeren Zahl von Variablen arbeiten, heißen multivariate Verfahren. In den Sozialwissenschaften kommt eine große Vielfalt multivariater Verfahren zum Einsatz, die es wiederum in einer ganzen Reihe von Varianten gibt. Grundlegend unterscheiden sich strukturentdeckende Verfahren von strukturprüfenden Verfahren. Strukturentdeckende Verfahren gehen von den Daten aus und gewinnen induktiv Erkenntnisse. Strukturprüfende Verfahren beginnen mit klar spezifizierten Hypothesen, die gemäß dem Hempel-Oppenheim-Schema geprüft werden (siehe Kapitel 2.4.1). 360 Eine zweite Unterscheidung bezieht sich auf das Skalenniveau der verwendeten Daten (siehe Kapitel 5.3.1). Wie schon bei der vorgestellten univariaten und bivariaten Statistik ist das Skalenniveau der Daten ausschlaggebend, ob ein Verfahren angemessen ist. 360 In der Praxis ist diese Unterscheidung allerdings weniger klar, weil auch bei strukturprüfenden Verfahren die Modelle oft zumindest teilweise an die Daten angepasst werden (müssen). In strukturentdeckende Verfahren gehen theoretische Überlegungen ein, und die Interpretation der Ergebnisse ist abhängig von theoretischen Ideen. strukturentdeckende / strukturprüfende Verfahren Skalenniveau bedeutsam <?page no="483"?> 484 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 484 Die bivariate lineare Einfachregression für die Analyse metrischer Daten wurde in Kapitel 8.3.3 vorgestellt. Auf derselben Grundlogik aufbauend gibt es jedoch auch verschiedene Regressionsmodelle, die mit Daten auf anderen Skalenniveaus arbeiten können. Gemeinsam ist all diesen Verfahren, dass ausgehend von vorherigen theoretischen Überlegungen der Einfluss von einer oder mehreren erklärenden (unabhängigen) Variablen auf eine zu erklärende (abhängige) Variable untersucht wird. Das Skalenniveau der abhängigen Variable bestimmt, welches Verfahren zu wählen ist. Für die erklärenden (unabhängigen) Variablen ist durchweg metrisches Skalenniveau erforderlich, allerdings lassen sich durch dichotomisierte Variablen auch unabhängige Variablen mit anderem Skalenniveau integrieren. 361 Tabelle 8.26 gibt einen Überblick über die verschiedenen Regressionsverfahren mit jeweiliger Literatur zur weiteren Vertiefung. Allerdings sei ausdrücklich betont, dass weitere gute Einführungsliteratur zu all diesen Verfahren existiert. Skalenniveau der abhängigen Variable Regressionsverfahren Literatur metrisch skaliert (intervallskaliert oder ratioskaliert) multiple lineare Regression Diaz-Bone 2013, Urban/ Mayerl 2011 nominal skaliert mit zwei Ausprägungen binär-logistische Regression Diaz-Bone 2013, Urban/ Mayerl 2011 nominal skaliert mit mehr als-zwei Ausprägungen multinomiale Regression Kühnel/ Krebs 2010 ordinal skaliert ordinale Regression Kühnel/ Krebs 2010 Die Regressionsverfahren wurden in verschiedener Weise erweitert. Eine wichtige Erweiterung ist die Mehrebenenregression (Langer 2009, 2010). Sie kommt in Mehrebenenstudien (vgl. Kapitel 2.4.6) zur Anwendung, wenn kombiniert unabhängige Variablen von mehreren Ebenen zur Erklärung herangezogen werden (zum Beispiel unabhängige Variablen auf der Ebene von Individuen und unabhängige Variablen auf der Ebene von Ländern, in denen die Individuen leben). Die Mehrebenenregression gibt es ebenfalls in verschiedenen Varianten, um abhängige Variablen mit unterschiedlichem Skalenniveau untersuchen zu können. 361 Dichotomisierung einer Variable bedeutet, dass die einzelnen Ausprägungen der Variable durch 0/ 1-kodierte Variablen dargestellt werden. Zum Beispiel lässt sich die ordinal-skalierte Unterscheidung von Bildung mit „hoch“, „mittel“ und „niedrig“ abbilden durch die Kombination einer dichotomisierten Variable für „Hohe Bildung: ja/ nein“ und einer weiteren Variable für „mittlere Bildung: ja/ nein“. Betrachten wir diese beiden 0/ 1-Variablen gemeinsam, so können wir diesen beiden Variablen schon ansehen, welche Bildung die im Datensatz betrachtete Person (der Fall) angegeben hat. Eine hohe Bildung lässt sich an der Variable „hohe Bildung“ ablesen, die dann den Wert 1 hat (und die Variable „mittlere Bildung“ muss dann 0 sein). Bei mittlerer Bildung ist es entsprechend umgekehrt. Wenn sowohl die Variable „hohe Bildung“ als auch die Variable „mittlere Bildung“ 0 sind, können wir daraus ablesen, dass die dritte Möglichkeit, also „niedrige Bildung“ vorliegen muss. Generell benötigt die Umformung einer Variable in mehrere 0/ 1-Variablen also eine 0/ 1-Variable weniger als die Ausgangsvariable Ausprägungen hat. Regressionsverfahren Skalenniveau der-abhängigen Variablen bestimmt Verfahren Tabelle 8.26: Regressionsverfahren im Überblick Mehrebenenregression <?page no="484"?> 485 8.4 Weiterführende Analyseverfahren und Software www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 485 Der Prüfung komplexer Hypothesen über kausale Zusammenhänge dienen Pfadmodelle (Reinecke/ Plöge 2010 Weiber/ Mühlhaus 2010). Im Unterschied zur Regressionsanalyse können bei der Pfadanalyse mehrere abhängige Variable gleichzeitig berücksichtigt werden. In das zu prüfende Hypothesenmodell können auch Variablen aufgenommen werden, die sowohl von anderen Variablen beeinflusst sind als auch andere Variablen beeinflussen. Das Beispiel zur Statusvererbung, also dem Einfluss der Berufsposition des Vaters auf die Berufsposition des Sohnes (Kapitel 4.2, Abbildung 4.2), lässt sich mit einer Pfadanalyse untersuchen. 362 Alle bisher genannten Verfahren dienen der Prüfung von Hypothesen und sind daher strukturprüfende Verfahren. Die Hauptkomponentenanalyse ist dagegen ein Verfahren, das sowohl strukturprüfend als auch strukturentdeckend angewendet wird (Wolff/ Bacher 2010). Das Verfahren dient der Zusammenfassung mehrerer Variablen zu einem Index (vgl. Kapitel 5.5). Die untersuchte Frage ist, ob und in welcher Weise mehrere Variablen zusammengefasst werden können, weil sie gemeinsam das gleiche Konstrukt messen. Das Verfahren erfordert intervall-skalierte Variablen. 363 Während die Hauptkomponentenanalyse Variablen (Merkmale) zu „Faktoren“ zusammenfasst, dient die Clusteranalyse der Zusammenfassung von Objekten (Merkmalsträgern) zu Gruppen ähnlicher Fälle (Wiedenbeck/ Züll 2010; Bacher 1994). Die Merkmalsträger sollen anhand ihrer Ausprägung auf einer Mehrzahl von Variablen so gruppiert werden, dass sich innerhalb der Gruppen (engl.: cluster) die Fälle möglichst wenig unterscheiden, während die Unterschiede zwischen den Gruppen möglichst groß sind. Je nach dem Skalenniveau der verwendeten Variablen, aber auch in Abhängigkeit von einigen anderen Entscheidungen, gibt es verschiedene Verfahren der Clusteranalyse. Die hier genannten Verfahren sind eine Auswahl aus den am häufigsten verwendeten Verfahren zur statistischen Datenanalyse. Eine vertiefte Einführung ist im Rahmen dieses Lehrbuchs nicht möglich. Vielmehr sollen diese kurzen Hinweise dazu anregen, sich mit der Literatur zu anspruchsvolleren Analysestrategien zu beschäftigen. 362 Eine Erweiterung der Pfadanalyse sind Strukturgleichungsmodelle. In Strukturgleichungsmodellen können zusätzlich „latente Variablen“ berücksichtigt werden. Das heißt, das Modell enthält Konstrukte, die nicht direkt, sondern die durch mehrere Indikatoren indirekt gemessen wurden. Ein Beispiel dafür ist die Erweiterung des Beispiels zur Statusvererbung in Abbildung 4.8 (Kapitel 4.3.1). Die für Pfadmodelle genannte Literatur geht auch auf Strukturgleichungsmodelle ein. 363 Die Hauptkomponentenanalyse kann Ausgangsschritt für eine Faktorenanalyse sein. Bei der Faktorenanalyse werden die identifizierten Hauptkomponenten genutzt, um die für die identifizierten Komponenten Werte zu berechnen und den Fällen zuzuordnen. Es wird also ein Wert geschätzt, den der unterstellte Index (die „latente Variable“) bei dem jeweiligen Fall haben müsste, ohne dass wir diesen Wert direkt gemessen haben. Weil dies oft das Ziel des Verfahrens ist, wird es nicht selten unter dem Namen Faktorenanalyse vorgestellt (zum Beispiel in Backhaus u. a. 2016, 385 ff.). Pfadmodelle Hauptkomponentenanalyse Clusteranalyse <?page no="485"?> 486 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 486 8.4.2 Analysesoftware Einzelne der oben besprochenen Kennzahlen, zum Beispiel das arithmetische Mittel oder die Standardabweichung, lassen sich mit üblichen Tabellenkalkulationsprogrammen wie etwa Excel leicht berechnen. Andere Kennzahlen sind schon schwieriger zu berechnen oder durch die Programme nicht mehr abgedeckt. Eine solide statistische Analyse ist ohne einschlägige Analysesoftware praktisch nicht durchführbar. Es gibt eine ganze Reihe von Softwarepaketen für die statistische Analyse sozialwissenschaftlicher Daten, wobei einige davon eine breite Palette von Verfahren anbieten, während andere auf spezielle Verfahren spezialisiert sind. Drei Programmpakete sind besonders häufig genutzt: SPSS, STATA und R. SPSS SPSS war lange unumstrittener Marktführer im Bereich der Software für sozialwissenschaftliche Datenanalyse und ist bis heute sehr weit verbreitet. Die Menüsteuerung erleichtert den Einstieg für Anfängerinnen und Anfänger. Eine Reihe von Standardeinstellungen vereinfacht auf den ersten Blick die Bedienung. Allerdings werden so auch wichtige Entscheidungen in der Bedienung weniger sichtbar, obwohl sie wesentlichen Einfluss auf die Analyse haben. Das Programm bietet neben der Menüsteuerung die Möglichkeit, Befehle direkt in einem „Syntax-Fenster“ einzugeben. Mit zunehmender Erfahrung wechseln Benutzerinnen und Benutzer des Programms meist von einer menü-basierten zu einer text-basierten Eingabe. SPSS bietet eine breite Palette von Verfahren an. Statistische Innovationen werden nach einiger Zeit in das Programm integriert. Jedes Jahr stellt der Hersteller IBM eine neue Programmversion bereit. SPSS wird als Kauflizenz oder als Jahresbenutzungslizenz vertrieben. Dabei offeriert IBM unterschiedliche Leistungsumfänge, die unterschiedliche Analyseverfahren umfassen. Insbesondere im Bildungsbereich gibt es günstige Lizenzen. Für SPSS gibt es eine breite Vielfalt an Einführungsbüchern. Menübasierte Einführungen sind zum Beispiel Brosius (2014) und Bühl (2014). Die textbasierte Syntaxeingabe stellt Zöfel (2002) vor. Komplexere Analyseverfahren und ihre Umsetzung in SPSS finden sich bei Backhaus u. a. (2016). STATA STATA entstand Mitte der 1980er-Jahre und verbreitete sich Ende der 1990er-Jahre. Auch wenn STATA als weniger bedienungsfreundlich gilt als SPSS, so ist die Nutzung doch ähnlich komfortabel. STATA hat ebenfalls parallel eine Menüsteuerung und eine Steuerung durch Befehlseingabe. Der Umfang an Analyseverfahren ist groß, und statistische Innovationen sind nach einiger Zeit in das Programm integriert. Eine besondere Stärke des Programms liegt in der Zeitreihen- und Panelanalyse. Während STATA einige Jahre SPSS in seinem Leistungsumfang und der Rechenschnelligkeit überlegen war, haben sich in der Zwischenzeit die Unterschiede reduziert. verbreitete Analysesoftware Eigenschaften von-SPSS Eigenschaften von-STATA <?page no="486"?> 487 8.4 Weiterführende Analyseverfahren und Software www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 487 Bei der Bedienung von STATA hilft eine breite Gemeinschaft von Nutzerinnen und Nutzern, die im Internet Unterstützung anbieten. Die gegenseitige Beratung hat bei STATA eine lange Tradition. Ähnlich wie SPSS wird STATA mit einer Dauerlizenz oder einer Jahreslizenz vertrieben. Programmversionen unterscheiden sich nach der Anzahl von Fällen und Variablen, die berücksichtigt werden können. Für nicht kommerzielle Nutzungen und den Bildungsbereich gibt es wiederum günstige Lizenzen. STATA wird in verschiedenen Lehrbüchern vorgestellt. So führen zum Beispiel Kohler und Kreuter (2012) in die Befehlssprache, in die Programmlogik und in grundlegende Analyseverfahren von STATA ein. Weiterführende Modelle in STATA erklären Wenzelburger, Jäckle und König (2014). R Seit einigen Jahren wird zunehmend die Statistik-Oberfläche R benutzt. R ist eine Open-Source-Plattform für statistische Verfahren. Benutzerinnen und Benutzer können verschiedene „Pakete“ aus dem Internet laden und im Programm installieren. Sie können auch selbst Pakete programmieren und anderen zur Verfügung stellen. Im Ergebnis ist R dadurch deutlich weniger einheitlich als dies für die kommerziell vertriebenen Programmpakete gilt. R ist in der Benutzung weniger leicht zugänglich als SPSS oder STATA. Es basiert vor allem auf einer Befehlssprache, wobei neuerdings auch Menüsteuerungen im Angebot sind. Die Benutzung der Verfahren setzt meist gute Kenntnisse der statistischen Hintergründe voraus. Ob dies ein Nachteil ist, lässt sich diskutieren, denn auch bei der Anwendung der anderen Programme braucht es solides statistisches Grundlagenwissen. Die Dokumentation der Programm-Teilpakete ist bei R nicht immer glücklich. Genau wie die Teilpakete selbst stammen auch die Dokumentationen von unterschiedlichen Autorinnen und Autoren. Diesem Nachteil steht der breite Funktionsumfang gegenüber. R hat durchgängig das breiteste Funktionsangebot; auch etwas ungewöhnliche Verfahren oder Kennzahlen lassen sich mit R berechnen. Statistische Innovationen finden sich am schnellsten in R. Der größte Vorteil von R ist fraglos sein Preis. Als Open-Source-Produkt ist R kostenlos, das gilt auch durchweg auch für die einzelnen Analyseverfahren (www.r-project.org). Zu den kleineren Nachteilen gehört vermutlich der Name. Der einzelne Buchstabe R erweist sich bei Suchmaschinen als Problem, doch unter dem Schlagwort „R project“ lassen sich leicht das Programm selbst und Informationen zum Programm finden. Einführungen in R haben zum Beispiel Manderscheid (2012) und Hatzinger u. a. (2014) verfasst. Eigenschaften von-R <?page no="487"?> 488 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 488 8.5 Annotationen aus der Perspektive qualitativinterpretativer Methoden Es liegt in der Natur des Gegenstandes, dass aus der Sicht qualitativ-interpretativer Methoden entweder keine oder gleich sehr viele und sehr ausführliche Anmerkungen zum Thema Statistik zu machen wären. Das Problem liegt darin, dass in der Perspektive standardisierter Sozialforschung die systematische und begründete Aggregation von Daten auf deren Quantifizierbarkeit zielt und man sich daher der Statistik als einer mathematisch basierten Hilfswissenschaft bedienen kann. Abgesehen von Mixed-Methods-Ansätzen (etwa bei Ragin 1987 und Kapitel 2.6) und von der sehr vereinzelten Verwendung quantitativer Daten in qualitativen Studien gibt es für das Praktizieren qualitativ-interpretativer Verfahren keinen Anlass, sich mit Statistik zu befassen. Der Grund dafür liegt in einer grundsätzlichen Entscheidung, die alle im engeren Sinne qualitativ-interpretativ ausgerichteten Ansätze im Unterschied zu standardisierten Verfahren getroffen haben: die Orientierung auf im Wesentlichen vom Einzelfall ausgehende Forschungsstrategien. Schon Florian Znaniecki (1934, tw. übersetzt in 2004) argumentiert in seinem Entwurf des Verfahrens der analytischen Induktion dafür, nicht zunächst-- wie er der „enumerativen“, statistischen Analyse vorhält-- Messergebnisse zu einzelnen Items zu akkumulieren, also eine Generalisierung einzelner Messergebnisse vorzunehmen, sondern zunächst den Einzelfall als solchen in seinen wesentlichen Merkmalen und Zusammenhängen zu analysieren. Erst die daraus entstehende Abstraktion über den einzelnen Fall eigne sich als Grundlage für fallvergleichende Analysen und entsprechende Generalisierungen (z. B. Typenbildungen). Einzelfallorientierung qualitativ-interpretativer Sozialforschung: Interpretative und rekonstruktive Verfahren der Materialanalyse setzen am Einzelfall in seiner umfassenden Komplexität und spezifischen Situiertheit an. Anstelle der vergleichenden Relationierung von in Variablen aggregierten Informationen wie in der standardisierten Sozialforschung, geht es hier um den Vergleich umfassend rekonstruierter und ausgedeuteter Fälle miteinander. Mitunter beschränken sich Studien sogar auf einen einzelnen besonders umfangreichen oder besonders komplexen Fall, klassisch etwa in der geschlechtssoziologischen Studie „Agnes“ von Harold Garfinkel (1967) oder in der Devianzstudie „The Jack-Roller“ von Clifford Shaw (1930). Nun ist es aber, wie aus den Anmerkungen zu den vorangegangenen Kapiteln bereits deutlich geworden sein dürfte, nicht so, dass sich alle qualitativ-interpretativen Verfahren auf ein gemeinsames Verfahren der Datenanalyse beziehen würden oder auch nur könnten: Jedes Verfahren, sei es die dokumentarische Methode, die Grounded Theory oder die Konversationsanalyse, besteht in seinem Kern-- und bei aller Variation in den Praktiken-- in einem methodologisch begründeten ‚Paket‘ von Datenbzw. Materialtypen und analytisch-interpretativen Verfahren zu deren Auswertung. Orientierung am-Einzelfall frühe Kritik akkumulierter Einzeldaten VERTIEFUNG <?page no="488"?> 489 8.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 489 Die zwei- oder dreistufigen Kodierprozeduren der Grounded Theory verhalten sich zur Vorgehensweise der ethnomethodologischen Konversationsanalyse oder zur Sequenzanalyse der objektiven Hermeneutik nicht einfach wie die statistische Korrelationsanalyse zur Regressionsanalyse. Der Grund dafür liegt zum einen darin, dass sie gerade nicht auf einem verfahrensbegründenden gemeinsamen Paradigma beruhen, sondern sich auch im analytischen Zugang auf ganz unterschiedliche Geltungsbegründungen berufen. Zum anderen präferieren viele dieser Verfahren bestimmte Materialsorten bzw. haben sie sogar zur Voraussetzung: Narrationsanalysen etwa, wie sie vor allem in der Biografieforschung Verwendung finden, benötigen als Ausgangsmaterial detaillierte Transkripte narrativer Interviews; Konversationsanalysen lassen sich nur auf der Basis minutiöser Abschriften mitgeschnittener verbaler Interaktionen bewerkstelligen; Ethnografien leben von der beobachtenden Teilhabe an den zu untersuchenden sozialen Praktiken und produzieren schon im Protokoll einen relevanten Teil der Analyse. Hinzu kommt, dass die unterschiedlichen Verfahren zum Teil spezifischen Gegenstandsbereichen und Typen von Forschungsfragen verpflichtet sind. Dies ist auf Anhieb sichtbar in der Biografieforschung und in der Diskursanalyse. Es gilt aber z. B. auch für die Konversationsanalyse, die sich der Rekonstruktion der Regeln der Alltagskommunikation verschrieben hat, oder für die konstruktivistisch ausgerichtete Ethnografie mit ihrem Interesse an der Performanz sozialer Praktiken. Dabei lassen sich, wie Przyborski/ Wohlrab-Sahr betonen, die verschiedenen Verfahren bei aller Unterschiedlichkeit in der Regel einer von zwei „Analyseeinstellungen“ zuordnen: Entweder sind sie in der Tradition von „Konstruktionen zweiten Grades“ (Schütz) „auf die Rekonstruktion der Theorien des Alltags und deren Aufbau gerichtet“ (Przyborski/ Wohlrab-Sahr 2014, 18), also auf die Frage, was und wie die Akteure über ihre Alltagswelt wissen. Oder aber es geht um die Rekonstruktion der Sinnstruktur, die- - unabhängig vom subjektiven Wissen und Wollen- - dem „Handeln zugrunde liegt und es- - im Sinne sozialer Genese- - hervorbringt“ (Przyborski/ Wohlrab-Sahr 2014, 19 f.). Ein wenig verwirrend sind die unterschiedlichen Sprachspiele, mit denen Vertreter qualitativ-interpretativer Verfahren ihre Forschungsstile umgeben. Insbesondere die Frage nach dem Unterschied zwischen Analysieren, Kodieren, Interpretieren und Rekonstruieren bereitet Neulingen in diesem Feld häufig Kopfzerbrechen: 364 Macht es einen Unterschied, ob ich einen Text interpretiere oder ob ich ihn analysiere? Ist Kodieren und Analysieren dasselbe? Grundsätzlich lässt sich festhalten, dass Interpretieren ein notwendiger Bestandteil jeder wissenschaftlichen Untersuchung empirischen Materials ist (inklusive statistisch aufbereiteter Datensätze). Darin unterscheidet sich wissenschaftliches Handeln nicht systematisch von unserem Alltagshandeln. Gleichviel wie subjektivistisch oder objektivistisch sich eine empirische 364 So nennt Rosenthal ihr Einführungsbuch in die qualitative Sozialforschung „Interpretative Sozialforschung“, während Bohnsack seines „Rekonstruktive Sozialforschung“ betitelt und die Grounded Theory die Rhetorik vom „Analysieren“ „Kodieren“ in das Zentrum ihres Auswertungsverfahrens stellt (Strauss 1991, Strübing 2013). Verfahrensunterschiede durch Geltungsunterschiede Bedeutung typischer Forschungsfragen <?page no="489"?> 490 8. Methoden und Modelle der deskriptiven Statistik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 490 Methode versteht, ein gern unterschätztes Minimum an interpretativer Bedeutungszuweisung muss notwendig stattfinden. Wenn Verfahren als „interpretativ“ dargestellt werden (wie üblicherweise die hermeneutischen Verfahren), dann wird damit meist eine stärkere Position des Forschers als Interpret und eine geringere Regelhaftigkeit der Auswertung verbunden. Es geht um die „Kunst der Interpretation“ (Bude 2000), die für sich die Notwendigkeit und die Kompetenz einer kreativen Zusammenschau aller Aspekte des Fallmaterials in Anspruch nimmt und einer stärkeren Kodifizierung ihrer Verfahren mit Skepsis begegnet. Der Begriff der Analyse wiederum ist untrennbar mit der Vorstellung systematischen Vergleichens und Unterscheidens sowie der Suche nach Kausalzusammenhängen verbunden, die besonders explizit in der Kodierpraxis der Grounded Theorie, aber auch in anderen Prozessen der Typenbildung (Kelle/ Kluge 1999) zum Ausdruck kommt. Allerdings sind all diese Unterscheidungen nicht wirklich trennscharf durchzuhalten: Ein in hohem Maße der Kunstförmigkeit des Interpretierens zuneigendes Methodenprogramm wie die objektive Hermeneutik stellt mit der Feinanalyse und der Sequenzanalyse relativ stark kodifizierte Verfahrenselemente in den Mittelpunkt des Arbeitsprozesses. Und ein deutlich den analytischen Aspekt einer „kontinuierlich vergleichenden Analyse“ herausstellendes Programm wie die Grounded Theory zielt doch zugleich zentral auf den kreativen Aspekt der Arbeit mit Daten, Konzepten und Theorien. ‚Rekonstruktiv‘ sind qualitative Verfahren, insofern sie darauf zielen, die im untersuchten sozialen Feld von den dort agierenden Individuen und Kollektiven handelnd entfalteten Perspektiven, Haltungen und Einstellungen im Forschungsprozess zum Ausdruck zu verhelfen. Dabei nehmen manche Ansätze für sich in Anspruch, die von den Menschen im Handeln reproduzierten, dieses Handeln aber zugleich rahmenden Strukturen, Regeln oder kollektiven Einstellungen in einer Weise zu rekonstruieren, die dem Alltagsbewusstsein der Akteure nicht unmittelbar zugänglich ist, so etwa in der objektiven Hermeneutik, in der dokumentarischen Methode, in der Narrationsanalyse oder in praxeologischen Verfahren. Diese Ansätze repräsentieren also die zweite der beiden oben bezeichneten Analyseeinstellungen: Rekonstruktion von Sinnstrukturen oder Prozessverläufen. Auch Interpretation und Rekonstruktion lassen sich nicht trennscharf unterscheiden, denn die Arbeit des Rekonstruierens ist immer eine interpretative, und was Interpretation als Ergebnis erbringt, ist immer eine Rekonstruktion von Zusammenhängen und Perspektiven. Die qualitativ-interpretative Sozialforschung hat, teils aufgrund divergierender erkenntnis- und sozialtheoretischer Grundannahmen, teils resultierend aus spezifischen Anwendungsfeldern und Erkenntnisinteressen, eine ganze Reihe von Forschungsstilen und analytisch-interpretativen Heuristiken entwickelt. Diese in den Annotationen auch nur kurz abzuhandeln, würde den Rahmen dieses Formates sprengen. Daher widmet sich das anschließende neunte Kapitel einem-- immer noch sehr komprimierten- - Überblick über die wichtigsten Verfahren der qualitativen Sozialforschung. Wichtigkeit von Interpretation Rekonstruktiv <?page no="490"?> 491 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 491 9 Typische Forschungsstile qualitativ-interpretativer Sozialforschung-- Eine Übersicht In der qualitativ-interpretativen Sozialforschung wird häufig von unterschiedlichen Forschungsstilen gesprochen. Dieser etwas gewöhnungsbedürftige Begriff transportiert erstens den Hinweis, dass die Regeln einer Methode immer eine situative Re-Interpretation im Lichte der Forschungsfrage, aber auch vor dem Hintergrund der methodologischen Grundidee und Intention einer Methode bedürfen. Zweitens verweist die Rede vom Forschungsstil darauf, dass qualitativ-interpretative Sozialforschung über die empirische Forschungsmethode hinaus immer auch einen Theoriebezug benötigt. Drittens klingt im Begriff der Forschungsstile die Idee der Kunstfertigkeit an, derer es bedarf, um die Relationierung von Methoden, Theorien und Forschungsgegenstand zu meistern. Mehr als ein ‚Anwenden von‘ methodischen Instrumenten ist qualitatives Forschen ein fortwährendes Neugestalten dieser Relation. Viertens schließlich, und das führt zur Motivation für dieses Kapitel, adressiert die Rede von Forschungsstilen jene Vielfalt methodologischer Perspektiven, die das Feld qualitativ-interpretativer Methoden prägt. Es ist selbstredend ausgeschlossen, auf wenigen Seiten einen umfassenden und erschöpfenden Überblick über die diversen methodischen Ansätze der qualitativ-interpretativen Forschung und ihrer theoretischen Hintergründe zu leisten. Daher werden im Folgenden nur die Grundzüge einiger der markantesten und zumindest in der deutschen qualitativen Sozialforschung geläufigsten Forschungsstile vorgestellt. Ziel der Darstellung ist es, einen Einblick in die Vielfalt möglicher methodischer Zugänge zu interpretativen und rekonstruktiven Forschungsaufgaben zu geben und damit einen Ausgangspunkt für die informierte Auswahl einer gegenstandsangemessenen methodischen Perspektive zu bieten. Hinweise auf vertiefende Lektüre erlauben es dann, sich dem in Betracht gezogenen Forschungsstil theoretisch zu nähern. Praktische Fertigkeiten sind hingegen zwingend auf eigenes, möglichst kompetent angeleitetes Tun angewiesen: Probieren geht über Studieren. Die Darstellung ist beschränkt auf die Forschungsstile der Grounded Theory (9.1), der objektiven Hermeneutik (9.2), der Dokumentarischen Methode (9.3), der ethnomethodologischen Konversationsanalyse (9.4), der Narrations- und Biografieanalyse (9.5) sowie der Diskursanalyse (9.6). 9.1 Grounded Theory Entwickelt in den späten 1960er-Jahren von den beiden amerikanischen Soziologen Anselm Strauss und Barney Glaser an der University of California in San Francisco, ist die Grounded Theory (im Folgenden GT) zu einem der bedeutendsten Forschungsstile in der qualitativ interpretativen Sozialforschung geworden. Die GT Begriff des Forschungsstils Entstehung der Grounded Theory <?page no="491"?> 492 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 492 entstand in kritischer Abgrenzung zu den Hypothesen testenden Verfahren der standardisierten Sozialforschung, wie sie in den vorhergehenden Kapiteln beschrieben wurden. Die GT zielt darauf, gegenstandsbezogene Theorien zu entwickeln. Theorien sind also nicht Ausgangspunkt der empirischen Arbeit, sondern ihr Ergebnis. Um dieses Ergebnis zu erreichen, gehen die Forschenden in der GT auf der Basis einer grundsätzlichen theoretischen Aufmerksamkeit von dem aus, was sie beobachten, und entwickeln dann schrittweise durch permanente Vergleiche Hypothesen und eine Theorie. Dieses Vorgehen wird „Constant Comparative Method“ genannt. Es ist entstanden aus der Praxis soziologischer Feldforschung und legt sich entsprechend dieser Tradition nicht auf einen bestimmten Typ von Datenmaterial (zum Beispiel Interview oder Beobachtung) fest. Stattdessen sind alle Arten von Daten, die Informationen liefern, hilfreich und Teil der Untersuchung. Die methodischen Regeln der GT konzentrieren sich ganz auf die Organisation von Prozessen der Interpretation und Theoriebildung. Ausgangspunkt der GT ist die erkenntnis- und sozialtheoretische Überzeugung, dass die Realität keine beobachterunabhängige, universelle Gegebenheit ist. Vielmehr entstehen soziale Regelmäßigkeiten aus einer interaktiven Auseinandersetzung mit der physischen und sozialen Welt. Realität ist daher eine fortlaufende, an jeweilige Handlungsperspektiven gebundene soziale Hervorbringung. Wichtig ist dabei der Gedanke der Widerständigkeit der ‚Welt da draußen‘. Gemeint ist damit, dass Menschen in ihrem sozialen Handeln immer wieder in Schwierigkeiten und Probleme laufen, weil sie mit ihrem Tun nicht das erreichen, worauf es zielte. Die Welt leistet also ‚Widerstand‘, sie erweist sich nicht als das, was sich die Handelnden von ihr erwartet haben. In Reaktion und Auseinandersetzung mit dieser Widerständigkeit entstehen dann die sozialen Regelmäßigkeiten, für die sich die GT interessiert. 365 Eine zweite Grundidee der GT brachte Barney Glaser ein, der bei Robert K. Merton studierte. Merton hatte vorgeschlagen, die Sozialwissenschaften sollten sich auf Theorien mittlerer Reichweite konzentrieren. Während der Kritische Rationalismus die zeitlich und räumlich unbegrenzt geltende Theorie als Ideal fordert (vgl. Kapitel 1.3), argumentiert Merton, die Formulierung von Theorien mit einer Geltung für einen begrenzten Raum (zum Beispiel die westlich-industrialisierten Gesellschaften, die hinduistisch geprägten Gesellschaften) und eine begrenzte Zeit sei erfolgversprechender und sinnvoller. Die GT verfolgt diese Idee noch konsequenter mit dem Konzept der gegenstandsbezogenen Theorie, die ihre Geltung nur für einen bestimmten sozialen Zusammenhang in einer bestimmten Zeit beansprucht. Zum anderen hatte Merton systematische Vergleiche in den Vordergrund gestellt. Auch diese Idee geht in die GT ein. Die Entwicklung der gegenstandsbezogenen 365 Diese Perspektive beruht vor allem auf dem frühen amerikanischen Pragmatismus sowie dem Interaktionismus, wie ihn Strauss an der University of Chicago bei Herbert Blumer kennengelernt hat. Das Fundament dieser Theorieperspektive bilden vor allem die Arbeiten von Charles S. Peirce, John Dewey (2002) und George H. Mead (1938; 1959). Auch die sozial-ökologische Perspektive, die Strauss bei Everett C. Hughes kennengelernt hat, prägte, insbesondere in ihren forschungspraktischen Konsequenzen, die Entwicklung der GT. Zur Vertiefung siehe Strübing (2008a). Konzept der Auseinandersetzung mit Welt begrenzter Geltungsanspruch von Theorie <?page no="492"?> 493 9.1 Grounded Theory www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 493 Theorie basiert wesentlich auf permanenten Vergleichen. Annahmen werden kontinuierlich durch Vergleiche von Fällen in einer identischen oder deutlich anderen Situation geprüft, um im Vergleich auf Ähnlichkeiten und Unterschiede zu stoßen. Den Anstoß zur Formulierung des Forschungsstils der GT gab eine Untersuchung über Sterbeprozesse in Krankenhäusern. Dabei hatte das Forschungsteam einen ethnografischen Zugang gewählt, bei dem Prozesse über einen langen Zeitraum beobachtet werden und die Forschenden mit den Beteiligten sprechen. Strauss und Glaser hatten über mehrere Jahre die Abläufe in Krankenhäusern beobachtet sowie die Patienten, Krankschwestern und Pfleger, Ärztinnen und Ärzte nach der Wahrnehmung und den Gründen ihres Handelns gefragt. 366 Ihre dabei gemachten praktischen Forschungserfahrungen verdichteten Strauss und Glaser anschließend in einer reflektierten Methodenbeschreibung zu einer eigenen Vorgehensweise, der Grounded Theory (Glaser/ Strauss 1967). 367 Weil die GT einer der ersten qualitativ-interpretativen Forschungsstile war, der auch in seinen praktischen und arbeitsorganisatorischen Details ausbuchstabiert wurde und zugleich einen Weg von der interpretativen Materialbearbeitung hin zu empirisch fundierter Theorie aufzeigte, wurde das Verfahren schnell bekannt und fand Verbreitung nicht nur in Nordamerika, sondern auch in Europa und weit über das originäre Anwendungsfeld der Medizinsoziologie hinaus in den gesamten Sozialwissenschaften. Obgleich die GT Systematik und Stringenz bei der Analyse und Theoriebildung betont, besteht sie nicht aus strikt zu befolgenden Regeln. Vielmehr sind ihre zentralen Verfahrensmaximen als ‚Daumenregeln‘ konzipiert. Diese Daumenregeln müssen dann von den Forschenden für ihre konkreten Forschungssituationen interpretiert und angepasst werden. Zu diesen zentralen Maximen gehört erstens, das interpretative Verständnis des Einzelfalls in seiner gesamten Komplexität zum Ausgangspunkt der vergleichenden Analyse zu nehmen. Ein zweites Grundprinzip der GT betrifft die zentrale Rolle von Subjektivität und Kreativität der Forschenden im analytischen Prozess. Im Anschluss an Deweys Bestimmung von Forschung als Abfolge von Problemlösungszyklen (Dewey 1938) wird Kreativität als unverzichtbare Brücke zwischen Problem/ Frage und Lösung/ Antwort verstanden und als eine Leistung, die Forschende aus ihrer subjektiven Perspektive heraus erbringen müssen. Dieses Vorgehen wird als Abduktion bezeichnet (Reichertz 1993). Gemeint ist damit ein steter Wechsel zwischen der Gewinnung von Erkenntnissen aus dem, was Forschende in der Welt entdecken, und der Prüfung dieser Erkenntnisse. Dabei erfordert-- und das ist der Kern des Gedankens der Abduktion-- sowohl das Ableiten von theoretischen Ideen aus dem empirischen Material als auch die Form der Prüfung solcher Ideen einen kreativen Beitrag der Forschenden. Der Erkenntnisgewinn 366 Die Einführung von Strauss und Corbin (1990, deutsch 1996) in die GT enthält als Beispiele auch viele Beschreibungen aus dieser Krankenhausstudie. 367 Dieser erste Publikation (Glaser/ Strauss 1967) ist allerdings auch geprägt durch die Absicht, sich von der damals dominierenden Forschungsrichtung des standardisierten Vorgehens und der Prüfung vorab formulierter Hypothesen abzugrenzen. Erst die späteren Bücher (zum Beispiel Strauss/ Corbin 1990) sind als Einführungen in die GT gut geeignet. zentrale Maximen der Grounded Theory <?page no="493"?> 494 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 494 beruht also nicht auf logischen Schlüssen, sondern auf spontanen ‚Einfällen‘, die dann gedankenexperimentell und praktisch überprüft werden. Drittens versteht die GT Forschung als kollektives Unternehmen. Dieses gemeinsame Arbeiten an der Forschung geht über das konkrete Forschungsteam hinaus. Es umfasst die gesamte Gemeinschaft der sozialwissenschaftlich (zu dem Thema) Forschenden, die sogenannte Scientific Community. Dabei wird das Unternehmen Forschung viertens als ein im praktischen Vollzug kollektiv herzustellender Arbeitsprozess verstanden. Fünftens schließlich fasst der Forschungsstil der GT die soziale Wirklichkeit als Zusammenhang komplexer Phänomene auf, der einer ebenso reichhaltigen und differenzierten Theorie bedarf. In dieser Wirklichkeit sind Unterschiedlichkeit und Veränderung der Normalfall und nicht die seltene Abweichung von einer grundsätzlich geltenden Regel. Theorie ist deshalb als ein nie endender Prozess gedacht, denn die Theorie muss der sich ändernden Wirklichkeit immer weiter angepasst werden. 9.1.1 Vorgehen der Grounded Theory Ein Merkmal von GT-Studien ist die Gleichzeitigkeit von Materialgewinnung, Datenanalyse und Theoriebildung. Bereits erste Materialstücke eines ersten Falles werden systematisch analysiert und dabei bereits erste theoretische Ideen entwickelt. Diese bilden den Ausgangspunkt für nächste Schritte der Materialgewinnung und für die weitere analytische Strategie. Die Organisation des Forschungsprozesses erfolgt also nicht linear, sondern schrittweise und zyklisch. Einzelne Ereignisse im Material werden mit anderen systematisch verglichen, um sukzessive ein theoretisches Verständnis ihrer Bedeutung im Hinblick auf die interessierende Fragestellung zu erarbeiten, ohne dabei von einer vorab aufgestellten Untersuchungshypothese gelenkt zu sein. Erkenntnisleitend ist gerade zu Beginn eine eher vage von Neugier geprägte Forschungshaltung: Was geht hier eigentlich vor? Zugleich erlaubt das fortschreitende Wechselspiel zwischen Materialanalyse und konzeptuellem Denken die schrittweise Präzisierung und Ausdifferenzierung der Forschungsfrage. In der GT wird das analytische Vorgehen als kontinuierlich vergleichende Methode (Constant Comparative Method) bezeichnet. Der Übergang von der bloßen Umschreibung des Materials zur Formulierung von Regelmäßigkeiten und allgemeineren Beobachtungen hin zu theoretischen Konzepten wird durch fortgesetztes Vergleichen bewerkstelligt. Immer wieder werden Fälle, genauer gesagt: Repräsentationen von Ereignissen im Material, fortgesetzt miteinander verglichen und auf Ähnlichkeiten und Unterschiede hin befragt. Interessiert sich ein Forschungsprojekt zum Beispiel für das Lehrer-Schüler-Verhältnis, könnte am Beginn die Beobachtung stehen, wie ein Lehrer einen Schüler „bestraft“. Ein erstes Ergebnis wären vermutlich unterschiedliche Arten der Bestrafung, wie „böser Blick“, „deutliche Kritik“, „Ignorieren“ und Ähnliches. Der nächste Vergleich könnte nun sein, wie die Formen des Bestrafens beim Umgang des Lehrers mit einem anderen Schüler variieren. iterativ-zyklischer Forschungsprozess kontinuierlich vergleichende Methode BEISPIEL <?page no="494"?> 495 9.1 Grounded Theory www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 495 Dabei kommen zwei komplementäre Vergleichsstrategien abwechselnd zum Einsatz: Im ersten Schritt, dem minimal kontrastiven Vergleich, werden solche Repräsentationen von Ereignissen und Fällen miteinander verglichen, die im Hinblick auf die interessierenden Vergleichsdimensionen möglichst ähnlich (homogen) erscheinen. In unserem Beispiel des Lehrer-Schüler-Verhältnisses könnte für einen minimal kontrastiven Vergleich ein Schüler dienen, der ähnliche Schulnoten hat und in der gleichen Klasse ist. Auch für dieses Lehrer-Schüler-Verhältnis werden die Formen des Bestrafens vergleichend untersucht. Dagegen zieht man im zweiten Schritt, dem maximal kontrastiven Vergleich, gezielt unterschiedliche (heterogene) Fälle und Ereignisse zum Vergleich dazu heran. Für den maximal kontrastiven Vergleich wird eine deutlich andere Konstellation von Lehrer und Schüler betrachtet. Nun könnte man eine andere Klasse auswählen, eine Lehrerin und eine Schülerin und dabei auch auf deutlich andere Schulleistungen der ausgewählten Schülerin achten- - je nachdem, was sich in der vorangegangenen Vergleichsarbeit als aussichtsreiche und relevante Kontrastierungsdimension abgezeichnet hat. Der homogene (minimal kontrastive) Vergleich dient dazu, die für das entstehende theoretische Konzept relevanten Eigenschaften ausgehend vom bisher untersuchten Material zu erarbeiten. Dies leistet auch der heterogene (maximal kontrastive) Vergleich. Allerdings kommt nun als vorrangige Aufgabe hinzu, die Reichweite des Konzeptes zu bestimmen, d. h. herauszufinden, unter welchen Kontextbedingungen das Konzept seine Aussagekraft behält und- - umgekehrt- - welche Varianten des Ausgangskonzeptes erforderlich sind, um seinen Geltungsbereich zu erweitern. Der Moduswechsel zwischen homogenen und heterogenen Vergleichsstrategien erfolgt orientiert am Kriterium der theoretischen Sättigung: Immer wenn die aktuelle Vergleichsstrategie bei Einbezug weiteren Materials keine produktiven neuen Einsichten erbringt, ist ein Wechsel der Vergleichsperspektive angezeigt. Die praktische Arbeit des Analysierens von Material erfolgt durch Kodieren. Dabei wird das Material aus Beobachtungen, Befragungen, Dokumenten oder was immer für die Forschung interessant ist, daraufhin betrachtet, was hier vorliegt. Diese Formulierung ist bewusst sehr allgemein gehalten, weil das Interesse sich auf sehr Unterschiedliches richten kann. Das Material liegt meist in schriftlicher Form vor, seien es Notizen von Beobachtungen oder aufgeschriebene Interviews oder etwas anderes. Die beim Kodieren vergebenen Kodes halten nun unterschiedliche Bedeutungsdimensionen des Textes fest. 368 Auf diese Weise betrachte ich das Material unter 368 Für das analytische Schreiben im Laufe der Untersuchung schlägt die GT das Verfassen von Memos vor. Memos sind kurze, aber ausformulierte Texte, die jeweils zu einzelnen Passagen im Material, zu einzelnen theoretischen Konzepten oder zu auch bestimmten Vergleichsoperationen geschrieben werden. Sie dienen nicht repräsentativen Zwecken, sondern bilden das teaminterne Gedächtnis und werden fortlaufend in neuen Versionen weiterentwickelt (Lempert 2007). minimal kontrastiver Vergleich BEISPIEL maximal kontrastiver Vergleich BEISPIEL theoretische Sättigung Kodieren <?page no="495"?> 496 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 496 verschiedenen Perspektiven (zum Beispiel: Welche Strategie des Handelnden sehe ich hier? Welche Emotion zeigt sich? Was wird als wichtig betont? ). Kodes in diesem Sinne sollen keine Paraphrasen des Materials sein, sondern auf eine analytische Ebene, ein theoretisches Konzept zielen. Die GT unterscheidet verschiedene Arten des Kodierens, die je nach Phase des Forschungsprojektes ein unterschiedliches Gewicht haben. 369 Die analytische Arbeit beginnt mit dem offenen Kodieren. Dabei wird das Material aus ganz unterschiedlichen Perspektiven, mit unterschiedlichen Ausgangsfragen aufgeschlossen, um relevante Elemente für die Theorieentwicklung zu identifizieren und zu ersten theoretischen Konzepten auszuformulieren. Hier kommt insbesondere die Line-by-Line- Analyse zum Tragen. Dabei wird Zeile für Zeile das Material betrachtet, um aus ganz verschiedenen Perspektiven im Material etwas zu entdecken. Ganz bewusst löst man die einzelnen Textabschnitte aus dem größeren Zusammenhang heraus. Durch diese „mikroskopische Verfremdung“ ist die Kodierung nicht mehr so stark von dem oberflächlichen Texteindruck geleitet, sondern offener für Abweichungen, Varianten, Widersprüche oder auch ganz andere Aspekte. Das offene Kodieren wird mit der Zeit um eine zweite Kodierform ergänzt, das axiale Kodieren. Es zielt darauf, die Verbindungen zwischen Konzepten zu entwickeln. Dies geschieht dadurch, dass nun nicht mehr das Material von vorn nach hinten durchgegangen wird und daran einzelne Konzepte erarbeitet werden. Stattdessen konzentriert sich die Analyse jeweils auf ein Konzept, und es wird gefragt, zu welchen anderen theoretischen Konzepten aus dem offenen Kodieren dieses Konzept in welchen Beziehungen steht. Diese Analyse erfolgt weiterhin strikt auf das empirische Material bezogen. Beim axialen Kodieren wird häufig auf das sogenannte Kodierparadigma zurückgegriffen (Strauss 1991: 57). Das Kodierparadigma gibt den Kodierenden eine Reihe von Leitfragen an die Hand, um das Material aus unterschiedlichen Richtungen zu betrachten. Es sind die Fragen nach Ursachen, Kontexten, intervenierenden Bedingungen, Interaktionen und Konsequenzen. In der fortschreitenden Arbeit des offenen und axialen Kodierens bilden sich bei zunehmender Fokussierung der Analyse eine oder sehr wenige sogenannte Kern- oder Schlüsselkategorien heraus, die sich als zentrales Element zur Beantwortung der Forschungsfrage(n) erweisen. Im Modus des selektiven Kodierens werden die Spuren dieser zentralen Konzepte durch die bisherige Analyse zurückverfolgt und stärker ausgearbeitet, so dass schließlich eine stärker integrierte, in sich konsistente theoretische Perspektive entsteht. Einen besonderen und für die qualitativ-interpretative Sozialforschung insgesamt wegweisenden Vorschlag bietet die GT zur Frage des Auswahlverfahrens. An die Stelle einer schon vor Beginn der Datengewinnung festgelegten willkürlichen oder zufallsbasierten Fall- und Materialauswahl tritt in GT-Studien ein prozessbegleitendes und verlaufsoffenes theoretisches Sampling. Ausgehend von einem ersten, noch 369 Beim Kodieren wurden unterschiedliche Vorgehensweisen vorgeschlagen. Die Darstellung hier orientiert sich an der von Strauss und Corbin vertretenen, am weitesten verbreiteten GT-Variante (Strauss 1991; Corbin/ Strauss 2015). offenes Kodieren axiales Kodieren Schlüsselkategorie selektives Kodieren theoretisches Sampling als prozessbegleitende Auswahlstrategie <?page no="496"?> 497 9.1 Grounded Theory www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 497 eher willkürlich bestimmten Fall wird der weitere Sampling-Prozess von den Erfordernissen der fortlaufenden Arbeit der Theoriebildung bestimmt. Jeder der in fortlaufend verfassten Memos zu dokumentierenden Theoretisierungsschritte mündet in generativen Fragen, die u. a. neuen Bedarf an jeweils spezifischen Fällen bzw. zusätzlichen Materialien zu bereits bearbeiteten Fällen erzeugen. Die Suche gilt insbesondere homogenen oder heterogenen Vergleichsfällen für die skizzierte doppelte Vergleichsstrategie. Eine zentrale Frage nicht nur für die GT betrifft den Umgang mit vorgängigem theoretischem und feldspezifischem Wissen. Glaser und Strauss haben sich von Beginn an kritisch von der üblichen Praxis standardisierter Sozialforschung distanziert, Prüfhypothesen aus vor Untersuchungsbeginn formulierten theoretischen Rahmungen abzuleiten und am Datenmaterial nur noch zu testen. Stattdessen betonen sie die Bedeutung eines unvoreingenommenen Umgangs mit Feld und Material und eine sukzessive, gegenstandsangemessene Theoriebildung. Dies ist mitunter als Tabula-rasa-Position interpretiert worden. Für Strauss und Corbin gilt dies- - im Unterscheid zu Glaser-- aber nicht. Sie sehen in vorher erworbenem Wissen aus der sozialwissenschaftlichen Literatur und anderen Quellen einen großen Vorteil. Dieses Wissen hilft, Ideen zu entwickeln und im Material Interessantes zu entdecken. Eine breite Theoriekompetenz und umfassende feldspezifische Kenntnisse haben, achtsam verwendet, eine sensibilisierende Funktion, ohne allerdings die Richtung der Forschung starr vorzugeben. Varianten und Ergänzungen: In den rund 50 Jahren ihres Bestehens wurde der Forschungsstil der GT in verschiedene Varianten ausdifferenziert und weiterentwickelt. Diese haben den ursprünglichen Ansatz teilweise kritisch konterkariert und teilweise unter Berücksichtigung veränderter gesellschaftlicher Dynamiken und fortschreitender sozialwissenschaftlicher Theoriediskussionen ergänzt und modifiziert. Die bedeutendste und zugleich besonders konflikthafte Ausdifferenzierung wurde in den frühen 1990er-Jahren sichtbar, als Glaser seinen vormals engen Kollegen Strauss und dessen Co-Autorin Juliet Corbin bezichtigte, mit ihrem Verständnis von GT und insbesondere mit der Einführung der Heuristik des Kodierparadigmas das empirische Material in ein theoretisch vorformatiertes Prokrustesbett zu zwingen und so die am empirischen Material entwickelten Konzepte unzulässig vorzugeben. Glaser argumentiert stattdessen, gültige theoretische Konzepte könnten allein aus der vergleichenden Analyse des empirischen Materials entstehen, und weitere Vorgaben oder der Bezug auf Vorkenntnisse behinderten diesen Prozess. Eine systematische Verifikation von Ergebnissen lehnt er daher ab. Strauss hingegen betrachtet den sensibilisierenden Einfluss theoretischen Vorwissens als eine nicht nur unvermeidliche, sondern auch sinnvolle und erforderliche Bedingung erfolgreicher empirischer Forschung. Auf der GT-Variante von Strauss aufbauend haben zwei seiner Schülerinnen, Charmaz (2005) und Clarke (2005), jeweils eigene Versionen des Forschungsstils entwickelt. Charmaz betont die Notwendigkeit, die Rolle der Forschenden bei der Materialproduktion und -analyse stärker reflexiv in den Prozess der Theoriebildung einzubeziehen, und theoretische Sensibilität VERTIEFUNG Varianten der Grounded Theory <?page no="497"?> 498 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 498 kritisiert die ursprüngliche GT und insbesondere Glasers Ansatz als objektivistisch. Clarke wiederum verbindet unter Verweis auf die veränderten analytischen Anforderungen postmoderner Gesellschaften wesentliche Elemente der GT mit Ansätzen der Diskursanalyse und entwickelt daraus erweiterte Heuristiken zu einer umfassenden Situationsanalyse. Insgesamt handelt es sich damit bei der GT nicht um eine Methodologie oder eine Methode, sondern um einen Forschungsstil, genauer gesagt: um die Aufforderung, als Forschende eine abduktive Haltung kreativer Neugierde einzunehmen und dabei im Rahmen weniger, funktional begründeter Regeln eine eigene Form der Forschens zu entwickeln. Dazu gehört nicht nur, sich zwischen den existierenden Varianten zu entscheiden und diese für die eigenen Zwecke anzupassen, sondern auch, diese eigene Variation zu explizieren und gegenüber der Scientific Community zu legitimieren. 9.1.2 Literatur zur Grounded Theory Glaser, Barney G.; Strauss, Anselm L., 2005: Grounded theory. Strategien qualitativer Forschung, 2. Aufl., Bern (amerik. Orig. The Discovery of Grounded Theory. Strategies for Qualitative Research, Chicago, 1967) Charmaz, Kathy, 2014: Constructing Grounded Theory (2. Aufl.), Los Angeles Clarke, Adele E., 2012: Situationsanalyse: Grounded Theory nach dem Postmodern Turn, Wiesbaden (amerik. Orig. Situational analysis: Grounded Theory after the Postmodern Turn, Thousand Oaks, CA, 2005) Strauss, Anselm L., 1991: Grundlagen qualitativer Sozialforschung, München (als Paperback bei UTB 1994) Strübing, Jörg, 2014: Grounded Theory. Zur sozialtheoretischen und epistemologischen Fundierung eines pragmatistischen Forschungsstils (3. Aufl.), Wiesbaden 9.2 Objektive Hermeneutik Die vor allem von Ulrich Oevermann im Kontext der Frankfurter Kritischen Theorie entwickelte objektive Hermeneutik (fortan OH) rekonstruiert einzelfallbasiert handlungskonstitutive „generative Regeln“ und deren Niederschlag im kommunikativen Handeln. Sie benutzt dabei bevorzugt Mitschriften von Gesprächen, die in normalen Situationen ohne den Einfluss einer Datenerhebung entstanden sind, sogenannte natürlichsprachliche Protokolltexte. Allerdings kommt zunehmend auch Interviewmaterial hinzu. Mit dem Prinzip der Generierung von Lesarten und den Methoden der Feinsowie der Sequenzanalyse hat die OH ein ausdifferenziertes methodisch-analytisches Instrumentarium entwickelt, das auch unabhängig von der sozialtheoretischen Hintergrundkonstruktion Oevermanns in einigen anderen Verfahren als Heuristik genutzt wird (so teilweise in der dokumentarischen Methode oder in der Biografieforschung). Partielle Verfahrensähnlichkeiten gibt es auch-- bei Forschen in abduktiver Haltung <?page no="498"?> 499 9.2 Objektive Hermeneutik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 499 aller Unterschiedlichkeit der Methodologie-- mit dem analytischen Vorgehen der Grounded Theory. Viele qualitativ-interpretative Verfahren zielen auf die Analyse des subjektiv gemeinten Sinns von Individuen. Sie wählen zur Erforschung sozialer Zusammenhänge und Prozesse den Weg deutenden Verstehens dieses subjektiv gemeinten Sinns, weil ihre sozial-theoretischen Prämissen in der einen oder anderen Weise das handelnde Subjekt als entscheidend für die Hervorbringung sozialer Situationen und Strukturen ansehen. Die OH hingegen setzt einen anderen Akzent. Im anhaltenden soziologischen Disput um das Verhältnis von Handlung und Struktur schlägt sie sich stärker auf die Seite der Struktur, fasst den Strukturbegriff aber wesentlich differenzierter als die älteren Theorien des Strukturfunktionalismus. Die OH konstruiert damit eine Struktur-Handlungs-Relation, in der Strukturen das Handeln dominieren, ohne es aber vollständig zu determinieren. Gerade in Prozessen von Sozialisation und Bildungserwerb, an deren Erforschung Oevermann und sein Team interessiert waren, zeigte sich schnell, dass die Akteure in dem, was sie tun oder sagen, in der Regel mehr ausdrücken als sie wissen oder explizit beabsichtigen. Die Strukturiertheit und Regelhaftigkeit des Sozialen scheint gewissermaßen durch die Akteure hindurch zu sprechen-- und es ist die Aufgabe der Sozialforscher, diesen Strukturzusammenhang in den Datentexten ausfindig zu machen und zu explizieren. Dabei stehen Texte als „Ausdrucksgestalten“ im Zentrum des analytischen Interesses (Oevermann 2002, 1 f.), weil sich aus der Sicht der OH in diesen Texten die gesuchten Strukturen ausdrücken. Es geht also darum, die im Alltag handelnd wahrgenommenen, aber in der Regel nicht explizierten und alltäglich auch kaum explizierbaren Zusammenhänge und Konstellationen analytisch herauszupräparieren, von denen die OH annimmt, dass sie aus überindividuell existierenden und objektiv geltenden Regeln erzeugt werden. Der Hermeneutik entlehnt ist dabei der Gedanke, dass sich im individuellen und situierten Handeln und seinen Hervorbringungen immer ein dieses überschreitendes Allgemeines ausdrückt, das sich nur interpretativ und unter Einbezug der Deutungskompetenz der Interpretierenden erschließen lässt. Die OH fügt diesem Grundgedanken der wissenschaftlichen Hermeneutik Diltheys (2004, Orig. 1900) den Gedanken hinzu, dass dieses überschreitende Allgemeine regelhaft hervorgebracht wird und dieser Regelungskomplex sich auf wenige generative Regeln zurückführen lässt, die universell und unabhängig von subjektiven Absichten objektiv gelten (z. B. Grammatik, Logik, Moralität). Die OH beansprucht also, aus empirischem Material über konkretes alltägliches Handeln auf die jeweils wirkenden Regelungssysteme schließen zu können. Diese Regelungssysteme werden als Strukturen und genauer als „strukturierende Strukturen“ bezeichnet, um deutlich zu machen, dass die Strukturen durch ihren Einfluss die Strukturen erhalten und reproduzieren. Um diese strukturierenden Strukturen rekonstruieren zu können, haben Oevermann und andere Vertreterinnen und Vertreter der OH bestimmte Anforderungen an mögliches empirisches Material formuliert. Die zentrale Festlegung besteht darin, dass die OH sich einzig und allein auf Text als empirisches Material bezieht, dabei aber den Textbegriff weiter fasst als im alltägli- Primat generativer Strukturen Texte als „Ausdrucksgestalten“ Rekonstruktion überindividuell geltender Strukturen soziale Realität als-Text <?page no="499"?> 500 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 500 chen Sprachgebrauch. Text wird im Sinne der OH weitgehend synonym mit dem Begriff des Handelns verstanden, insofern angenommen wird, dass Handeln in all seinen Äußerungsformen auch als Text darstellbar und entsprechend den Hervorbringungs- und Anwendungsregeln sprachlicher Ausdrücke verstehbar und interpretierbar ist. Texte umfassen damit die ganze Vielfalt der Hervorbringungen menschlicher Aktivität: Kunstwerke, Musik, Gebrauchsgegenstände, vor allem aber die hergestellte Interaktion von Akteuren miteinander. Für die OH ist damit „die zu interpretierende soziale Realität immer schon textförmig“ (Reichertz 1997, 37). Auf einer zweiten Bedeutungsebene ist Text für die OH Protokolltext, also jene technische Übersetzung von sozialer Wirklichkeit in eine dauerhafte und beliebig zugängliche Form. Erst diese Form erlaubt es den Forschenden, sich aus der zu interpretierenden Situation zurückzuziehen und ohne Handlungsdruck zu interpretieren: Ein Text lässt sich mehrfach anschauen, die Handlung selbst aber nur einmal. Während in der Frühzeit der OH schon aufgrund eingeschränkter technischer Möglichkeiten das zu bearbeitende Material ausschließlich aus Texten in Form von sehr detaillierten Transkriptionen sprachlicher Interaktionen bestand, werden inzwischen auch andere Medien, etwa Bild-Text-Ensembles oder Videos bearbeitet. Ausgehend von der Grundannahme der Regelgeleitetheit allen sozialen Handelns muss der Text für die OH verbindlicher Ausdruck dieser Regeln sein. „Jedes Element des Textes muss also in einem objektiven Sinn durch einen Regelbezug motiviert sein. Texte sind also nie als Produkte des Zufalls anzusehen“ (Oevermann et al. 1979, 394). Das verweist zunächst zurück auf den Sinn des Prinzips der Wörtlichkeit und stellt, nebenbei bemerkt, eine Parallele dar zur ethnomethodologischen Konversationsanalyse mit ihrem Credo von der „order at all points“ (vgl. Kap. 9.4). Die in der OH bearbeiteten Textsorten sind nicht prinzipiell beschränkt, allerdings gibt es eine deutliche Präferenz für „natürliche Daten“, d. h. für (Protokoll-)Texte, die ohne Zutun der Forschenden erzeugt wurden, etwa mediale Produkte, aber auch transkribierte Mitschnitte aus Familieninteraktionen, Mitschriften von Reden oder Selbstdarstellungen von Firmen und Institutionen. 9.2.1 Vorgehen der objektiven Hermeneutik Für die Arbeit mit derartigem Material wurden in der OH über die Jahre eine Reihe forschungspraktischer Verfahren entwickelt, die teilweise komplementäre Leistungen erbringen und daher meist in bestimmten Kombinationen zur Anwendung kommen. Das zentrale Verfahrenselement ist die Lesarten generierende Sequenzanalyse. Ihr geht jedoch zunächst die Bestimmung des Falles voraus. Darunter wird in der OH nicht etwa nur die Auswahl eines ersten empirischen Falles verstanden, sondern eine sehr stark theoriegeleitete hypothetische Bestimmung dessen, was den Fall charakterisiert und für was genau dieser Fall ein Fall ist, z. B. die Interaktion einer deutschen Grundschullehrerin mit einem Drittklässler mit türkischem Migrationshintergrund aus bildungsfernem Milieu als Fall für die Reproduktion von Bildungsungleichheit. Dabei wird nicht nur umfassendes Kontextwissen zum Fall mobilisiert (z. B. die Protokolltext als-Basis handlungsentlasteter Interpretation Prinzip der Wörtlichkeit <?page no="500"?> 501 9.2 Objektive Hermeneutik www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 501 Familiengeschichte des Kindes oder die Bildungsbiografie der Lehrerin), sondern auch profunde sozialtheoretische Kompetenz der Forschenden. Dieser Arbeitsschritt dient den Forschenden zur Konstruktion einer sogenannten „Normalitätsfolie“, die Angaben darüber macht, „was vernünftigerweise, d. h. nach Geltung des unterstellbaren Regelsystems, (…) z. B. eine Person mit bestimmten Merkmalen in einem spezifischen Kontext bei Konfrontation mit einem spezifischen Handlungsproblem tun könnte oder tun sollte“ (Oevermann/ Allert/ Konau 1980, 23). Mit diesen Normalitätsfolien schafft die OH sich eine Art Referenzpunkt, dem gegenüber das tatsächliche Handeln der Akteure im untersuchten Text auf Abweichungen und Übereinstimmungen geprüft werden kann, die dann wiederum zu interpretieren sind. Die anschließende Sequenzanalyse ist zwingend in einer Interpretationsgemeinschaft durchzuführen. Für diese Analyse wird der Text in einzelne Sequenzen aufgeteilt, einzelne ‚Interakte‘ oder ‚turns‘. Gemeint sind damit die kleinsten Einheiten von Beiträgen in dem aufeinander bezogenen Handlungsstrom einer Interaktion. Die Sequenzanalyse betrachtet zunächst nur ein einziges Interakt oder einen ‚turn‘, ohne dem nachfolgenden Interakt oder turn, also der Anschlusshandlung, Beachtung zu schenken. Ziel der kollektiven Interpretationsarbeit ist es, die im Handeln implizit zur Anwendung gekommene Strukturlogik zu rekonstruieren. Dazu werden sogenannte „Lesarten“ entwickelt, also denkmögliche Kontexte und Anschlussmöglichkeiten. Die Frage ist: Wie könnten die Handelnden in sinnvoller Weise an das vorliegende Interakt anschließen? Im Wege solcher Gedankenexperimente wird zunächst eine Maximierung der Deutungsmöglichkeiten erzielt. Erst wenn alle vernünftigerweise denkmöglichen Lesarten formuliert sind (Prinzip der Extensivität), werden diese mit den tatsächlich im Material dokumentierten Anschlusshandlungen verglichen. Erst darin, so Oevermann et al., enthüllt sich die „objektive“ Strukturlogik des Falles: „(E)rst die streng sequentiell arbeitende, Interakt für Interakt interpretierende Rekonstruktion des latenten Sinns einer Szene [macht] die fallspezifische Struktur und damit die Struktur, in der die Besonderheit des Falles sich objektiviert, sichtbar“ (1979, 414). Denn die verschiedenen Lesarten haben jeweils spezifische Implikationen, sprich: sie legen unterschiedliche Fortgänge des Handlungsverlaufs nahe. Durch den Vergleich der denkmöglichen Lesarten mit dem tatsächlichen Anschlusshandeln erweist sich, welcher Strukturlogik die Akteure in ihrem Handeln mindestens implizit gefolgt sind. So wird nun Interakt für Interakt verfahren. „Auf diese Weise türmt sich im Zuge der Sequenzanalyse ein Selektionswissen auf-- auch ‚innerer Kontext‘ genannt--, das die Entscheidung für oder gegen Lesarten späterer turns leichter und treffsicherer macht“ (Reichertz 1997, 45 f.). Ein Ende der jeweiligen Sequenzanalyse ist- - hier wiederum ähnlich der GT- - an ein spezifisches Sättigungskriterium gebunden: Wenn „eine Lesart gefunden ist, die für den gleichen Interaktionstext Sinn macht, (…) sich also die Struktur der weiteren Interaktion voraussagen lässt“ (Reichertz 1997, 46), dann kann der Interpretationsprozess abgebrochen werden. Im Ergebnis zielt das einzelfallanalytische Verfahren der sequenzanalytischen Interpretation zunächst auf die Rekonstruktion eines singulären Falles in seiner Interpretation objektiver Sozialdaten Normalitätsfolien als interpretatorischer Referenzpunkt Lesarten entwickeln Anschlusshandlungen enthüllen objektive Strukturlogik <?page no="501"?> 502 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 502 Struktur, also auf die „Einzelfallstrukturrekonstruktion“ (Reichertz 1997, 50). Gemäß der Totalitätsannahme der OH müsste die am Fall erarbeitete Struktur aber über diesen hinaus Geltung beanspruchen können, also im Wesentlichen eine allgemeine Struktur repräsentieren und auch in seiner Singularität aus dieser erklärbar sein. Um diesen Schritt zur Generalisierung der Struktur zu gehen, bedient sich die OH einer Variante des von Popper entwickelten Falsifikationsprinzips (vgl. Kapitel 1.3) und vergleicht nun weitere Fälle gleichen Typs miteinander. Dabei wird die am ersten Fall erarbeitete Strukturaussage als zu überprüfende Fallstrukturhypothese verwendet. Widerlegen weitere Fälle diese Hypothese, beruhen sie also nicht auf der angenommenen Strukturgesetzlichkeit, gilt die am ersten Fall entwickelte Ausgangshypothese als widerlegt, also als „falsifiziert“. Wird sie hingegen nicht widerlegt, indem weitere Fälle keine widersprechenden Befunde zutage fördern, gilt sie als vorläufig gültig und auch als für prognostische Zwecke zumindest eingeschränkt tauglich. Auch wenn die Falsifikationslogik an nomologisch-deduktive Verfahren erinnert, muss für die OH festgehalten werden, dass hier die Entdeckung der Hypothese bereits begründungspflichtiger Teil der empirischen Forschungsarbeit ist und nicht von außen an diese herangetragen wird. 9.2.2 Literatur zur objektiven Hermeneutik Oevermann, Ulrich, 1999: Strukturale Soziologie und Rekonstruktionsmethodologie, in: Glatzer, W. (Hg.): Ansichten der Gesellschaft: Frankfurter Beiträge aus Soziologie und Politikwissenschaft Oevermann, Ulrich; Allert, Tilman; Konau, Elisabeth; Krambeck, Jürgen, 1979: Die Methodologie einer objektiven Hermeneutik und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften, in: Soeffner, H.-G. (Hg.): Interpretative Verfahren in den Sozial- und Textwissenschaften, Stuttgart, 352-433 Wernet, Andreas, 2001: Einführung in die Interpretationstechnik der objektiven Hermeneutik, Opladen 9.3 Dokumentarische Methode Wenn wir menschliche Entäußerungen, sei es gesprochene Sprache, seien es Texte, Skulpturen, Gemälde, Gebäude oder auch Fotos und Filme, zu „verstehen“ oder zu „interpretieren“ versuchen, dann stehen wir vor der Frage, ob der „Sinn“ dieser Artefakte allein im subjektiv gemeinten Sinn ihrer Schöpfer aufgeht. Gibt es nicht doch immer etwas darüber Hinausweisendes, allgemeines Kulturelles oder Gesellschaftliches? Wenn wir von Menschen als sozialen Wesen sagen, dass sie zu Individuen erst und nur insoweit werden, als sie „vergesellschaftet“ sind: Müsste dann nicht dieses Gesellschaftliche in jeder ihrer Entäußerungen wieder zum Vorschein kommen? Die objektive Hermeneutik befasst sich, wie wir gesehen haben, mit ähnlichen Fragen und zielt dabei auf überindividuelle Regeln, die dem Handeln der Einzelnen Falsifikationsprinzip der objektiven Hermeneutik <?page no="502"?> 503 9.3 Dokumentarische Methode www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 503 implizit zugrunde liegen und durch geeignete methodische Verfahren aus Daten über deren soziales Handeln rekonstruiert werden können. Die dokumentarische Methode (fortan DM) argumentiert ähnlich, verzichtet aber auf den strengen und fast deterministischen Regelbegriff Oevermanns. Ihr geht es auch nicht so sehr um den Nachweis, dass sich im Individuum und in seinem Handeln die Totalität des Gesellschaftlichen manifestiert. Stattdessen will sie die individuelle Situation, das „So-geworden-sein“ von Individuen, auf einen Kern kollektiver Erfahrungen zurückführen. Die Handlungen von Individuen in einer Situation lassen sich nach der DM durch vergangene Erlebnisse des Individuums in der Gesellschaft erklären. Die DM findet diese Erklärungen, indem sie versucht, einer spezifischen Sinnebene im Material habhaft zu werden, dem „Dokumentsinn“. Im Dokumentsinn ‚dokumentiert‘ sich die soziale und kulturelle Orientierung der Individuen. Diese nicht individuelle, sondern sozial und kulturell geprägte Orientierung strukturiert das zu erklärende Handeln und lässt damit auch Rückschlüsse auf die Sinnwelt von Kollektiven, Milieus oder Generationen zu. Die DM geht ursprünglich auf methodologische Überlegungen des ungarischdeutschen Wissenssoziologen Karl Mannheim (1893-1947) zurück. Mannheim entwickelte-eine besondere methodologische Position im Hinblick auf die Interpretation menschlicher Hervorbringungen in Kunst und Kultur, aber auch im Hinblick auf alltägliches Handeln und Sprechen (Mannheim 2004, Orig. 1921). Seine Leitfrage war: Wie kann man aus der Interpretation dieser menschlichen Hervorbringungen ein zutreffendes Verständnis der Kultur erarbeiten, der sie entstammen? Er versucht, die Möglichkeit einer „objektivierenden Beobachterhaltung“ (Bohnsack 2003, 1) zu begründen, mit der sich ein Anschluss an sozialstrukturelle Analysen bewerkstelligen lässt. Mannheim hat in der von ideologischen Kämpfen zerrissenen, zunehmend heterogenen Zwischenkriegsgesellschaft erkannt, dass die Menschen nicht allein von Klassenschicksalen geprägt, sondern in Milieus und Generationen unterschiedlichen Einflüssen ausgesetzt sind, die ihr Handeln prägen, ohne dass sie das selbst zu sagen wüssten. Damit geht Mannheim über das subjektive Sinnverstehen hinaus. Die Forschenden sollen sich aus ihren gedanklichen Beschränkungen, aus den analytischen Fesseln der alltagsweltlichen Eingebundenheit befreien. Dies kann nach Mannheim geschehen, indem sie die „mit dem immanenten Sinngehalt verbundenen Ansprüche(n) auf Wahrheit und normative Richtigkeit“ (Bohnsack 2003, 552) aus ihren Analysen fernhalten. Mannheim nennt das die „Einklammerung des Geltungscharakters“. Er fragt also nicht, ob eine Aussage faktisch wahr oder normativ richtig ist. Stattdessen sollen die Forscherin und der Forscher fragen, wie diese Einschätzungen zustande kommen. Sie sollen herausfinden, wie das, was als wahr und richtig gilt, im Alltag erzeugt wird. Mannheim unterscheidet zunächst zwei Typen von Wissen: das konjunktive und das kommunikative Wissen. Konjunktives Wissen besteht aus einem gemeinsam geteilten Erfahrungsraum, in dem die kollektiv erlebte Geschichte eines Milieus, einer Generation oder eines sozialen Umfeldes für das eigene Handeln verfügbar ist. Allerdings sind wir nicht unbedingt in der Lage, dieses Wissen auch zu formulieren. Ziel: So-geworden-sein von Individuen auf Kern kollektiver Erfahrungen zurückführen Ursprung bei Karl Mannheim (1893-1947) objektivierende Beobachterhaltung Einklammerung des Geltungscharakters als zentrale Heuristik konjunktives Wissen als geteilter Erfahrungsraum <?page no="503"?> 504 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 504 Es handelt sich um atheoretisches Wissen in dem Sinne, dass es uns nicht reflexiv verfügbar ist. Als Handelnde greifen wir vorbewusst auf diese kollektive Erfahrungsaufschichtung zurück, d. h. sie wirkt in unser Handeln hinein, ohne dass wir darüber Rechenschaft ablegen könnten. Das gemeinsame konjunktive Wissen erlaubt in der Interaktion mit anderen ein intuitives Verstehen, das keiner Explikation bedarf und darauf beruht, dass es gerade kein Verstehen des subjektiven Sinns ist, sondern ein Verstehen der gemeinsamen Sinnwelt, der die Interaktionspartner angehören. Kommunikatives Wissen bezeichnet in der DM im Unterschied dazu die Weise, in der Menschen sich einen Zusammenhang erschließen, an dem sie nicht unmittelbar, atheoretisch-intuitiv teilhaben. Die kommunikative Vermittlung von Erfahrungen und Alltagswissen ist problematisch. „Erfahrungen und Alltagswissen kommunikativ zu vermitteln ist eine vertrackte Aufgabe, da eigene Selbstverständlichkeiten zunächst erkannt und die spezifischen Wissenslücken des Gegenübers gleichsam erst erspürt werden müssen“ (Kleemann/ Krähnke/ Matuschek 2009, 158). Im Modus der kommunikativen Erfahrung geschieht mit dem Wissen noch etwas Zusätzliches: Es wird aus seinem Entstehungszusammenhang entbettet, also auch der sozialen Bezüge entkleidet, die es geprägt und hervorgebracht haben. Es handelt sich also im Wortsinne um eine Form der Entfremdung von Wissen. Denken wir z. B. an einen zukünftigen Schwiegersohn einfacher Herkunft, der bei den zukünftigen Schwiegereltern zu Besuch ist, die sich zu den „feinen Leuten“ zählen. Er bemüht sich um angemessene Tischmanieren, und gerade in diesem Bemühen legt er, ohne es zu wollen, seine Herkunft offen. Er macht im Sinne kommunikativen Wissens ‚eigentlich‘ alles richtig, merkt aber vermutlich selbst, mit Sicherheit aber merken es die Schwiegereltern in spe, dass dennoch gerade etwas ziemlich schief läuft: Das von seinen Entstehungsgrundlagen in der Lebenswelt der feinen Leute abgeschnittene „Knigge-Wissen“ lässt sich nicht angemessen in Handeln umsetzen. Zugleich drückt sich die eigene klassen-, generations- und milieuspezifische Prägung in vielen Nuancen des Handelns aus, über die der Mann sich nicht bewusst ist, die aber von allen Anwesenden dennoch bemerkt werden. Das, wofür die Handlung oder das hervorgebrachte Objekt über den subjektiv gemeinten Sinn hinaus noch steht, findet nicht nur in der Gestalt der Handlung oder des Objektes seinen Ausdruck, es hat vor allem eine tatsächliche Wirkung, die über das subjektive Wollen des Handelnden hinausgeht, ja, dessen Wollen häufig sogar konterkariert: Der zukünftige Schwiegersohn will zeigen, dass er dazu gehört, und demonstriert doch genau das Gegenteil. Im Handeln dokumentiert sich also der soziale Wissenszusammenhang (die Schicht, die Generation, das Milieu), auch ohne dass der individuelle Akteur darüber im Einzelnen Rechenschaft ablegen könnte. Die Forschenden sind am Erfahrungszusammenhang konjunktiven Wissens im Forschungsfeld nicht unmittelbar beteiligt, d. h. wenn sie sich das dort gültige atheoretische Wissen erschließen wollen, müssen sie methodisch besondere Vorkehrungen treffen. Genau das ist das Anliegen der dokumentarischen Methode, die auf die kommunikatives Wissen BEISPIEL <?page no="504"?> 505 9.3 Dokumentarische Methode www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 505 Differenz zwischen subjektiv gemeintem Sinn und der Sinnstruktur des beobachteten Handelns zielt. Mannheim selbst war empirischer Sozialforscher, daher war sein analytischer Vorschlag auch nicht so weit expliziert und kodifiziert, dass er als sozialwissenschaftliche Methode bruchlos hätte vermittelt werden können. Eine erste explizit empirisch-methodische Umsetzung erfolgte durch den amerikanischen Soziologen Harold Garfinkel, der in den 1960er-Jahren eine der damaligen radikalen Kritiken der methodologischen Positionen der Sozialwissenschaften entwickelte und sein kritisches Programm als Ethnomethodologie bezeichnete (Garfinkel 1964). Er definierte mit der Ethnomethodologie und unter ausdrücklichem Bezug auf Mannheims DM ein Forschungsinteresse und eine Analysehaltung, die sich-nicht mehr auf die Rekonstruktion des subjektiv gemeinten Sinns bezog, sondern „auf das Wie, also auf die Logik oder den Modus Operandi der Prozesse der Herstellung von Sinnzuschreibungen und Motivunterstellungen“ (Bohnsack 2001, 328). Insofern knüpft Garfinkel nahtlos an Mannheim an, ohne allerdings dessen Forschungsperspektive in Richtung Milieus und Kulturen zu verfolgen (vgl. aber Kapitel 9.4. zur Konversationsanalyse). Anderthalb Jahrzehnte später griff schließlich der deutsche Soziologie Ralf Bohnsack mit seiner Forschungsgruppe die „dokumentarische Methode“ Mannheims auf und machte sie mit empirischen Studien vor allem in der Jugend-, Gender-, Organisations- und Medienforschung fruchtbar. Bohnsack operationalisierte Mannheims methodologische und metatheoretische Überlegungen in praktische Forschungsweisen, die einer Verbreitung des Forschungsstils den Weg ebneten. Im Anschluss an Mannheim unterscheidet Bohnsack mit der DM zwei verschiedene Sinnebenen, auf denen drei Arten von Sinnbezügen zu finden sind: Sinnebenen und Sinnbezüge in der DM: 1. Sinnebene (immanenter, expliziter Sinngehalt) - intentionaler Ausdruckssinn: vom Autor subjektiv gemeinter oder intendierter Sinn - Objektsinn: die allgemeine Bedeutung eines Textinhalts oder einer Handlung 2. Sinnebene (nicht immanenter, impliziter Sinngehalt) - Dokumentsinn: das, was in menschlichen Entäußerungen über den immanenten Sinngehalt hinaus ausdrucksmäßig repräsentiert ist und was in der Alltagsinteraktion intuitiv verstanden wird. Wenn Menschen (z. B. in einer Gruppendiskussion) über Aspekte ihrer Lebenspraxis berichten, können wir einerseits den immanenten Sinngehalt untersuchen, also ihren wörtlichen, expliziten Gehalt. Auf dieser Ebene werden die Motivstrukturen der Handelnden erfasst. Dabei lässt sich der intentionale Ausdruckssinn, also der vom Autor subjektiv gemeinte oder intendierte Sinn, unterscheiden vom objektiven Sinn oder Objektsinn, der die allgemeine Bedeutung eines Textinhalts oder einer Handlung umfasst („Holzhacken“, „Heiraten“). Allgemeine Bedeutungen sind gesell- Einfluss Mannheims auf die Ethnomethodologie intentionaler Ausdruckssinn Objektsinn <?page no="505"?> 506 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 506 schaftlich institutionalisiert, d. h. die Handelnden können sich mit hinreichender Sicherheit wechselseitig darauf beziehen (Reziprozität), und sie wissen um diese Bedeutungen und Motive. Auf einer zweiten, nicht-immanenten Sinnebene ist das angesiedelt, was Mannheim den „Dokumentsinn“ nennt (Mannheim 2004: 113). Beim Dokumentsinn geht es um das, was verbale Interaktionen, Texte, Fotografien etc. über den immanenten Sinngehalt hinaus ausdruckmäßig repräsentieren, worauf in ihnen also implizit verwiesen und was in der Alltagsinteraktion intuitiv verstanden wird. Für die DM lässt sich dieser Dokumentsinn nur retrospektiv, und zwar vor allem aus den Herstellungsweisen, also den Handlungspraktiken rekonstruieren. Die Rekonstruktionsarbeit der DM zielt dabei auf die Differenz zwischen immanentem Sinngehalt und Dokumentsinn. Häufig wird dabei auf empirisches Material aus Realgruppen-Diskussionen zurückgegriffen, in neuerer Zeit verstärkt auch auf Fotos und Videos. 9.3.1 Vorgehen der dokumentarischen Methode Der „methodologischen Leitdifferenz“ (Bohnsack 2014, 65) von immanentem und dokumentarischem Sinngehalt korrespondiert forschungspraktisch der Unterschied zwischen a) formulierender Interpretation und b) reflektierender Interpretation. Sie bilden die ersten beiden Schritte im insgesamt vierstufigen analytischen Prozess der DM. Auf sie folgen c) die komparative Analyse und schließlich d) die Typenbildung. a. Die formulierende Interpretation bleibt noch im Bereich des ‚immanenten Sinngehalts‘, „ohne allerdings zu dessen Geltungsansprüchen- … Stellung zu nehmen“ (Bohnsack 2014, 136). Hier kommt also die eingangs erwähnte „Einklammerung des Geltungssinns“ ins Spiel. Es geht in diesem Analyseschritt nicht darum, ob das, was ausgesagt und dargestellt wird, zutreffend ist oder nicht. Rekonstruiert werden stattdessen die Themen der Interaktionen und der Diskurse. Dabei unterscheidet man innerhalb der formulierenden Interpretation drei analytisch-rekonstruktive Arbeitsschritte: (1) Beim Abhören der Audio- oder Videoaufzeichnungen (also schon vor der Transkription) wird versucht, einen Überblick über den thematischen Verlauf (z. B. einer Gruppendiskussion) zu gewinnen, sie in Ober- und Unterthemen zu gliedern und zu vermerken, wer die Themen initiiert hat. (2) Im nächsten Schritt erfolgt nach formalen und inhaltlichen Kriterien eine Auswahl von Passagen, die zum Gegenstand reflektierender Interpretation werden sollen. Formal geht es um Anfangspassagen sowie um Passagen von besonderer „interaktive(r) und metaphorische(r) Dichte“ (Bohnsack 2014, 137), also z. B. schnelle und häufige Sprecherwechsel, auffällige Pausen im Gesprächsfluss oder Stilwechsel in der verbalen Präsentation. Inhaltliches Kriterium ist die thematische Einschlägigkeit für die Ausgangsfragestellung und die Vergleichbarkeit mit anderem Datenmaterial im Hinblick auf die spätere komparative Analyse und Typenbildung. Dokumentsinn: ausdrucksmäßige Repräsentation latenter Sinnschichten Leitdifferenz: immanenter vs. dokumentarischer Sinngehalt analytischrekonstruktive Arbeitsschritte <?page no="506"?> 507 9.3 Dokumentarische Methode www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 507 (3) Für die ausgewählten Passagen wird dann in „detaillierter formulierender Interpretation“ die thematische Feingliederung herausgearbeitet, die zusammenfassend den immanenten, allgemein verständlichen Sinngehalt reformuliert. Auf einer ersten Ebene des Sinnverstehens wird so die innere thematische Gliederung des Textes bzw. der Abfolge verbaler Äußerungen rekonstruiert. b. Die anschließende reflektierende Interpretation rekonstruiert und expliziert den Rahmen, innerhalb dessen man das Thema platziert, d. h. mit Bezug auf welches Orientierungsmuster bzw. welche Orientierungsrahmen (die in der DM „Gegenhorizonte“ genannt werden) das Thema behandelt wird. Denken wir z. B. an einen Schüler, der schildert, wie er in eine Rauferei auf dem Schulhof eingreift, und zugleich ausdrückt, dass man da ja seiner Meinung nach nicht einfach wegschauen kann. Aus der Analyse der im Material ausgedrückten Gegenhorizonte lässt sich der Rahmen des Erfahrungsraums der Akteure rekonstruieren, innerhalb dessen Orientierungsfiguren (also z. B. die Selbststilisierung zum „Retter“, „Helden“ oder „Versager“, zur „guten Mutter“ oder zum „fleißigen Angestellten“) aufgespannt sind. Neben der Suche nach positiven oder negativen Orientierungsrahmen ist auch die Analyse ihres „Enaktierungspotentials“ (Bohnsack 1989, 28) ein wichtiges Mittel der reflektierenden Interpretation. Damit ist die handlungspraktisch-alltägliche Umsetzung von Haltungen und Orientierungen gemeint. Ein weiteres Mittel der reflektierenden Interpretation ist ein sequenzanalytisches Vorgehen bei verbalem Material (Gruppendiskussionen oder Interviews). Die DM verfährt hier nicht unähnlich der objektiven Hermeneutik (und der Konversationsanalyse; siehe Kapitel 9.4): Es geht zunächst darum herauszuarbeiten, welche Horizonte ein erster Redezug (bzw. ein Interakt) entwirft und welche Unterscheidungen damit verbunden sind, auf die der anschließende Redezug eine sinnvolle Fortführung oder Antwort darstellt. Auch die DM entwirft hier in der analytischen Arbeit zunächst eine Reihe denkmöglicher Lesarten und zieht ihre Schlüsse aus dem Verhältnis der Lesarten zu dem schließlich eingetretenen Fortgang im anschließenden Redezug. Ob die analytischen Schlüsse und die rekonstruierte Regieanweisung zutreffen, wird schließlich unter Heranziehung des dritten Redezugs geprüft: Wenn in einer Gruppendiskussion z. B. Sprecher B auf eine Äußerung von Sprecher A mit Empörung reagiert, und wir davon ausgehen würden, dass A offenbar eine kollektive Norm verletzt hat, dann kann uns die Reaktion von Sprecher C auf A und B Aufschluss darüber geben, ob wir mit unserer Annahme richtig liegen: Vielleicht sagt C auch so etwas wie: „Na, nun hab‘ Dich mal nicht so! “ und konterkariert damit unsere These über die Normverletzung: Offenbar sind die Normen hier nicht so eindeutig, dass man sich in der Empörung über A einig wäre. reflektierende Interpretation BEISPIEL sequenzanalytisches Vorgehen in der dokumentarischen Methode BEISPIEL <?page no="507"?> 508 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 508 Der so rekonstruierte Orientierungsrahmen bildet schließlich das kollektive, gemeinsam geteilte Muster, innerhalb dessen sich- die Interaktionen der Akteure bewegen und aus dem sie Verhaltenssicherheit beziehen: Was sie erleben, ordnet sich ohne reflexive Bemühungen in diesen Rahmen ein und kann so identitätssichernd verarbeitet werden. Im Reden darüber (z. B. in der Gruppendiskussion) dokumentiert sich dieser Orientierungsrahmen unwillkürlich. c. Die reflektierende Interpretation geht über in eine Fallbzw. Diskursbeschreibung. Hier wird im Sinne einer Ergebnispräsentation die Gesamtgestalt des einzelnen Falles zusammenfassend charakterisiert und verdichtet. Die Präsentationsform der Fall- und Diskursbeschreibung ist inzwischen gegenüber der Typenbildung in den Hintergrund getreten (Bohnsack 2014, 143), d. h. weniger Einzelfalldarstellungen als vielmehr vergleichende Studien über eine Anzahl von Fällen mit einem bestimmten Verallgemeinerungsanspruch bestimmen die gegenwärtige Praxis der DM. d. Im Fall der DM geht es bei der Typenbildung vor allem darum, Bezüge zwischen spezifischen Orientierungen einerseits und dem „Erlebnishintergrund oder existenziellen Hintergrund, in dem die Genese der Orientierungen zu suchen ist, andererseits“ (Bohnsack 2014, 143) zu rekonstruieren. „Der Kontrast in der Gemeinsamkeit ist fundamentales Prinzip der Generierung einzelner Typiken und ist zugleich die Klammer, die eine ganze Typologie zusammenhält.“ (Bohnsack 2014, 145). Ein Beispiel dafür wären auf der einen Seite Handwerker im ländlichen süddeutschen Raum und auf der anderen Seite kleine Beamte aus großstädtischen Milieus im Ruhrgebiet, beide im fortgeschrittenen Alter. Durch ihre Jugend im frühen Nachkriegsdeutschland weisen beide Gruppen generationsprägende gemeinsame Erfahrungsbestände auf (Aufwachsen in der ‚schlechten Zeit‘). Sie unterscheiden sich aber zugleich durch milieuspezifisch unterschiedliche Erfahrungen (Stadt/ Land und Berufe). Die komparative Typenbildung kann hier also aufzeigen, wie die eine Generation bestimmenden Zeitumstände in unterschiedlichen Milieus verarbeitet wurden und zu in Teilaspekten ähnlichen, dann aber auch wieder sehr verschiedenen Orientierungsrahmen führen. Auch in der DM wird dabei eine Vergleichsheuristik wie in der Grounded Theory verwendet: die Abfolgen von minimalen und maximalen Kontrastierungen im Vergleich von Fällen bzw. Materialpassagen. Mit minimalen Kontrasten auf der Ebene der sinngenetischen Typenbildung wird versucht, zunächst eine an der Forschungsfrage orientierte „Basistypik“ (Przyborski/ Wohlrab-Sahr 2014, 303) zu abstrahieren (z. B. eine Schichttypik). Als archimedischer Punkt, der dem Vergleich Richtung und Perspektive gibt (die DM spricht auch vom tertium comparationis), fungiert hier zunächst das Thema, innerhalb dessen der Vergleich angestellt wird (in unserem Schwiegersohn-Beispiel vielleicht Verhaltensunsicherheiten bei Intermilieu-Begegnungen). In maximal kontrastiven Vergleichen wird dann auf der Ebene der soziogenetischen Typenbildung eine Abgrenzung von anderen Typiken (z. B. Geschlecht: geht es Schwiegertöchtern ebenso? ) rekonstruiert. Daraus lassen sich verschiedene Ausprägungen oder Varianten der Basistypik entwickeln und in fortschreitenden Fallverglei- Typenbildung BEISPIEL kontrastierende Vergleiche zur Typenbildung <?page no="508"?> 509 9.4 Ethnomethodologische Konversationsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 509 chen zunehmend von anderen Typiken abgrenzen. Die Genauigkeit der Abgrenzung gilt in der DM als ein Qualitätskriterium. Die DM ist in ihrer methodologischen Einbettung, aber auch in den analytisch-rekonstruktiven Auswertungsschritten eine voraussetzungsvolle Angelegenheit. Auch die an sich in hinreichender Zahl vorliegenden Einführungstexte sind nicht wirklich geeignet, um Anfänger in die Lage zu versetzen, eigenständig mit der dokumentarischen Methode zu arbeiten. Ähnlich wie die objektive Hermeneutik und wesentlich stärker als die Grounded Theory setzt die DM auf methodenpraktisches Lernen in Forschungswerkstätten und Forschungsteams, also im Prinzip in Meister-Schüler-Beziehungen- - was Vor- und Nachteile hat, auf jeden Fall aber der Ausbreitung des Verfahrens lange Zeit Grenzen gesetzt hat. In den letzten Jahren sind allerdings auch einige gut verständliche, didaktisch aufbereitete und dennoch angemessen differenzierte Lehrtexte entstanden, die zumindest erste Schritte in die Praxis erlauben. 9.3.2 Literatur zur dokumentarischen Methode Bohnsack, Ralf, 2001: Dokumentarische Methode. Theorie und Praxis wissenssoziologischer Interpretation, in: Hug, T. (Hg.): Wie kommt Wissenschaft zu Wissen? , Bd. 3, Einführung in die Methodologie der Sozial- und Kulturwissenschaften, Hohengehren, 326-345 Bohnsack, Ralf; Nentwig-Gesemann, Iris; Nohl, Arnd-Michael, 2001: Die dokumentarische Methode und ihre Forschungspraxis: Grundlagen qualitativer Sozialforschung, Opladen Przyborski, Aglaja, 2004: Gesprächsanalyse und dokumentarische Methode. Qualitative Auswertung von Gesprächen, Gruppendiskussionen und anderen Diskursen, Wiesbaden 9.4 Ethnomethodologische Konversationsanalyse Die Ethnomethodologie, aus der die Konversationsanalyse (fortan KA) hervorging, wurde von dem amerikanischen Soziologen Harold Garfinkel in den frühen 1960er-Jahren begründet. Garfinkel stand der von seinem Doktorvater Parsons vertretenen Vorstellung, dass soziale Ordnung wesentlich auf einem normativen Konsens beruhe, kritisch gegenüber. Gegen dessen Annahme, dass das vorgegebene, geteilte und internalisierte Wertesystem einen ‚an sich‘ wirksamen Vergesellschaftungszusammenhang bildet, wendet Garfinkel ein, dass zwischen dem gesellschaftlichen Wertesystem und je spezifischen konkreten Handlungssituationen eine erkenntnistheoretisch unvermeidliche Lücke liegt: Als wie verbindlich gegebene Normen und Regeln auch immer gelten mögen, die Handelnden müssen für die Probleme der Herstellung von Interaktion und Kommunikation in der Situation immer selbst praktische Lösungen finden, in denen sie die existierenden generellen Normen mit den konkreten Bedingungen der Situation vermitteln. Damit wird zugleich behauptet, dass die Handeln- Lernen in Forschungswerkstätten Garfinkel: Lücke zwischen Norm und-Handeln <?page no="509"?> 510 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 510 den auch jenes Wissen, das sie als von ihnen unabhängig und objektiv gegeben wahrnehmen, tatsächlich im Sinne einer „Vollzugswirklichkeit“ (Bergmann 1994, 6) in ihrer fortgesetzten Interaktion erst erzeugen und fortschreiben. Weil es dabei um die Herstellung von sozialer Ordnung geht, kann sinnvermittelte Wirklichkeitserzeugung nicht subjektiv beliebig ablaufen. Denn sonst wären diese jeweiligen Aktivitäten zur Aufrechterhaltung sozialer Ordnung wechselseitig nicht verstehbar, d. h. andere könnten daran nicht sinnvoll anschließen-- sie würden also ihr Ziel verfehlen. Daraus folgert Garfinkel, dass sinnvermittelte Wirklichkeitserzeugung systematisch und methodisch erfolgt, dass sie also auch einzelne formale und daher beschreibbare Strukturmerkmale aufweisen muss. Diese Strukturmerkmale müssten sich daher in einer empirischen Analyse zeigen lassen. In seiner methodologischen Perspektive wollte Garfinkel herausfinden, wie Menschen im Alltagshandeln zu Überzeugungen über die Absichten und Haltungen ihrer Interaktionspartner gelangen. Diese Überzeugungen sind dann wiederum die Grundlage für das eigene Handeln. Weil es ihm um die Analyse der formalen „Methoden“ geht, die alltäglich von Menschen innerhalb ihrer Sozialwelt zur Konstitution und zur Beobachtung einer als selbstverständlich hingenommenen sozialen Ordnung angewendet werden, spricht Garfinkel hier von „Ethnomethodologie“. Die Ethnomethodologie wie danach auch die KA- greifen auf die methodologischen Grundgedanken der dokumentarischen Methode Mannheims zurück: Handlungen werden als Dokumente eines allgemeinen Musters verstanden, haben also indexikalische Eigenschaften. Allerdings ist das, wofür eine Handlung steht bzw. auf was sie verweist, den Handelnden in der Regel nicht bewusst. Im Vokabular der dokumentarischen Methode könnte man sagen: Es handelt sich um „konjunktives Wissen“ (vgl. Kapitel 9.3). Um es sichtbar zu machen, bedient sich die Ethnomethodologie eines Kniffs: Weil beim Schluss von der konkreten Handlung auf das allgemeine Muster gerade in der Abweichung von diesem Muster zugleich die Spezifik der konkreten Situation sichtbar wird, hat Garfinkel das Mittel der Krisenexperimente entwickelt: Indem er seine Studierenden in Alltagssituationen gezielt übliche Verhaltenserwartungen konterkarieren ließ (sich im Elternhaus als fremder Gast benehmen, im Restaurant einen Gast im schwarzen Anzug als Kellner adressieren, etc.), konnte er gerade an den beobachteten Reaktionen der Umwelt zeigen, welchen allgemeinen Mustern das jeweilige Alltagshandeln unterliegt. „Zwischen Handlung und Muster besteht eine rekursive Beziehung“ (Meuser 2003, 54). Ebenfalls in Anlehnung an Mannheim praktizieren Ethnomethodologie und Konversationsanalyse eine „ethnomethodologische Indifferenz“ (Garfinkel/ Sacks 2004, Orig. 1970, 399), d. h. sie verzichten auf die Ergründung von Handlungsmotiven und ersetzen Warum-Fragen durch Wie-Fragen, indem sie auf die Methoden der Herstellung sozialer Ordnung in situ, also in der konkreten Situation, fokussieren. Begründer der KA ist Harvey Sacks, ein Schüler Goffmans, vor allem aber Garfinkels. Sacks wurde Anfang der 1960er-Jahre durch die Arbeit in einer telefonischen Beratungsstelle für Suizidgefährdete auf die formale Struktur von Gesprächen aufmerksam (Schegloff 1992, XV) und begann detailgenaue Abschriften (Transkripte) der Gespräche minutiös zu analysieren. Seine Neugierde galt der Entdeckung von Erforschung der fortlaufenden interaktiven Wirklichkeitserzeugung Anleihen bei dokumentarischer Methode <?page no="510"?> 511 9.4 Ethnomethodologische Konversationsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 511 Alltagsmethoden der Gesprächsorganisation: Wie werden sinnhafte Kommunikationsanschlüsse im sprachlichen Handeln methodisch hergestellt? Welcher formalen Verfahren und Strukturen bedienen sich die Teilnehmenden und machen ihr Sprachhandeln dadurch einander wechselseitig verstehbar? Damit hatte er nicht nur die ethnomethodologische Perspektive von Interaktion im Allgemeinen auf Gespräche als spezielle Form des Miteinanderhandelns übertragen, sondern vor allem gezeigt, dass Sprechen im umfassenden Sinne soziale Interaktion ist und diese nicht nur widerspiegelt. Diese Einsicht war damals-in der Soziologie noch nicht gut etabliert. Mit seiner These von der Organisiertheit und Geordnetheit von Gesprächen setzte sich Sacks in Widerspruch zu der damals dominierenden Position vieler Linguisten, wie etwa Noam Chomsky, der Gespräche als so kontingent betrachtete, dass sie für eine systematische Analyse nicht taugen würden (Heritage 1984, 235). Für den schon 1975 tödlich verunglückten Sacks hingegen war es eine ausgemachte Sache, dass natürliche, alltagsweltliche Gespräche eine innere Ordnung und Systematik aufweisen, die es in der Analyse sichtbar zu machen gilt. Er begann, die archivierten Bandmitschnitte der Beratungstelefonate genauer zu analysieren und entwickelte daran sukzessive sein Verfahren der „conversational analysis“. „Konversationsanalyse (=-KA) bezeichnet einen Untersuchungsansatz, dessen Ziel es ist, durch eine strikt empirische Analyse ‚natürlicher‘ Interaktion die formalen Prinzipien und Mechanismen zu bestimmen, mittels derer die Teilnehmer an einem solchen Geschehen ihr eigenes Handeln, das Handeln anderer und die aktuelle Handlungssituation in ihrem Tun sinnhaft strukturieren, koordinieren und ordnen.-… Die KA beschäftigt sich, kurz gesagt, mit den kommunikativen Prinzipien der (Re-)Produktion von sozialer Ordnung in der situierten sprachlichen und nichtsprachlichen Interaktion“ (Bergmann 1994, 3). Es geht also um kommunikative Herstellungsweisen, daher spielt der in der Ethnomethodologie geprägte Begriff des „doing“ auch in der KA eine zentrale Rolle. Denn was immer in einem Gespräch soziale Realität sein soll, muss im Sprechhandeln ‚getan‘ werden, damit es ‚ist‘. Ein Experte etwa ist man nicht einfach, man muss fortlaufend auch in der verbalen Interaktion etwas tun, um ein Experte zu sein, also doing ‚being an expert‘. Sacks bezieht dies nicht nur auf die Performanz von Rollen, sondern auch auf Gefühle oder bestimmte Arten und Elemente von Konversationen. Er untersucht so basale Dinge wie Argumentieren, Fragen oder Sich-Erregen (Sacks 1992). Die zentrale analytische Einheit der KA sind „turns“ oder „Redezüge“, die in der Regel in „Paarsequenzen“ organisiert sind (z. B. Frage-Antwort oder Äußerung-Reaktion). Was ein turn ist, bestimmt sich dabei nicht nach rein sprachformalen Kriterien, sondern aus seiner Stellung im Interaktionsverlauf. Die KA analysiert deren Beitrag zur sequenziellen Ordnung der jeweiligen Situationen. Der Zusammenhang von Redezügen in Paarsequenzen wird dadurch erzeugt, dass der eröffnende turn eine Erwartungsstruktur erzeugt, der ein zweiter turn dann entspricht. Konversationsanalyse erforscht Alltagsmethoden der Gesprächsorganisation Alltagsgespräche als organisiert und geordnet Definition Konversationsanalyse analytische Perspektive des „doing being“ <?page no="511"?> 512 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 512 Die Perspektive des „doing being“ verweist zugleich auf eine zentrale Funktion, die Handlungen und Äußerungen für Garfinkel und für Sacks erbringen müssen: Die Ausführung und Koordination szenischer Praktiken in der Interaktion hat nicht nur die Funktion, die Handlung selbst durchzuführen. Gleichzeitig müssen Handlungen im Vollzug als sinnvoll, angemessen und vernünftig präsentiert werden, damit sie identifizierbar, verstehbar und erklärbar werden. Garfinkel (1967, 1) nennt das „Accountability“ (Zurechenbarkeit). Handlungen werden also nicht erst sekundär zu erklärbaren, sinnvollen Handlungen gemacht, etwa durch Beobachter, sondern sie werden in gelingender Interaktion bereits so zur Aufführung gebracht, dass sie sich selbst plausibilisieren. Der auf diese Weise dem (z. B. sprachlichen) Handeln beigeordnete Sinn bestätigt sich damit im Handeln, das Handeln wird zurechenbar bzw. accountable. Wenn man davon ausgeht, dass Handelnde grundsätzlich vor dieser Aufgabe stehen, dann kann man analytisch jeden Redezug mit der Frage untersuchen: Warum wird genau diese Äußerung gerade in diesem Moment so getan, wie sie getan wird? Man kann die Frage auch umkehren und fragen, für welches Problem eine jeweilige Handlung eine Lösung ist. Und dass es in der Interaktion fortwährend darum geht, Probleme zu lösen, dafür sorgt schon die oben erwähnte Lücke zwischen (Wissen um die) allgemeinen Regeln des sozialen Miteinanders und der situativen Hervorbringung adäquater Anschlusshandlungen. Daher verweist jede Äußerung in der Situation immer auch auf einen konkreten Kontext, in dem dieser Beitrag situiert ist, eine Handlungssequenz, an die er anschließt und die-- umgekehrt-- dann wieder an ihn anschließt. Verweisen heißt insofern, dass der einzelne Beitrag, der turn, ohne den konkreten Kontext nicht verstanden werden kann. Das gilt schon für die Interaktionspartner, umso mehr aber noch für externe Beobachter und Beobachterinnen (wie z. B. Soziologen und Soziologinnen). Weil sich in der notwendig lokalen Produktion sozialer Ordnung alle Handlungen auf den spezifischen situativen Kontext beziehen, spiegeln sie immer auch eine spezifische kontextuelle Orientierung wider, die den Handelnden im Feld vorreflexiv verfügbar ist, externen Beobachtenden jedoch nicht. 9.4.1 Vorgehen der ethnomethodologischen Konversationsanalyse Wenn es um das praktische Verfahren der KA geht, dann stellt sich die Frage nach der Art des möglichen bzw. erforderlichen Datenmaterials: Weil die KA nach den in den Details und Nuancen der Sprachhandlungen liegenden formalen Methoden der Konstitution sozialer Ordnung sucht, ergibt sich zwingend, dass die Daten für konversationsanalytische Studien sehr detailliert und sehr nahe am tatsächlichen Handlungsablauf sein müssen und nicht selbst bereits mit Theorien der Beobachter/ innen imprägniert sein dürfen. Deshalb werden in der KA keine Interviewtranskripte oder Beobachtungsprotokolle akzeptiert. Stattdessen legt sie Wert auf ‚rohe‘, ungeschnittene und nicht weiter didaktisch oder ästhetisch aufbereitete Tonaufnahmen (später auch audio-visuelle Aufzeichnungen), die als „registrierender Konservierungsmodus“ bezeichnet werden (Bergmann 2000, 531). interaktive Herstellung von Zurechenbarkeit Redezug als Lösung welchen Problems? jede Äußerung verweist auf situativen Kontext Datenmaterial: registrierender Konservierungsmodus <?page no="512"?> 513 9.4 Ethnomethodologische Konversationsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 513 Die Verwendung von Telefonmitschnitten, die die stilbildende Anfangsphase der KA prägte, hat dabei noch einen besonderen Vorteil: Gestische und mimische Kommunikationsbeiträge typischer Interaktionen unter Bedingungen körperlicher Anwesenheit werden zwar nicht mit aufgezeichnet, sie stehen aber auch den Telefonierenden nicht zur Verfügung, können hier also als Beitrag zur Produktion kommunikativer Anschlüsse ausgeschlossen werden (Ayaß 2004, 8). Konsequenterweise versucht man bei der Transkription der Audio- oder Videodaten das Material möglichst vollständig und so detailliert wie möglich zu transkribieren. Daher werden in der KA alle Dialekteigentümlichkeiten, Intonationen, Versprecher, Pausen etc. mit in die, in der Notation entsprechend aufwendige, Transkription übernommen. Diese Detailversessenheit hat mit einem basalen methodischen Prinzip der KA zu tun: Das Prinzip der „order at all points“ (Sacks 1984, 22) „besagt, dass kein in einem Transkript auftauchendes Textelement a priori als Zufallsprodukt anzusehen und damit als mögliches Untersuchungsobjekt auszuschließen ist“ (Bergmann 1994, 10). Bis zum Beweis des Gegenteils geht man also davon, dass jedes im Material auffindbare Detail aus der sequenziellen Ordnung der konkreten Interaktion hervorgebracht wurde und diese zugleich selbst mit konstituiert. Vorangehende Interakte stehen also nicht allein, sondern haben Konsequenzen für den Fortgang der Interaktion. Jeder turn ist methodisch verknüpft mit vorangehenden und nachfolgenden turns. Mit John Heritage (2010, 213 ff.) lassen sich drei typische analytische Schritte unterscheiden: (1) Zunächst muss eine Interaktionspraktik als relevant für die Analyse ausgewählt werden. Das ist ein Entdeckungsprozess im Material, bei dem zugleich die Forschungsfrage mit entwickelt wird: Die Forscherin ‚stolpert‘ über ein Wort, einen Satzbeginn oder eine bestimmte Formulierung. (2) Danach wird das Material nach weiteren Instanzen der gleichen Praktik durchsucht und über den Vergleich der Sequenzen, in denen die Praktik auftritt, genauer bestimmt, um was es sich handelt. Dabei werden im Material nicht nur gleichartige Praktiken entdeckt, sondern auch Varianten, die sich in bestimmten Nuancen vom Ausgangsfall unterscheiden. Wichtig ist dabei, dass die Platzierung in der Sequenz der aufeinander folgenden turns für die vergleichende Analyse herangezogen wird, denn die Praktik selbst ist zunächst gleich. Erst die Einbettung in eine Sequenz erlaubt es, hier zu Unterscheidungen zu kommen. (3) Sind erst einmal unterschiedliche sequenzielle Einbettungen der fraglichen Praktik gefunden, so geht es nun darum herauszufinden, was die unterschiedliche Rolle und Bedeutung der Praktik im jeweiligen Konversationszusammenhang ist. Auch hier sind vergleichende Zugänge hilfreich, um zu Festlegungen zu kommen. Prinzip der „order at all points“ typische analytische Schritte Entdecken relevanter Interaktionspraktiken Suche nach gleichartigen Praktiken Bestimmung der Funktion spezifischer Praktiken <?page no="513"?> 514 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 514 Wenn es darum geht, basale formale Methoden herauszuarbeiten, dann müsste nun weiterhin gezeigt werden, dass die jeweilige Methode kontextübergreifend die gleiche Leistung erbringt, es sich also nicht einfach um Zufall handelt. Ähnlich dem Schritt des heterogenen Vergleichs in der Grounded Theory werden daher nun Instanzen dieser Praktik gezielt in voneinander deutlich unterscheidbaren Kontexten aufgesucht (z. B. privates Telefonat versus Talkshow oder öffentliches Interview) und analysiert, ob die Herstellungsleistung der Praktik in allen Fällen vergleichbar ist. Je unterschiedlicher die Kontexte ausfallen, in denen die Praktik die gleiche Herstellungsleistung erbringt, als desto basaler kann sie gelten. Am Ende muss für die Bestimmung einer formalen Methode gezeigt werden, dass sie (1) übertragbar ist, also ein generatives Prinzip aufweist, das neue Fälle hervorbringen kann, dass sie (2) sowohl kontextübergreifend funktioniert als auch kontextsensitiv variiert wird und dass (3) die Akteure sich tatsächlich an dieser Methode orientieren. Das Vorgehen der KA kann also grob in folgenden Schritten beschrieben werden: (1) Zunächst sichten die Forschenden das vorliegende Material auf Geordnetheiten, also Muster oder Typiken des Gesprächsablaufs. (2) Im nächsten Schritt versuchen sie, das mit dieser Regelhaftigkeit des Ablaufs adressierte Problem der Interaktionsorganisation zu identifizieren. Der Annahme der „order at all points“ folgend müsste sich für jede Geordnetheit ein damit gelöstes oder adressiertes Problem der Interaktionsorganisation aufweisen lassen. (3) Daran anschließend gilt es, die zur Lösung des Problems eingesetzten (Ethno-)Methoden der Interaktionsorganisation zu rekonstruieren, um schließlich (4) die faktische Orientierung der Akteure an diesen formalen Strukturen (Methoden) zu belegen. Zu den basalen formalen Methoden der Interaktionsorganisation zählt das turn-taking, das Sacks u. a. bereits früh untersucht haben (Sacks/ Schegloff/ Jefferson 1974). Dabei geht es um das Interaktionsproblem der Organisation von Sprecherwechseln, das durch die Sequenzen von zwei direkt benachbarten oder aneinander gelagerten turns geleistet wird, die von verschiedenen Sprechern produziert werden. Dabei erfordern bestimmte Arten erster turns bestimmte Arten zweiter turns, damit die Interaktion als angemessen wahrgenommen wird. Auffällig wird die basale Bedeutung des Turn-taking-Systems gerade an abweichenden Fällen: Ohne weiter darüber nachzudenken, registrieren wir in der Regel, wenn eine Antwort auf eine Frage ausbleibt oder in Form einer Gegenfrage präsentiert wird. Insofern bilden derartige Paarsequenzen einen normativen Rahmen, an dem sich die Beteiligten wechselseitig die Besonderheit konkreter Konversationen aufzeigen. 9.4.2 Literatur zur ethnomethodologischen Konversationsanalyse Bergmann, Jörg R., 1994: Ethnomethodologische Konversationsanalyse, in: Fritz, G.; Hundsnurscher, F. (Hg.): Handbuch der Dialoganalyse, Tübingen, 3-16 Deppermann, Arnulf, 1999: Gespräche analysieren. Eine Einführung in konversationsanalytische Methoden, Opladen Bestimmung der Reichweite einer Praktik Kriterien einer formalen Methode turn-taking als klassischer Gegenstand <?page no="514"?> 515 9.5 Narrationsanalyse und Biografieforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 515 Eberle, Thomas Samuel, 1997: Ethnomethodologische Konversationsanalyse, in: Hitzler, R.; Honer, A. (Hg.): Sozialwissenschaftliche Hermeneutik : eine Einführung, Opladen, 245-279 9.5 Narrationsanalyse und Biografieforschung Eine besonders fruchtbare Form der Generierung verbalen Datenmaterials besteht darin, die Informanten dazu zu bewegen, Aspekte ihrer Alltagserfahrung in Form einer Erzählung zu präsentieren. Da das auf diese Weise gewonnene Material sehr spezifisch beschaffen ist, bedarf es auch besonderer, narrationsanalytischer Methoden, wenn wir uns den Gehalt dieses Materials möglichst umfassend erschließen wollen. Von der Narrationsanalyse wird vor allem in der Biografieforschung Gebrauch gemacht. Biografien sind eigentümliche Wissenskonstrukte: Einerseits unterliegen sie, wie Martin Kohli mit der These von der „Institutionalisierung des Lebenslaufs“ (Kohli 1985) konstatiert, gesellschaftlichen Normierungen, die in bestimmten, allgemein gewussten Formaten resultieren. Andererseits wird Leben als ein individuelles, von anderen Leben auch in seiner Geschichtlichkeit unterscheidbares erlebt. Es gibt also neben der „Institutionalisierung“ auch eine „Individualisierung“ des Lebensverlaufs. Die Idee, den eigenen Lebenslauf selbst gestalten zu können, ist ein Aspekt des umfassenderen Prozesses der Individualisierung in modernen Gesellschaften. Allerdings verschwinden die genannten Institutionalisierungen nicht einfach, sie bleiben als Normalitätsfolien von mehr oder weniger großer Prägekraft auch für das moderne Individuum relevant: Gerade weil sie gesellschaftlich weitgehend geteilte Erwartungen repräsentieren, kann auch eine individuelle Gestaltung des Lebens sich zu ihnen ‚nicht nicht verhalten‘. Menschen müssen also ihre subjektiven Ansprüche auf Gestaltung ihres Lebensverlaufs mit gesellschaftlichen Normalitätserwartungen und deren institutionalisierten Formen (Volljährigkeitsalter, Höchstalter des Kindergeldbezugs etc.) vermitteln. Die Entbettung aus den starren kollektiven Mustern traditionaler Gesellschaften macht das moderne Individuum zum Sachwalter seiner Biografie, d. h. zum „Biografieträger“, wie das in der Biografieforschung genannt wird. Darüber hinaus unterscheidet sich die subjektive Wahrnehmung des eigenen gelebten Lebens mehr oder weniger von der Wahrnehmung durch andere. Und schließlich unterliegt der subjektive Blick auf das eigene Leben Veränderungen über die Zeit und ist abhängig von situativen Konstellationen: Manches, was wir erlebt haben, vergessen oder verdrängen wir, andere Erlebnisse bekommen über die Zeit eine andere Bedeutung für uns. Je nach der Situation, in der wir über unser Leben berichten, konstruieren wir dieses situationsangemessen neu. Dabei ist die eigene Biografie über weite Strecken des Alltagslebens nicht Gegenstand bewusster Reflexion. Die narrationsanalytische Biografieforschung setzt genau hier an und untersucht Biografien als subjektive, situativ aktualisierte Darstellungen von Erfahrungsaufschichtungen. Biografien sind also nicht etwas Vorhandenes, das nur erzählt wird, sondern erst die Erzählung erzeugt die Biografie. In der Biografieforschung wird nun gesellschaftliche Lebenslaufmuster vs. erlebte Biografie Individuum als Sachwalter seiner Biografie Biografien meist nicht reflektiert <?page no="515"?> 516 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 516 rekonstruiert, wie die Biografieträger ihre Lebensgeschichte, also einen in sich geordneten Ablauf von Ereignissen und Lebensabschnitten, selbst hervorbringen und erfahren (oder auch erleiden). Es geht nicht darum, ob die im narrativen Interview als Biografie entwickelte eigene Lebensgeschichte ‚wahr‘ ist, sondern darum, aus der situativen Konstruktion der Lebensgeschichte im narrativen Interview Rückschlüsse auf die strukturelle Typik des gelebten Lebens und der subjektiven Verarbeitungsweisen zu ziehen. Als elaborierte und theoretisch begründete Methode wurde die Erforschung von Biografien aus der Perspektive der Biografieträger/ innen erst ab den späten 1970er-Jahren vor allem durch den Soziologen Fritz Schütze eingeführt. Am Anfang stand dabei der Entwurf eines gesprächsanalytischen Verfahrens auf der Basis erzähltheoretischer Überlegungen (Kallmeyer/ Schütze 1976, 1977). Schütze bringt die dabei entwickelte analytische Konzeption in den Folgejahren stärker in Zusammenhang mit dem Forschungsgegenstand Biografie und dem von ihm entwickelten Verfahren des narrativen Interviews (Schütze 1977, Schütze 1983). Damit konstituiert er eine sehr enge Kopplung zwischen einer hochspezialisierten Methode der Materialgewinnung, einem genau darauf abgestimmten analytischen Verfahren und einem entsprechend stark gerichteten Erkenntnisinteresse. Der Ausgangspunkt von Schützes methodologischem Ansatz ist die Frage, wie eigentlich Stegreiferzählungen zustande kommen und gestaltet werden. Stegreiferzählungen sind solche Formen des Erzählens, die in der Situation (also ‚aus dem Stegreif‘) neu entworfen und präsentiert werden-- im Unterschied also zu geplanten, vorstrukturierten Erzählweisen. Schütze postuliert, dass es im kollektiven Wissensvorrat einer Gesellschaft oder einer Kultur bestimmte formal-inhaltliche Strukturen der Wissens- oder besser: Erfahrungsrepräsentation gibt, die von kompetenten Mitgliedern „gewusst“ werden und nach denen sie ihre Selbstdarstellung organisieren. Er nennt diese Strukturen anknüpfend an die linguistische Erzählforschung (Ehlich 1980, Gülich 1980) „Zugzwänge des Stegreiferzählens“ (Schütze 1984, 81). Ihre Bedeutung für die Interaktionssituation des Erzählens liegt darin, dass sie die Verstehbarkeit der Geschichte für die Zuhörenden überhaupt erst herstellen, indem sie es der Erzählperson ermöglichen, den überbordenden Gehalt ihres biografischen Wissens in eine in der konkreten Erzählsituation intersubjektiv vermittelbare Gestalt zu bringen. Die erzählende Person orientiert sich unbewusst an diesen im Laufe der Sozialisation erlernten Gestaltungsmustern, die den Zuhörenden in vergleichbarer Weise verfügbar sind. Dabei werden drei verschiedene Zugzwänge unterschieden, in die sich Erzählpersonen in einer erfolgreichen Stegreiferzählung verstricken: (1) Der Detaillierungszwang nötigt die Erzählperson zu einer mit der Chronologie der erzählten Ereignisse übereinstimmenden Darstellung, die von Ereignis zu Ereignis sinnhafte Verknüpfungen herstellt und bringt sie dazu, „Geschichten- und Ereignisträger, die Schauplätze, Zeiten und Ereignisse zu benennen“ (Hermanns/ Tkocz/ Winkler 1984, 105). Die Detailliertheit und Indexikalität der Angaben nimmt mit der Zentralität des erzählten Ereignisses für die Lebensgeschichte zu. Aus besonders detailreich und dicht erzählten Passagen lässt sich Erforschung der Konstruktion der Lebensgeschichte Basis: linguistische Erzähltheorie Stegreiferzählungen unterliegen „Zugzwängen Detaillierungszwang <?page no="516"?> 517 9.5 Narrationsanalyse und Biografieforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 517 daher analytisch schlussfolgern, dass sie Höhe- oder Wendepunkte der Lebensgeschichte repräsentieren. (2) Im Unterschied dazu meint Gestaltschließungszwang, dass der Erzähler, wenn er sich plausibel vermitteln will, nicht umhin kommt, angekündigte und begonnene Erzählteile (Gestalten) auch zu Ende zu führen, sie also zu „schließen“. Hinter nicht geschlossenen Gestalten verbergen sich mitunter dramatische Ereigniszuspitzungen oder Misserfolge, deren Präsentation nicht beabsichtigt war, durch die Verwicklung in die Chronologie der Erzählung nun aber zumindest angedeutet werden und damit analytische Anknüpfungspunkte bieten. (3) Mit Relevanzfestlegungs- und Kondensierungszwang wird der Umstand bezeichnet, dass jede Erzählsituation ebenso wie die Aufmerksamkeitsspanne der Zuhörenden endlich ist, Erzählende also auswählen müssen, was wie ausführlich zur Darstellung kommt. Aus der unterschiedlichen Ausführlichkeit einzelner Ereignisdarstellungen lassen sich daher analytisch Rückschlüsse auf deren subjektive Bedeutung für die Erzählperson im Moment des Erzählens ziehen (zu den Zugzwängen des Erzählens vgl. Hermanns/ Tkocz/ Winkler 1984, 104 ff.). Diese Zugzwänge werden ausschließlich in den Erzählpassagen einer ungestört dargestellten Lebensgeschichte wirksam, nicht aber in anderen, ebenfalls beteiligten Textsorten wie Argumentationen, Beschreibungen oder Anekdoten, die daher in anderer Weise analytisch einzubeziehen sind. Lebensgeschichtliche Stegreiferzählungen bilden zwar nicht genau die Realität des gelebten Lebens ab, die Narrationsanalyse geht aber davon aus, dass die Erzählenden durch die Eigenlogik der erzählerischen Darstellungsform gar nicht umhin kommen, sich im Moment der Erzählung ihren damaligen Erlebniszuständen und Kognitionen wieder anzunähern und diese so zu repräsentieren. 9.5.1 Vorgehen der Narrationsanalyse und Biografieforschung In der von Schütze entwickelten Verfahrensweise startet die Narrationsanalyse mit einem sehr detaillierten Transkript eines narrativen Interviews, das im Erfolgsfall aus einer längeren geschlossenen Haupterzählung, einem narrativ angelegten Vertiefungsteil und einem argumentativ angelegten Nachfrageteil mit abstrahierenden Beschreibungen und eigentheoretischen Reflexionen der Erzählperson auf die eigene Lebensgeschichte besteht. Dieses Material wird in sechs Arbeitsschritten erschlossen: (1) Zunächst wird eine formalsprachliche Analyse des transkribierten Materials durchgeführt, bei der gezielt die erzählenden Teile von den argumentativen und den beschreibenden Passagen unterschieden werden. 370 Dieser Schritt der Analyse wird als formalsprachlich bezeichnet, weil hier formale Indikatoren, die „narrativen Rah- 370 Die anekdotischen Passagen lassen sich in der formalsprachlichen Analyse oft noch nicht klar unterscheiden. Gestaltschließungszwang Relevanzfestlegungs- und Kondensierungszwang Zugzwänge nur in-Erzählpassagen sechs Arbeitsschritte formalsprachliche Analyse <?page no="517"?> 518 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 518 menschaltelemente“ (Schütze 1983, 286), zur Bestimmung der Textsorten und der Übergänge zwischen den Textsegmenten genutzt werden (z. B. „und dann“, „plötzlich kam es, dass“). Ergebnis dieses Arbeitsschrittes ist eine Beschreibung aufeinander folgender Segmente des um nicht narrative Textteile bereinigten Erzähltextes. (2) Der zweite Arbeitsschritt, die strukturelle Beschreibung, wendet sich der Binnenanalyse der einzelnen, durch formale Rahmenschaltelemente voneinander abgetrennten Segmente des Erzähltextes zu. Auch hier bilden wieder formale Binnenindikatoren den Schlüssel zur Analyse. Dabei kann es sich um unterschiedliche Verknüpfungselemente (z. B. „und“, „weil“, „insofern“), sprachliche Indikatoren zeitlicher Ordnung („dann“, „nun“, „damals“, „jetzt“) oder um Stellen mangelnder Plausibilität (Pausen, veränderte Intensität des Erzählduktus, Selbstkorrekturen) handeln. Sie erlauben es, genauer zu bestimmen, in welchem Verhältnis die Segmente der Erzählung zueinander stehen, wie größere oder kleinere Erzählbögen miteinander verkettet oder kausal aufeinander bezogen sind. Erst auf dieser Basis werden dann größere Sinnzusammenhänge rekonstruiert. Damit geht die analytische Bewegung im zweiten Arbeitsschritt vom konkreten Inhalt hin zu zunehmend abstrakteren und umfassenderen Rekonstruktionen, die die Struktur der lebensgeschichtlichen Darstellung sichtbar werden lassen. (3) Die Abstraktion vom konkreten Inhalt der lebensgeschichtlichen Erzählung setzt sich im anschließenden Arbeitsschritt-- der analytischen Abstraktion-- fort, denn nun werden die von den Forschenden im Rahmen der strukturellen Beschreibung getroffenen abstrakten Aussagen zur Struktur der einzelnen Lebensabschnitte zueinander in Beziehung gesetzt. Dabei identifizieren die Forschenden Muster und Logiken der Gestaltung der Biografie durch den Biografieträger. Das Ziel besteht darin, die „biographische Gesamtformung [herauszuarbeiten], d. h. die lebensgeschichtliche Abfolge der erfahrungsdominanten Prozeßstrukturen in den einzelnen Lebensabschnitten bis hin zur gegenwärtig dominanten Prozeßstruktur“ (Schütze 1983, 286). Dabei zeigt sich in der Regel, dass die Erzählperson auch in unterschiedlichen Lebenssituationen in bestimmter Weise gleichartig mit Ereignissen umgeht. (4) Nachdem die argumentativen und reflexiven Gesprächsanteile in den ersten drei Arbeitsschritten bewusst ausgeklammert wurden, zielt die Wissensanalyse nun speziell darauf, diese Textpassagen zu untersuchen und das darin enthaltene Wissen zu explizieren. Vor dem Hintergrund der bereits rekonstruierten Ebenen von Ereignisablauf, Erfahrungsaufschichtung und aufeinander bezogenen Prozessstrukturen des Lebensablaufs kann in der Wissensanalyse systematisch untersucht werden, in welcher Weise die eigentheoretischen Statements des Biografieträgers Funktionen wie Orientierung, Legitimierung, Selbstdefinition, Verdrängung etc. erfüllen, die in der einen oder anderen Weise zur Bewältigung der Biografie ohne Beschädigung der Identität in Anschlag gebracht werden müssen. (5) Da die Narrationsanalyse über die Einzelfallanalyse hinaus auf die Erarbeitung kollektiver Muster und Typiken lebensgeschichtlicher Aufschichtungen und ihrer situativen Reproduktion zielt, kommen auch hier systematisch kontrastive Vergleiche weiterer Fälle mit dem Ausgangsfall zum Einsatz. Ähnlich wie in der Grounded Theory, von der Schütze stark beeinflusst wurde, sind auch in dieser Form der strukturelle Beschreibung analytische Abstraktion Wissensanalyse <?page no="518"?> 519 9.6 Diskursanalyse www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 519 biografischen Narrationsanalyse eine sukzessive, an der entstehenden Theorie orientierte Fallauswahl und systematische Vergleichsstrategien in einem iterativ-zyklischen Prozess eng ineinander verwoben. Die Vergleichsarbeit kann sich dabei auf konkrete Analyseinteressen richten, also z. B. darauf, zu rekonstruieren, wie die Arten der Einflussnahme von Eltern auf die Berufswahlentscheidung des Biografieträgers sich in dessen individueller Konstruktion der Biografie niederschlägt. Sie kann aber auch ein eher abstrakt-generalisierendes Interesse verfolgen und z. B. Typiken biografischer Prozessstrukturen erarbeiten. (6) Die Vergleichsarbeit mündet schließlich in der Konstruktion eines theoretischen Modells. Als Quintessenz der analytischen und komparativen Arbeit werden nun „Prozeßmodelle spezifischer Arten von Lebensabläufen, ihrer Phasen, Bedingungen und Problembereiche (…) oder auch Prozeßmodelle einzelner grundlegender Phasen und Bausteine von Lebensabläufen“ (Schütze 1983, 288) erarbeitet. Ein Beispiel dafür wären etwa typische Muster von Ingenieurbiografien, wie sie die Studie von Hermanns u. a. (1984) rekonstruiert hat. Dieses Vorgehen lässt sich nicht allein auf komplette Biografien anwenden, sondern auch auf Abschnitte von Lebensgeschichten, z. B. die Bewältigung einer Katastrophe oder den Verlauf von Berufseinmündungsprozessen. Neben den hier skizzierten Verfahrensweisen von Schütze haben sich inzwischen Varianten etabliert, von denen vor allem der an Elemente der objektiven Hermeneutik angelehnte Ansatz von Gabriele Rosenthal und Wolfram Fischer-Rosenthal zu nennen ist (s. weiterführende Literatur). 9.5.2 Literatur zur Narrationsanalyse und Biografieforschung Hermanns, Harry, 1992: Die Auswertung narrativer Interviews. Ein Beispiel für qualitative Verfahren, in: Hoffmeyer-Zlotnik, J. H. P. (Hg.): Analyse verbaler Daten. Über den Umgang mit qualitativen Daten, Opladen, 110-141 Küsters, Ivonne, 2006: Narrative Interviews: Grundlagen und Anwendungen, Wiesbaden Rosenthal, Gabriele, 1995: Erlebte und erzählte Lebensgeschichte. Gestalt und Struktur biographischer Selbstbeschreibungen, Frankfurt a. M. Schütze, Fritz, 1983: Biographieforschung und narratives Interview, in: Neue Praxis, 13. Jg., H. 3, 283-293 9.6 Diskursanalyse Unter Diskursen wird in unterschiedlichen Kulturen Verschiedenes verstanden: Im deutschsprachigen Raum ist ein Diskurs eine Form der öffentlichen Problematisierung und Thematisierung (z. B. der Diskurs über die Zukunft der Altersvorsorge oder über die medizinethische Vertretbarkeit religiös motivierter Beschneidungen). Die französische Kultur versteht unter Diskurs dagegen eher einen wissenschaftlikontrastive Vergleiche Konstruktion eines-theoretischen Modells Diskurs: unterschiedliche Begriffsbedeutungen <?page no="519"?> 520 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 520 chen oder in anderer Weise gelehrten Vortrag oder Text, und im Angelsächsischen gilt schon eine Unterhaltung als Diskurs (Keller 2007, 13). Dagegen ist der theoretische Ausgangspunkt so gut wie aller Varianten einer sozialwissenschaftlichen Diskursanalyse der von dem Philosophen Michel Foucault (1926-1984) in den 1960er-Jahre in Frankreich entwickelte Diskursbegriff. Demzufolge sind Diskurse „als Praktiken zu behandeln, die systematisch die Gegenstände bilden, von denen sie sprechen. Zwar bestehen diese Diskurse aus Zeichen; aber sie benutzen diese Zeichen für mehr als nur zur Bezeichnung der Sachen. (…) Dieses mehr muß man ans Licht bringen und beschreiben“ (Foucault 1973, 74; Hervorh. i. Orig.) Anders als in der Soziologie bis dahin üblich bezieht sich Foucault also auf das Soziale, indem er es wesentlich nicht als durch das individuelle Handeln von Akteuren (Weber), die Interaktion von sozialisierten Subjekten (Mead) oder die strukturbildende Wirkung von Normen und Sanktionen (Parsons) erzeugt betrachtet. Stattdessen schreibt er bestimmten sprachlichen Praktiken die Leistung zu, soziale Wirklichkeit regelhaft hervorzubringen. Seit Mead und Blumer ist uns die Idee vertraut, dass Menschen die Objekte ihrer Welt im Handeln (einschließlich des sprachlichen Handelns) hervorbringen. Doch Foucault verändert hier die Perspektive und schreibt Diskursen selbst-- und nicht ihren Sprechern-- diese Hervorbringungsleistung zu. Für Foucault bilden Diskurse also eine von Akteuren erschaffene Realität nicht einfach ab, sondern sie erzeugen Wissensordnungen, die für die soziale Realität konstitutiv sind. Auf analytischer Ebene fragt er daher, welche Gegenstände und Wissensformationen in Diskursen nach welchen Regeln erzeugt werden. Foucault interessierte sich dabei vor allem für die Herstellung und Aufrechterhaltung von Machtverhältnissen über Diskurse im Sinne herrschender Wissensordnungen, die ein bestimmtes Sprechen ermöglichen, anderes hingegen behindern oder gar unterbinden. Dabei untersucht er die Wechselwirkungen zwischen der abstrakt-symbolischen Ebene der Diskurse und der situativ-konkreten Ebene der Praktiken des Sprechens und Handelns: Wie erzeugen und modifizieren Praktiken Diskurse und, umgekehrt, wie schlagen sich Diskurse in Praktiken nieder? Stärker noch als andere Verfahrenstraditionen hat sich die Diskursanalyse in unterschiedliche Richtungen ausdifferenziert. In einem allgemeinen und stark sprachwissenschaftlich beeinflussten Verständnis wird Diskursanalyse als Sprachgebrauchs- oder Gesprächsforschung verstanden (Keller 2007, 20). Damit stellt sich unmittelbar die Frage nach dem Unterschied zur Konversationsanalyse, denn auch viele Varianten der Diskursanalyse analysieren sehr kleinteilig den konkreten Sprachgebrauch in situativen Kontexten. Die formal-pragmatische Diskursforschung, die in dieser Weise verfährt, bestimmt den Unterschied im Kern so, dass die Konversationsanalyse sich analytisch vor allem auf die Rekonstruktion des Wie der Herstellung von Sozialität in der Konversation richtet, während Diskursforschung eher auf diskurstheoretische Grundlagen bei M.-Foucault Unterschied zur Konversationsanalyse <?page no="520"?> 521 9.6 Diskursanalyse www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 521 die Frage der mit der Konversation angezielten Zwecke, also das Wozu der Konversation, fokussiert. Hier sind die Grenzen allerdings fließend. Neben der allgemeinen Diskursanalyse oder auch Gesprächsforschung (s. dazu Deppermann 1999), haben sich einige Varianten entwickelt, die ihren Gegenstand und ihre Forschungsperspektive in unterschiedlicher Weise spezifizieren und teilweise spezielle methodische Zugänge nutzen. So vertritt die von Norman Fairclough (2002) und Ruth Wodak (1996, 2007) entwickelte Critical Discourse Analysis ein anderes methodisches Programm als die kritische Diskursanalyse, die in Deutschland von Siegfried Jäger (2009) ausgearbeitet wurde. In neuerer Zeit prägt vor allem Reiner Keller die methodische Diskussion zur Diskursanalyse, der unter Bezug sowohl auf Foucault als auch auf die konstruktivistische Wissenssoziologie eine methodisch mit Elementen der Grounded Theory und der sozialwissenschaftlichen Hermeneutik (Hitzler/ Honer 1997) angereicherte Wissenssoziologische Diskursanalyse (fortan WDA) vertritt (Keller 2011), die im Folgenden kurz als ein Beispiel für diskursanalytische Perspektiven skizziert werden soll. Kellers wissenssoziologische Variante der Diskursanalyse nimmt ihren Ausgangspunkt in einer dezidiert soziologischen Perspektive und zwar in der von Berger und Luckmann (1981, Orig. 1966) geprägten, konstruktivistischen Wissenssoziologie. Diese geht von der sozialen Konstruiertheit gesellschaftlichen Wissens aus, das objektiviert und institutionalisiert den Handelnden als äußerlich entgegentritt und deren Zugang zur Welt vermittelt. Dies ist für Keller die Brücke zur Diskurstheorie Foucaults: „Wissenssoziologische Diskursanalyse untersucht diese gesellschaftliche[n] Praktiken und Prozesse kommunikativer Konstruktion, Stabilisierung und Transformation symbolischer Ordnungen sowie deren Folgen: Gesetze, Statistiken, Klassifikationen, Techniken, Dinge oder Praktiken bspw. sind in diesem Sinne Effekte von Diskursen und ‚Voraus‘-Setzungen neuer Diskurse“ (Keller 2007, 57). Die wissenssoziologische Diskursanalyse interessiert sich dabei vor allem für die Ebene von Organisationen, Institutionen und anderen Formen kollektiver Akteure sowie für die auf dieser Ebene stattfindenden Prozesse der Konstitution von sozialem Sinn. Sie bezieht in dieser Ausrichtung unterschiedliche Ebenen der Rekonstruktion ein: „Akteure formulieren die kommunizierten Beiträge, aus denen sich Diskurse aufbauen; sie orientieren sich dabei in ihren (diskursiven) Praktiken an den verfügbaren Ressourcen sowie den Regeln der jeweiligen Diskursfelder“ (Keller 2007, 57 Hervorh. i. Orig.). 9.6.1 Vorgehen der Diskursanalyse In der praktischen Analysearbeit der WDA, die Diskurse als „analytisch abgrenzbare Ensembles von Praktiken und Bedeutungszuschreibungen“ (Keller 2007, 59) versteht, beginnt man (1) mit der Festlegung bestimmter zu untersuchender Diskursfelder (z. B. Pränataldiagnostik oder Migration) und (2) der Formulierung einer vorläufigen Fragestellung. Vor dem Hintergrund der Beschaffenheit des Diskursfeldes und der Fragestellung geht es nun (3) darum, den Umfang der Untersuchung und die konkret Varianten der Diskursanalyse konstruktivistische Wissenssoziologie als Bezugspunkt Ziel: Rekonstruktion der kommunikativen Genese von-Diskursen Festlegung zu untersuchender Diskursfelder vorläufige Fragestellung <?page no="521"?> 522 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 522 anzuwendenden Verfahren der Sammlung zu analysierender Texte und Materialien (Korpusgenerierung) zu bestimmen. Diese drei Schritte stehen zwar am Anfang des Forschungsprozesses, sind aber zugleich sehr voraussetzungsvoll. Daher beginnt eine entsprechende Studie ganz praktisch zunächst mit der Rezeption der verfügbaren Literatur zum Thema und möglicherweise auch mit der Durchführung von Experteninterviews zum jeweiligen Diskurs. In diesem Punkt zeigt sich die WDA im Vergleich zu anderen diskursanalytischen Verfahren deutlich als sozialwissenschaftlich basierter Ansatz im Unterschied zu eher literatur- oder sprachwissenschaftlichen Ausrichtungen. Das weitere Procedere weist deutliche Bezüge zum Forschungsstil der Grounded Theory auf. Denn auch in der WDA wird im Stile des theoretischen Samplings das Datenkorpus schrittweise und in Abhängigkeit vom Fortschreiten der parallel betriebenen Materialanalyse und Hypothesengenerierung gebildet, wobei „durchgängig auf die ‚Passung‘ zwischen Fragestellung, methodischer Umsetzung und zugrunde gelegtem Datenmaterial geachtet werden (muss)“ (Keller 2007, 81). Für die Zusammenstellung des Datenkorpus, d. h. für die Auswahl aus einer oft schwer überschaubaren Fülle möglichen Materials, wird in der WDA im Sinne einer ‚Suchhypothese‘ „unterstellt, dass spezifischen empirischen Daten, die zunächst nur als singuläre, in Raum und Zeit verstreute Ereignisse (Äußerungen) existieren und dokumentiert sind, ein Zusammenhang, eine Regel oder Struktur unterliegt“ (Keller 2007, 79). Es werden also Datenmaterialien gesammelt, die voraussichtlich in der Summe den fraglichen Diskurszusammenhang aufweisen. Zugleich finden sich häufig in einzelnen Texten nicht nur Bezüge zu dem infrage stehenden Diskurs, sondern zu verschiedenen Diskursen. Ein Fachaufsatz zur Biogenetik etwa kann wichtige Beiträge zum bioethischen Diskurs um die Grenzen wissenschaftlicher Eingriffe in die natürliche Reproduktion des Menschen enthalten, zugleich aber auch zu bestimmten fachinternen Debatten um die Eignung bestimmter gentechnischer Reproduktionstechniken oder um die ökonomische Verwertbarkeit von Biotechnologien. Auch in der WDA wird nicht das komplette Material detailliert untersucht, sondern nur ein begründet ausgewählter Teil. Dieser wird dann einer von Keller als „interpretative Analytik“ bezeichneten Feinanalyse unterzogen: „Diese umfasst, bezogen auf ein einzelnes Aussageereignis, die Analyse seiner Situiertheit und materialen Gestalt, die Analyse der formalen und sprachlich-rhetorischen Struktur und die interpretativ-analytische Rekonstruktion der Aussageinhalte“ (2007, 93). Wie diese Analyseschritte im Detail erfolgen sollen, dazu macht die WDA keine genaueren Angaben, sondern offeriert eher ein Set aus einer Vielzahl von Ansätzen der qualitativen Sozialforschung. Hier spielen insbesondere die Kodierverfahren der Grounded Theory mit ihren spezifischen Vergleichsheuristiken eine Rolle, aber auch deutungsmusteranalytische Vorgehensweisen aus dem Bereich der sozialwissenschaftlichen Hermeneutik (vgl. zur Deutungsmusterananlyse Lüders/ Meuser 1997). Der Bezug auf die hermeneutische Tradition ist insofern bemerkenswert, als vor allem in der frühen französischen Diskussion zur Diskursanalyse die Hermeneutik zunächst als eine Methode diskutiert wurde, die aus strukturalistischer Perspektive wegen ihrer Zentrierung auf Subjekte und ihrer Aussageabsichten abzulehnen sei. Um ein-- im Verständnis der damaligen Zeit-- höheres Maß an „Wissenschaftlichkeit“ zu Zusammenstellung eines Korpus methodische Bezüge zur Grounded Theory Annahme eines Zusammenhangs raumzeitlich verteilter Äußerungen Kombination unterschiedlicher Interpretationsverfahren <?page no="522"?> 523 9.6 Diskursanalyse www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 523 erlangen, wollte man zunächst eher eine weitgehend automatische, computerisierte Analyseform einsetzen, um Subjektivität der Forschenden auszuschließen. Dagegen betont Keller, dass die „Diskursanalyse (…) immer und notwendig ein Prozess hermeneutischer Textauslegung (ist)“ (Keller 2007, 72), Subjektivität der Forschenden also-- entsprechend dem Verständnis der qualitativen Sozialforschung-- kein zu vermeidendes Übel, sondern eine besondere Qualität ist. Umgekehrt aber bleibt es dabei, dass Diskursanalyse nicht auf die Rekonstruktion der subjektiven Absichten der Sprecher zielt, sondern auf die sich darin niederschlagenden und reproduzierten Diskurse; d. h. dass es den verschiedenen Varianten diskursanalytischer Ansätze nicht primär um Einzelfälle und Typologien von Fällen geht. Die Fälle sind vielmehr nur Instanzen, an denen sich fragmentarisch Elemente dessen zeigen, was es als übergreifenden und überdauernden Diskurs erst noch zu rekonstruieren gilt. „Diese Aggregation von Einzelaussagen zu Aussagen über ‚den‘ Diskurs markiert den zentralen Unterschied zu den meisten qualitativen Ansätzen, die pro Text (in der Regel Interviews) von einer in sich konsistenten und geschlossenen Sinn- und Fallstruktur ausgehen, d. h. einen Text als vollständiges Dokument genau eines Falles betrachten“ (Keller 2007, 74). Gemessen an den in den vorangegangenen Abschnitten vorgestellten Verfahren liegt dieser Aussage allerdings ein etwas vereinfachtes Bild qualitativer Sozialforschung zugrunde, das, wenn es auch für Teile der Forschungspraxis nicht ganz falsch ist, sich für die Ebene der Methodendarstellung doch eher als irreführend erweist. In allen Varianten der WDA ist die Rede von der Zusammenstellung eines Datenkorpus, eine Formulierung, die vor allem aus der quantitativen und qualitativen Inhaltsanalyse geläufig ist. Bei einer Ethnografie oder einer Interviewstudie würden wir nicht von einem Datenkorpus sprechen und erst recht nicht davon, es zusammenzustellen. Das verweist auf die Typik des Materials, mit dem die Diskursanalyse umzugehen pflegt: Es geht hier in der Regel um vom (Diskurs-)Feld erzeugtes Material: öffentliche Podiumsdiskussionen, Parlamentsreden, Artikel in Print- oder Online-Medien, Fernsehbeiträge oder wissenschaftliche Fachkonferenzen. Dieses Material fällt meist in viel größerem Umfang an, als es am Ende in einer qualitativen Studie interpretativ analysiert werden kann. Dennoch ist es wichtig, sich zunächst der verfügbaren Materialien zu vergewissern und eine begründete Auswahl für eine eigene Materialbasis zur jeweiligen Diskursanalyse zu treffen. Gerade bei medial verarbeiteten Diskursen (und das sind mittlerweile so gut wie alle) gilt es einerseits, Redundanzen zu vermeiden: Alle wichtigen gesellschaftlichen Themen werden z. B. in allen Tages- und Wochenzeitungen und auf allen Fernsehsendern behandelt, dabei aber inhaltlich zu einem großen Teil nur dupliziert. Ein Datenkorpus zusammenzustellen bedeutet also auch, dass man durch geeignete Auswahlen Doppelungen im Material reduziert, ohne andererseits relevante Beiträge zur Konstitution eines Diskurses zu übersehen. Das Programm der Diskursanalyse ist in unterschiedlichen methodischen oder theoretischen Konkretisierungen in einer ganzen Reihe von Sozial- und Geisteswissenschaften zu Hause. Es findet sich in der Geschichtswissenschaft wie in der Politologie, in der Soziologie wie in der Linguistik. Gerade in den letzten Jahren haben Keine Rekonstruktion von Sprecher- Absichten Probleme der Materialauswahl <?page no="523"?> 524 9. Typische Forschungsstile qualitativ-interpretativer Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 524 die Verwendung und die Sichtbarkeit der Diskursanalyse deutlich zugenommen. Eine Vielzahl neuerer Publikationen ist erschienen, und insbesondere die zunehmende Orientierung diskursanalytischer Texte weg von theoretischen Reflexionen über die Angemessenheit und Relevanz von Diskursbegriffen hin zu einer stärker empirisch-analytischen und methodisch explizierten Darstellung hat die Wahrnehmung der Diskursanalyse als Forschungsmethode befördert. 9.6.2 Literatur zur Diskursanalyse Angermüller, Johannes, 2001: Diskursanalyse Theorien, Methoden, Anwendungen, Hamburg Keller, Reiner, 2007: Diskursforschung. Eine Einführung für SozialwissenschaftlerInnen, Wies-baden Keller, Reiner; Hirseland, Andreas; Schneider, Werner; Viehöver, Willy, 2010/ 2011: Handbuch sozialwissenschaftliche Diskursanalyse, 2 Bände (2. Aufl.), Wiesbaden Methode der Sozial- und Geisteswissenschaften <?page no="524"?> 525 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 525 Literaturverzeichnis Abel, Theodore, 1948: The operation called Verstehen, in: American Journal of Sociology, 54. Jg., 211-218 Abels, Heinz, 2004: Einführung in die Soziologie, Bd. 1: Der Blick auf die Gesellschaft (2. Aufl.), Wiesbaden ADM Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute, AG.MA Arbeitsgemeinschaft Media-Analyse (Hg.), 1999: Stichproben-Verfahren in der Umfrageforschung. Eine Darstellung für die Praxis, Opladen (erste Fassung 1979) ADM Arbeitskreis deutscher Markt- und Sozialforschungsinstitute (Hg.), 1999: Standards zur Qualitätssicherung in der Markt- und Sozialforschung, Frankfurt/ M. ADM Arbeitskreis deutscher Markt- und Sozialforschungsinstitute, 2001: Standards zur Qualitätssicherung für Online-Befragungen, Frankfurt/ M. Adorno, Theodor W. u. a. (Hg.), 1972: Der Positivismusstreit in der deutschen Soziologie, Neuwied/ Berlin (Neuauflage 1993, DTV) Adorno, Theodor W., 1972: Soziologie und empirische Forschung, in: Adorno u. a., 81-111 Agresti, Alan, 2002: An Introduction to Categorial Data Analysis, 2 nd ed., New York Albert, Hans, 1971: Plädoyer für Kritischen Rationalismus, München Albert, Hans, 1972: Theorie und Realität, Tübingen Albert, Hans, 1972: Wertfreiheit als methodisches Prinzip. Zur Frage der Notwendigkeit einer normativen Sozialwissenschaft; in: Topitsch, 181-210 Albert, Hans, 1973: Probleme der Wissenschaftslehre in der Sozialforschung, in König, Handbuch-…, Bd. 1, 57-103 Albert, Hans; Topitsch, Ernst (Hg.), 1971: Werturteilsstreit, Darmstadt Albrecht, Clemens u. a. (1999). Die intellektuelle Gründung der Bundesrepublik. Eine Wirkungsgeschichte der Frankfurter Schule. Frankfurt/ M. Albrecht, Günter, 1975: Nicht-reaktive Messung und Anwendung historischer Methoden; in: Koolwijk/ Wieken-Mayser, Bd. 2, 9-81 Alemann, Heine von, 1977: Der Forschungsprozeß. Eine Einführung in die Praxis der empirischen Sozialforschung, Stuttgart Alker, Hayward R., 1969: A Typology of Ecological Fallacies, in: Dogan, M.; Rokkan, S. (Hg.): Quantitative Ecological Analysis in the Social Sciences, Cambridge, Mass. Allerbeck, Klaus R., 1978: Meßniveau und Analyseverfahren-- Das Problem „strittiger Intervallskalen“, in: Zeitschrift für Soziologie, Jg. 7, Heft 3, 199-214 Allison, Paul D., 2002: Missing Data, Thousand Oaks: Sage. Amann, Klaus; Hirschauer, Stefan, 1997: Die Befremdung der eigenen Kultur. Ein Programm, in: Hirschauer, S.; Amann, K. (Hg.): Die Befremdung der eigenen Kultur. Zur ethnographischen Herausforderung soziologischer Empirie, Frankfurt/ M., 7-52 <?page no="525"?> 526 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 526 Literaturverzeichnis Ancelin, Claire; Frawley, Jim u. a., 1986: Social Experiments with Information Technology, Odense Andersen, Oskar; Popp, Werner u. a., 1988: Grundlagen der Statistik. Amtliche Statistik und beschreibende Methoden, Berlin u. a. Anderson, Nels, 1923: The Hobo; the Sociology of the Homeless Man, Chicago, Ill. Andreß, Hans-Jürgen, 1992: Einführung in die Verlaufsdatenanalyse. Statistische Grundlagen und Anwendungsbeispiele zur Längsschnittanalyse kategorialer Daten, Köln (Historische Sozialforschung, Supplement No. 5) Andreß, Hans-Jürgen; Hagenaars, Jacquees A.; Kühnel, Steffen, 1997: Analyse von Tabellen und kategorialen Daten, Berlin, Heidelberg, New York Arbeitsgruppe Bielefelder Soziologen (Hg.), 1973: Alltagswissen, Interaktion und gesellschaftliche Wirklichkeit, 2 Bde., Reinbek Arbeitsgruppe Bielefelder Soziologen (Hg.), 1976: Kommunikative Sozialforschung, München Atkinson, Paul; Coffey, Amanda; Delamont, Sara; Lofland, John; Lofland, Lyn (Hg.), 2001: Handbook of Ethnography, London Atteslander, Peter, 1991: Methoden der empirischen Sozialforschung, 6. Aufl., Berlin/ New York Atteslander, Peter; Bender, Christiane; Cromm, Jürgen; Grabow, Busso; Zipp, Gisela, 1991: Methoden der empirischen Sozialforschung (6. Aufl.), Berlin, New York Atteslander, Peter; Kneubühler, Hans-Ulrich, 1975: Verzerrungen im Interview. Zu einer Fehlertheorie der Befragung, Opladen Ayaß, Ruth; Bergmann, Jörg (Hg.), 2006: Qualitative Methoden der Medienforschung, Reinbek Ayaß, Ruth, 2004: Konversationsanalytische Medienforschung, in: Medien &-Kommunikationswissenschaft, 52. Jg., Heft 1, 5-29 Bacher, Johann; Vermunt, Jeroen K., 2010: Analyse latenter Klassen, in: Wolf/ Best, 553-574. Backhaus, Klaus; Erichson, Bernd; Plinke, Wulff; Weiber, Rolf, 2016: Multivariate Analysemethoden. Eine anwendungsorientierte Einführung (14. Aufl.), Berlin Bales, Robert F., 1962: Die Interaktionsanalyse- - Ein Beobachtungsverfahren zur Untersuchung kleiner Gruppen, in: König, Beobachtung und Experiment- …, 148-167 Ballhaus, Edmund; Engelbrecht, Beate (Hg.), 1995: Der ethnographische Film. Eine Einführung in Methoden und Praxis, Berlin Baltes-Götz, Bernhard, 2005: Analyse von hierarchischen linearen Modellen mit der SPSS-Prozedur MIXED. Trier, online Bartel, Hans, 1978: Statistik I, Stuttgart, New York Bateson, Gregory; Mead, Margaret, 1962: Balinese Character: a Photographic Analysis, New York Baur, Nina; Blasius, Jörg (Hg.), 2014: Handbuch Methoden der empirischen Sozialforschung. Wiesbaden: Springer VS Beck, David; Bonn, Verena; Westermayer, Gerhard, 2005: Betriebliche Gesundheit; in: Sozialwissenschaften und Berufspraxis, Jg. 28, H. 1, 18-32 <?page no="526"?> 527 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 527 Literaturverzeichnis Beck, Ulrich, 1974: Objektivität und Normativität. Die Theorie-Praxis-Debatte in der deutschen und amerikanischen Soziologie, Reinbek Beck-Bornholdt, Hans-Peter; Dubben, Hans-Herrmann, 1998: Der Hund, der Eier legt. Erkennen von Fehlinformation durch Querdenken, Reinbek Bellebaum, Alfred, 1977: Handlungswert der Soziologie. Vermittlungs- und Verwertungsprobleme, Meisenheim a. G. Benninghaus, Hans, 1974: Deskriptive Statistik, Stuttgart Benninghaus, Hans, 1990: Einführung in die sozialwissenschaftliche Datenanalyse, München, Wien Benninghaus, Hans; Ortlieb, Peter, 1975: Die Einzelfallstudie, in: Koolwijk/ Wieken- Mayser, Bd. 2, 157-177 Berelson, Bernard, 1952: Content Analysis in Communication Research, Glencoe, Ill. Berger, Hartwig, 1985 [1974]: Untersuchungsmethode und soziale Wirklichkeit. Eine Kritik an Interview und Einstellungsmessung in der Sozialforschung (3. Aufl.), Königstein/ Ts. Berger, Peter L.; Luckmann, Thomas, 1981: Die gesellschaftliche Konstruktion der Wirklichkeit, Reinbek b. Hamburg Bergler, Reinhold, 1975: Das Eindrucksdifferential. Theorie und Technik, Bern/ Stuttgart/ Wien Bergmann, Jörg R., 1985: Flüchtigkeit und methodische Fixierung sozialer Wirklichkeit. Aufzeichnungen als Daten der interpretativen Soziologie, in: Bonß/ Hartmann, 299-320 Bergmann, Jörg R., 1994: Ethnomethodologische Konversationsanalyse, in: Fritz, G.; Hundsnurscher, F. (Hg.): Handbuch der Dialoganalyse, Tübingen, 3-16 Bergmann, Jörg R., 2000: Konversationsanalyse, in: Flick, U.; Kardorff, E. v.; Steinke, I., (Hg.): Qualitative Forschung. Ein Handbuch, Reinbek b. Hamburg, 524-537 Bergmann, Jörg R.; Meier, Christoph, 2000: Elektronische Prozessdaten und ihre Analyse, in: Flick/ Kardorff/ Steinke, 429-437 Bertl, Walter, 1988: Mikrogeografische Marktsegmentation; in: Marktforschungsreport, Jg. 11, H. 1, 8-12 Besozzi, Claudio; Zehnpfennig, Helmut, 1976: Methodologische Probleme der Index Bildung; in: Koolwijk/ Wieken-Mayser, Bd. 5, 9-55 Blau, Peter M.; Duncan, Otis D., 1967: The American Occupational Structure, New York Blumer, Herbert, 1939: An appraisal of Thomas and Znaniecki’s “The Polish peasant in Europe and America”, New York (Critiques of research in the social sciences; Vol. 1) Blumer, Herbert, 1954: What is wrong with Social Theory? , in: American Sociological Review, Jg. 19, H. 1, 3-10 Blumer, Herbert, 2004: Der methodologische Standort des Symbolischen Interaktionismus, in: Strübing/ Schnettler, 319-385 (engl. Orig. 1969) Bogner, Alexander; Littig, Beate; Menz, Wolfgang (Hg.), 2002: Das Experteninterview. Theorie, Methode, Anwendung. Opladen <?page no="527"?> 528 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 528 Literaturverzeichnis Bogumil, Jörg; Immerfall, Stefan, 1985: Wahrnehmungsweisen empirischer Sozialforschung. Zum (Selbst-)Verständnis des sozialwissenschaftlichen Erfahrungsprozesses, Frankfurt/ M., Bohnsack, Ralf, 1989: Generation, Milieu und Geschlecht. Ergebnisse aus Gruppendiskussionen mit Jugendlichen, Opladen Bohnsack, Ralf, 2003: Dokumentarische Methode und sozialwissenschaftliche Hermeneutik, in: Zeitschrift für Erziehungswissenschaft, 6. Jg., Heft 4, 550-570 Bohnsack, Ralf, 2014: Rekonstruktive Sozialforschung. Einführung in qualitative Methoden, Opladen Böltken, Ferdinand, 1976: Auswahlverfahren. Eine Einführung für Sozialwissenschaftler, Stuttgart Bomsdorf, Eckart, 1988: Deskriptive Statistik (4. Aufl.), Bergisch Gladbach, Köln Bonß, Wolfgang; Hartmann, Heinz (Hg.), 1985: Entzauberte Wissenschaft. Zur Relativität und Geltung soziologischer Forschung, Göttingen Borg, Ingwer; Staufenbiel, Thomas, 1989: Theorien und Methoden der Skalierung. Eine Einführung, Bern u. a. Bortz, Jürgen, 1977: Lehrbuch der Statistik für Sozialwissenschaftler, Berlin, Heidelberg Bos, Wilfried; Tarnai, Chr. (Hg.), 1989: Angewandte Inhaltsanalyse in Empirischer Pädagogik und Psychologie, Münster Bottigelli, Emile, 1969: Die Entstehung von Marx’ Kapital, Trier Breckenridge, Carol; Appadurai, Arjun, 1989: On moving targets, in: Public Culture, 1. Jg., H. 2, i-iv Breckner, Roswitha, 2003: Körper im Bild. Eine methodische Feinanalyse, in: Zeitschrift für Qualitative Bildungs-, Beratungs- und Sozialforschung, 4. Jg., H. 1, 33-60 Breidenstein, Georg; Hirschauer, Stefan, 2002: Endlich fokussiert? Weder ‚Ethno‘ noch ‚Graphie‘. Anmerkungen zu Hubert Knoblauchs ‚Fokussierte Ethnographie‘, in: Sozialer Sinn, 4. Jg., H. 1, 125-128 Brinkmann, Christian; Deeke, Axel; Völkel, Brigitte (Hg.), 1995: Experteninterviews in der Arbeitsmarktforschung. Diskussionsbeiträge zu methodischen Fragen und praktischen Erfahrungen, Nürnberg (BeitrAB 191) Brosius, Felix, 2014: SPSS 22 für Dummies. Weinheim Bruyn, Severyn T., 1966: The Human Perspective in Sociology. The Methodology of Participant Observation, Englewood Cliffs Buchhofer, Bernd, 1979: Projekt und Interview. Eine empirische Untersuchung über den sozialwissenschaftlichen Forschungsprozeß und seine sozio-ökonomischen Bedingungen, Weinheim Bude, Heinz, 2000: Die Kunst der Interpretation, in: Flick/ Kardorff/ Steinke, 569- 578 Bühl, Achim, 2014: SPSS 22. Einführung in die moderne Datenanalyse. Hallbergmoos Bundesminister für Raumordnung, Bauwesen und Städtebau, 1975: Das Wohnen in der Bundesrepublik, Bonn-Bad Godesberg <?page no="528"?> 529 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 529 Literaturverzeichnis Bungard, Walter; Lenk, Hans (Hg.), 1988: Technikbewertung, Frankfurt/ M. Bungard, Walter; Lück, Helmut E., 1974: Forschungsartefakte und nicht-reaktive Meßverfahren, Stuttgart Bunge, Mario, 1967: Scientific Research, 2 Bde., Berlin, Heidelberg Burgess, Robert G., 1984: In the Field. An Introduction to Field Research, London, Boston Campbell, Donald T., 1983: Reforms as Experiments; in: Struening, E. L.; Brewer, M. B. (eds.): Handbook of Evaluation Research, Beverly Hills, London, 107-137 Carnap, Rudolf, 1956: The Methodological Character of Theoretical Concepts; deutsch in: Eberlein, L; Kröber-Riel, W. (Hg.): Wissenschaftstheorie der Wirtschafts- und Sozialwissenschaften, Bd. 3, Düsseldorf 1974, 47-91 Chalmers, Alan F., 1999: Wege der Wissenschaft. Einführung in die Wissenschaftstheorie, Berlin u. a.: Springer Chapin, F. Stuart, 1962: Das Experiment in der soziologischen Forschung, in: König, Beobachtung und Experiment-…, 221-258 Christoph, Bernhard, 2005: Zur Messung des Berufsprestiges: Aktualisierung der Magnitude-Prestigeskala auf die Berufsklassifikation ISCO88, in: ZUMA-Nachrichten 57, 79-127 Cicourel, Aaron C., 1974: Methode und Messung in der Soziologie, Frankfurt/ M. Clauss, Günter; Ebner, H., 1975: Grundlagen der Statistik für Psychologen, Pädagogen und Soziologen, Frankfurt/ M. Cook, Thomas D.; Campbell, Donald T., 1979: Quasi-Experimentation: Design &-Analysis. Issues for Field Settings, Chicago Corbin, Juliet; Strauss, Anselm L., 2008: Basics of Qualitative Research: Techniques and Procedures for Developing Grounded Theory, Los Angeles Couper, Mick P.; Coutts, Elisabeth, 2006: Online-Befragung. Probleme und Chancen verschiedener Arten von Online-Erhebungen, in Diekmann, A. (Hg.): Methoden der Sozialforschung, Sonderheft 44 der Kölner Zeitschrift für Soziologie und Sozialpsychologie, Wiesbaden, 217-243 Cranach, Mario von; Frenz, Hans-Georg, 1969: Systematische Beobachtung, in: Graumann, C. F. (Hg.), Sozialpsychologie. Handbuch der Psychologie, Bd. 7/ I, Göttingen Cremer, Christa; Klehm, Wolf R., 1978: Aktionsforschung. Wissenschaftstheoretische und gesellschaftliche Grundlagen-- methodische Perspektiven, Weinheim, Basel Cressey, Paul G., 1932: The taxi-dance hall: a sociological study in commercialized recreation and city life, Chicago, Ill. Davis, James A., 1961: Great Books and Small Groups, New York Dechmann, Manfred D., 1978: Teilnahme und Beobachtung als soziologisches Basisverhalten, Bern, Stuttgart Deppermann, Arnulf, 1999: Gespräche analysieren. Eine Einführung in konversationsanalytische Methoden, Opladen Deth, Jan van, 2003: Using Published Survey Data., in: Harkness J. A.; van der Vijver, F. J. R.; Mohler, P. P. (Hg.): Cross-Cultural Survey Methods, Chichester, 291-309. <?page no="529"?> 530 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 530 Literaturverzeichnis Deutsche Forschungsgemeinschaft (DFG), 1999: Qualitätskriterien der Umfrageforschung, Berlin Devereux, Georges, 1984: Angst und Methode in den Verhaltenswissenschaften, Frankfurt/ M. Dewey, John, 2002: Logik. Die Theorie der Forschung (engl. Orig. 1938), Frankfurt a. M.: Suhrkamp Diaz-Bone, Rainer, 2013: Statistik für Soziologen, Konstanz: UVK Verlagsgesellschaft. Diekmann, Andreas, 1995: Empirische Sozialforschung. Grundlagen, Methoden, Anwendungen, Reinbek Dillman, Don A., 2000: Mail and Internet Survey. The Tailored Design Method Dilthey, Wilhelm, 2004: Die Entstehung der Hermeneutik, in: Strübing/ Schnettler, 19-42 Döring, Nicola/ Bortz, Jürgen, 2016: Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften, Berlin: Springer. Domínguez, Daniel; Beaulieu, Anne; Estalella, Adolfo; Gómez, Edgar; Schnettler, Bernt; Read, Rosie, 2007: Virtuelle Ethnografie., www.qualitative-research.net/ fqs-texte/ 3-07/ 07-3-E1-d.htm, in: Forum Qualitative Sozialforschung, 8. Jg., Heft 3, Draper, Norman R.; Pukelsheim, F., 1996: An Overview of Design of Experiments; in: Statistical Papers, H. 1, 1-32 Eberle, Thomas Samuel, 1997: Ethnomethodologische Konversationsanalyse, in: Hitzler/ Honer, 245-279 Ehlich, Konrad, 1980: Der Alltag des Erzählens, in: Ehlich, K. (Hg.): Erzählen im Alltag, Frankfurt/ M. Eickelpasch, Rolf, 1982: Das ethnomethodologische Programm einer „radikalen“ Soziologie, in: Zeitschrift für Soziologie, Jg. 11, Heft 1, 7-27 Eifler, Stefanie, 2014: Experiment, in: Baur/ Blasius, 195-209. Eirmbter, Willy H., 1979: Zur Theorie und Methodik von Mehrebenenanalysen; in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 31, 709-731 Engel, Uwe; Reinecke, Jost, 1994: Panelanalyse. Grundlagen, Techniken, Beispiele, Berlin, New York Engel, Uwe; Schmidt, Björn Oliver, 2014: Unit- und Item-Nonresponse, in: Baur/ Blasius, 331-348 Erbslöh, Eberhard, 1972: Das Interview, Stuttgart Erbslöh, Eberhard.; Wiendieck, Gerd, 1974: Der Interviewer, in: Koolwijk/ Wieken-Mayser, Bd. 4, 83-106 Esser, Hartmut, 1974: Der Befragte, in: Koolwijk/ Wieken-Mayser, Bd. 4, 107-145 Esser, Hartmut, 1975: Soziale Regelmäßigkeiten des Befragtenverhaltens, Meisenheim a. G. Esser, Hartmut, 1977: Response Set-- Methodische Problematik und soziologische Interpretation, in Zeitschrift für Soziologie, Jg. 6, Heft 3, 253-263 Esser, Hartmut, 1979: Methodische Konsequenzen gesellschaftlicher Differenzierung, in: Zeitschrift für Soziologie, Jg. 8, Heft 1, 14-27 <?page no="530"?> 531 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 531 Literaturverzeichnis Esser, Hartmut, 1979b: Grundlagen der Theoriebildung und Theorieprüfung in den Sozialwissenschaften. vervielf. Manuskript, Duisburg. Esser, Hartmut, 1984: Fehler bei der Datenerhebung, Kurs 3604 der Fernuniversität Hagen. Kurseinheit I: Methodologische Probleme der empirischen Kritik von Theorien; Kurseinheit II: Meßfehler bei der Datenerhebung und die Techniken der empirischen Sozialforschung Esser, Hartmut, 1986: Können Befragte lügen? Zum Konzept des „wahren Werts“ im Rahmen der handlungstheoretischen Erklärung von Situationseinflüssen bei der Befragung, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 38, Heft 2, 314-336 Esser, Hartmut; Klenovits, Klaus; Zehnpfennig, Helmut, 1977: Wissenschaftstheorie, 2 Bde., Stuttgart Fairclough, Norman, 2002: Language and Power, Harlow Falter, Jürgen W., 1977: Zur Validierung theoretischer Konstrukte-- Wissenschaftstheoretische Aspekte des Validierungskonzepts, in: Zeitschrift für Soziologie, Jg. 6, Heft 4, 349-369 Farago, Peter; Zeugin, Peter, 1993: The Telephone Survey: A Valid and Reliable Research Method for the Social Sciences. In: Schweizerische Zeitschrift für Soziologie, Jg. 19, H. 2, 445-462 Faulbaum, Frank; Prüfer, Peter; Rexroth, Margit, 2009: Was ist eine gute Frage? Die systematische Evaluation der Fragenqualität. Wiesbaden Ferschl, Franz, 1978: Deskriptive Statistik, Würzburg Fetscher, Iring (Hg.), 1966: Karl Marx- - Friedrich Engels, Studienausgabe, Bd. 2, Frankfurt/ M. Fielding, Nigel G.; Fielding, Jane L., 1986: Linking Data, Beverly Hills Fischer, Hans, 1981: Zur Theorie der Feldforschung, in: Schmied-Kowarzik, W.; Stagl, J. (Hg.): Grundfragen der Ethnologie: Beiträge zur gegenwärtigen Theorie-Diskussion, Berlin: Reimer, 63-78 Fischer-Rosenthal, Wolfram; Rosenthal, Gabriele, 1997: Narrationsanalyse biographischer Selbstrepräsentation, in: Hitzler/ Honer., 133-164 Flick, Uwe, 1992: Triangulation Revisited: Strategy of Validation or Alternative? in: Journal for the Theory of Social Behaviour, Vol. 22, 175-198. Flick, Uwe, 2000: Triangulation in der qualitativen Forschung, in: Flick/ Kardorff/ Steinke: 309-318 Flick, Uwe, 2008: Triangulation. Eine Einführung (2. Aufl.), Wiesbaden Flick, Uwe; Kardorff, Ernst von; Keupp, Heiner; Rosenstiel, Lutz von; Wolff, Stephan (Hg.), 1991: Handbuch qualitative Sozialforschung, München Flick, Uwe; Kardorf, Ernst von; Steinke, Ines (Hg.), 2000: Qualitative Forschung. Ein Handbuch, Reinbek Foucault, Michel, 1973: Archäologie des Wissens, Frankfurt/ M. Frey, James H.; Kunz, Gerhard; Lüschen, Günther, 1990: Telefonumfragen in der Sozialforschung. Methoden, Techniken, Befragungspraxis, Opladen Frey, Siegfried; Frenz, Hans-Georg, 1982: Experiment und Quasi-Experiment im Feld; in: Patry, 229-258 <?page no="531"?> 532 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 532 Literaturverzeichnis Friedrich, Walter; Hennig, Werner, 1975: Der sozialwissenschaftliche Forschungsprozess. Zur Methodologie, Methodik und Organisation der marxistisch-leninistischen Sozialforschung, Berlin-DDR Friedrichs, Jürgen, 1982: Methoden empirischer Sozialforschung (10. Aufl.), Opladen Friedrichs, Jürgen; Lüdtke, Hartmut, 1973: Teilnehmende Beobachtung. Einführung in die Feldforschung, Weinheim Früh, Werner, 1981: Inhaltsanalyse und strukturale Textanalyse, in: Analyse &-Kritik, Jg. 3, Heft 1, 93-116 Früh, Werner, 1989: Semantische Struktur- und Inhaltsanalyse (SSI); in: Kaase, M.; Schulz, W. (Hg.): Massenkommunikation, Sonderheft 30 der Kölner Zeitschrift für Soziologie und Sozialpsychologie, 490-507 Früh, Werner, 1992: Analyse sprachlicher Daten; in: Hoffmeyer-Zlotnik, J. H. P. (Hg.): Analyse verbaler Daten, Opladen, 59-89 Früh, Werner, 2015: Inhaltsanalyse. Theorie und Praxis (8. Aufl.), München Fuchs-Heinritz, Werner; Lautmann, Rüdiger; Rammstedt, Otthein; Wienold, Hanns (Hg.), 1994: Lexikon zur Soziologie, Opladen (3. Aufl.) Gadamer, Hans G., 1972: Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik (3. Aufl.), Tübingen Gaennslen, Hermann; Schubö, Werner, 1976: Einfache und komplexe statistische Analyse, München Galtung, Johan, 1974: Theory and Methods of Social Research, London Galtung, Johan, 1978: Methodologie und Ideologie, Frankfurt/ M. Garfinkel, Harold, 1964: Studies of the Routine Ground of Everyday Activities, in: Social Problems, 11. Jg., Heft 3, 225-250 Garfinkel, Harold, 1967: Studies in Ethnomethodology, Engelewood-Cliffs Garfinkel, Harold; Sacks, Harvey, 2004: Über formale Strukturen praktischer Handlungen, in: Strübing/ Schnettler, 389-426 Garz, Detlef; Kraimer, Klaus (Hg.), 1983: Brauchen wir andere Forschungsmethoden? , Frankfurt/ M. Geertz, Clifford, 1973: The Interpretation of Cultures: Selected Essays, New York Geertz, Clifford (Hg.), 1987: Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme, Frankfurt/ M. Geertz, Clifford, 1987: Dichte Beschreibung: Bemerkungen zu einer deutenden Theorie von Kultur, in: Geertz 1987, 7-43 Gerbner, George; Holsti, Ole R.; Krippendorff, Klaus u. a. (Hg.), 1969: The Analysis of Communication Content, New York Gerhards, Jürgen, 2010: Diskursanalyse als systematische Inhaltsanalyse. Die öffentliche Debatte über Abtreibungen in den USA und in der Bundesrepublik Deutschland im Vergleich, in: Keller, R.; Hirseland, A.; Schneider, W.; Viehöver, W. (Hg.): Handbuch Sozialwissenschaftliche Diskursanalyse. Band 2: Forschungspraxis, Wiesbaden, 333-358 Gerhardt, Uta, 1971: Rollenanalyse als kritische Soziologie, Neuwied Gerich, Joachim, 2010a: Guttman-und Mokkenskalierung, in: Wolf/ Best, 283-309. Gerich, Joachim, 2010b: Thurstone-und Likertskalierung, in: Wolf/ Best, 259-281. <?page no="532"?> 533 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 533 Literaturverzeichnis Giel, Susanne, 2013: Theoriebasierte Evaluation. Konzepte und methodische Umsetzungen, Münster Giel, Susanne; Klockgether, Katharina; Mäder, Susanne (Hg.), 2015: Evaluationspraxis. Professionalisierung-- Ansätze-- Methoden, Münster, New York: Waxmann Giesen, Bernhard; Schmid, Michael, 1976: Basale Soziologie: Wissenschaftstheorie, München Glantz, Alexander; Michael, Tobias, 2014: Interviewereffekte, in: Baur/ Blasius, 313- 322 Glaser, Barney, 1998: Doing Grounded Theory. Issues and discussions, Mill Valley, CA Glaser, Barney; Strauss, Anselm, 1967: The Discovery of Grounded Theory. Strategies for Qualitative Research, Chicago Glaser, Barney; Strauss, Anselm, 1998: Grounded Theory. Strategien qualitativer Forschung, Göttingen Goode, William; Hatt, Paul K., 1962: Die Einzelfallstudie, in: König, Beobachtung und Experiment-…, 299-337 Goodman, Leo A.; Kruskal, William H., 1954: Measures of Association for Cross Classification; in: Journal of the American Statistical Association, Vol. 49, 732-764 Gorunescu, Florin, 2011: Data Mining. Concepts, Models, Techniques, Berlin Groh-Samberg, Olaf; Voges, Wolfgang, 2014: Armut und Reichtum, in: Endruweit, G.; Trommsdorf, G.; Burzan, N.: Wörterbuch der Soziologie, 37-40. Grümer, Karl-W., 1974: Beobachtung, Stuttgart Gstettner, Peter, 1979: Aktionsforschung- - Diskurs der Könige? , in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Heft 2/ 1979, 337-346 Gülich, Elisabeth, 1980: Konventionelle Muster und kommunikative Funktionen von Alltagserzählungen, in: Ehlich, K. (Hg.): Erzählen im Alltag, Frankfurt / M., 335-384 Gunz, Josef, 1986: Handlungsforschung. Vom Wandel der distanzierten zur engagierten Sozialforschung, Wien Haag, Fritz u. a., 1972: Aktionsforschung, Forschungsstrategien, Forschungsfelder und Forschungspläne, München Hatzinger, Reinhold u. a., 2014: R: Einführung durch angewandte Statistik. Hallbergmoos, Pearson. Hammersley, Martyn; Atkinson, Paul, 2007: Ethnography. Principles in Practice, London Hannerz, Ulf, 1995: „Kultur“ in einer vernetzten Welt. Zur Revision eines ethnologischen Be-griffes, in: Kaschuba, W. (Hg.): Kulturen, Identitäten, Diskurse: Perspektiven europäischer Ethnologie, Berlin: Akademie Verlag, 64-84 Harder, Theodor, 1974: Werkzeug der Sozialforschung, München (UTB) Hartmann, Heinz, 1979: Empirische Sozialforschung, München Haunberger, Sigrid, 2011: Teilnahmeverweigerung in Panelstudien. Wiesbaden Heintel, Peter; Huber, Jakob, 1978: Aktionsforschung-- Theorieaspekte und Anwendungsprobleme, in: Gruppendynamik, Heft 6/ 1978, 390-409 <?page no="533"?> 534 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 534 Literaturverzeichnis Heller, Kurt; Rosemann, Bernhard, 1974: Planung und Auswertung empirischer Untersuchungen, Stuttgart Hellman, Hal, 2000: Zoff im Elfenbeinturm. Große Wissenschaftsdispute, New York, Chichester Hellstern, Gerd-Michael; Wollmann, Hellmut (Hg.), 1983a: Experimentelle Politik-- Reformstrohfeuer oder Lernstrategie? , Opladen Hellstern, Gerd-Michael; Wollmann, Hellmut, 1983b: Evaluierungsforschung. Ansätze und Methoden, dargestellt am Beispiel des Städtebaus, Basel, Stuttgart Hempel, Carl G., 1942: The function of general laws in history, in: The Journal of Philosophy, 39. Jg., 35-48 Hempel, Carl G., 1974: Grundzüge der Begriffsbildung in der empirischen Wissenschaft, Düsseldorf Hempel, Carl G.; Oppenheim, Paul, 1948: Studies in the logic of explanation, in: Philosophy of science, 15. Jg., Heft 2, 135-175 Heritage, John, 1984: Garfinkel and Ethnomethodology, Cambridge Heritage, John, 2010: Conversation Analysis, in: Silverman, D. (Hg.): Doing Qualitative Research. A Practical Handbook, London, 208-230 Herkner, Werner, 1974: Inhaltsanalyse, in: Koolwijk/ Wieken-Mayser, Bd. 3, 158-191 Hermanns, Harry, 1991: Narratives Interview, in: Flick/ Kardorff/ Keupp/ Rosenstiel/ Wolff, 182-185 Hermanns, Harry; Tkocz, Christian; Winkler, Helmut, 1984: Berufsverlauf von Ingenieuren- - Biographieanalytische Auswertung narrativer Interviews, Frankfurt/ M. Herrnson, Paul S., 1995: Replication, Verification, Secondary Analysis, and Data Collection in Political Science, in: Political Science and Politics, Jg. 28, Heft 3, 452-455 Herz, Thomas A., 1975: Vorhersagestudien, in: Koolwijk/ Wieken-Mayser, Bd. 2, 131-156 Hirschauer, Stefan, 2001: Ethnographisches Schreiben und die Schweigsamkeit des Sozialen. Zu einer Methodologie der Beschreibung, in: Zeitschrift für Soziologie, 30. Jg., Heft 6, 429-451 Hitzler, Ronald; Honer, Anne (Hg.), 1997: Sozialwissenschaftliche Hermeneutik: eine Einführung, Opladen Hoffman, Robert R.; Shadbolt, Nigel R. et al., 1995: Eliciting Knowledge from Experts. A Methodological Analysis. In: Organizational Behavior and Human Decision Processes, Vol. 62, No. 2, 129-158 Hoffmann-Riem, Christa, 1980: Die Sozialforschung einer interpretativen Soziologie-- Der Datengewinn; in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 32, Heft 2, 339-372 Hoffmeyer-Zlotnik, Jürgen (Hg.), 1986: Qualitative Methoden der Datenerhebung in der Arbeitsmigrantenforschung, Mannheim Hofstätter, Peter R., 1957: Gruppendynamik, Reinbek Holm, Kurt (Hg.), 1975-1979: Die Befragung, 6 Bände, München <?page no="534"?> 535 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 535 Literaturverzeichnis Holm, Kurt, 1976: Die Zuverlässigkeit sozialwissenschaftlichen Messens, und: Die Gültigkeit sozialwissenschaftlichen Messens, in: Holm, Bd. 4 Hollstein, Betina; Ullrich, Carsten G., 2003: Einheit trotz Vielfalt? Zum konstitutiven Kern qualitativer Sozialforschung. Soziologie(4): 29-43. Holsti, Ole R., 1969: Content Analysis for the Social Sciences and Humanities, Reading, Mass. Holz-Ebeling, Friederika, 1995: Faktorenanalysen und was dann? Zur Frage der Validität von Dimensionsinterpretationsverfahren; in: Psychologische Rundschau, H. 1, 18-35 Hopf, Christel, 1978: Die Pseudo-Exploration-- Überlegungen zur Technik qualitativer Interviews in der Sozialforschung, in: Zeitschrift für Soziologie, Jg. 7, Heft 2, 97-115 Hopf, Christel; Weingarten, Elmar (Hg.), 1979: Qualitative Sozialforschung, Stuttgart Horkheimer, Max, 1968: Kritische Theorie, Frankfurt/ M. Horn, Klaus (Hg.), 1979: Aktionsforschung: Balanceakt ohne Netz? , Frankfurt/ M. Huber, Hermann; Schmerkotte, Hans, 1976: Meßtheoretische Probleme der Sozialforschung, in: Koolwijk/ Wieken-Mayser, Bd. 5, 56-76 Hughes, Everett C., 1955: Introduction, in: Park, R. E.; Hughes, E. C. (Hg.): The Collected Papers of Robert Ezra Park. Selected Papers, Bd. 3: Society : collective behavior; news and opinion; sociology and modern society, Glencoe, Ill., 3-58 Hülst, Dirk, 1975: Erfahrung-- Gültigkeit-- Erkenntnis. Zum Verhältnis von soziologischer Empirie und Theorie, Frankfurt/ M., New York Hummell, Hans J., 1972: Probleme der Mehrebenenanalyse, Stuttgart Hummell, Hans J.; Ziegler, R. (Hg.), 1976: Korrelation und Kausalität, 3 Bde., Stuttgart Hummell, Hans J.; Ziegler, R., 1976: Zur Verwendung linearer Modelle bei der Kausalanalyse nicht-experimenteller Daten, in: Hummell/ Ziegler, Bd. 1, E5-E137 Hunt, Morton, 1991: Die Praxis der Sozialforschung: Reportagen aus dem Alltag einer Wissenschaft, Frankfurt/ M., New York Hyman, Herbert H., 1972: Secondary Analysis of Sample Surveys. Principles, Prodecured, and Potentialities. New York Infratest-Medienforschung, 1975: Massenkommunikation 1964-1970-1974, München Ischi, Nivardo, 1982: Methodologische Probleme systematischer Verhaltensbeobachtung im Feld, in: Patry, 277-316 Jackob, Nikolaus; Schoen, Harald; Zerback, Thomas (Hg.), 2009: Sozialforschung im Internet. Methodologie und Praxis der Online-Befragung. Wiesbaden Jäger, Siegfried, 2009: Kritische Diskursanalyse. Eine Einführung, Münster Jaeggi, Urs, 1973: Kapital und Arbeit in der Bundesrepublik. Frankfurt/ M. Jahoda, Marie; Deutsch, Morton; Cook, Stuart W., 1962: Beobachtungsverfahren, in: König, Beobachtung und Experiment-…, 77-96 Jahoda, Marie; Lazarsfeld, Paul F.; Zeisel, Hans, 1975 (Orig. 1933): Die Arbeitslosen von Marienthal. Ein soziographischer Versuch. Frankfurt/ M. <?page no="535"?> 536 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 536 Literaturverzeichnis Jansen, Dorothea, 1999: Einführung in die Netzwerkanalyse. Grundlagen, Methoden, Anwendungen, Opladen Joas, Hans, 1980: Praktische Intersubjektivität: Die Entwicklung des Werkes von George Herbert Mead, Frankfurt/ M. Joas, Hans, 1988: Symbolischer Interaktionismus. Von der Philosophie des Pragmatismus zu einer soziologischen Forschungstradition, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 40. Jg., 417-446 Jüttemann, Gerd, 1985: Qualitative Forschung in der Psychologie, Weinheim Kaase, Max; Küchler, Manfred (Hg.), 1985: Herausforderungen der Empirischen Sozialforschung, Mannheim (Kolloquium A: Persönliche, schriftliche und telefonische Befragungen) Kallmeyer, Werner; Schütze, Fritz, 1976: Konversationsanalyse, in: Studium der Linguistik, Jg., Heft 1, 1-28 Kallmeyer, Werner; Schütze, Fritz, 1977: Zur Konstitution von Kommunikationsschemata der Sachverhaltsdarstellung, in: Wegener, D. (Hg.): Gesprächsanalysen, Hamburg: 159-274 Kalthoff, Herbert, 2006: Beobachtung und Ethnographie, in: Ayaß, R.; Bergmann, J. (Hg.): Qualitative Methoden der Medienforschung, Reinbek b. H.: Rowohlt, 146-182 Kalthoff, Herbert; Hirschauer, Stefan; Lindemann, Gesa (Hg.), 2008: Theoretische Empirie, Frankfurt/ M. Kaplan, Abraham, 1964: The Conduct of Inquiry: Methodology for Behavioral Science, San Francisco Kaplitza, Gabriele, 1975: Die Stichprobe, in: Holm, Bd. 1, 136-186 Karmasin, Fritz und Helene, 1977: Einführung in Methoden und Probleme der Umfrageforschung, Wien, Köln, Graz; 223 ff. Kelle, Udo, 1994: Empirisch begründete Theoriebildung: Zur Logik und Methodologie interpretativer Sozialforschung, Weinheim: Deutscher Studienverlag Kelle, Udo, 2007: Die Integration qualitativer und quantitativer Methoden in der empirischen Sozialforschung: theoretische Grundlagen und methodologische Konzepte, Wiesbaden Kelle, Udo; Erzberger, Christian, 1999: Integration qualitativer und quantitativer Methoden; in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 51, Heft 3, 509-531 Kelle, Udo; Kluge, Susann, 1999: Vom Einzelfall zum Typus: Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung, Leverkusen Keller, Reiner, 2007: Diskursforschung. Eine Einführung für SozialwissenschaftlerInnen, Wiesbaden Keller, Reiner, 2011a: Das interpretative Paradigma. Eine Einführung, Wiesbaden: Springer VS. Keller, Reiner, 2011b: Wissenssoziologische Diskursanalyse. Grundlegung eines Forschungsprogramms, Wiesbaden Kellerer, Hans, 1972: Statistik im modernen Wirtschafts- und Sozialleben (14. Aufl.), Reinbek <?page no="536"?> 537 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 537 Literaturverzeichnis Kellerhoff, Marco; Witte, Erich H., 1990: Objektive Hermeneutik als Gruppenleistung; in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 42, Heft 2, 248-264 Keppler, Angela, 1994: Tischgespräche: Über Formen kommunikativer Vergemeinschaftung am Beispiel der Konversation in Familien, Frankfurt a. M. Kerlinger, Fred N., 1975: Grundlagen der Sozialwissenschaft, Weinheim Kirschhofer-Bozenhardt, Andreas von; Kaplitza, Gabriele, 1975: Der Fragebogen, in: Holm, Bd. 1, 92-126 Kish, Leslie; Verma, Vijay, 1986: Complete Censuses and Samples, in: Journal for Official Statistics, Jg. 2, 381-395 Klafki, Wolfgang, 1971: Hermeneutische Verfahren in der Erziehungswissenschaft, in: Klafki, W. (Hg.), Funkkolleg Erziehungswissenschaft 3, Frankfurt/ M., 125- 160 Kleining, Gerhard, 1986: Das qualitative Experiment; in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 38, Heft 4, 724-750 Kleemann, Frank; Krähnke, Uwe; Matuschek, Ingo, 2009: Interpretative Sozialforschung : eine praxisorientierte Einführung, Wiesbaden Klemm, Elmar, 2002: Einführung in die Statistik für Sozialwissenschaftler, Wiesbaden Klingemann, Hans D.; Mochmann, Ekkehard, 1975: Sekundäranalyse, in: Koolwijk/ Wieken-Mayser, Bd. 2, 178-194 Knoblauch, Hubert, 2001: Fokussierte Ethnographie, in: Sozialer Sinn, 2. Jg., 123- 141 Knoblauch, Hubert, 2002: Fokussierte Ethnographie als Teil einer soziologischen Ethnographie. Zur Klärung einiger Missverständnisse, in: Sozialer Sinn, 4. Jg., Heft 1, 129-135 Knoblauch, Hubert; Schnettler, Bernt, 2004: „Postsozialität“, Alterität und Alienität, in: Der maximal Fremde. Begegnungen mit dem Nichtmenschlichen und die Grenzen des Verstehens, Würzburg, 23-41 Knoblauch, Hubert; Schnettler, Bernt, 2006: Videographie. Erhebung und Analyse Qualitativer Videodaten, in: Buber, R.; Holzmüller, H. (Hg.): Qualitative Marktforschung. Theorie, Methode, Analysen, Wiesbaden: Gabler, 583-599 Koch, Ursula, 1976: Bürgerliche und sozialistische Forschungsmethoden? Zur Rezeption empirischer Sozialforschung in der DDR, Frankfurt/ M. Kohler, Ulrich; Kreuter, Frauke, 2012: Datenanalyse mit Stata. Allgemeine Konzepte der Datenanalyse und ihre praktische Anwendung. 4. Aufl., München Kohli, Martin, 1978: „Offenes“ und „geschlossenes“ Interview: Neue Argumente zu einer alten Kontroverse, in: Soziale Welt, Heft 1, 1-25 Kohli, Martin, 1981: Wie es zur biographischen Methode kam und was daraus geworden ist, in: Zeitschrift für Soziologie, 10. Jg., Heft 3, 273-293 Kohli, Martin, 1985: Die Institutionalisierung des Lebenslaufs, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 37. Jg., Heft 1, 1-27 Költringer, Richard, 1997: Richtig fragen heißt besser messen. Optimale Forschungstechniken für Umfragen, Mannheim <?page no="537"?> 538 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 538 Literaturverzeichnis König, René (Hg.), 1962: Beobachtung und Experiment in der Sozialforschung, Köln König, René (Hg.), 1962: Das Interview. Formen, Technik, Auswertung. Praktische Sozialforschung, Bd. 1, Köln König, René, 1973-1979: Handbuch der empirischen Sozialforschung: Grundlegende Methoden und Techniken der empirischen Sozialforschung. 14 Bände, München und Stuttgart König, René, 1973: Einleitung in: König, 1973-1979: Handbuch-…, Bd. 1, 1-20 Koolwijk, Jürgen van; Wieken-Mayser, Maria (Hg.), 1974 ff.: Techniken der empirischen Sozialforschung, München Kops, Manfred, 1977: Auswahlverfahren in der Inhaltsanalyse, Meisenheim a.G. Kramer, Dorit; Kramer, Helmut; Lehmann, Silvio, 1979: Aktionsforschung: Sozialforschung und gesellschaftliche Wirklichkeit, in: Horn, 21-40 Krämer, Walter, 1991: So lügt man mit Statistik, Frankfurt/ M., New York Kreppner, Kurt, 1975: Zur Problematik des Messens in den Sozialwissenschaften, Stuttgart Kreutz, Henrik, 1972: Soziologie der empirischen Sozialforschung, Stuttgart Kreutz, Henrik; Titscher, Stefan, 1974: Die Konstruktion von Fragebögen, in: Koolwijk/ Wieken-Mayser, Bd. 4, 24-82 Krippendorff, Klaus, 1980: Content Analysis. An Introduction to Its Methodology, Beverly Hills, London Kriz, Jürgen, 1973: Statistik in den Sozialwissenschaften, Reinbek Kriz, Jürgen, 1981: Methodenkritik empirischer Sozialforschung. Eine Problemanalyse sozialwissenschaftlicher Praxis, Stuttgart Kriz, Jürgen, 1994: Methodenprobleme in der empirischen Sozialforschung, in: D. Nohlen (Hg.): Lexikon der Politik, Bd. 2. Politikwissenschaftliche Methoden, München, 264-268. Kromrey, Helmut, 1981: Die gebaute Umwelt. Wohngebietsplanung im Bewohnerurteil, Opladen Kromrey, Helmut, 1986: Gruppendiskussionen. Erfahrungen im Umgang mit einer weniger häufigen Methode empirischer Sozialwissenschaft, in: Hoffmeyer-Zlotnik, 109-143 Kromrey, Helmut, 1987: Zur Verallgemeinerbarkeit empirischer Befunde bei nichtrepräsentativen Stichproben; in: Rundfunk und Fernsehen, Jg. 35, Heft 4, 478-499 Kromrey, Helmut, 1988: Akzeptanz- und Begleitforschung, in: Massacommunicatie (Nijmegen), Jg. 16, 221-242 Kromrey, Helmut, 1994a: Strategien des Informationsmanagements in der Sozialforschung. Ein Vergleich quantitativer und qualitativer Ansätze, in: Angewandte Sozialforschung, Jg. 18, H. 3. 163-184 Kromrey, Helmut, 1994b: Wie erkennt man „gute Lehre“? Was studentische Vorlesungsbefragungen (nicht) aussagen; in: Empirische Pädagogik, 8 (2), 153-168 Kromrey, Helmut, 1995a: Evaluation. Empirische Konzepte zur Bewertung von Handlungsprogrammen und die Schwierigkeiten ihrer Realisierung; in: Zeitschrift für Sozialisationsforschung und Erziehungssoziologie, Jg. 15, Heft 4, 313-336 <?page no="538"?> 539 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 539 Literaturverzeichnis Kromrey, Helmut, 1995b: Evaluation der Lehre durch Umfrageforschung? Methodische Fallstricke bei der Messung von Lehrqualität durch Befragung; in: Mohler, P. (Hg.), 1995: Universität und Lehre, Münster, New York, 105-128 Kromrey, Helmut, 1996: Qualitätsverbesserung in Lehre und Studium statt so genannter Lehrevaluation; in: Zeitschrift für Pädagogische Psychologie, 10 (3/ 4), 153-166 Kromrey, Helmut, 2001: Evaluation- - ein vielschichtiges Konzept. Begriff und Methodik von Evaluierung und Evaluationsforschung. Empfehlungen für die Praxis; in Sozialwissenschaften und Berufspraxis, 24 (1), 105-131 Kromrey, Helmut, 2003: Evaluation in Wissenschaft und Gesellschaft. In: Zeitschrift für Evaluation, Jg. 2, H. 1, 93-116 Kromrey, Helmut, 2007: Wissenschaftstheoretische Anforderungen an empirische Forschung und die Problematik ihrer Beachtung in der Evaluation; in: Zeitschrift für Evaluation, Jg. 6, H. 1, 113-123 Kromrey, Helmut; Jansen, Dorothea u. a., 1984: Bochumer Untersuchung im Rahmen der wissenschaftlichen Begleitung zum Feldversuch Btx: Systematische Inhaltsanalyse der Gruppendiskussionen. Bochum, Düsseldorf (hrsg. von der Landesregierung NRW) Krüger, Heidi, 1983: Gruppendiskussionen. Überlegungen zur Rekonstruktion sozialer Wirklichkeit aus der Sicht der Betroffenen; in: Soziale Welt, Jg. 34, 90-109 Kubbe, Ina, 2016. Experimente in der Politikwissenschaft. Eine methodische Einführung. Wiesbaden: Springer VS Kuckartz, Udo, 2005: Einführung in die computergestützte Analyse qualitativer Daten, Wiesbaden Kuckartz, Udo, 2011: Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren, Wiesbaden: VS. Kuckartz, Udo; Grunenberg, Heiko; Lauterbach, Andreas (Hg.), 2004: Qualitative Datenanalyse: computergestützt. Methodische Hintergründe und Beispiele aus der Forschungspraxis, Wiesbaden Kühnel, Steffen-M.; Krebs, Dagmar, 2001: Statistik für die Sozialwissenschaften. Grundlagen, Methoden, Anwendungen, Reinbek Kühnel, Steffen-M.; Krebs, Dagmar, 2010: Multinomiale und ordinale Regression, in Wolf/ Best, 855-886 Küsters, Ivonne, 2006: Narrative Interviews: Grundlagen und Anwendungen, Wiesbaden Kuhn, Thomas S., 1967: Die Struktur wissenschaftlicher Revolutionen, Frankfurt/ M. Kuttner, Heinz G., 1981: Zur Relevanz text- und inhaltsanalytischer Verfahrensweisen für die empirische Forschung, Frankfurt/ M., Bern Lakatos, Imre, 1974: Falsifikation und die Methodologie wissenschaftlicher Forschungsprogramme. In: Lakatos/ Musgrave, 89-189 Lakatos, Imre; Musgrave, Alan (Hg.), 1974: Kritik und Erkenntnisfortschritt, Braunschweig <?page no="539"?> 540 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 540 Literaturverzeichnis Lamnek, Siegfried, 1995: Qualitative Sozialforschung, Bd. 1: Methodologie, Bd. 2: Methoden und Techniken (3. Aufl.), München, Weinheim Lamnek, Siegfried, 1998: Gruppendiskussion. Theorie und Praxis, Weinheim Landesregierung Nordrhein-Westfalen (Hg.), 1982/ 83: Wissenschaftliche Begleituntersuchung Feldversuch Bildschirmtext Düsseldorf/ Neuss, mehrere Bände, Düsseldorf Langer, Wolfgang, 2009: Mehrebenenanalyse. Eine Einführung für Forschung und Praxis. Wiesbaden Langer, Wolfgang, 2010: Mehrebenenanalyse, in Wolf/ Best, 639-675 Latcheva, Rossalina; Davidov, Eldad, 2014: Skalen und Indizes, in: Baur/ Blasius, 744-756 Lazarsfeld, Paul F., 1959: Evidence and Inference in Social Research, in: Lerner, D. (Hg.), Evidence and Inference, New York Leat, Diana, 1978: Das mißverstandene Verstehen, in: Acham, K. (Hg.): Methodologische Prob-leme der Sozialwissenschaften, Darmstadt, 102-116 Lempert, Lora Bex, 2007: Asking Question of the Data: Memo Writing in the Grounded Theory Tradition, in: Bryant, A.; Charmaz, K. (Hg.): The Sage Handbook of Grounded Theory, London, 245-264 Lepenies, Wolf, 1998: Schreibend sah Auguste Comte immer sich selbst. In: Gephart, W. (Hg.): Gründerväter. Soziologische Bilder, Opladen, 19-31 Lindemann, Gesa, 2008: Theoriekonstruktion und empirische Forschung, in: Kalthoff, H.; Hirschauer, S.; Lindemann, G. (Hg.): Theoretische Empirie, Frankfurt/ M., 107-128 Lindner, Rolf, 1981: Die Angst des Forschers vor dem Feld, in: Zeitschrift für Volkskunde, 77. Jg., 51-70 Lindner, Rolf, 2007 (1990): Die Entdeckung der Stadtkultur. Soziologie aus der Erfahrung der Reportage, Frankfurt/ M. u. a. Lisch, Ralf; Kriz, Jürgen, 1978: Grundlagen und Modelle der Inhaltsanalyse, Reinbek Lissmann, Urban, 2001: Inhaltsanalyse von Texten-- ein Lehrbuch zur computerunterstützten und konventionellen Inhaltsanalyse (2. Aufl.), Landau Loos, Peter; Schäffer, Burkhard, 2001: Das Gruppendiskussionsverfahren, Opladen Lück, Detlev; Landrock, Uta 2014: Datenaufbereitung und Datenbereinigung in der quantitativen Sozialforschung, in: Baur/ Blasius, 397-409. Lüders, Christian; Meuser, Michael, 1997: Deutungsmusterananalyse, in: Hitzler/ Honer, 57-79 Maletzke, Gerhard, 1981: Medienwirkungsforschung. Grundlagen, Möglichkeiten, Grenzen, Tübingen Malinowski, Bronislaw, 1984: Argonauten des westlichen Pazifik: ein Bericht über Unternehmungen und Abenteuer der Eingeborenen in den Inselwelten von Melanesisch-Neuguinea, Frankfurt/ M. Mandel, Ernest, 1968: Entstehung und Entwicklung der ökonomischen Lehre von Karl Marx (1843-1863), Frankfurt/ M. Manderscheid, Katharina, 2012: Sozialwissenschaftliche Datenanalyse mit R. Eine Einführung. Wiesbaden <?page no="540"?> 541 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 541 Literaturverzeichnis Mangold, Werner, 1973: Gruppendiskussionen, in: König,: Handbuch- …, Bd. 2, 228-259 Mannheim, Karl, 2004: Beiträge zur Theorie der Weltanschauungs-Interpretation, in: Strübing, J.; Schnettler, B. (Hg.): Methodologie interpretativer Sozialforschung. Klassische Grundlagentexte, Konstanz: Universitätsverlag Konstanz/ UTB, 101-153 Manz, Wolfgang, 1974: Die Beobachtung verbaler Kommunikation im Laboratorium, in: Koolwijk/ Wieken-Mayser, Bd. 3, 27-65 Marcus, George, 1995: Ethnography in/ of the world system: the emergence of multi-sited ethno-graphy, in: Annual Review of Anthropology, 24. Jg., 95-117 Mathes, Rainer, 1988: „Quantitative“ Analyse „qualitativ“ erhobener Daten? Die hermeneutisch-klassifikatorische Inhaltsanalyse von Leitfadengesprächen; in: ZUMA-Nachrichten, Nr. 23, 60-78 Mathes, Rainer, 1992: Hermeneutisch-klassifikatorische Inhaltsanalyse von Leitfadengesprächen. Über das Verhältnis von quantitativen und qualitativen Verfahren der Textanalyse und die Möglichkeiten ihrer Kombination. In: Hoffmeyer- Zlotnik, J. H. P. (Hg.): Analyse verbaler Daten, Opladen, 402-424 MAX-QDA, 2001: Qualitative Datenanalyse. Software for Qualitative Data Analysis, Berlin (www.maxqda.de) Mayntz, Renate, 1980: Die Entwicklung des analytischen Paradigmas der Implementationsforschung; in: dies. (Hg.): Implementation politischer Programme, Königstein/ Ts., 1-17 Mayntz, Renate; Holm, Kurt; Hübner, Peter, 1978: Einführung in die Methoden der empirischen Soziologie, Opladen Mayring, Philipp, 2007 (1988): Qualitative Inhaltsanalyse: Grundlagen und Techniken, Weinheim u. a. Mead, George Herbert, 1938: The philosophy of the act. Edited and with an introduction by Charles W. Morris, Chicago (Works of George Herbert Mead, Vol. 3) Mead, George Herbert, 1959: The Philosophy of the Present, La Salle, Ill.: Open court publishing Co. Meinefeld, Werner, 1976: Ein formaler Entwurf für die empirische Erfassung elementaren sozialen Wissens, in: Arbeitsgruppe Bielefelder Soziologen, 88-158 Meinefeld, Werner, 1995: Realität und Konstruktion. Erkenntnistheoretische Grundlagen einer Methodologie der empirischen Sozialforschung, Opladen Merten, Klaus, 1981: Inhaltsanalyse als Instrument der Sozialforschung, in: Analyse &-Kritik, Jg. 3, Heft 1, 48-63 Merten, Klaus, 1995: Inhaltsanalyse. Eine Einführung in Theorie und Methode (2. Aufl.), Opladen Merton, Robert K.; Kendall, Patricia L., 1979: Das fokussierte Interview, in: Hopf/ Weingarten, 171-204 Messingschlager, Martin 2008: Fehlende Werte in den Sozialwissenschaften. Analyse und Korrektur mit Beispielen aus dem ALLBUS, Bamberg: Universität Bamberg, online. <?page no="541"?> 542 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 542 Literaturverzeichnis Meulemann, Heiner, 1993: Befragung und Interview. Über soziale und soziologische Situationen der Informationssuche; in: Soziale Welt, Jg. 44, H. 1, 98-119 Meuser, Michael, 2003: Ethnomethodologie, in: Bohnsack, R.; Marotzki, W.; Meuser, M. (Hg.): Hauptbegriffe qualitativer Sozialforschung, Opladen, 53-55 Meuser, Michael; Nagel, U., 1991: Expertinneninterviews-- vielfach erprobt, wenig bedacht; in: Garz, D.; Kraimer, K. (Hg.): Qualitativ-empirische Sozialforschung, Opladen, 441-471 Mohler, Peter P., 1981: Zur Pragmatik qualitativer und quantitativer Sozialforschung, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 33, Heft 4, 716-734 Mohn, Elisabeth, 2002: Filming culture : Spielarten des Dokumentierens nach der Repräsentationskrise, Stuttgart Möhrle, Martin G.; Hoffmann, Wolfgang, 1994: Interaktives Erheben von Informationen im computerunterstützten Dialogfragebogen; in: Wirtschaftsinformatik, Jg. 36, H. 3, 243-251 Moser, Heinz, 1975: Aktionsforschung als kritische Theorie der Sozialwissenschaften, München Moser, Heinz, 1977: Methoden der Aktionsforschung. Eine Einführung, München Müller, Ulrich, 1993: Bevölkerungsstatistik und Bevölkerungsdynamik, Berlin, New York Müller, Ursula, 1979: Reflexive Soziologie und empirische Sozialforschung, Frankfurt/ M. Müller, Walter, 1976: Bildung und Mobilitätsprozeß-- Eine Anwendung der Pfadanalyse, in: Hummell, H. J.; Ziegler, R., Korrelation und Kausalität, Bd. 2, Stuttgart, 292-312 (zuerst 1972) Mützel, Sophie, 2016: Facing Big Data. Making sociology relevant, in: Big Data &-Society, Jg. 2, Heft 2, online Muhr, Thomas; Friese, Susanne, 2001. Computerunterstützte Qualitative Datenanalyse; in: Hug, Theo (Hg.): Wie kommt Wissenschaft zu Wissen? Bd. 2: Einführung in die Forschungsmethodik und Forschungspraxis, Balltmannsweiler, 380-399. Mutz, Michael; Kämpfer, Sylvia, 2011: “… und nun zum Wetter. Beeinflusst die Wetterlage die Einschätzung von politischen und wirtschaftlichen Sachverhalten? ”, in: Zeitschrift für Soziologie, Jg. 40, Heft 4, 208-226 Myrdal, Gunnar, 1971: Objektivität in der Sozialforschung, Frankfurt/ M. Nagl, Ludwig, 1998: Pragmatismus, Frankfurt/ M. Neurath, Paul, 1974: Grundbegriffe und Rechenmethoden der Statistik für Soziologen, in König: Handbuch-…, Band 3b Nippert, Reinhardt, 1972: Quantifizierung der sozialen Realität, Düsseldorf Noelle-Neumann, Elisabeth; Petersen, Thomas, 2000: Alle, nicht jeder. Einführung in die Methoden der Demoskopie, 3. Aufl., München (Neubearbeitung der 1963 erschienenen „Umfragen in der Massengesellschaft“) Nowak, Stefan, 1963: Correlational, Definitional, and Inferential Indicators, in: Polish Sociological Bulletin, Jg. 8, Heft 2, 31-46 <?page no="542"?> 543 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 543 Literaturverzeichnis Oevermann, Ulrich, 2002: Klinische Soziologie auf der Basis der Methodologie der objektiven Hermeneutik- - Manifest der objektiv-hermeneutischen Sozialforschung, Institut für hermeneutische Sozial- und Kulturforschung e. V., Frankfurt Oevermann, Ulrich; Allert, Tilman; Konau, Elisabeth, 1980: Zur Logik der Interpretation von Interviewtexten. Fallanalyse anhand eines Interviews mit einer Fernstudentin, in: Heinze, T.; Klusemann, H.-W.; Soeffner, H.-G. (Hg.): Interpretation einer Bildungsgeschichte, Bensheim, 15-69 Oevermann, Ulrich; Allert, Tilman; Konau, Elisabeth; Krambeck, Jürgen, 1979: Die Methodologie einer objektiven Hermeneutik und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften, in: Soeffner, H.-G. (Hg.): Interpretative Verfahren in den Sozial- und Textwissenschaften, Stuttgart, 352-433 Ohr, Dieter, 2010: Lineare Regression: Modellannahmen und Regressionsdiagnostik, in Wolf/ Best, 639-675 Opp, Karl-D., 1976: Methodologie der Sozialwissenschaften. Einführung in Probleme ihrer Theorienbildung, Reinbek Opp, Karl-D., 1984: Wissenschaftstheoretische Grundlagen der empirischen Sozialforschung, in: Roth, 47-71 Opp, Karl-D.; Schmidt, Peter, 1976: Einführung in die Mehrvariablenanalyse, Reinbek Orth, Bernhard, 1974: Einführung in die Theorie des Messens, Stuttgart Osgood, Charles, E.; Saporta, Sol; Nunnally, Jum C., 1956: Evaluative Assertion Analysis, in: Litera 3, 47-102 Pagês, Robert, 1974: Das Experiment in der Soziologie, in: König, Handbuch-…, Bd. 3a, 273-342 Park, Robert E., 1915: The City: Suggestions for the Investigation of Human Behavior in the City, in: American Journal of Sociology, 20. Jg., 577-612 Patry, Jean-Luc (Hg.), 1982: Feldforschung. Methoden und Probleme sozialwissenschaftlicher Forschung unter natürlichen Bedingungen, Bern, Stuttgart Patton, Michael Q., 1987: How to Use Qualitative Methods in Evaluation, Beverly Hills Patzelt, Werner J., 1985: Einführung in die sozialwissenschaftliche Statistik, München, Wien Pawlik, Kurt, 1967: Dimensionen des Verhaltens. Eine Einführung in Methodik und Ergebnisse faktorenanalytischer psychologischer Forschung, Bern, Stuttgart, Wien Petermann, Franz (Hg.), 1989: Einzelfallanalyse (2. Aufl.), München Pfanzagl, Johann, 1983: Allgemeine Methodenlehre der Statistik (6. Aufl.), Bd. I, Berlin, New York Popper, Karl R., 1973a: Die offene Gesellschaft und ihre Feinde, 2 Bde., Bern, München Popper, Karl R., 1973b: Objektive Erkenntnis, Hamburg Popper, Karl R., 1994 (1971): Logik der Forschung, Tübingen Porst, Rolf, 1991: Ausfälle und Verweigerungen bei einer telefonischen Befragung; ZUMA-Arbeitsbericht Nr. 91/ 10, Mannheim <?page no="543"?> 544 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 544 Literaturverzeichnis Porst, Rolf, 2000: Question Wording-- Zur Formulierung von Fragebogen-Fragen. ZUMA How-to-Reihe, Nr. 2, Mannheim (www.gesis.org/ unser-angebot/ publi kationen/ gesis-papers/ ) Porst, Rolf, 2014: Der Fragebogen (4. Aufl.), Wiesbaden Prim, Rolf; Tilmann, Heribert, 1975: Grundlagen einer kritisch-rationalen Sozialwissenschaft, Heidelberg (UTB 221) Prüfer, Peter; Rexroth, Margrit, 1996: Verfahren zur Evaluation von Survey-Fragen: ein Überblick. In: ZUMA-Nachrichten 39, 95-115 Prüfer, Peter; Rexroth, Margrit, 2000: Zwei-Phasen-Pretesting. ZUMA Arbeitsbericht 2000/ 08 (download: www.gesis.org/ unser-angebot/ publikationen/ archiv/ gesis-working-papers/ ) Prüfer, Peter; Rexroth, Margrit, 2005: Kognitive Interviews. ZUMA How-to-Reihe, Nr. 15, Mannheim (www.gesis.org/ unser-angebot/ publikationen/ gesis-papers/ ) Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Qualitative Sozialforschung. Ein Arbeitsbuch, München Quatember, Andreas, 1996: Das Problem mit dem Begriff Repräsentativität; in: Allg. Statistisches Archiv 80, 236-241 Quatember, Andreas, 1997: Die Tauglichkeit des Quotenverfahrensschemas unter Urnenmodellbedingungen; in: Austrian Journal of Statistics, Jg. 26, Heft 2, 7-25 Ragin, Charles L., 1987: The comparative method: Moving beyond qualitative and quantitative Strategies, Berkeley CA Reichenbach, Hans, 1983: Erfahrung und Prognose. Eine Analyse der Grundlagen und der Struktur der Erkenntnis; Bd. 4, Braunschweig; Wiesbaden Reichertz, Jo, 1986: Probleme qualitativer Sozialforschung. Zur Entwicklungsgeschichte der Objektiven Hermeneutik, Frankfurt/ M., New York Reichertz, Jo, 1992: Beschreiben oder Zeigen: Über das Verfahren ethnographischer Berichte, in: Soziale Welt, 43. Jg., Heft 3, 331-350 Reichertz, Jo, 1997: Objektive Hermeneutik, in: Hitzler/ Honer, 31-55 Reichertz, Jo, 2003: Die Abduktion in der qualitativen Sozialforschung, Opladen (Qualitative Sozialforschung Bd. 13) Reinecke, Jost, 2005: Strukturgleichungsmodelle in den Sozialwissenschaften. München Reinecke, Jost; Pöge, Andreas, 2010: Strukturgleichungsmodelle, in Wolf/ Best, 775- 804 Reinecker, Hans, 1984: Einzelfallanalyse. In: Roth 1984, 277 ff. Rendtel, Ulrich, 1990: Teilnahmeentscheidung in Panelstudien: Zwischen Beeinflussung, Vertrauen und sozialer Selektion; in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 42, Heft 2, 280-299 Riley, Matilda W., 1963: Sociological Research, Vol. I: A Case Approach, New York Rippl, Susanne/ Seipel, Christian, 2008: Methoden kulturvergleichender Sozialforschung. Eine Einführung. Wiesbaden: VS Verlag für Sozialwissenschaften. Ritsert, Jürgen, 1972: Inhaltsanalyse und Ideologiekritik, Frankfurt/ M. <?page no="544"?> 545 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 545 Literaturverzeichnis Rohrmann, Bernd, 1978: Empirische Studien zur Entwicklung von Antwortskalen für die sozialwissenschaftliche Forschung. In: Zeitschrift für Sozialpsychologie, 9. Jg., 222-245 Roose, Jochen, 2013: Fehlermultiplikation und Pfadabhängigkeit. Ein Blick auf Schattenseiten von Sekundäranalysen standardisierter Umfragen, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 65, Heft 4, 697-714 Rose, Arnold M., 1973. Systematische Zusammenfassung der Theorie der symbolischen Interaktion, in: Hartmann, H. (Hg.), Moderne amerikanische Soziologie, Stuttgart, 266-282 Rosenbladt, Bernhard von, 1988: Repräsentativbefragungen: Alternative oder Ergänzung zu Großzählungen mit Auskunftspflicht? in: Furmaniak, K.; Weihe, U. (Hg.): Volkszählung 1987, München Rosenthal, Gabriele, 2005: Interpretative Sozialforschung: Eine Einführung, Weinheim Rossi, Peter H.; Freeman, Howard E.; Hofmann, Gerhard, 1988: Programm-Evaluation. Einführung in die Methoden angewandter Sozialforschung, Stuttgart Roth, Erwin (Hg.), 1984: Sozialwissenschaftliche Methoden. Lehr- und Handbuch zur Forschung und Praxis, München, Wien Rubin, Donald B. 2004: Multiple Imputation for Nonresponse in Surveys. Hoboken: Wiley. Runkler, Thomas A., 2015: Data Mining. Modelle und Algorithmen intelligenter Datenanalyse (2. Aufl.), Wiesbaden Sacks, Harvey, 1984: Notes on Methodology, in: Atkinson, J. M.; Heritage, J. (Hg.): Structures of Social Action: Studies in Conversation Analysis, Cambridge, 21-27 Sacks, Harvey, 1992: On Doing „Being Ordinary“, in: Sacks, H.; Jefferson, G. (Hg.): Lectures on Conversation, Oxford, 413-429 Sacks, Harvey; Schegloff, Emanuel A.; Jefferson, Gail 1974: A Simplest Systematics for the Organization of Turn-Taking for Conversation, in: Language, 50. Jg., Heft 4, 696-735Sahner, Heinz, 1971: Schließende Statistik, Stuttgart Saldern, Matthias von, 1989: Kommunikationstheoretische Grundlagen der Inhaltsanalyse, in: Bos/ Tarnai (s. o.), 14-31 Sample Institut (Hg.), o. J.: Institut, Interview, Interviewer. Grundwissen für Interviewer (bearb. von R. Lembke), Mölln Sartre, Jean-Paul, 1964: Marxismus und Existenzialismus, Reinbek Schatzman, Leonard; Strauss, Anselm L., 1979: Strategien für den Eintritt in ein Feld, in: Gerdes 1979, 77-93 Schegloff, Emanuel A., 1992: Introduction, in: Sacks, H.; Jefferson, G. (Hg.): Lectures on Conversation, 2 Bände, Oxford Schelsky, Helmut, 1962: Soziologische Bemerkungen zur Rolle der Schule in unserer Gesellschaftsverfassung; in: ders. (Hg.), Schule und Erziehung in der industriellen Gesellschaft, Würzburg (2. Aufl.), 9-50 Scherer, Klaus R., 1974: Beobachtungsverfahren zur Mikroanalyse nonverbaler Verhaltensweisen, in: Koolwijk/ Wieken-Mayser, Bd. 3, 65-109 <?page no="545"?> 546 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 546 Literaturverzeichnis Scheuch, Erwin K., 1973a: Das Interview in der Sozialforschung, in: König, Handbuch-…, Bd. 2, 66-190 Scheuch, Erwin K., 1973: Entwicklungsrichtungen bei der Analyse sozialwissenschaftlicher Daten, in: König, Handbuch-…, Bd. 1, 161-237 Scheuch, Erwin K., 1974: Auswahlverfahren in der Sozialforschung, in: König, Handbuch-…, Band 3a, 1-96 Scheuch, Erwin K.; Zehnpfennig, Helmut, 1974: Skalierungsverfahren in der Sozialforschung, in: König: Handbuch-…, Bd. 3a, 97-203 Schlömerkemper, Jörg, 1985: Hermeneutische Datenanalyse (HeDa). Eine Einführung in ihre Prinzipien, Techniken und Anwendungsmöglichkeiten, Göttingen Schneider, Gerald, 1985: Strukturkonzept und Interpretationspraxis der objektiven Hermeneutik; in: Jüttemann, 71-91 Schneider, Ulrike, 1980: Sozialwissenschaftliche Methodenkrise und Handlungsforschung, Frankfurt/ M. Schnell, Rainer, 1985: Zur Effizienz einiger Missing-Data-Techniken- - Ergebnisse einer Computer-Simulation, in: ZUMA-Nachrichten, Nr. 17, 50-74 Schnell, Rainer, 1991: Wer ist das Volk? Zur faktischen Grundgesamtheit bei „allgemeinen Bevölkerungsumfragen“: Undercoverage, Schwererreichbare und Nichtbefragbare. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie, Jg. 43, Heft 1, 106-137 Schnell, Rainer, 1994: Graphisch gestützte Datenanalyse, München, Wien Schnell, Rainer, 2012: Survey-Interviews. Methoden standardisierter Befragungen. Wiesbaden Schnell, Rainer; Hill, Paul B.; Esser, Elke, 1999: Methoden der empirischen Sozialforschung, München, Wien (6. Aufl.) Schrader, Achim, 1971: Einführung in die empirische Sozialforschung, Stuttgart, Berlin Schreiber, Norbert, 1999: Wie mache ich Inhaltsanalysen. Vom Untersuchungsplan zum Ergebnisbericht, Frankfurt/ M. Schütz, Alfred, 2004: Common-Sense und wissenschaftliche Interpretation menschlichen Handelns, in: Strübing/ Schnettler, 155-197 Schütze, Fritz, 1977: Die Technik des narrativen Interviews in Interaktionsfeldstudien. Dargestellt an einem Projekt zur Erforschung von kommunalen Machtstrukturen, in: Arbeitsberichte und Forschungsmaterialien, Bd. 1; Universität Bielefeld, Fakultät für Soziologie, Bielefeld Schütze, Fritz, 1978: Was ist „kommunikative Sozialforschung“? , in: Gärtner, A.; Hering, S. (Hg.): Modellversuch „Soziale Studiengänge“ an der GH Kassel. Materialien 12: Regionale Sozialforschung, Kassel: Gesamthochschulbibliothek, 117-131 Schütze, Fritz, 1983: Biographieforschung und narratives Interview. In: Neue Praxis, Jg. 13, Heft 3, 283-293 Schütze, Fritz, 1984: Kognitive Figuren des autobiographischen Stegreiferzählens, in: Kohli, M.; Robert, G. (Hg.): Biographie und soziale Wirklichkeit, Stuttgart, 78-117 <?page no="546"?> 547 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 547 Literaturverzeichnis Schütze, Fritz, 1987: Das narrative Interview in Interaktionsfeldstudien; Kurs 3755 der Fernuniversität Hagen Schuman, Howard; Presser, Stanley, 1981: Questions and Answers in Attitude Surveys, New York Schwarz, Norbert; Clore, Gerald L., 1983: Mood, Misattribution, and Judgements of Well-Being, in: Journal of Psychology and Social Psychology, Bd. 45, 513-523 Seeman, Melvin, 1959: On the Meaning of Alienation, in: American Sociological Review, Jg. 24, Heft 6, 783-791 Seeman, Melvin, 1972: Alienation and Engagement, in: Campbell, A.; Converse, P. E. (Hg), The Human Meaning of Social Change, New York, 467 ff. Seiffert, Helmut, 1968: Information über die Information, München Shaw, Clifford R.; Burgess, Ernest W., 1930: The jack-roller, a delinquent boy’s own story, Chicago Ill. Silbermann, Alphons, 1974: Systematische Inhaltsanalyse, in: König, Handbuch-…, Bd. 4, 253-339 Silverman, Davis, 1993: Interpreting Qualitative Data. Methods for Analyzing Talk, Text, and Interaction, London: Sage Sixtl, Friedrich, 1976: Skalierungsverfahren: Grundzüge und ausgewählte Methoden sozialwissenschaftlichen Messens. In: Holm, Bd. 4 Sixtl, Friedrich, 1982: Meßmethoden in der Psychologie (2. Aufl.), Weinheim Small, Mario Luis, 2011: How to Conduct a Mixed Methods Study: Recent Trends in a Rapidly Growing Literature. In: Annual Review of Sociology, Jg. 37, Heft 1, 57-86. Spieß, Martin, 2010: Der Umgang mit fehlenden Werten, in: Wolf/ Best, 117-142. Stapf, Kurt H., 1984: Laboruntersuchungen; in: Roth, E. (Hg.): Sozialwissenschaftliche Methoden, München, Wien Statistisches Bundesamt (Hg.), 1997: Das Arbeitsgebiet der Bundesstatistik, Stuttgart-- (Aktuelle Informationen unter: www.destatis.de/ jetspeed/ portal/ cms/ ) Stevens, Stanley S., 1951: Mathematics, Measurement and Psychophysics, in: ders. (Hg.): Handbook of Experimental Psychology, New York Stewart, David W., 1984: Secondary Research. Information Sources and Methods, Beverly Hills, London Stockmann, Reinhard (Hg.), 2006: Evaluationsforschung. Grundlagen und ausgewählte Forschungsfelder (3. Aufl.), Opladen Stone, Philip J.; Dunphy, Dexter C.; Smith, Marshall S.; Ogilvie, Daniel M., 1966: The General Inquirer: A Computer Approach to Content Analysis, Cambridge (Mass.), London Strauss, Anselm, 1984: Qualitative Analysis in Social Research. Grounded Theory Methodology (Kurs 3758 der Fernuniversität Hagen) Strauss, Anselm, 1991: Grundlagen qualitativer Sozialforschung. Datenanalyse und Theoriebildung in der empirischen soziologischen Forschung, München (als Paperback bei UTB 1994) <?page no="547"?> 548 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 548 Literaturverzeichnis Strauss, Anselm; Corbin, Juliet, 1990: Basics of Qualitative Research. Grounded Theory Procedures and Techniques, Newbury Park (deutsch 1996: Grounded Theory: Grundlagen qualitativer Sozialforschung, Weinheim) Strübing, Jörg, 2002: Just do it? Zum Konzept der Herstellung und Sicherung von Qualität in grounded theory-basierten Forschungsarbeiten; in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 54 (2), 318-342 Strübing, Jörg, 2006: Webnografie? Zu den methodischen Voraussetzungen einer ethnographischen Erforschung der Internet, in: Rammert, W.; Schubert, C. (Hg.): Technographie: Zur Mikrosziologie der Technik, Frankfurt/ M., 247-274 Strübing, Jörg, 2008a: Grounded Theory. Zur sozialtheoretischen und epistemologischen Fundierung des Verfahrens der empirische begründeten Theoriebildung (2. Aufl.), Wiesbaden Strübing, Jörg, 2008b: Pragmatismus als epistemische Praxis. Der Beitrag der Grounded Theory zur Empirie-Theorie-Frage, in: Kalthoff/ Hirschauer/ Lindemann, 279-311 Strübing, Jörg, 2013: Qualitative Sozialforschung. Eine Einführung. München: Oldenbourg Strübing, Jörg; Schnettler, Bernt (Hg.), 2004: Methodologie interpretativer Sozialforschung. Klassische Grundlagentexte, Konstanz Sturm, Manfred; Vajna, Thomas, 1974: Planung und Durchführung von Zufallsstichproben, in: Koolwijk/ Wieken-Mayser, Bd. 6, 40-80 Südmersen, Ilse M., 1983: Hilfe, ich ersticke in Texten! Eine Anleitung zur Aufarbeitung narrativer Interviews; in: Neue Praxis, Jg. 13, Heft 3, 294-306 Suter, Christian; Meyer-Fehr, Peter, 1989: Operationalisierung von sozialer Schicht: Individualeinkommen, absolutes oder relatives Haushaltseinkommen? In: Schweizer Zeitschrift für Soziologie, Jg. 15, H. 3, 525-543 Thiele, Silke, 2000: Chancen der Beteiligung privater Haushalte m Produktivvermögen, working paper EWP 0007, Universität Kiel, opus.zbw-kiel.de/ voll texte/ 2005/ 3692 Thierbach, Cornelia; Petschick, Grit, 2014: Beobachtung, in: Baur/ Blasius, 855-866. Thomas, William I.; Thomas, Dorothy Swaine, 1928: The Child in America: Behavior Problems and Programs, New York Thomas, William I.; Znaniecki, Florian, 1918: The Polish peasant in Europe and America, Boston Thome, Helmut, 1990: Grundkurs Statistik für Historiker. Teil II: Induktive Statistik und Regressionsanalyse. Historische Sozialforschung, Beiheft Nr. 3, Köln Tiede, Manfred, 1987: Statistik. Regressions- und Korrelationsanalyse, München, Wien Timaeus, Ernst, 1975: Untersuchungen im Laboratorium, in: Koolwijk/ Wieken- Mayser, Bd. 2, 195-229 Topitsch, Ernst (Hg.), 1972: Logik der Sozialwissenschaften, Köln Treinen, Heiner, 1979: Zur Inhaltsanalyse symbolischer Materialien, in: Vondung, K. (Hg.), Der Erste Weltkrieg in der literarischen Gestaltung und symbolischen Deutung der Nationen, Göttingen <?page no="548"?> 549 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 549 Literaturverzeichnis Treinen, Heiner; Kromrey, Helmut, 1992: Trendanalyse von Besuchszahlen-Entwicklungen in den Museen der (vormaligen) Bundesrepublik Deutschland, in: Andreß, H.-J. u. a. (Hg.): Theorie, Daten, Methoden, München, 367-381 Tuma, René; Schnettler, Bernt; Knoblauch, Hubert, 2013: Videographie. Einführung in die Video-Analyse sozialer Situationen, Wiesbaden Urban, Dieter, 1982: Regressionstheorie und Regressionstechnik, Stuttgart Urban, Dieter; Mayerl, Jochen, 2011: Regressionsanalyse: Theorie, Technik und Anwendung (4. Aufl.). Wiesbaden Voges, Wolfgang, 1987: Methoden der Biographie- und Lebenslaufforschung, Opladen Vogl, Susanne, 2010: Gruppendiskussion, in: Wolf/ Best, 333-365. Volmerg, Ute, 1977: Kritik und Perspektiven des Gruppendiskussionsverfahrens in der Forschungspraxis, in: Leithäuser, Th. u. a.: Entwurf zu einer Empirie des Alltagsbewußtseins, Frankfurt/ M., 184-217 Voß, Werner, 1988: Statistische Methoden und PC-Einsatz, Opladen Wagenführ, Rolf, 1971: Statistik leicht gemacht; Band I: Einführung in die deskriptive Statistik, Köln Wagner, Pia; Hering, Linda, 2014: Online-Befragung, in: Baur/ Blasius, 299-304. Wagner, Ulrich, 1997: Interaktive Sozialforschung. Zur Frage der Wissenschaftlichkeit und Brauchbarkeit der Aktionsforschung, Weinheim Webb, Eugene J.; Campbell, Donald T.; Schwartz, Richard D.; Sechrest, Lee, 1975: Nicht-reaktive Meßverfahren, Weinheim, Basel Weber, Max, 2004 [1904]: Die ‚Objektivität‘ sozialwissenschaftlicher und sozialpolitischer Erkenntnis; in: Strübing,/ Schnettler, 43-100 Weber, Max, 1980: Wirtschaft und Gesellschaft: Grundriss der verstehenden Soziologie, Tübingen: Mohr Weber, Robert P., 1985: Basic Content Analysis, Beverly Hills Weiber, Rolf; Mühlhaus, Daniel, 2010: Strukturgleichungsmodellierung. Eine anwendungsorientierte Einführung in die Kausalanalyse mit Hilfe von AMOS, SmartPLS und SPSS. Heidelberg Weichbold, Martin, 2014: Pretest, in: Baur/ Blasius, 299-304. Weick, Karl E., 1968: Systematic Observational Methods, in: Lindzey, G.; Aronson, E., Handbook of Social Psychology, Bd. 2, Reading, Mass. Weidmann, Angelika, 1974: Die Feldbeobachtung, in: Koolwijk/ Wieken-Mayser, Bd. 3, 9-26 Weigt, Peter, 1968: Revolutionslexikon, Frankfurt/ M. Weingarten, Elmar; Sack, Fritz; Schenkein, Jim, 1976: Ethnomethodologie. Beiträge zu einer Soziologie des Alltagshandelns, Frankfurt/ M. Weischer, Christoph, 2004: Das Unternehmen “Empirische Sozialforschung”. Strukturen, Praktiken und Leitbilder der Sozialforschung in der Bundesrepublik Deutschland, München: Oldenbourg Weiß, Hans-Jürgen, 1989: Öffentliche Streitfragen und massenmediale Argumentationsstrukturen. Ein Ansatz zur Analyse der inhaltlichen Dimension im Agenda <?page no="549"?> 550 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 550 Literaturverzeichnis Setting-Prozeß; in: Kaase, M.; Schulz, W. (Hg.): Massenkommunikation, Sonderheft 30 der Kölner Zeitschrift für Soziologie und Sozialpsychologie, 473-489 Welz, Gisela, 1998: Moving Targets: Feldforschung unter Mobilitätsdruck, in: Zeitschrift für Volkskunde, 94. Jg., Heft 2, 177-194 Wenzelburger, Georg; Jäckle, Sebastian; König, Pascal, 2014: Weiterführende statistische Methoden für Politikwissenschaftler: Eine anwendungsbezogene Einführung mit Stata. München Werner, Rudolf, 1975: Soziale Indikatoren und politische Planung, Reinbek Wersig, Gernot, 1968: Inhaltsanalyse-- Einführung in ihre Systematik und Literatur, Berlin Westerhoff, Horst-Dieter, 2007: Die amtliche Statistik in der demokratischen Gesellschaft. Volkwirtschaftliche Beiträge Nr. 91, Universität Potsdam Wiedemann, Peter M., 1986: Erzählte Wirklichkeit. Zur Theorie und Auswertung narrativer Interviews, Weinheim Wienold, Hanns, 2000: Empirische Sozialforschung. Praxis und Methode, Münster Wiggershaus, Rolf, 1986: Die Frankfurter Schule. Geschichte- - Theoretische Entwicklung-- Politische Bedeutung, München, Wien Wilson, Thomas P., 1973: Theorien der Interaktion und Modelle soziologischer Erklärung, in: Arbeitsgruppe Bielefelder Soziologen, 54-79 Wilson, Thomas P., 1981: Qualitative ,versus‘ Quantitative Methods in Social Research; in: ZUMA(Hg.): Integration von qualitativen und quantitativen Forschungsansätzen, Arbeitsbericht Nr. 1981/ 19, Mannheim, 37-69 Wilson, Thomas P., 1982: Qualitative oder quantitative Methoden in der Sozialforschung, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 34. Jg., Heft, 3, 487-508 Wirth, Louis, 1956: The ghetto, Chicago Wirth, Werner; Lauf, Edmund (Hg.), 2001: Inhaltsanalyse. Perspektiven- - Probleme-- Potentiale. Köln Wirtschaftsvereinigung Stahl, Stahlinstitut VDEh, 2014: Fakten zur Stahlindustrie in Deutschland, Düsseldorf Witzel, Andreas, 1985: Das problemzentrierte Interview; in: Jüttemann, 227-255 Witzel, Andreas, 2000: Das problemzentrierte Interview, in: Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 1. Jg., Heft 1, 26 Absätze Wodak, Ruth, 1996: Disorders of Discourse, London Wodak, Ruth, 2007: Critical Discourse Analysis, in: Seale, C.; Gobo, G.; Gubrium, J. F.; Silverman, D. (Hg.): Qualitative research practice, London, 185-201 Wolbring, Tobias; Bozoyan, Christiane; Langner, Dominik, 2013: „Links gehen, rechts stehen! “ Ein Feldexperiment zur Durchsetzung informeller Normen auf Rolltreppen. In: Zeitschrift für Soziologie, 42. Jg., Heft 3, 239-258 Wolf, Christof, 1995: Sozio-ökonomischer Status und berufliches Prestige. Ein kleines Kompendium sozialwissenschaftlicher Skalen auf der Basis der beruflichen Stellung und Tätigkeit. In: ZUMA-Nachrichten 19, Nr. 37, 102-136 Wolf, Christof; Best, Henning (Hg.), 2010: Handbuch der sozialwissenschaftlichen Datenanalyse. Wiesbaden: VS Verlag für Sozialwissenschaften. <?page no="550"?> 551 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 551 Literaturverzeichnis Wolf, Willi, 1972: Empirische Methoden in der Erziehungswissenschaft, in: Erziehungswissenschaft 3, Frankfurt/ M. (Funkkolleg), 81-125 Wolf, Willi, 1989: Einführung in die Methoden der quantitativen empirischen Sozialforschung. Teil I: Grundlagen der deskriptiven Statistik, Kurs 3659 der Fernuniversität Hagen Wolf, Willi, 1994: Einführung in die Statistik, Marburg Wolff, Hans-Georg; Bacher, Johann, 2010: Hauptkomponentenanalyse und explorative Faktorenanalyse, in: Wolf/ Best, 333-365. Wolff, Stephan, 1987: Rapport oder Report. Über einige Probleme bei der Erstellung plausibler ethnographischer Texte, in: von der Ohe, W. (Hg.): Kulturanthropologie, Berlin: 333-364 Wottawa, Heinrich; Thierau, Heike, 1990: Lehrbuch der Evaluation, Bern, Stuttgart Yamane, Taro, 1976: Statistik, 2 Bde., Frankfurt/ M. Zander, Alvin, 1962: Systematische Beobachtung kleiner Gruppen, in: König, Beobachtung und Experiment-…, 129-147 Zedler, Peter; Moser, Heinz (Hg.), 1983: Aspekte qualitativer Sozialforschung. Studien zur Aktionsforschung, empirischer Hermeneutik und reflexiver Sozialtechnologie, Opladen Zeisel, Hans, 1970: Die Sprache der Zahlen, Köln Zeller, Richard A.; Carmines, Edward G., 1980: Measurement in the Social Sciences. The Link between Theory and Data, Cambridge Zetterberg, Hans L., 1973: Theorie, Forschung und Praxis in der Soziologie, in: König, Handbuch-…, Bd. 1, 103-160 Zimmermann, Ekkart, 1972: Das Experiment in den Sozialwissenschaften, Stuttgart Znaniecki, Florian, 1934: The method of sociology, New York: Farrar &-Rinehart Znaniecki, Florian, 2004: Analytische Induktion in der Soziologie, in: Strübing/ Schnettler, 265-318 Zöfel, Peter, 2002: SPSS-Syntax. Die ideale Ergänzung für effiziente Datenanalyse. München Züll, Cornelia; Harkness, Janet, Hoffmeyer-Zlotnik, Jürgen H. P. (Hg.), 1996: Text Analysis and Computers. ZUMA-Nachrichten Spezial, Mannheim ZUMA Zentrum für Umfragen, Methoden und Analysen und Informationszentrum Sozialwissenschaften, 1988: ZUMA-Handbuch Sozialwissenschaftlicher Skalen, Mannheim, Bonn (online verfügbar als: ZUMA-Informationssystem (ZIS) (zis. gesis.org). <?page no="551"?> www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 552 <?page no="552"?> 553 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 552 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 553 Sachregister A Abbildungen - strukturverträgliche 221 Abbildungsvorschrift 221 Abduktion 59 Abgrenzungskriterium 37 Absolutskala 228 Abstraktion 247 Abweichung - mittlere lineare 419 - mittlere quadratische 420 Abweichungen - quadrierte 475 Access Panel 366 Accountability (Garfinkel) 512 Akquieszenz 382 Alltagstheorie 150 Analyse - dimensionale 70, 94, 113-131, 134,-141-144 - semantische 141, 144 Analysieren 490 Anwendungsforschung siehe Forschung, angewandte Äquivalenzaussage 228 Äquivalenzrelation 225 Argumentationsanalyse 324 Arithmetisches Mittel 414, 416 - Vorzüge/ Nachteile 416 Artefakt - Mess- 175, 211 - statistisches 195, 197, 247, 392-393 Assoziation 442, 452 - Definition 440 - Konzept der 444 - prädiktive 474 - Stärke der 471, 474 Assoziationsmaß - χ 2 -basiertes 453-456 Assoziationsmodell - paarweiser Vergleich 445, 456 - proportionale Fehlerreduktion 446, 459 - statist. Abhängigkeit 445, 451 - Subgruppendifferenzen 444, 449 Ausfälle - bei Stichproben 380 Ausprägungen 209 - beobachtete 399 - mögliche 210, 395, 399 Aussage 37 - All- 38 - analytisch wahre 36 - Beobachtungs- 37 - bewährte 38 - Existenz-/ „Es gibt...“- 37 - nomologische 27, 37, 40 - singuläre 43 - technologische 80 Ausschöpfung - bei Stichproben 381 Ausstrahlungseffekt 359, 360 Auswahl - bewusste 268-271 - geschichtete 287 - komplexe Zufalls- 286-291 - mehrstufige 290-291 - nach dem Konzentrationsprinzip 270, 425 - Quoten- 271 - reine Zufalls- 281-283 - systemat. Zufalls- 283-284 - theoretische 298 - typischer Fälle 269 - willkürliche 266 - zufallsgesteuerte 278-291 Auswahleinheit 259 Auswahlverfahren - in qualitativen Studien 297 - random route 291-293 - Überblick über 265 - zentrale Begriffe 255-263 Axiome 108 Auswertung, statistische 391-487 B Basissatz - Dilemma 42, 45, 83 - empirischer 43, 44, 81, 82 - theoretischer 43, 81, 82, 185 Bedeutungsdimension 133 Bedeutungsfeldanalyse 324 Befragtenrolle 358, 359 Befragtenverhalten 337, 344, 367, 382 Befragter - als Fehlerquelle 337 - als Informant 359, 367 - als Versuchsperson 358 Befragung 335-371 - als Informationsabruf 359, 368 - als Messvorgang 367 - als Reaktionsexperiment 358 - Formen der 364-367 - Gruppen- 366 - mündlich 364 - online 364-365 - postalisch 364 - schriftlich 364 - teil-standardisiert 366 - telefonisch 364 - unstandardisiert 366 - voll-standardisiert 365 siehe auch Interview Befragungssituation 359 siehe Interviewsituation Begriffe 114-116, 131-132, 141-144, 145-160 - außerlogische 148 - Definition 146 - deskriptive 152 - empirische 83, 152 - empirischer Bezug 149 - Funktion 149 - Indikator- 170 - Klassifikationsfunktion 150 - klassifikatorische 198 - komparative 199 - mehrdeutige 132 - mehrdimensionale 132 - metrische 199 - Selektivität 149 - Synthesefunktion 151 - theoretische 83, 114-115, 153, 177 - theoretischer Bezug 149, 150 - Theoriegehalt 152 <?page no="553"?> 554 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 554 Sachregister Begriffsrealismus 157 Begründungszusammenhang 73, 75, 76, 77, 107 Bejahungstendenz 382 Beobachtung 325-335, 386-389 - alltägliche 22 - Arten von 327-329 - Entwicklung des Kategoriensystems 333 - Kategoriensystem 326 - natürliche/ künstliche 328 - Phasen der 329-335 - Selbst-/ Fremd- 328 - Stichprobe 331 - systematische/ unsystematische 328 - teilnehmende/ nicht teiln. 328 - verbundene/ unverbundene 437 - verdeckte/ offene 328 - wissenschaftliche 22 - Zähleinheit 332 Beobachtungsaussagen 40, 42, 181, 184 Beobachtungsgegenstand 325, 329 Beobachtungsprotokolle 249 Beobachtungssätze - elementare 184 Beobachtungssprache 44, 184 Beschreibung - dichte 387 Bestätigung 82, 84 Bestimmtheitsmaß 474 Beziehung - lineare/ kurvilineare 439, 464 - positive/ negative statistische 440 - statistische 438, 440 Beziehungszahlen 436 - Nachteile 437 Biographieforschung 489, 515- 519 C Chicago School 60 Chi-Quadrat-Verteilung 453 Cramers V 455 D Daten 195, 211, 212, 250, 301 - Dokumente als 249 - i.d. qualitat. Forschung 246, 251 - Texte als 248 Datengewinnung - qualitative 247, 387 Datenkorpus 523 Datenmatrix 184, 211, 214, 437 - Struktur der 214 Datensammlung - Prinzipien der 211-218 Deduktion 81, 114-115 Definiendum 148 Definiens 148 Definition 145-160 - operationale 176 deskriptives Schema siehe Schema, deskriptives Detaillierungszwang 516 Determination - statistische 474 Determinationskoeffizient 474 - Definition 476 Dichotomisierung 400, 450 Diskursanalyse 508 Distanzaussage 228 doing being (Ethnomethodologie) 512 Dokumentarische Methode 502 Dreistadiengesetz 15 E Effekte - siehe Wirkungen Eindeutigkeitsproblem 223, 224 Einheitswissenschaft 26 Einschätzungsskalen 352 Einzelfallorientierung 488 Einzelfallstudie 96, 104-105, 253, 298, 488, 498, 501-502 Empathie 247 Empirie 21, 50 empirischer Bezug 35, 163 - direkt o. indirekt 146, 169 Enaktierungspotential 507 Entdeckungszusammenhang 70, 73, 107 Entfremdung von Wissen 504 Entwicklungstrend 471 Erfahrung - alltägliche/ wissenschaftliche 18, 21-24 Erhebung 71 Erhebung nichtexperimenteller Daten 96-99 Erhebungseinheit 259 Erhebungsinstrumente 301-383 Erkenntnis - alltägliche/ wissenschaftliche 18 Erklärung - alltägliche 78 - deduktiv-nomologische 79 - statistische 129, 474-476 - wissenschaftliche 80 Ethnografie 249, 386, 387, 388, 390 - fokussierte 250 - virtuelle 388 Ethnomethodologie 505, 509- 515 Evaluation 68, 91-95 - durch Befragung 95, 242 - formative 94 - summative 95 Experiment 68, 85-91 - echtes 87 - Feld- 89 - klassisches 86 - Labor- 87, 88 - Quasi- 89 - sozialwissenschaftliches 85, 86 Experimentalgruppe 86 Explanandum 78, 80 Explanans 78, 80 Explikation 108 Exploration 65, 96 Extension 133, 146, 154, 198 Extrapolation 471 F Faktorenanalyse 233, 485 Fallstudie 508 - qualitative 105 - siehe Einzelfallstudie Fallzahlen - kleine 297 Falsifikation 37, 41, 45, 81-82, 84 Falsifikatoren 81 Fehlerregel 460, 461, 475 Fehlervarianz 468, 474, 478 Feldarbeit 301 Feldexperiment 89 Feldforschung 68, 88, 386 Feldzugang 388 Flächenstichprobe 284 Formeln - statistische 397 <?page no="554"?> 555 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 555 Sachregister Forschung 34 - angewandte 19-21, 68 - Designtypen 80-107 - Grundlagen- 19-21 - hypothesentestende 85 - qualitative-interpretative 58-64, 107-111, 160-162, 191-192, 246-252, 297-300, 383- 390,488-490, 491-524 - „quantitativ“/ standardisierte 194 - Technikfolgen- 68 Forschungsartefakte 175 Forschungsdesign 70 siehe Forschung, Designtypen Forschungskontaktsituation 340 Forschungsplan - siehe Untersuchungsdesign Forschungsprozess 97, 193 - Entscheidungen im 74 Frage 346-371 - Antwortvorgaben 354 - direkte/ indirekte 355 - Eisbrecher- 356 - Filter- 357 - Forschungsvs. Testfrage 347 - Hybrid- 355 - Kontroll- 358 - offene/ geschlossene 351 - Sondierungs- 357 - Überleitungs- 357 - Übersetzung Forschungsin Erhebungs- 348 Fragebogen - als Messinstrument 240 Fragebogen - -konstruktion 349, 358-363 Frageformen 351-354 Frageformulierung - Grundsätze der 351, 358-363 Fragenbatterie 357 Frequenzanalysen 322 Funktion - lineare 467 G Gamma-Koeffizient 457, 463 Garfinkel, Harold 505, 509 Gaußsche Normalverteilung 280 Gesetz der großen Zahl 279 Gesetze - siehe Aussagen, nomologische Gestaltschließungszwang 517 Gleichverteilung 431 going native 388 Grounded Theorie 250, 488, 491-498 - Kodieren 490, 495-496 Grundgesamtheit 253, 256 Gültigkeit 167, 375, 378, 375- 381 - empirische 170 - externe 378 - semantische 170 Gütekriterien 167, 242, 243, 375-383 H Handlungsentlastung der analytischen Situation 162, 500 Häufigkeit - absolute 399 - empirische 452 - erwartete 452 - kumulierte 403, 429 - relative 402 Häufigkeitsverteilung 399-408, 414 - Darstellung von 404-408 - zweidimensionale 447-449 Hempel-Oppenheim-Schema 61, 78, 80, 85, 92 Hermeneutik 63, 110, 303 - objektive/ strukturale 298, 304, 498-502 Hirschmann-Index 428 Hypothese 47, 443 - deterministische 41 - empirische 158 - nomologische 38, 45 - statistische 41 Hypothesenbildung 70, 107 Hypothesentest 39, 52, 54, 68, 80-85, 113-114 - Dilemmata 40 - harter Test 81 I Implementationsforschung 94 Index - additiver 232 - vs. Skala 231 Indexbildung 170-176, 179 Indexikalität 110, 510, 516 Indifferenztabelle 445, 452, 453 Indikatoren 44, 70, 83, 163-170 - definitorische 168 - korrelative 166 - schlussfolgernde 167, 168 Indikatorvariable 232 Induktion - analytische 60, 488 Inferenzstatistik - siehe Statistik, schließende Inhaltsanalyse 302-325 - als Basismodell 371 - Anforderungen an Kategoriensystem 315 - Datenverarbeitung 321 - Definition der Zähleinheit 303, 319 - Entwicklung des Kategoriensystems 309, 320 - Forschungspläne der 375 - Gültigkeit und Zuverlässigkeit 321 - intersubjektive 305 - Kategoriensystem 309-317 - Kodieren 308 - Kodierschema 305 - Kontexteinheit 319, 332 - Kontextinformationen 320 - Objektivität 304, 308 - Phasen der 322 - qualitative 389 - qualitative vs. quantitative 371 - Stichprobe 318 - systematische 305 - Textmaterial 317 - verschiedene Ansätze 322 - Zuverlässigkeit 308 Inklusionsschluss 254 Intension 133, 146, 154, 198 Intensitätsanalysen 323 Interakt 507 Interaktionismus 26 Interaktionsprozessanalyse - nach Bales 334 Interpretation 71 - empirische 134, 170, 184, 185 - formulierende 506 - reflektierende 506 Interpretieren 489 Intersubjektivität 42, 46 Intervallskala 206, 226 <?page no="555"?> 556 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 556 Sachregister Interview (siehe auch Befragung) - als Reaktions-Experiment 340 - fokussiertes 384 - Kommunikationshemmnisse 343 - Leitfaden- 385 - narratives 386 - problemzentriertes 386 - qualitatives 389 Interviewer - als Fehlerquelle 344 Interviewerschulung 338 Interviewerverhalten 343 Interviewsituation - asymmetrische Beziehung 339 - Eigenschaften der 337-340 - Künstlichkeit 338 - sozial folgenlos 339 - verzerrende Effekte 359 K Karteiauswahl 281 Kategorien - inhaltsanalytische 316 Kausalanalyse 85 Kausalität 25-28, 78 Klassenbildung 401, 402 Klassifizierbarkeit - Prinzip der 217 Klumpenauswahl 289 Kodieren 376, 489 - Kodiereinheit 316 Kommunikation, Prinzip der 109 Kommunikationsfunktion von Sprache 145, 147 Konstrukte 152, 169, 177 Konstruktionen zweiten Grades 489 Konstruktivismus 59 - erkenntnistheoretischer 24 - sozialer 26 Kontexteinheit siehe Inhaltsanalyse, Kontexteinheit Kontextualität 246 Kontingenz 436 Kontingenzanalysen 323 Kontingenzkoeffizient 440, 454 - nach Pearson 454 - nach Tschuprow 455 Kontingenztabelle 438, 440, 445, 447 - Prozentuierungsregel 449 Kontrollgruppe 86, 89 Konzentration - absolute 426, 427 - Definition 424, 426 - relative 426, 429 - statistische 424 Konzentrationsanteil, kumulierter 427 Konzentrationsmaße, summarische 428 Konzentrationsverhältnis 433 Konzepte - definitive 192 - sensibilisierende 192 Konzeptspezifikation 113-114, 178 Korrelation 471-483 - lineare 479 Korrelationskoeffizient 440 - Eigenschaften 481 Korrespondenzproblem 82, 83, 186 Korrespondenzregeln 44, 83, 84, 136, 163, 170, 184, 185, 191 Korrespondenztheorie, siehe Wahrheit Kovarianz/ Kovariation 480 Kreuztabellierung 447 Kriteriumsvariable 232, 446 Kritischer Rationalismus 55 Kumulierung 403 L Laborexperiment 87 Laborforschung 68, 88 lambda-Maß 460, 461, 463 Längsschnittuntersuchung 96 Laufindex 397 - siehe auch Panel Leitfadengespräch 366 Lesarten 507 Lorenz-Kurve 430 - Definition 431 Lorenzkurvenmaß 433 - Vorteile/ Nachteile 435 Lotterieprinzip 282 M Mannheim, Karl 503 Maße der zentralen Tendenz, siehe-Mittelwerte Median 411, 413, 415 - Vorzüge/ Nachteile 413 Menge 201 - strukturierte 221 Merkmale 194, 195, 202, 203, 212 Merkmalsraum 213 Merkmalsträger 71, 194 Messbarkeit 200 Messen 200 - als strukturtreue Abbildung 200, 202, 203, 233, 237 - Definition 203 - direktes vs. abgeleitetes 230 - direkt vs. indirekt 240 - durch Abzählen 230 - durch Befragung 242 - durch Indexbildung 234 - fundamentales 230 - in den Naturwissenschaften 202 - in der Alltagssprache 202 - sozialwissenschaftliches 203, 207 Messfehler - systematische 189, 190 Messmodell 233 Messniveau siehe Skala Messskala - Definition 222 Messtheorie - axiomatische 203, 219 Messvorschriften 194 Methode 196, 301 - der kleinsten Quadrate 468, 476 Methodentriangulation 105 Mittelwerte - lagetypische 408 - rechnerische 408 - siehe auch Range, Modus, Median, arithmetisches Mittel Mittlere lineare Abweichung 419 Modell 196 - der proportionalen Fehlerreduktion 474 - sozialer Kommunikation 306- 308, 340-346 - statistische 197, 199, 200, 201, 391-394, 440 - Typen von 196 - untersuchungsleitendes 346 Modus <?page no="556"?> 557 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 557 Sachregister - Nachteile 409 monitoring 93 Monte-Carlo-Verfahren 282 Morphismus 221, 224 N Nachprüfbarkeit - intersubjektive 29, 32, 77 Narrationsanalyse 250, 489, 490, 515-519 Neutralität 74 Nominaldefinition - Eigenschaften 153-157 - Voraussetzungen 148 Nominalskala siehe Skala Nomologien 41 O Objektbereich 139 Objektivität 42, 246 - des Messinstruments 244 Offenheit - Prinzip der 29, 108 Operationalisierung 71, 84, 160, 163, 171, 176-191 - Dreischritt der 177 - einzelner Begriffe 180 - von Aussagesystemen 180, 181 Ordinalskala siehe Skala Ordnungsaussage 228 P Paare - konkordante/ diskordante 446, 457, 458 Panel 366 Panel-Analyse 66 Parameter 471 Phi-Koeffizient 453 Platzierungseffekt 359, 360 Polygonzug 407, 427 Prädiktor 464, 471 Prädiktorvariable 446 Pragmatik 145 Pragmatismus 25, 59 Praxisrelevanz 21 PRE-Maße, siehe Assoziationsmodell, proportionale Fehlerreduktion Pretest 362-363 Prognose 68, 80 Programmevaluation 92 Programmforschung 92 Protokollsatz 42, 44, 144 Prozentsatzdifferenz 445, 450, 463 - Vorteile/ Nachteile 451 Prozentuierungsregel 450 Prozesshaftigkeit, Prinzip der 109 Q qualitativ - vs. quantitativ 31 Quantifizierbarkeit 198-199 Quantile 409 Quartile 410 Quartilsabstand 418 - Nachteil 418 Quasi-Experiment 89 Querschnittserhebung 96 Quotierung 277 R Randbedingungen 78 Randomisierung 86, 87, 89 Random-Route-Verfahren 292 Range 418 Rationalismus - Kritischer 35-55 Ratioskala 206, 227 Reaktions-Experiment - Interview als 340 Reaktivität 372, 376, 379 - Frageformulierung 345 - Inverviewsituation 344 Realdefinition 157-159 Realität 246 Realitätsgehalt 167 Redezug 507 Referenzobjekt 139, 145 Reflexivität 110 Reflexivität, Prinzip der 110 Regeln - semantische 198 Regression - Definition 464 - lineare Einfach- 463-471 - Problemstellung der 465 Regressionsanalyse 463-471 Regressionsgerade 464, 469 - Eigenschaften 467 Regressionsgleichung 465, 467, 472 Regressionskoeffizient 469, 473 Regressionskonstante 469, 473 Regressionslinie 465 Regressionsrechnung 463, 466, 476 - Fehler-/ Residualvariable 467 - Schätzfehler 467 - Schätzlinie 466 - Schätzvariable 467 - Schätzwerte 466 Rekonstruktion 63, 490 Relation 219 - Äquivalenz- 220 - asymmetrische 219 - intransitive 220 - irreflexive 220 - Ordnungs- 220 - reflexive 220 - symmetrische 219 - transitive 220 relationales System - empirisches 219 - numerisches 219 Relationen 219 Relationsaxiome 223 - der Intervallskala 227 - der Nominalskala 225 - der Ordinalskala 226 Relevanzfestlegungs- und Kondensierungszwang 517 Repräsentanzfunktion von Sprache 145, 147 Repräsentationsproblem 223, 224 Repräsentativität 97, 378, 380, 381 - von Stichproben 264 response set 368, 376, 382 Reziprozität 506 S Sampling, theoretisches 298, 522 Schätzfehler 475 - Streuung der 473 Schätzregel 460, 461, 462, 475 Schema - deskriptives 50, 133 Schütze, Fritz 516 Schwerpunkt - einer Verteilung 414 screening 88 Sekundäranalyse 68, 101-102 Semantik 144 Semantische Struktur- und Inhaltsanalyse 324 <?page no="557"?> 558 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 558 Sachregister Semiotik 144 Signifikanz - statistische 453 Sinnverstehen 503 Situationsdefinition (Thomas- Theorem) 62 Skala 203 - Absolut- 228 - Intervall- 206, 226 - Mess- 222 - Nominal- 204, 225 - Ordinal- 205, 225 - Ratio- 206, 227 Skalen - Einschätzungs- 352 Skalenniveau, siehe Skala Skalentransformation 228 Skalentypen - und zulässige Aussagen 228 social desirability 382 Sozialforschung siehe Forschung Spannweite - Nachteile 418 Spezifität 246 Sprache - Beobachtungs 44 - der Fachwissenschaft 161 - des Feldes 161 - theoretische 44, 83 Stabdiagramm 404 Standardabweichung 280, 422 Standardfehler 280 Standardisierung 29, 32-34 statements 352 Statistik - bivariate 436-483 - empirisch sinnlose 228 - empirisch sinnvolle 228 - Formelschreibweise 397 - Grundbegriffe 399 - Kritik an der 200 - Modelle der 195, 391-394 - Rolle der 195 - univariate 399-436 Stichprobe 71 Stichprobe, repräsentative - Voraussetzungen 263 Stichprobenkonstruktion, Anforderungen 263-265 Stimulus 86 Strategien der Informationsgewinnung 301 Streudiagramm 439, 467, 472 Streuung - Modelle der 417 Streuungsmaße 417-424, 425 - lagetypische 418 Struktur - empirische 234 - theoretische 234 Subgruppendifferenzen 449 Summenzeichen 398 Survey-Design 96-99, 193 Syntaktik 144 T Tabelle - Besetzungszahlen 447 - bivariate 447 - Randverteilungen 448 - statistische 404 Tabellenanalyse 447-463 Tau-Koeffizient 457 Texte - als Daten 248 Theorie - Alltags- 23 - empirische 47, 163 - mittlerer Reichweite 39, 40 - und Empirie 52 - und Realität 49 - wissenschaftliche 23 Theoriegenerierung 298 Theoriehaltigkeit von Methoden 108 Theorietest 80-85 Tiefgründigkeit 246 ties 457 Transformationen - zulässige 224, 228 Transkription 248 treatment 86, 87 Triangulation 105, 384 Trichterung 360 Typenbildung 247, 488, 508 U Überprüfung - empirische 35 Unabhängigkeit - statistische 445 Untersuchung - deskriptive 66, 68, 96, 113-114, 116 - explorative 65, 68 - komparativ-statische 67 - Längsschnitt- 67 - Querschnitts- 67 - Realzeit- 68 - Zeitreihen- 67 Untersuchungsdesign 65, 70, 77 - Designtypen 99 Untersuchungseinheiten 212, 397 V Valenzanalysen 323 Validität 167, 169, 185, 186, 242, 243, 245, 375-383 - empirische 170, 185, 188 - externe 378 - Inhalts- 191 - Konstrukt- 191 - Kriteriums- 191 - semantische 170, 185, 186 Variable 194, 208, 213 - abhängige/ unabhängige 442, 443 - Definition 209, 210 - dichotomisierte 450 - diskrete 399, 401 - explikative 443, 444, 448, 459, 463, 464, 471 - intervallskalierte 438 - kontinuierliche 401 - latente 178 - manifeste 178 - metrische 210 - ordinalskalierte 438 - qualitative/ quantitative 210 Variablenkonstruktion 211 Varianz 420-423 - nicht erklärte 478 Varianzzerlegung 476 Variationskoeffizient 423 - Vorteile 424 Verfahren - interpretative 490 Vergleich - maximal/ minimal kontrastiver 298 - paarweiser 445 Vergleichgruppen 441 Vergleichkeit - Prinzip der 217 Verhaltensspuren 249 Verhältnisaussage 228 <?page no="558"?> 559 www.claudia-wild.de: Kromrey__Sozialforschung__8-9__[Druck-PDF]/ 06.09.2016/ Seite 559 Sachregister Verifikation 37, 46 Versuchskaninchen-Effekt 87 Verteilung - gemeinsame 473 - konditionale 441 siehe auch Häufigkeitsverteilung Verteilungsformen 407 Verwertungszusammenhang 70, 73, 77 Verzerrungen 189 Vierfeldertabelle 450 Vollerhebung 253 Vollständigkeit - Prinzip der 218 Vorwissen, theoretisches 108, 191 W Wahrheit - Konsenstheorie der 29 - Korrespondenztheorie der 29, 39, 42 Wahrheitskriterium 28, 39 - absolutes 29 - empirisches 28 Wahrnehmungsverzerrungen 74 Welt - der Tatsachen/ wirkliche 25 Werte - klassierte/ gruppierte 400 Wertfreiheit/ Wertneutralität 73-77 - Postulat der 29 Wertungen 74-77 - wissenschaftsexterne 76, 77 - wissenschaftsimmanente 76 Werturteile 75, 77 Werturteilsfreiheit, Postulat der 73-77 Widerlegbarkeit - prinzipielle 36 Wirklichkeit - subjektive/ objektive 30 Wirkungen - beabsichtigte 94 - nicht beabsichtigte 94 Wirkungsanalysen 94 Wirkungszurechnung 93 Wissen 510 - atheoretisches 503 - kommunikatives 503 - konjunktives 503 Wissenschaft - alternative Positionen 55-58 - analytisch-nomologische 27, 28, 30, 55 - dialektisch-materialistische 55 - empirische/ Erfahrungs- 21-31 - Erkenntnisfortschritt 52 - hermeneutisch-dialektische 55 - in der Gesellschaft 15-17 - kritisch-rationale 34-55 - qualitativ-interpretative 55 - und Alltag 21-24 - und Praxis 17-19 Wissenschaftstheorie - analytisch-nomologische 24-31 Wissenssoziologie, konstruktivistische 521 Z Zähleinheit 305, 376-377 - inhaltsanalytische 316 Zufall 278 Zufallsauswahl, siehe auch Auswahl - reine 281 - systematische 283 Zuverlässigkeit 242, 243, 378, 379 - interinstrumentelle 244 - intersubjektive 244 - intertemporale 243 - und Gültigkeit 245