Empirische Sozialforschung
Modelle und Methoden der standardisierten Datenerhebung und Datenauswertung mit Annotationen aus qualitativ-interpretativer Perspektive
1010
2016
978-3-8385-8681-6
978-3-8252-8681-1
UTB
Helmut Kromrey
Jochen Roose
Jörg Strübing
Diese Einführung in die standardisierte empirische Sozialforschung mit Annotationen aus qualitativ-interpretativer Perspektive erscheint nun grundlegend überarbeitet und didaktisch aufbereitet in der 13. Auflage.
Ausgehend von wissenschaftstheoretischen Fragen werden die Schritte des realen Forschungsprozesses detailliert und anwendungsnah behandelt. Sozialwissenschaftliche Beispiele veranschaulichen die Darstellung. Annotationen zu jedem Abschnitt erläutern Ähnlichkeiten und Unterschiede zur qualitativ-interpretativen Perspektive.
Zur Vertiefung und für praktische Detailfragen gibt es zahlreiche Verweise auf weiterführende Literatur.
Das Buch setzt keine Vorkenntnisse voraus. Es eignet sich für den Neueinstieg, aber auch für das tiefergehende Verständnis vorliegender Sozialforschung und zum Einstieg in eine eigene Erhebung und Analyse.
<?page no="1"?> www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 2 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 3 Prof. i. R. Dr. Helmut Kromrey, bis 2004 Inhaber des Lehrstuhls für Soziologie und Methodenlehre an der Freien Universität Berlin; Arbeits- und Forschungsschwerpunkte: Bildung und Beruf, Medien, Stadt, Wissenschaftstheorie und empirische Forschung, Evaluation. Prof. Dr. Jochen Roose ist Professor für Sozialwissenschaften am Willy Brandt Zentrum für Deutschland- und Europastudien der Universität Wrocław, Polen. Seine Forschungsthemen sind Partizipation, Europäisierung und Methoden der empirischen Sozialforschung. Prof. Dr. Jörg Strübing forscht und lehrt zu qualitativ-interpretativen Methoden der empirischen Sozialforschung an der Eberhard Karls Universität Tübingen. <?page no="2"?> www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 3 Helmut Kromrey, Jochen Roose, Jörg Strübing Empirische Sozialforschung Modelle und Methoden der standardisierten Datenerhebung und Datenauswertung mit Annotationen aus qualitativ-interpretativer Perspektive 13., völlig überarbeitete Auflage UVK Verlagsgesellschaft mbH · Konstanz mit UVK/ Lucius · München <?page no="3"?> www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 4 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 5 Online-Angebote oder elektronische Ausgaben sind erhältlich unter www.utb-shop.de. Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über-<http: / / dnb.ddb.de> abrufbar. Firmennamen und Softwarebezeichnungen, die in diesem Buch veröffentlicht werden, sind fast alle als eingetragene Marken geschützt. Deren Nennung bedeutet nicht, dass sie frei verwendet werden dürfen. Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. 12. Auflage: © Lucius & Lucius Verlagsgesellschaft mbH, Stuttgart 2009 (ISBN 978-3-8252-1040-3; ISBN 978-3-8282-0484-3) 13. Auflage: © UVK Verlagsgesellschaft, Konstanz und München 2016 © UVK Verlagsgesellschaft mbH, Konstanz und München 2016 Einbandgestaltung: Atelier Reichert, Stuttgart Lektorat: Marit Borcherding, München Druck: Pustet, Regensburg UVK Verlagsgesellschaft mbH Schützenstr. 24 · D-78462 Konstanz Tel.: 07531-9053-0 · Fax 07531-9053-98 www.uvk.de UTB-Band Nr. 8681 ISBN 978-3-8252-8681-1 (Print) ISBN 978-3-8463-8681-1 (EPUB) <?page no="4"?> 5 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 5 Inhalt Vorbemerkungen: Wozu „Methoden empirischer Sozialforschung“? 11 1 Empirische Sozialforschung und empirische Theorie 15 1.1 Zur Situation empirischer Sozialwissenschaft 15 1.1.1 Funktion von Wissenschaft in der Gesellschaft 15 1.1.2 Zum Verhältnis von Wissenschaft und Praxis 17 1.1.3 Zum Verhältnis von Grundlagenforschung und anwendungsorientierter Forschung 19 1.1.4 Zum Verhältnis von „wissenschaftlicher Erfahrung“ und Alltagserfahrung 21 1.2 Grundpositionen der Erfahrungswissenschaft 24 1.2.1 Annahme der Existenz einer „tatsächlichen Welt“ 24 1.2.2 Ordnung, Struktur, Gesetzmäßigkeiten 25 1.2.3 Empirische Erfahrung als Grundlage des Wissens 28 1.2.4 Ein Missverständnis: standardisiert =-quantitativ 31 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ 34 1.3.1 Begriffsklärung 34 1.3.2 Einige Prinzipien der empirischen Forschungsmethode in der Version des „Kritischen Rationalismus“ 35 1.3.3 Probleme und Dilemmata bei der Suche nach empirischen-„Gesetzen“ 40 1.3.4 Hypothesen und Theorien 46 1.3.5 Empirische Theorie und Realität 49 1.3.6 Hypothesentest und Theorieentwicklung im Wechselspiel von-Theorie-Empirie-Theorie. Ein Beispiel 52 1.4 Empirische Verfahren und alternative Wissenschaftspositionen 55 1.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 58 1.5.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 64 2 Forschungsfragen, Forschungsdesign, Forschungsprozess 65 2.1 Fragestellungen und Forschungsansätze: Einige Beispiele 65 2.2 Der Forschungsprozess als eine Reihe ineinander verzahnter Entscheidungen 69 2.3 Entdeckungs-, Begründungs- und Verwertungszusammenhang: Das-Problem der Wertungen in der empirischen Forschung 73 2.4 Forschungsplanung und Forschungsdesign 77 <?page no="5"?> 6 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 6 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 7 Inhalt 2.4.1 Das Modell wissenschaftlicher Erklärung von Hempel und Oppenheim 78 2.4.2 Das Design hypothesen- und theorietestender Forschung 80 2.4.3 Experiment und Quasi-Experimente 85 2.4.4 Das Evaluationsdesign der Programmforschung 91 2.4.5 Das deskriptive Survey-Modell: Querschnittserhebung nicht-experimenteller Daten 96 2.4.6 Spezielle Untersuchungsanordnungen 99 2.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 107 2.5.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 111 3 Die empirische „Übersetzung“ des-Forschungsproblems 113 3.1 Problempräzisierung und Strukturierung des Untersuchungsgegenstandes: dimensionale und semantische Analyse 113 3.2 Dimensionale Analyse 119 3.2.1 Vorgehen bei einer dimensionalen Analyse 119 3.2.2 Beispiel einer dimensionalen Analyse: Berufserfolg- und-soziale-Herkunft 122 3.3 Semantische Analyse 131 3.3.1 Vorgehen bei einer semantischen Analyse 131 3.3.2 Drei Beispiele für semantische Analysen 134 3.4 Zusammenfassung: Semantische Analyse und dimensionale Analyse im Vergleich 141 3.5 Begriffe und Definitionen 144 3.5.1 Nominaldefinition 1: Voraussetzungen 148 3.5.2 Begriffe und Begriffsarten: Funktionen, theoretischer und-empirischer Bezug von Begriffen 149 3.5.3 Nominaldefinition 2: Eigenschaften 153 3.5.4 Realdefinitionen 157 3.6 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 160 3.6.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 162 4 Strategien der Operationalisierung und Indikatorenauswahl 163 4.1 Indikatoren 163 4.2 Indexbildung 170 4.3 Operationalisierung 176 4.3.1 Der Vorgang der Operationalisierung von Begriffen und-von-Aussagen 177 4.3.2 Gültigkeit-- ein „Gütekriterium“ für die Operationalisierung 185 <?page no="6"?> 7 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 7 Inhalt 4.4 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 191 4.4.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 192 5 Messung und Datenerhebung in-den-Sozialwissenschaften 193 5.1 Die Informationsgewinnung im Prozess der-empirischen- Forschung 193 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen 195 5.2.1 Statistik als Modelldenken 195 5.2.2 Ist Soziales „quantifizierbar“? 198 5.2.3 Statistik und Individualität 200 5.3 Variablenbildung-- Messen-- Datenmatrix 202 5.3.1 Grundlagen: Messen als strukturtreue Abbildung und Messniveaus 202 5.3.2 Variablenkonstruktion 208 5.3.3 Die Datenmatrix; Prinzipien der Datensammlung 211 5.4 Vertiefung: Die axiomatische Messtheorie 219 5.4.1 Grundbegriffe 219 5.4.2 Die Messskala 222 5.4.3 Messniveaus/ Skalentypen 225 5.4.4 Skalentypen und zulässige Aussagen; empirisch sinnvolle/ sinnlose Statistik 228 5.5 Messen durch Indizes (Indexmessung) 230 5.6 Der sozialwissenschaftliche Spezialfall: Messen durch Befragung 240 5.7 Zuverlässigkeit (Reliabilität) der Messung 242 5.8 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 246 5.8.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 251 6 Auswahlverfahren 253 6.1 Zentrale Begriffe: Grundgesamtheit, Auswahl-, Erhebungsund-Untersuchungseinheiten 255 6.2 Anforderungen an die Stichprobenkonstruktion 263 6.3 Typen von Auswahlverfahren (Überblick) 265 6.4 Nicht zufallsgesteuerte Auswahlverfahren 266 6.4.1 Willkürliche Auswahl 266 6.4.2 Bewusste Auswahlen 268 6.4.3 Quoten-Auswahl (quota-sample) 271 6.5 Zufallsgesteuerte Auswahlverfahren 278 6.5.1 Verfahren zur Erstellung einfacher Zufallsauswahlen 281 6.5.2 Verfahren zur Erstellung komplexer Zufallsauswahlen 286 6.5.3 Random-Route-Verfahren (Zufallsweg) 291 <?page no="7"?> 8 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 8 Inhalt 6.6 Zusammenfassung: Vor- und Nachteile der-verschiedenen Auswahlverfahren 294 6.7 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 297 6.7.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 299 7 Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung 301 7.1 Empirische Inhaltsanalyse 302 7.1.1 Das (vereinfachte) Modell sozialer Kommunikation 306 7.1.2 Die Entwicklung des inhaltsanalytischen Kategoriensystems 309 7.1.3 Anforderungen an das Kategoriensystem 315 7.1.4 Phasen der Inhaltsanalyse 317 7.1.5 Verschiedene inhaltsanalytische Ansätze 322 7.2 Beobachtung 325 7.2.1 Arten der Beobachtung 327 7.2.2 Anwendungsprobleme bei der systematischen Beobachtung 329 7.3 Befragung 335 7.3.1 Eigenschaften der Interview-Situation 338 7.3.2 Nochmals: Das Modell sozialer Kommunikation (erweitert) 340 7.3.3 Die Lehre von der Frage und vom Fragebogen 346 7.3.4 Befragung als Messvorgang 367 7.3.5 Beispiel für einen Fragebogen (mündliches Einzelinterview) 369 7.4 Vergleich der Erhebungsverfahren Inhaltsanalyse, Beobachtung, Befragung 371 7.4.1 Besonderheiten und Ähnlichkeiten: Die Inhaltsanalyse als-Basismodell 371 7.4.2 Zuverlässigkeit, Gültigkeit, Repräsentativität 375 7.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 383 7.5.1 Interviews 384 7.5.2 Ethnografie und Beobachtung 386 7.5.3 Inhaltsanalyse 389 7.5.4 Weiterführende Literatur zur qualitativ-interpretativen Methodologie 389 8 Methoden und Modelle der deskriptiven Statistik 391 8.1 Einige zentrale Begriffe 394 8.2 Univariate Statistik 399 8.2.1 Häufigkeitsverteilungen 399 8.2.2 Die Darstellung von Häufigkeitsverteilungen 404 <?page no="8"?> 9 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 8 www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 9 Inhalt 8.2.3 Maße der zentralen Tendenz einer Verteilung (Mittelwerte) 408 8.2.4 Streuungsmaße 417 8.2.5 Messung der Konzentration einer Verteilung 424 8.3 Bivariate Statistik 436 8.3.1 Modelle zur Messung der „statistischen Beziehung“ zwischen-Variablen 440 8.3.2 Tabellenanalyse 447 8.3.3 Lineare Einfachregression 463 8.3.4 Korrelationsrechnung 471 8.4 Weiterführende Analyseverfahren und Software 483 8.4.1 Weitere Analyseverfahren im kurzen Überblick 483 8.4.2 Analysesoftware 486 8.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden 488 9 Typische Forschungsstile qualitativ-interpretativer Sozialforschung-- Eine Übersicht 491 9.1 Grounded Theory 491 9.1.1 Vorgehen der Grounded Theory 494 9.1.2 Literatur zur Grounded Theory 498 9.2 Objektive Hermeneutik 498 9.2.1 Vorgehen der objektiven Hermeneutik 500 9.2.2 Literatur zur objektiven Hermeneutik 502 9.3 Dokumentarische Methode 502 9.3.1 Vorgehen der dokumentarischen Methode 506 9.3.2 Literatur zur dokumentarischen Methode 509 9.4 Ethnomethodologische Konversationsanalyse 509 9.4.1 Vorgehen der ethnomethodologischen Konversationsanalyse 512 9.4.2 Literatur zur ethnomethodologischen Konversationsanalyse 514 9.5 Narrationsanalyse und Biografieforschung 515 9.5.1 Vorgehen der Narrationsanalyse und Biografieforschung 517 9.5.2 Literatur zur Narrationsanalyse und Biografieforschung 519 9.6 Diskursanalyse 519 9.6.1 Vorgehen der Diskursanalyse 521 9.6.2 Literatur zur Diskursanalyse 524 Literaturverzeichnis 525 Sachregister 553 <?page no="9"?> www.claudia-wild.de: Kromrey__Sozialforschung__Titelei__[Druck-PDF]/ 06.09.2016/ Seite 10 <?page no="10"?> 11 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 11 Vorbemerkungen: Wozu „Methoden empirischer Sozialforschung“? Ergebnisse empirischer Sozialforschung prägen unseren Alltag. Wir begegnen ihnen tagtäglich: in der Presse, in Rundfunk und Fernsehen-- sowohl direkt (vor und nach Wahlen, als Werte aus demoskopischen Umfragen wie dem „Politbarometer“) als auch indirekt (etwa als Resultate von Marktforschungen). Auch die Politik ist nicht unerheblich von der Demoskopie abhängig: Keine Partei, kein Politiker, kein Parlament wird über politische Streitfragen entscheiden, ohne zuvor die Meinungen „seiner“ Wählerschaft erkunden zu lassen. Und wer selbst politisch oder sozial aktiv ist- - in Vereinen, Verbänden oder Parteien, als Mitglied eines kommunalen Ausschusses oder Beirats, als Betroffene in einer Bürgerinitiative--, hat sich des Öfteren mit Gutachten und mit Informationen aus empirischen Erhebungen auseinanderzusetzen. Wer sich dabei nicht lediglich auf seinen Glauben verlassen will, tut gut daran, sich einen Überblick darüber zu verschaffen, was empirische Sozialforschung leisten kann-- aber auch: wo ihre Grenzen liegen. Das gilt erst recht für Studierende der Sozialwissenschaften. Alle Sozialwissenschaften verstehen sich als empirische Disziplinen; sie verfahren bei der Gewinnung ihrer Aussagen im Wesentlichen nach der gleichen Forschungslogik und bedienen sich der Instrumente aus dem gleichen Werkzeugkasten. Wie dies geschieht und wie die Geltung der gewonnenen wissenschaftlichen Aussagen begründet und geprüft wird, das gehört zu den selbstverständlichen Basiskenntnissen, die sich jede und jeder Studierende anzueignen hat, wenn sie oder er das gewählte Fach als Wissenschaft erleben und nicht lediglich als Glaubenslehre konsumieren will. Dabei gilt es allerdings, zunächst ein leider weit verbreitetes Vorurteil zu überwinden, das sich für den Neuling als größtes Lernhemmnis erweisen kann: dass nämlich der damit angesprochene Wissensbereich schwierig und unangenehm, trocken und langweilig sei. Dem sei hier entgegengestellt: Für ein eigenständiges Studieren ist es nicht nur unabdingbar, sich mit den Grundlagen des Gewinnens wissenschaftlicher Erkenntnis, mit den Ansätzen und Strategien zur Erforschung der sozialen Wirklichkeit, mit den Regeln empirisch fundierter Argumentation und rationaler Kritik, mit den jeweils unterschiedlichen Möglichkeiten und Reichweiten, aber auch Fallstricken der verfügbaren Methoden der Informationsgewinnung zu befassen. Mehr noch: Es kann auch außerordentlich faszinierend sein! Das vorliegende Lehrbuch will Grundlagenkenntnisse über die verbreiteten Strategien und Methoden empirischer Datenbeschaffung und Datenauswertung vermitteln, die in den verschiedensten Feldern beruflicher Praxis ebenso wie in unterschiedlichsten Studiengängen an Fachhochschulen, Pädagogischen Hochschulen, Akademien und Universitäten gefragt sind. Rein fachwissenschaftlich aufgebaute Überblickswerke bieten insbesondere der und dem mit erfahrungswissenschaftli- <?page no="11"?> 12 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 12 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 13 Vorbemerkungen: Wozu „Methoden empirischer Sozialforschung“? chem Denken wenig Vertrauten häufig nur schwer Zugang zum Stoff. Das Voraussetzen von Vorkenntnissen erweist sich dabei ebenso als hinderlich wie eine von der Forschungspraxis losgelöste Darstellung oder die vorherrschende konzeptionelle Trennung in Grundlagen der Erkenntnistheorie, Verfahren der Datenerhebung (Methodenlehre) und Verfahren der Auswertung (Statistik und Datenverarbeitung). Der vorliegende Text setzt hingegen keine Vorkenntnisse voraus. Er ist vor allem für einen Personenkreis geschrieben, der sich in den Problemkreis neu einarbeiten will, also etwa für Studierende am Anfang eines Studiums der Sozialwissenschaften, für Teilnehmer projektorientierter Studiengänge sowie für Personen außerhalb der Hochschulen, die sich einen Überblick über Vorgehensweisen und Probleme empirischer Wissenschaft verschaffen möchten. Wegen seiner Orientierung an ebendiesem Personenkreis knüpft der Text so weit wie möglich zunächst am alltäglichen Sprachgebrauch an, bevor dann schrittweise die Fachterminologie eingeführt wird. Eine gewisse Redundanz ist dabei nicht zu vermeiden, ist sogar im Interesse des leichteren „Hineinfindens“ durchaus gewollt. Aus didaktischen Erwägungen ist das Gliederungsprinzip nicht eine methodologisch-wissenschaftliche Systematik, sondern der Ablauf eines realen Forschungsprozesses. Aufbauend auf Erfahrungen mit unterschiedlichen Lehrveranstaltungsformen und aus Forschungsarbeiten wird angestrebt, im Text in zweifacher Hinsicht Inhalte miteinander zu verbinden, die man ansonsten meist getrennt dargeboten findet: Zum einen handelt das Buch grundlegende wissenschaftstheoretische und methodologische Aussagen gemeinsam mit Problemen der Forschungspraxis ab. Zum anderen werden Techniken der Datenerhebung in Verknüpfung mit Methoden der Datenauswertung dargestellt. Allerdings bleibt das Feld der Auswertung und Analyse, um den Umfang in Grenzen zu halten, auf Prinzipien der Datenaufbereitung und auf Modelle der deskriptiven Statistik beschränkt. Die Darstellung legt Wert darauf, nicht auf abstraktem Niveau stehen zu bleiben, sondern jeweils praktische Beispiele einzubeziehen. Obwohl methodologische und mathematisch-statistische Vorkenntnisse nicht vorausgesetzt werden, und obwohl der zur Verfügung stehende Platz angesichts der Fülle des abzuhandelnden Stoffs sehr eng ist, versuchen die Autoren, Verständlichkeit nicht um den Preis der Oberflächlichkeit zu erzielen. So findet der interessierte Leser in den Fußnoten zahlreiche weiterführende Hinweise zum vertiefenden Studium. Obwohl durchgängig an der Zielgruppe „Anfängerin und Anfänger“ orientiert, ist das Lehrbuch dadurch auch für „Fortgeschrittene“ von Nutzen. Trotz aller von Auflage zu Auflage eingefügten Ergänzungen verbleibt als nicht ausräumbarer „Mangel“ die Selektivität des dargestellten Stoffes, die notwendige Beschränkung auf ausgewählte Modelle und Verfahren. Um nicht eine-- gerade für Anfänger verwirrende und undurchschaubare-- Fülle sich teilweise widersprechender methodologischer Positionen darstellen und gegeneinander abgrenzen zu müssen, werden jeweils nur einige Ansätze exemplarisch abgehandelt. Dies gilt insbesondere für die Ausrichtung an der wissenschaftstheoretischen Position des Kritischen Rationalismus. Dies ist weniger eine programmatische als eine didaktische Entscheidung: Die gängigen Methoden empirischer, standardisiert verfahrender Sozialforschung <?page no="12"?> 13 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 13 Vorbemerkungen: Wozu „Methoden empirischer Sozialforschung“? sowie deren theoretische Begründungen und Anwendungsregeln sind von Vertretern dieser Richtung der Erfahrungswissenschaft entwickelt worden. Ein Verständnis der konkreteren Vorgehensweisen und eine Einschätzung ihrer Gültigkeit und Reichweite sind erst mit einigen grundlegenden Kenntnissen dieser Wissenschaftstheorie möglich. Eine Einschätzung der Qualität sozialwissenschaftlicher Forschung und die vielfältigen Ermessensentscheidungen bei ihrer Durchführung lassen sich ohne eine wissenschaftstheoretische Fundierung nicht kompetent leisten. Obwohl bisher ohne weitere Differenzierung von „der empirischen Sozialforschung“ die Rede war, geht damit keinesfalls der Anspruch einher, in diesem Buch die empirische Sozialforschung in ihrer Gesamtheit darzustellen. Vielmehr konzentriert sich der Text auf das Vorgehen der standardisiert verfahrenden-- häufig irreführend als „quantitativ“ bezeichneten 1 - - Sozialforschung. Dem möglichen Eindruck, es handle sich dabei um die einzige oder gar die einzig „richtige“ Vorgehensweise, wollen wir nicht nur in dieser Vorbemerkung entgegenwirken. Auch wenn ein methodenintegriertes Lehrbuch, das alle Richtungen umfasst, zu kompliziert (und zu dick) würde, will das Buch die alternativen Sichtweisen und Argumente der qualitativ-interpretativen Richtung mitführen. Deshalb ist jedes Kapitel um teils kurze, teils ausführlichere Kommentare („Annotationen“) ergänzt, die das jeweilige Thema aus qualitativ-interpretativer Perspektive skizzieren. In diesen Kommentaren werden einerseits die wichtigsten Unterschiede zu der im Haupttext dominierenden Perspektive einer kritisch-rationalistisch orientierten, standardisierten Sozialforschung markiert, zugleich aber auch Berührungspunkte zwischen den verschiedenen Perspektiven deutlich gemacht. Da „qualitativ-interpretativ“ in der Geschichte methodenwissenschaftlicher Diskurse eher als eine Residualkategorie (vgl. Hollstein &-Ullrich 2003) aller nicht standardisiert verfahrenden und im Wesentlichen auf Quantifizierungen verzichtenden Sozialforschung entstanden ist, verwundert es wenig, dass sich unter diesem Label eine Vielzahl von Verfahren wiederfindet. Diese unterscheiden sich zum Teil deutlich voneinander, nicht nur in den methodischen Vorgehensweisen, sondern-- wichtiger noch-- in den grundlegenden erkenntnis- und wissenschaftstheoretischen, aber auch in den sozialtheoretischen Orientierungen. Diese Differenzierungen werden in den Annotationen aus qualitativ-interpretativer Sicht markiert, wenn sie auch im Rahmen dieser kurzen Textabschnitte nicht im Detail präsentiert werden können. Das abschließende Kapitel 9 gibt dann einen Überblick über die Vorgehensweise verschiedener qualitativ-interpretativer Forschungsperspektiven. Mit diesen Anmerkungen möchten wir deutlich machen, dass „die eine“ richtige Methode der Erkenntnisgewinnung nicht existiert. So einfach ist es (leider) nicht, und ein kompetenter Umgang mit sozialwissenschaftlicher Forschung-- in der Lektüre oder in eigener Forschung-- erfordert ein stetes Abwägen von Voraussetzungen und möglichen Alternativen. Universell einsetzbare Patentrezepte kann und will dieses Lehrbuch nicht bieten. Stattdessen will es Sie in eine spannende Welt methodi- 1 Dazu mehr im Abschnitt 1.2.4. <?page no="13"?> 14 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 14 Vorbemerkungen: Wozu „Methoden empirischer Sozialforschung“? scher und methodologischer Gedanken und Überlegungen einladen, die unsere Sicht auf die Welt nachhaltig mit prägen. In seiner 13. Auflage erscheint das Lehrbuch in neuem Gewand. Der Verlagswechsel zu UVK geht mit zwei größeren Änderungen einher. Zum einen haben wir das Erscheinungsbild des Buches geändert. Das etwas größere Format und die erweiterten Möglichkeiten der Drucktechnik erlauben ein ansprechenderes Schriftbild. Zum anderen bearbeiten nun drei Autoren dieses Buch. Geblieben ist der Versuch einer Darstellung sozialwissenschaftlicher empirischer Methoden, die den Zugang so einfach wie möglich macht, aber dennoch nicht in unangemessene Vereinfachungen verfällt. Berlin / Wrocław / Tübingen, im September 2016 Helmut Kromrey / Jochen Roose / Jörg Strübing <?page no="14"?> 15 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 15 1 Empirische Sozialforschung und empirische Theorie 1.1 Zur Situation empirischer Sozialwissenschaft 1.1.1 Funktion von Wissenschaft in der Gesellschaft Während des überwiegenden Teils der Menschheitsgeschichte bis weit in die neuere Geschichte hinein existierte das, was wir heute im Alltag unter „Wissenschaft“ verstehen, noch überhaupt nicht. Allenfalls gab es im Bereich des Handwerklichen, des Ackerbaus, der Schifffahrt und vor allem der Waffentechnik Erfahrungen, die im praktischen Umgang mit der Welt gewonnen und die dann von Generation zu Generation als Handlungswissen (teilweise als Geheimwissen) weitergegeben wurden. Eine ausdrückliche Definition von „Sozial“wissenschaft gar kennen wir erst seit kurzem. „Wissenschaft“ war quasi selbstverständlich Naturwissenschaft. Der Umgang mit dem Wort dagegen war eine „Lehre“; und denjenigen, der sich damit beschäftigte, nannte man einen „Gelehrten“. Der Begriff Soziologie geht auf den französischen Philosophen Auguste Comte (1798-1857) zurück. Ursprünglich hatte er von physique sociale gesprochen. Sie sollte nach dem Vorbild der positiven-- d. h. empirische Fakten feststellenden und erklärenden-- Naturwissenschaften die gesellschaftlichen Erscheinungen studieren und ihre Gesetze aufzeigen. Mit dem Schwinden der Bedeutung verbindlicher Zielvorgaben, wie sie bis dahin Religion und Tradition bereitstellten, waren auch zentrale Orientierungs- und Legitimationsgrundlagen für menschliches Handeln verloren gegangen. Die entstehende Lücke sollte nun- - nach der Vorstellung von Auguste Comte- - die Wissenschaft ausfüllen. Als konzeptuelle Basis dafür bot er (ohne Selbstbescheidung) seine Hauptwerke Cours de philosophie positive und Système de politique positive an. 2 Auguste Comte postulierte für die Entwicklung jeder historischen Gesellschaft wie auch für die gesamte Menschheitsgeschichte ein sogenanntes Dreistadiengesetz. Danach durchlaufen sowohl die individuellen Erkenntnisfähigkeiten als auch die Wissenschaften und die Zivilisation „notwendigerweise und unumkehrbar drei Entwicklungsstadien zunehmender Aussonderung und Konkretisierung“ (Lexikon zur Soziologie, 1978, 169; s. auch zusammenfassend Abels 2004, 365 ff.), und zwar ein theologisch-fiktives, ein metaphysisch-abstraktes und ein positiv-reales Stadium: - Im theologisch-fiktiven Stadium deuten- - so meinte Comte- - die Menschen die Natur durch die Annahme der Existenz willensbegabter Wesen (Geister, Götter), welche die rätselhaften Naturvorgänge von innen her bewirken. In einer solchen 2 Eine interessante Skizze des Lebens dieser schillernden Persönlichkeit findet sich bei Lepenies (1998). Entstehung der-Soziologie <?page no="15"?> 16 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 16 Gesellschaft bekleiden dementsprechend Priester und Theologen die Machtpositionen. - In der mittleren Epoche, dem metaphysisch-abstrakten Stadium, wird die Naturerklärung mittels personenähnlicher Wesen durch abstrakte „Wesensbegriffe“ wie Substanz, Äther ersetzt. Die Theologen müssen ihre gesellschaftlich führende Stellung an die Vertreter einer metaphysisch-abstrakten Philosophie abgeben. Auch die wirtschaftlichen und politischen Beziehungen unterliegen zunehmend abstrakten Regeln. - Im positiv-realen Stadium schließlich wird die Natur durch die Aufdeckung gesetzmäßiger Zusammenhänge auf der Grundlage empirischer Forschungen wissenschaftlich erklärt. Abstrakt-willkürliche Regelungen der wirtschaftlichen und gesellschaftlichen Beziehungen sollen durch eine auf Fachwissen und Berufserfahrung beruhende Lenkung der politischen, ökonomischen und gesellschaftlichen Zusammenhänge ersetzt werden. Alle Entscheidungen sollen aus dem Bereich des Willkürlichen herausgenommen und auf der Basis wissenschaftlicher Erkenntnisse getroffen werden. Die Aufgabe einer „positiven“ Wissenschaft ist es dann (nach Comte), den Maßstab für die Erkenntnis zu liefern, was gut und was richtig ist. Diese Zukunftsperspektive aus dem vorigen Jahrhundert und die damit verbundene Aufgabenzuschreibung an die Wissenschaft (genauer: an eine empirisch fundierte, nicht-subjektivistische, „positive“, kurz: eine „Erfahrungswissenschaft“) haben bis in die jüngste Zeit nachgewirkt. Die Ausweitung des Zuständigkeitsbereichs der Wissenschaften---vor allem des Feldes der Sozialwissenschaften-- in den letzten Jahrzehnten des 20.-Jahrhunderts ist zumindest teilweise so zu erklären. 3 Man erhoffte sich von ihr sowohl Hilfen zur Orientierung bei politischen Entscheidungen (wissenschaftliche Beratung der Politik, sozialwissenschaftliche Begleitung und empirische Evaluation politischer Programme) als auch eine sichere Basis zur Rechtfertigung gesellschaftlichen Handelns. Die Wissenschaft sollte auf der Grundlage empirischer Daten unbestreitbare, handlungsleitende Erkenntnisse bereitstellen, sollte den Prozess politischer Entscheidungen aus dem Zwielicht undurchschaubarer Mehrheits- und Machtkonstellationen herausführen und zur Entscheidungsfindung auf der Basis „objektiver“ Daten beitragen. 4 Die Wissenschaft sollte aber nicht nur „objektive Daten“ liefern, also nicht nur herausfinden, was ist, sondern auch, was sein soll. Der Streit um Werte und ihre wissenschaftliche Begründbarkeit 5 ist zwar mittlerweile abgeklungen, nicht aber mit einem eindeutigen Ergebnis zu den wissenschaftsgeschichtlichen Akten gelegt worden. 3 Zur Geschichte der Sozialforschung vgl. Weischer (2004). 4 So lautete eine gängige Begründung für Forderungen nach Schaffung von Systemen sozialer Indikatoren und Entwicklung von wissenschaftlich begründeten Planungs- und Entscheidungssystemen in der Phase der Planungseuphorie in den 1970er-Jahren (vgl. Werner 1975). 5 Vgl. die Dokumentation der Auseinandersetzung insbesondere zwischen Kritischem Rationalismus und der dialektisch-kritischen Richtung der Frankfurter Schule (Adorno 1969 sowie Albert/ Topitsch 1971). Erwartung an Sozialwissenschaften <?page no="16"?> 17 1.1 Zur Situation empirischer Sozialwissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 17 Die mit den oben skizzierten großen Hoffnungen einhergehende Wissenschaftsgläubigkeit ist zumindest im Bereich der Sozialwissenschaften-- aber auch im naturwissenschaftlichen Bereich- - zunehmend einer Ernüchterung gewichen. Wissenschaft wird weitgehend nicht mehr als die Institution gesehen, die letzte, endgültige Wahrheiten bereitstellt. Eine solche skeptische Haltung wird von der diesem Buch zugrunde gelegten wissenschaftstheoretischen Position des Kritischen Rationalismus nicht nur hingenommen, sondern steht ausdrücklich im Einklang mit ihrer Grundauffassung. Danach ist es gerade ein wesentliches Merkmal wissenschaftlichen Wissens, dass es sich immer wieder aufs Neue zu bewähren hat, dass es immer wieder in Zweifel gezogen, immer wieder erneut getestet und in neuen Zusammenhängen überprüft werden muss. Empirische Wissenschaft soll nicht „Glaubenssicherheit“ vermitteln, sondern die Welt-- so wie sie ist-- beschreiben und erklären, soll die Augen für den kritischen Blick auf die Realität öffnen. 1.1.2 Zum Verhältnis von Wissenschaft und Praxis Die Beschränkung der empirischen Wissenschaft auf beschreibende und erklärende Aussagen sowie der Verzicht auf den Versuch, wertende Handlungsanweisungen wissenschaftlich zu begründen, muss jedoch kein Nachteil sein. Wenn eine Erfahrungswissenschaft auch nicht begründen kann, was sein soll, so besteht doch in komplexen Industriegesellschaften ein zunehmender Bedarf an wissenschaftlich abgesicherten beschreibenden und erklärenden Aussagen darüber, was ist, wie die Dinge zusammenhängen, welche Folgen bestimmte Handlungen und politische Programme haben können. Bedarf an sozialwissenschaftlichen Daten besteht in vielfältigen gesellschaftlichen Bereichen, die hier nur mit einigen Stichworten angedeutet seien: Ursachen sozialer Ungleichheit, psychosoziale Folgen von Langzeitarbeitslosigkeit, Integration von Migranten, Prozesse gesellschaftlichen Wandels, Technikfolgenabschätzung etc. Zunehmend wird das technologisch Machbare nicht mehr als etwas angesehen, das notwendigerweise realisiert werden muss; zunehmend wird gefordert, das Machbare zunächst an psychischen, sozialen und gesellschaftlichen Erfordernissen und Konsequenzen zu messen. Hierbei aber ist wieder die Sozialwissenschaft gefragt, und zwar nicht als Begründer von Zielen, sondern als Produzent praxisrelevanter sozialwissenschaftlicher Forschungsresultate. Doch auch in dieser eingeschränkten Funktion hat die Sozialwissenschaft Schwierigkeiten, mit der sozialen Praxis zusammenzukommen. So wird immer wieder neu diskutiert, wie denn praxisrelevante, d. h. anwendungsorientierte Sozialforschung auszusehen habe. Der Vorwurf von Praktikern an die Sozialwissenschaft lautet häufig, sie produziere entweder Banalitäten, die jeder Praktiker ohnehin schon lange wisse, oder die Ergebnisse seien völlig praxisfern. In dieser Hinsicht haben es die Sozialwissenschaften im Vergleich zu den Naturwissenschaften heute besonders schwer. Eine Wissenschaft, die sich mit dem Erleben und dem Verhalten von Menschen beschäftigt, betritt ja kein Neuland; sie tritt in Zweifel und Kritik in-der Wissenschaft Bedarf an wissenschaftlichem Wissen <?page no="17"?> 18 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 18 Konkurrenz zu vorhandenem Alltagswissen, zu bereits vorhandener Alltagserfahrung. Das in der Menschheitsgeschichte in Jahrtausenden angesammelte Wissen ebenso wie das in der Entwicklungsgeschichte jedes Individuums-- in seinem ganzen bisherigen Leben- - kumulierte Alltagswissen zeichnen sich gerade durch einen hohen Grad an praktischer Bewährung im Alltag aus: Was sich da an Wissen und Erfahrung angesammelt hat, muss zwar nicht unbedingt richtig sein (im Sinne von exakter Übereinstimmung mit der Realität), aber es „funktioniert“, d. h. es hat sich in der Bewältigung von Alltagsaufgaben als hilfreich erwiesen. Sofern nun die Sozialwissenschaft Ergebnisse liefert, die mit diesem „funktionierenden“ Alltagswissen übereinstimmen, lautet die verständliche Reaktion: „Das ist doch trivial; das wissen wir schon längst. Wozu muss man mit großem Aufwand Daten erheben und auswerten, wenn schließlich nur Selbstverständliches herauskommt? “ Sobald dagegen die Sozialwissenschaft Ergebnisse produziert, die besagen, dass das bisher bewährte Alltagswissen eigentlich nicht stimmt, dass seine Anwendung nur unter ganz bestimmten Bedingungen „funktioniert“, herrscht große Skepsis, wenn nicht gar Ablehnung gegenüber solchen Forschungsergebnissen. Im ersten Fall-- Alltagswissen und wissenschaftliche Erkenntnisse stimmen überein-- werden die Forschungsbefunde allenfalls dann begrüßt, wenn bereits getroffene Entscheidungen auf diese Weise zusätzlich legitimiert und „wissenschaftlich abgesichert“ werden können. Im zweiten Fall-- Alltagswissen und wissenschaftliche Erkenntnisse stimmen nicht überein-- haben die Forschungsbefunde vor allem dann eine Chance, akzeptiert zu werden (ja, sie werden sogar dringend gefordert), wenn bisher bewährtes Alltagswissen unter geänderten Rahmenbedingungen nicht mehr „funktioniert“, wenn die bisherige gesellschaftliche Praxis in eine Krise geraten ist. Schließlich kann noch ein dritter Fall eintreten: Wissenschaftliche Befunde werden zu einem Bereich vorgelegt, über den bisher noch kein oder nur wenig Alltagswissen existiert. Falls sich solche Forschungsergebnisse dennoch auf einen-- im Sinne der Alltagserfahrung-- wichtigen Gegenstandsbereich beziehen, trifft das gleiche zu wie im zweiten Fall: Die Befunde werden gern aufgegriffen, soweit sie nicht mit wesentlichen Wertvorstellungen des Adressaten in Widerspruch stehen. Betreffen sie dagegen einen-- im Sinne der Alltagserfahrung-- unwichtigen Gegenstandsbereich, werden sie als unnütze Forschung (als „Wissenschaft im Elfenbeinturm“) abgetan. Wer also sozialwissenschaftliche Forschung in der Hoffnung betreibt, allein durch die Resultate einiges in Bewegung zu bringen, wird mit großer Wahrscheinlichkeit enttäuscht werden. Nach dem oben Geschilderten ist es denn auch kein Zufall, wenn es für die Themen sozialwissenschaftlicher Forschung ähnliche „Konjunkturen“ gibt wie in der politischen Auseinandersetzung. Vor allem Forschung über Sachverhalte, die im politischen Raum als „problematisch“, d. h. als lösungsbedürftig angesehen werden, hat eine unmittelbare Chance sowohl auf die Bewilligung von Forschungsgeldern als auch darauf, dass ihre Ergebnisse zur Kenntnis genommen werden. Verständlicherweise greifen daher Sozialwissenschaftler mit Vorliebe solche Sachverhalte auf, für die sie erstens eine Chance sehen, Forschungsmittel bewilligt zu bekommen, Konkurrenz zu Alltagswissen Akzeptanz von wissenschaftlichen Ergebnissen Konjunkturen von wissenschaftlichem Interesse <?page no="18"?> 19 1.1 Zur Situation empirischer Sozialwissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 19 und bei denen sie zweitens nicht die enttäuschende Erfahrung machen, dass die Ergebnisse ihrer Arbeit auf wenig Akzeptanz treffen. Die geschilderte Problemlage unterscheidet die Sozialwissenschaften von der gegenwärtigen Situation der Naturwissenschaften: Bezüglich der zu behandelnden sozialwissenschaftlichen Fragen und Probleme liegt Alltagswissen vor. Zu Fragen (beispielsweise) der Erziehung von Kindern, der Zugangsmöglichkeiten zu weiterführender Bildung, zum innerbetrieblichen Arbeitsklima, zu den sozialpolitischen Konsequenzen von Arbeitslosigkeit oder ungleicher Einkommensverteilung etc. hat jeder von uns seine eigene Anschauung. Das Vorliegen solchen Alltagswissens ist häufig sogar die Voraussetzung dafür, dass ein Problem als sozialwissenschaftlich relevant beurteilt wird. Die Forschungsfelder der Naturwissenschaften dagegen entfernen sich zunehmend von den Möglichkeiten alltäglicher Anschauung: Neue Ergebnisse etwa über die Entdeckung eines bisher unbekannten Bestandteils des Atomkerns oder der Supraleitfähigkeit von Materialien entziehen sich der alltäglichen Lebenserfahrung. Sie können beim naturwissenschaftlichen Laien nicht in Konkurrenz zum bisher Erlebten treten. Zwar wird in jüngerer Zeit auch im technologischen Bereich Kritik laut, etwa an der Energiegewinnung mittels Kernspaltung (Atomkraftwerke), am Gefährdungspotenzial chemischer Produkte, an der Gentechnik. Hierbei handelt es sich jedoch um Kritik, die sich nicht gegen die Richtigkeit oder die vermutete Trivialität der wissenschaftlichen Aussagen wendet, sondern gegen die beobachteten oder befürchteten Konsequenzen der praktischen Anwendung besagter wissenschaftlicher Erkenntnisse. In den Sozialwissenschaften setzt die Kritik aber nicht erst bei bestimmten Formen der Anwendung ihrer Befunde ein (etwa bei didaktischen Umsetzungen empirisch gestützter, lerntheoretischer Annahmen in Lernsoftware oder Online-Teaching). Die Kritik richtet sich vielmehr bereits gegen die Aussagen selbst. Dies ist allerdings kein spezifisch sozialwissenschaftliches Schicksal, sondern damit sahen sich in früheren Zeiten auch die Naturwissenschaften konfrontiert. Naturwissenschaftliche Erkenntnisse wie „Die Erde ist eine Kugel“ oder „Die Erde dreht sich um die Sonne“ widersprachen bei ihrer Entdeckung in eklatanter Weise aller bisherigen Alltagswahrnehmung und stießen demgemäß auf erbitterten Widerstand. 6 1.1.3 Zum Verhältnis von Grundlagenforschung und anwendungsorientierter Forschung Die bisherigen Überlegungen zur gesellschaftlichen Einbindung empirischer Sozialwissenschaft führen zur Frage nach dem Zusammenhang und nach dem Unterschied von (theoretischem) Grundlagenwissen versus Praxiswissen bzw. von Grundlagenforschung versus anwendungsorientierter Forschung. Für das hier behandelte Thema 6 Wen solche Streitfälle interessieren, dem sei als spannende und amüsante Lektüre „Zoff im Elfenbeinturm“ empfohlen (Hellman 2000). Reaktionen auf sozialwissenschaftliche Ergebnisse Unterschied zur Naturwissenschaft <?page no="19"?> 20 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 20 „Methoden empirischer Sozialforschung“ ist diese Unterscheidung u. a. deshalb von Bedeutung, weil Forschungslogik und -methodik weitgehend vor dem Hintergrund des Vorgehens in der Grundlagenforschung entwickelt und begründet worden sind, während andererseits der Großteil tatsächlicher empirischer Forschungen durch anwendungsorientierte Fragestellungen initiiert wird. So kommt es, dass faktisches Forscherverhalten häufig darauf hinauslaufen muss, einen Kompromiss zu finden zwischen den Anforderungen, die sich einerseits aus der Methodologie und andererseits aus dem Gegenstand der Untersuchung ergeben. Zwar gehen anwendungsorientierte Projekte ebenso wie Projekte der Grundlagenforschung prinzipiell von der gleichen Methodologie aus; doch führen Unterschiede in der Aufgabenstellung und in den Bedingungen der Projektdurchführung dazu, dass sich die methodologischen Prinzipien nicht in gleichem Maße realisieren lassen. Wenn auch dieser Punkt im vorliegenden Text nicht ausdiskutiert werden kann, seien hier doch zumindest einige Differenzierungsmerkmale skizziert (ausführlicher Kromrey 2003). Sozialwissenschaftliche Grundlagenforschung legt ihr Gewicht auf die Produktion und Vermehrung von möglichst allgemeingültigem Wissen, auf die verallgemeinerbare Beschreibung (Diagnose) und Erklärung sozialer Sachverhalte und Zusammenhänge. Nicht der einzelne Fall, sondern der genau identifizierte, generelle Zusammenhang steht im Vordergrund des Interesses. Im Unterschied dazu soll anwendungsorientierte Forschung Ergebnisse liefern, die beim aktuellen Entscheidungsprozess verwertet werden können. Nicht abstrakte Zusammenhänge („Gesetzmäßigkeiten“) stehen im Vordergrund, sondern die Anwendbarkeit der Befunde auf einen aktuellen Fall oder auf eine Klasse gleichartiger Fälle. Grundlagenforschung begründet die Relevanz der von ihr aufgegriffenen Themen wissenschaftsimmanent aus bestehenden Lücken im bisherigen Wissensbestand bzw. aus Widersprüchen zwischen bisherigen Wissensbestandteilen. Bei anwendungsorientierter Forschung leiten sich die behandelten Fragestellungen aus den Bedürfnissen der Praxis her (z. B. Wirksamkeit eines Unterrichtsprogramms zur Kompensation der Benachteiligungen von Kindern aus Unterschichtfamilien im traditionellen Bildungssystem). In der Grundlagenforschung sind die Fragestellungen der Untersuchung und die Sicherung der Gültigkeit der Resultate Maßstab aller Entscheidungen der Wissenschaftlerin bzw. des Wissenschaftlers. Die Untersuchung wird so konzipiert, dass präzise Aussagen zu dem erforschten Sachverhalt möglich werden. Sie versucht, alle Randbedingungen zu erfassen, die Einfluss auf die Ergebnisse haben können. Im Grenzfall werden unter kontrollierten Bedingungen Experimente im Forschungslabor durchgeführt, selbst wenn dadurch die Reichweite der Aussagen eingeschränkt werden sollte oder die Forschungen einen langen Zeitraum erfordern. Bei anwendungsorientierter Forschung steht nicht das Forschungsprojekt und seine absolut „wissenschaftliche“ Durchführung im Vordergrund, sondern die Anwendungspraxis (z. B. das zu untersuchende Handlungsprogramm). Präzision und Allgemeingültigkeit der Aussagen müssen notfalls zurückstehen, wenn dadurch die Resultate „zu spät“ (z. B. nicht rechtzeitig vor einer anstehenden politischen Entscheidung) zustande kämen Kompromisse bei anwendungsorientierter Forschung Interesse am Generellen / am-konkreten Fall Wissenslücken/ Bedürfnisse der-Praxis Genauigkeit / zeitliche Nähe <?page no="20"?> 21 1.1 Zur Situation empirischer Sozialwissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 21 oder wenn durch die Forschung die Durchführung des zu untersuchenden Programms behindert werden könnte. Ergebnisse von Grundlagenforschungen hat die Wissenschaftlerin bzw. der Wissenschaftler vor den Fachkollegen zu vertreten. Ihnen gegenüber ist das Vorgehen zu rechtfertigen, und zwar durch den Nachweis der Einhaltung der geltenden wissenschaftlichen Standards. Ziel ist der kritische Diskurs mit den Fachkollegen, in welchem die möglicherweise vorhandenen Schwächen des gewählten Ansatzes oder eventuelle Fehlschlüsse bei der Einordnung der Befunde aufgedeckt werden sollen. Es gehört daher zu den selbstverständlichen Normen der empirischen (Grundlagen-)Wissenschaft, die Forschungsergebnisse möglichst aktuell zu veröffentlichen, das methodische Vorgehen zu erläutern und die Befunde auch in ihren Einzelheiten allen Interessierten zugänglich zu machen. Bei anwendungsorientierten Projekten (insbesondere bei Auftragsforschungen) dagegen haben es die Forscher bei der Rechtfertigung ihres Vorgehens nicht in erster Linie mit anderen Wissenschaftlern, sondern mit Praktikern zu tun. Bei ihnen steht als Beurteilungsmaßstab die unmittelbare Brauchbarkeit (Praxisrelevanz) der Ergebnisse für die aktuell von ihnen zu lösenden Probleme im Vordergrund. Ein Forscher, für den die strikte Einhaltung aller wissenschaftlichen Standards oberste Priorität hat, eine Forscherin, die ihr Ansehen gegenüber den Fachkollegen nicht durch möglicherweise „unwissenschaftlich“ erscheinende Forschungen aufs Spiel setzen will, werden daher nicht selten Konflikten zwischen widerstreitenden Anforderungen ausgesetzt sein. Hinzu kommt, dass sie nicht immer selbst darüber entscheiden können, ob, wann und in welcher Weise die von ihnen erzielten Resultate veröffentlicht werden. 1.1.4 Zum Verhältnis von „wissenschaftlicher Erfahrung“ und Alltagserfahrung Empirische Wissenschaft wird üblicherweise Erfahrungswissenschaft genannt. Damit soll zum Ausdruck gebracht werden, dass die mit empirischen Daten begründeten Aussagen auf der „Erfahrung“ beruhen. 7 Diese Begriffswahl ist durchaus gerechtfertigt, denn empirisch-wissenschaftliche Erfahrungen und Alltagserfahrungen sind 7 Empirie ist aus dem Griechischen abgeleitet und bedeutet „Sinneserfahrung“. Darstellung für Wissenschaftler/ innen-- für Anwender/ innen Grundlagenforschung Anwendungsorientierte Forschung Interesse am Generellen Interesse am konkreten Fall Bearbeitung von Wissenslücken in-der-Wissenschaft Lösung praktischer Probleme Entscheidungen im Forschungsprozess nach Gründlichkeit und Genauigkeit Entscheidungen im Forschungsprozess nach zeitlich naher Realisierbarkeit Darstellung für Wissenschaftlerinnen und-Wissenschaftler Darstellung für Praktikerinnen und Praktiker Tabelle 1.1: Vergleich Grundlagenforschung und anwendungsorientierte Forschung <?page no="21"?> 22 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 22 nicht grundsätzlich verschieden. Beide basieren auf Beobachtungen. 8 Die Beobachtungen sind in beiden Fällen theoriegeleitet. Hier wie dort zielt man auf Klassifizierungen der beobachteten Phänomene (Sachverhalte, Ereignisse etc.) und auf Schlussfolgerungen ab, d. h. die Beobachtungen sind nicht Selbstzweck. Wissenschafts- und Alltagserfahrung unterscheiden sich jedoch darin, dass alltägliche Beobachtungen und Schlussfolgerungen stärker auf konkretes Handeln, auf die jeweilige besondere Situation, auf den Einzelfall gerichtet sind: Was habe ich in dieser speziellen Situation beobachtet? Was ist in dieser speziellen Situation zu tun? (Zum Beispiel: Wie entwickelt sich die Bürgerinitiative gegen den Ausbau der Autobahn in X? Wird sie Erfolg haben? Was muss sie tun, um ihre Ziele zu erreichen? ) Die Alltagsbeobachtung versucht dabei, die komplexe Einzelsituation in ihrer individuellen Besonderheit unter bestimmten alltagsrelevanten Gesichtspunkten möglichst umfassend wahrzunehmen, um im Einzelfall möglichst präzise Voraussagen über die Angemessenheit bestimmter Handlungsstrategien machen zu können. Alltagserfahrung ist damit auf die individuelle Ansammlung von handlungsrelevantem Wissen ausgerichtet. Wissenschaftliche Beobachtung ist im Vergleich dazu stärker selektiv-- wobei zugleich die Selektivität in höherem Maße kontrolliert wird-- und stärker verallgemeinernd. Sie versucht, aus einer Vielzahl ähnlicher Situationen das Gemeinsame herauszuarbeiten, um relevante Einflussgrößen isolieren und generalisierende Prognosen formulieren zu können: Was ist den Situationen vom Typ X gemeinsam? Was sind die wichtigen Einflussgrößen in Situationen vom Typ X? (Zum Beispiel: Aus welchen Gründen bilden sich Bürgerinitiativen? Unter welchen Bedingungen können sie erfolgreich auf politische Entscheidungen Einfluss nehmen? ) Empirisches wissenschaftliches Arbeiten verfolgt also (grob zusammengefasst) zwei wichtige Ziele: - die Phänomene der realen Welt (möglichst „objektiv“) zu beschreiben und zu klassifizieren, - die (möglichst allgemeingültigen) Regeln zu finden, durch die die Ereignisse in der realen Welt erklärt und Klassen von Ereignissen vorhergesagt werden können. Alltägliche und wissenschaftliche Erfahrung unterscheiden sich dagegen nicht darin, dass jede Beobachtung (notwendigerweise) theoriegeleitet ist. Diese Behauptung widerspricht gängigen Vorurteilen, in denen häufig übersehen oder sogar ausdrücklich bestritten wird, dass wir (auch) im Alltag ständig auf Theorien-- auf „Alltagstheorien“- - zurückgreifen. Fast genauso häufig führt dieses Vorurteil zu der (ebenfalls irrigen) Meinung, es gebe den Typ einer „rein deskriptiven“ (also ausschließlich beschreibenden) empirischen Forschung mit der Möglichkeit absolut theoriefreien 8 Wenn man genau hinsieht, basieren auch wissenschaftliche Aussagen, die nicht streng empirisch begründet werden, meist auf Beobachtungen. handlungsrelevante Beobachtungen im-Alltag selektive, verallgemeinernde Beobachtungen in der Wissenschaft wichtige Ziele wissenschaftlichen Arbeitens jede Beobachtung ist theoriegeleitet <?page no="22"?> 23 1.1 Zur Situation empirischer Sozialwissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 23 Vorgehens, im Unterschied etwa zur ausdrücklich hypothesen- oder theorietestenden Forschung. Richtig an diesem Vorurteil ist lediglich, dass im ersten Fall (Alltagsbeobachtung, „rein deskriptive“ Forschung) die verwendeten Theorien nur implizit bleiben, also nicht ausdrücklich ausformuliert werden, ja, dass der Beobachter vielleicht sogar gänzlich unbewusst auf sie zurückgreift. Im anderen Fall dagegen (hypothesen- oder theorietestende Forschung) werden die verwendeten Theorien für jeden ersichtlich offen gelegt. Auch der Unterschied zwischen „wissenschaftlichen“ und „alltäglichen“ Theorien ist nicht von prinzipieller, sondern von nur gradueller Art: Wissenschaftliche Theorien sind in ihren Aussagen klarer fassbar und damit (der Möglichkeit nach) besser durchschaubar; sie verwenden im Idealfall präzise definierte Begriffe, geben ihren Geltungsbereich genau an. Dieser Vorzug wird durch eine Reduktion der Gesichtspunkte erkauft, die in die Theorie einbezogen werden: Die Zahl der Aspekte, unter denen man die Realität betrachtet und erklärt, wird möglichst klein gehalten („Reduktion der Komplexität“). Beim Vergleich von alltäglich benutzten gegenüber wissenschaftlichen Theorien stellen sich zwei wichtige Fragen: - Sind wissenschaftliche Theorien durch die in ihnen vorgenommene Reduktion der komplexen Realität auf einige wenige- - nach Auffassung der Theoretiker: zentrale-- Situationsaspekte unmittelbar in alltägliches Handeln umsetzbar? Hier setzt die häufig zu hörende Kritik an: „Ja, in der Theorie ist das zwar so, aber in der Praxis-…“ - Sind Alltagstheorien mit ihrer Orientierung an Einzelfällen und an individuellen Erfahrungen geeignet, generelle Tendenzen, abstraktere, allgemeinere Sachverhalte zu erklären? Es sei an dieser Stelle schon vorwegnehmend darauf hingewiesen, dass in den empirischen Wissenschaften keine einheitliche Auffassung darüber existiert, welche Merkmale Alltagstheorien von wissenschaftlichen Theorien unterscheiden und wie stark der abstrahierende, verallgemeinernde Charakter wissenschaftlicher Theorien sein soll. Je nach dem wissenschaftstheoretischen Standort einer Forscherin/ eines Forschers werden sich die theoretischen Entwürfe entweder stärker am Konzept eines wissenschaftliche und alltägliche Theorien graduell anders wenige Gesichtspunkte betrachten Umsetzbarkeit Verallgemeinerbarkeit Wissenschaftliche Erfahrung Alltagserfahrung Theoriegeleitet Theoriegeleitet Möglichst objektiv beschreiben und klassifizieren Möglichst alles Relevante wahrnehmen Möglichst allgemeingültige Regeln finden Funktionierende Regelmäßigkeiten finden Selektive, verallgemeinernde Beobachtung Individuelle Sammlung handlungsrelevanten Wissens Betrachtung weniger Gesichtspunkte Betrachtung relevanter Situationen in-ihrer-Gesamtheit Tabelle 1.2: Vergleich von wissenschaftlicher Erfahrung und Alltagserfahrung <?page no="23"?> 24 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 24 idealtypisierenden (nur die wesentlichen Merkmale einer Klasse ähnlicher Sachverhalte herausarbeitenden) Vorgehens orientieren, oder sie werden eher am Konzept einer „ganzheitlichen“ (möglichst viele konkrete Situationselemente berücksichtigenden) Anschauung ausgerichtet sein. 1.2 Grundpositionen der Erfahrungswissenschaft 1.2.1 Annahme der Existenz einer „tatsächlichen Welt“ War bisher allgemein von „wissenschaftlicher Erfahrung“ und „alltäglicher Erfahrung“ die Rede, so soll jetzt speziell auf Konzepte empirischer Wissenschaft (bzw. Erfahrungswissenschaft) eingegangen werden. 9 Empirische Wissenschaft verfolgt das Ziel, gesicherte Erkenntnisse über die „Wirklichkeit“ 10 zu gewinnen. Empirische Wissenschaft setzt die Existenz einer realen, einer tatsächlichen, „objektiven“ Welt (Gegenstände, Ereignisse, Beziehungen zwischen Gegenständen oder Ereignissen) unabhängig von ihrer Wahrnehmung durch einen Beobachter voraus. Dieses Axiom (also: diese grundlegende, nicht weiter beweisbare Annahme) wird von Vertretern unterschiedlicher wissenschaftstheoretischer Positionen innerhalb der Erfahrungswissenschaft nicht in Frage gestellt. Solche Einmütigkeit herrscht dagegen nicht mehr bei weiteren Annahmen über Eigenschaften der tatsächlichen Welt (vgl. das folgende Kapitel 1.2.2) sowie hinsichtlich der Möglichkeit der Erkenntnis der „objektiven Realität“. Der erkenntnistheoretische Realismus-- und auf dessen Basis wurde bisher implizit argumentiert (vgl. Kapitel 1.1.4)- - bejaht diese Möglichkeit. Denn nur wenn im Prinzip die Chance besteht, mit den Wahrnehmungssinnen und/ oder mit Hilfe unterstützender Beobachtungs- und Messinstrumente die außerhalb des beobachtenden Subjekts existierende Realität zu erfahren, sind sinnvolle Aussagen über die Realität formulierbar und „empirisch“ in der Realität überprüfbar. Der erkenntnistheoretische Konstruktivismus bestreitet dagegen die Möglichkeit, mit den Wahrnehmungssinnen die Realität so zu erfassen, wie sie wirklich ist. Vertreter des „radikalen Konstruktivismus“ etwa kommen aufgrund von Forschungen in der Physik, Biologie und Kybernetik zu dem Schluss, „dass all unsere Erkenntnisse 9 Unter „Erfahrungswissenschaften“ werden hier diejenigen Wissenschaften verstanden, die Wahrnehmungen über die Realität als Basis für die Geltung ihrer Aussagen heranziehen (etwa Soziologie, Chemie, Medizin). Außer Betracht bleiben damit Wissenschaften, deren Aussagensysteme allein aufgrund formaler, logischer Kalküle (etwa Mathematik), philosophischer oder Glaubensprinzipien (etwa Theologie) Geltung beanspruchen. 10 Mit gleicher Bedeutung werden auch Begriffe wie „real existierende Welt“, „tatsächliche Welt“, „wirkliche Welt“, „Welt der Tatsachen“ benutzt. Existenz der Welt unabhängig von Beobachtung erkenntnistheoretischer Realismus erkenntnistheoretischer Konstruktivismus <?page no="24"?> 25 1.2 Grundpositionen der Erfahrungswissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 25 Erkenntnisse eines sich selbst organisierenden Systems, des Gehirns, sind, gebunden an dessen Erkenntnismöglichkeiten und -grenzen. Diese erlauben grundsätzlich keine Aussagen über die tatsächliche, die ‚wahre‘ Beschaffenheit der Welt; sie zeigen nur, ob eine Erkenntnis mit der Beschaffenheit der Welt vereinbar ist, ob sie ‚passt‘-- nicht aber, dass sie ‚wahr‘ (im Sinne eines ‚einzig richtig‘) ist.“ (Meinefeld 1995, 100). 11 Vereinfacht ausgedrückt: Über die Sinne werden zwar Umweltreize wahrgenommen. Diese formen jedoch im Kopf der wahrnehmenden Person kein „Abbild“ der Umwelt. Vielmehr wird aus den Sinnesreizen durch eigene Interpretationsleistungen ein (subjektives) Bild „konstruiert“. Jeder lebt sozusagen in seiner eigenen „virtuellen Realität“. Solange dieses virtuelle Modell mit der „tatsächlichen“ Welt hinreichend zusammenpasst, ist es möglich, in dieser „tatsächlichen“ Welt zu leben und zu überleben, allerdings ohne erkennen zu können, wie sie unabhängig von der eigenen gedanklichen Realitätskonstruktion „wirklich“ ist. 12 Manche Autoren ziehen die Konsequenz, auch sprachlich zwischen (objektiver) Realität und (subjektiver) Wirklichkeit zu unterscheiden. 1.2.2 Ordnung, Struktur, Gesetzmäßigkeiten Anhänger einer analytisch-nomologischen bzw. deduktiv-nomologischen Wissenschaft (die Darstellung dieser wissenschaftstheoretischen Position folgt in Kapitel 1.3) gehen von einer geordneten, strukturvollen, regelhaften „wirklichen Welt“ (Welt der Tatsachen) aus. D. h. die einzelnen Gegenstände stehen in geordneter Weise miteinander in Beziehung, sie bilden eine Struktur; Ereignisfolgen laufen nach immer gleich bleibenden Regeln („Gesetzen“) ab; für jedes Ereignis muss es eine Ursache oder auch eine komplexe Menge von Ursachen geben (Kausalitätsprinzip). 11 Wer sich über erkenntnistheoretische Positionen einen Überblick verschaffen sowie die Auseinandersetzung mit ihnen nachvollziehen möchte, dem sei dieses sehr anregende Werk von Werner Meinefeld (1995) nachdrücklich empfohlen. − Realismus und Konstruktivismus sind nicht die einzigen konkurrierenden erkenntnistheoretischen Schulen in der gegenwärtigen Sozialwissenschaft. In gewisser Hinsicht zwischen diesen beiden Polen ist der Pragmatismus einzuordnen, der zwar nicht die Erfahrbarkeit der Realität bestreitet, jedoch als Instrument der Überprüfung der Richtigkeit oder „Wahrheit“ empirischer Aussagen nicht Realitätsbeobachtungen, sondern die Konsequenzen der kontrollierten Anwendung theoretischer Behauptungen postuliert (sogenannter methodologischer Pragmatismus). Siehe auch Chalmers (1999) für weitere erkenntnistheoretische Positionen. 12 Man kann sich diesen Gedanken etwa durch Vergleich mit der Situation eines Flugzeugpiloten verdeutlichen, der wegen dichten Nebels gezwungen ist, eine Instrumentenlandung zu unternehmen. Die Anzeigen auf seinen Radarschirmen sind selbstverständlich keine „naturgetreue Abbildung“ der Realität von Luftraum und Boden; sie passen jedoch ausreichend, um einigermaßen gefahrlos auf dem Flugplatz landen zu können. Wäre dieser Pilot immer nur auf seine Radaranzeigen angewiesen, hätte er allerdings keinerlei Chance, die Realität jemals so zu erkennen, wie sie „wirklich“ ist; bzw. korrekter: wie sie unserem Wahrnehmungsorgan Auge erscheint. Realität und Wirklichkeit Annahme: strukturvolle, regelhafte Welt <?page no="25"?> 26 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 26 Unter solchen Gegebenheiten besteht die Aufgabe der Wissenschaft darin, die in der Welt der Tatsachen herrschenden Strukturen und Gesetzmäßigkeiten zu „entdecken“. Je mehr Wissen über Strukturen und Gesetzmäßigkeiten verfügbar ist, desto mehr werden beobachtete Ereignisse erklärbar und künftige Ereignisse prognostizierbar, und desto mehr wird die Welt beherrschbar. Da die prinzipielle Ordnung und Regelhaftigkeit für die gesamte reale Welt unterstellt wird, unterscheiden sich nach dieser Vorstellung die verschiedenen Erfahrungswissenschaften (z. B. Naturwissenschaften wie Physik, Chemie, Biologie oder Sozialwissenschaften wie Ökonomie, Psychologie, Soziologie) lediglich in dem Gegenstand, mit dem sie sich befassen, nicht dagegen in der Art ihres Vorgehens. Zum Auffinden empirischer Gesetzmäßigkeiten können also alle Erfahrungswissenschaften nach der gleichen Verfahrenslogik, nach den gleichen methodischen Prinzipien vorgehen (Postulat der Einheitswissenschaft). Gegen diese Sicht auf die Welt hat sich in den Sozialwissenschaften mit der interaktionistischen, qualitativ-interpretativen Richtung eine prominente Alternative etabliert. 13 Vertreter dieser qualitativ-interpretativen Sozialwissenschaft lassen für den Bereich des Sozialen (für die Gesellschaft sowie für Ereignisse und Beziehungen innerhalb der Gesellschaft) die These einer vorgegebenen Struktur mit grundlegenden und gleich bleibenden Regelhaftigkeiten („sozialen Gesetzen“) nicht gelten. Sie postulieren, dass die Menschen die gesellschaftlichen Strukturen, in denen sie miteinander leben, durch ihr Handeln selbst schaffen und damit auch ständig verändern. Die Art der Beziehungen zwischen Menschen und zwischen Gruppen von Menschen wird-- so die grundlegende These-- auf der Basis des bei jedem Mitglied einer Gesellschaft vorhandenen Alltagswissens in Interaktionen (d. h. durch aufeinander bezogenes Handeln von Personen oder Gruppen) immer wieder neu definiert, wird immer wieder in Auseinandersetzung mit der gegebenen Situation neu entwickelt oder weiterentwickelt (klassisch Blumer 2004, Orig. 1969). Mit anderen Worten: Wenn-- im einfachsten Fall-- zwei Personen miteinander zu tun haben, dann versucht jede der beiden Personen die für ihre Absichten relevanten Merkmale der Situation, in der man zusammentrifft, wahrzunehmen und deren Bedeutung aufgrund des vorhandenen Wissens über frühere ähnliche Situationen zu erfassen. Jede der beiden Personen interpretiert aus ihrer Perspektive die Dinge, die sie sieht, einschließlich des Gegenübers, seines Auftretens, seiner Gesten usw. Erst durch diese Interpretation erhalten die wahrgenommenen Dinge für die Person eine 13 Eine Dokumentation dieser Position findet sich etwa in dem Reader von Strübing und Schnettler (2004). Einen breiten und leicht lesbaren Überblick über das ganze Spektrum qualitativer Sozialforschung bieten die Beiträge in Flick u. a. (2000) sowie Keller (2011a), Przyborski/ Wohlrab-Sahr (2014) und Strübing (2013). Die Annotationen aus der Perspektive qualitativ-interpretativer Methoden am Ende jedes Kapitels vergleichen jeweils die darin behandelten Themen mit der Herangehensweise dieser Richtung. Aktuelle Beiträge finden sich im Internetforum „Qualitative Sozialforschung“ (www.qualitative-research.net/ fqs/ ). Ziel: Gesetzmäßigkeiten entdecken Postulat der Einheitswissenschaft interpretative Richtung: Situationsinterpretation <?page no="26"?> 27 1.2 Grundpositionen der Erfahrungswissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 27 Bedeutung. Des Weiteren stellt jede der beiden Personen Vermutungen darüber an, wie das Gegenüber die Situation interpretiert und welche Absichten und Erwartungen sie mitbringt. Beide Personen werden dann auf der Basis der eigenen Situationsdefinition, der eigenen Ziele und Erwartungen sowie der Vermutungen über die entsprechende Sichtweise des Gegenübers handeln und die Reaktionen des Gegenübers daraufhin prüfen, ob sie mit den eigenen Annahmen in Einklang stehen. So bildet sich in einer Folge von Interaktionen sowie wiederholten, gegebenenfalls revidierten Interpretationen beider Seiten eine spezifische, für diese Situation ausgehandelte Beziehung der Interaktionspartner heraus. Je alltäglicher, je gewohnter die Handlungssituation für die Beteiligten ist und je zutreffender die gegenseitigen Vermutungen über die Perspektive des Gegenübers sind, desto unmerklicher läuft der Interpretations- und Aushandlungsprozess ab. Je neuer, je ungewohnter dagegen die Situation, desto eher wird zunächst ein vorsichtiges gegenseitiges „Abtasten“ notwendig und desto ungewisser wird der Ausgang des Aushandlungsprozesses sein. 14 Was hier für den vereinfachten Fall eines Zweierkontakts in einer abgegrenzten Handlungssituation skizziert wurde, gilt nach den Vorstellungen interpretativer Sozialwissenschaft auch für Gruppenbeziehungen bis hin zur gesellschaftlichen Ebene. Der jeweils gegebene gegenwärtige Zustand wird als Resultat komplexer Abfolgen von Interaktionen begriffen, der in weiteren Interaktionen ständig neu zur Disposition gestellt, ständig neu interpretiert und weiterentwickelt wird. Wenn demnach für den Gegenstand des Sozialen nicht von stabilen Strukturen und von gleich bleibenden Regelmäßigkeiten ausgegangen wird, dann ist es aus dieser Sicht selbstverständlich sinnlos, nach „sozialen Gesetzen“ zu suchen und soziale Ereignisse in der empirischen Welt mit Hilfe von Gesetzmäßigkeiten erklären oder prognostizieren zu wollen; denn dann „passt“ das Axiomensystem des erkenntnistheoretischen Realismus nicht. Die analytisch-nomologische Position der Erfahrungswissenschaft unterstellt dagegen-- wie schon erwähnt-- ausdrücklich auch für den Bereich des Sozialen die Existenz grundlegender Gesetzmäßigkeiten. Diese treten unter veränderten historischen und gesellschaftlichen Bedingungen lediglich in unterschiedlicher Ausprägung in Erscheinung. Aussagen über soziale Regelhaftigkeiten sollen daher im Idealfall „nomologischen“ Charakter haben, d. h. sie sollen in ihrem Geltungsanspruch weder räumlich noch zeitlich relativiert sein. Prinzipiell gilt für ihre Form Folgendes: Immer wenn der Sachverhalt X vorliegt und wenn zugleich die Zusatzbedingungen Y 1 , Y 2 , Y 3 ,-… erfüllt sind, dann wird auch das Ergebnis Z eintreten. Durch deduktiv-logische Ableitung kann diese allgemeine Gesetzesaussage auf beliebige räumlich und zeitlich identifizierbare Situationen übertragen werden; etwa: Der Sachverhalt A am Ort O zum Zeitpunkt t gehört zur Klasse der Sachverhalte X; die Situationsgegebenheiten b 1 , b 2 , b 3 ,-… entsprechen den im nomologischen Gesetz aufgeführten Zusatzbedingungen Y 1 , Y 2 , Y 3 ,-…; daher wird auch hier ein Ergebnis Z eintreten. 14 Großen Einfluss für die deutsche Rezeption hatte die gut verständliche Darstellung dieser Position bei H. Blumer (2004, Orig. 1969, erste Übersetzung 1973). Soziales als Resultat von Interaktionen analytischnomologische Richtung: Gesetzmäßigkeit Ideal: räumlich, zeitlich unbegrenzte Geltung <?page no="27"?> 28 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 28 Auf rein logischem Wege begründete Aussagen nennt man auch „analytische“ Sätze. Daraus folgt die Bezeichnung „analytisch-nomologisch“ für die hier skizzierte wissenschaftstheoretische Position; zum Teil findet sich auch die Formulierung „deduktiv-nomologisch“. 15 1.2.3 Empirische Erfahrung als Grundlage des Wissens Einmütigkeit besteht zwischen den Vertretern unterschiedlicher Positionen innerhalb der Erfahrungswissenschaften darüber, dass empirisches Wissen, d. h. Wissen über die tatsächliche Welt, nur in der Auseinandersetzung mit der Realität gefunden und durch Beobachtung der Realität abgesichert werden kann. „Beobachtung“ ist hierbei in einem sehr weit gefassten Sinne zu verstehen als kontrollierte direkte oder indirekte Wahrnehmung mit Hilfe der menschlichen Wahrnehmungssinne und unterstützt durch zu diesem Zweck konstruierte Beobachtungs- und Messinstrumente (hierher gehören z. B. auch alle Formen der Befragung). Uneinigkeit besteht dagegen zwischen den verschiedenen Positionen über die Art der Auseinandersetzung mit der Realität und über die Regeln der-- im obigen Sinne verstandenen-- kontrollierten Beobachtung. Analytisch-nomologisch orientierte Erfahrungswissenschaftler beginnen damit, dass sie generelle Vermutungen („Hypothesen“) über Eigenschaften der tatsächlichen Welt und über deren Gesetzmäßigkeiten aufstellen. 16 Anschließend werden die Ausschnitte der realen Welt identifiziert, über welche die Hypothesen etwas aussagen und in denen sie sich demnach zu „bewähren“ haben. Für die so abgegrenzten Realitätsausschnitte werden schließlich-- sehr stark vereinfacht skizziert-- auf kontrollierte Weise empirische Daten erhoben, und die Resultate der Datensammlung werden in „Beobachtungsaussagen“ beschrieben. Stehen die Beobachtungsaussagen mit den vorher formulierten Vermutungen im Einklang, dann gelten die Hypothesen als „empirisch bewährt“. Widersprechen dagegen die Beobachtungsaussagen den vorher formulierten Vermutungen, treffen also die Vermutungen in der beobachteten Realität nicht zu, dann gelten die Hypothesen als „falsifiziert“. Sie müssen entweder ganz verworfen oder umformuliert und einer erneuten empirischen Überprüfung unterzogen werden. Damit die erhobenen Daten auch tatsächlich diese Funktion eines „Wahrheits-Entscheidungskriteriums“ beim empirischen Test von Hypothesen erfüllen können, müsste allerdings im Idealfall gewährleistet sein, dass sie die empirischen Gege- 15 Für eine umfassende und detaillierte Darstellung wird verwiesen auf Esser/ Klenovits/ Zehnpfennig (1977), Bd. 1. 16 Wie die Forscherin/ der Forscher an solche Hypothesen kommt, ist nach dieser Auffassung für das weitere wissenschaftliche Vorgehen unerheblich. Die Hypothesen können sich z. B. aus individuellen Alltagserfahrungen herausschälen, oder sie können aus Regelmäßigkeiten in empirischen Daten induktiv gewonnen worden sein. Hypothese als Ausgangspunkt Überprüfung mit-Beobachtungsaussagen Wahrheitsentscheidungskriterium <?page no="28"?> 29 1.2 Grundpositionen der Erfahrungswissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 29 benheiten „objektiv richtig“ abbilden. 17 Dieses Ideal ist aus Gründen, die später (Kapitel 1.3) im Einzelnen beschrieben werden, nicht erreichbar. Um dennoch zumindest sicherzustellen, dass nicht systematische Verzerrungen das empirische Abbild der Realität beeinflussen, gilt als zentrale Norm analytisch-nomologisch orientierter Wissenschaft, dass im Zusammenhang mit der Datenerhebung und auswertung ausschließlich von der Forschungsfragestellung her notwendige und sachlich-methodisch begründete Entscheidungen zu treffen und dass alle Entscheidungen und ihre Begründungen zu dokumentieren sind. Subjektive Werte, Urteile und Vorlieben der Forscher oder der mit der Datenerhebung betrauten Personen dürfen dabei ausdrücklich keine Rolle spielen (Prinzip der Wertneutralität innerhalb des Forschungsprozesses). Der nach empirischen Gesetzmäßigkeiten fahndenden Forscherin und ihren Kollegen ist allerdings nicht mit isolierten Einzelbeobachtungen gedient. Sie wollen aus den Daten Schlussfolgerungen ziehen, die über die Besonderheiten des jeweiligen Einzelfalls hinausgehen. Daher ist Vorsorge zu treffen, dass die Bedingungen der Datenerhebung sich nicht von einem Fall zum anderen unterscheiden, so dass die Resultate der einzelnen Beobachtungen miteinander vergleichbar sind (Prinzip der Standardisierung der Messsituation). Und schließlich noch soll- - wie oben schon angedeutet-- das gesamte Vorgehen so vollständig dokumentiert werden, dass es von anderen Personen (anderen Forschern oder am Thema interessierten Laien) nachvollzogen, beurteilt, gegebenenfalls kritisiert oder sogar durch Wiederholung der Untersuchung nachgeprüft werden kann (Prinzip der intersubjektiven Nachprüfbarkeit). Auf erheblich andere Weise versuchen die am Konzept einer interpretativen Sozialwissenschaft orientierten Forscher, Zugang zu Informationen über die Realität zu finden. Am Beginn stehen nicht möglichst präzise formulierte Hypothesen, die durch Konfrontation mit der Realität überprüft werden sollen. Am Beginn steht vielmehr das Gewinnen möglichst authentischer Erfahrungen im Untersuchungs- „Feld“, also in dem Ausschnitt der tatsächlichen Welt, über den man Erkenntnisse gewinnen möchte. Hierbei soll die Forscherin bzw. der Forscher sich vom „Prinzip der Offenheit“ leiten lassen. Dieses Prinzip besagt, dass sie/ er nicht mit vorgefassten Meinungen in die Datenerhebung eintreten darf; insbesondere dürfen nicht in Hypothesen vorab festgeschriebene Behauptungen und Definitionen zum Maßstab der Datensammlung gemacht werden. Die Aufmerksamkeit soll vielmehr offen sein für die Wahrnehmung der Situationsdefinitionen, wie sie für die im Untersuchungsfeld alltäglich Handelnden gelten. Vorkenntnisse und Vorannahmen über den Untersuchungsgegenstand sollen daher einen bewusst vorläufigen Charakter haben. Sie sollen zwar die Aufmerksamkeit „sensibilisieren“, sollen neugierig machen; sie dürfen aber nicht 17 Dies wird auch als „absolutes Wahrheitskriterium“ bezeichnet oder-- da hier die Übereinstimmung (=-Korrespondenz) des semantischen Gehalts der Aussage mit der faktischen Realität gefordert wird-- als „Korrespondenztheorie der Wahrheit“. Andere erkenntnis- und wissenschaftstheoretische Schulen formulieren andere- - „pragmatische“, nicht „absolute“- - Wahrheitskriterien, beispielsweise entwirft Jürgen Habermas für die „Kritische Theorie“ eine „Konsenstheorie der Wahrheit“. Prinzip der Wertneutralität Vergleichbarkeit durch Standardisierung Dokumentation des-Vorgehens Zugang der interpretativen Sozialwissenschaft Prinzip der Offenheit <?page no="29"?> 30 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 30 (in Form forschungsleitender oder zu überprüfender Hypothesen) zu Voreingenommenheiten bei der Auswahl von Daten und bei deren Charakterisierung als relevant oder irrelevant für die Forschungsfrage verführen. Möglichst präzise formulierte Hypothesen über den Untersuchungsgegenstand stehen also für Anhänger einer interpretativen Sozialwissenschaft nicht am Beginn des Forschungsprozesses; sie können allenfalls das Ergebnis einer empirischen Untersuchung sein. Auch die Forschungsergebnisse haben im Übrigen immer nur vorläufigen Charakter, da ja die soziale Welt als im stetigen-- wenn möglicherweise auch unmerklich langsamen- - Wandel befindlich begriffen wird, nämlich im Zuge der ständig fortlaufenden Interpretationsleistungen der Interagierenden. Ob sozialwissenschaftliche Aussagen als „wahr“ akzeptierbar sind, darüber entscheiden dementsprechend-- anders als nach der analytisch-nomologischen Position-- nicht die Forscher durch Vergleich ihrer Hypothesen mit den Daten über die tatsächliche Welt, sondern darüber entscheiden die in der Alltagsrealität Interagierenden. Wenn für die Auswirkungen der sozialen Umwelt auf das Handeln von Personen, Gruppen oder Organisationen nicht allgemeingültige soziale Gesetzmäßigkeiten verantwortlich sein sollen, wenn vielmehr die Umweltgegebenheiten erst durch die interpretierenden Bedeutungszuschreibungen der Beteiligten wirksam werden, dann müssen die Beobachter neben den Daten über objektive Sachverhalte der sozialen Welt immer auch die subjektiven Deutungen dieser Sachverhalte durch die Akteure mit erfassen, um die erhobenen Daten überhaupt ihrem eigenen Sinn entsprechend verstehen zu können. Mit anderen Worten: Untersuchungsgegenstand ist nicht die „objektive Realität“, sondern die „subjektive Wirklichkeit“ der Handelnden. Die Vergleichbarkeit der Einzeldaten wird von interpretativen Sozialforschern nicht durch Standardisierung der Erhebungssituation herzustellen versucht, sondern dadurch, dass möglichst alle für die untersuchten Sachverhalte bedeutsamen Randbedingungen und Interpretationen mit erhoben werden. Dies verlangt von den verwendeten Beobachtungs- oder Informationsbeschaffungs-Strategien eine möglichst große Flexibilität, so dass zu jedem Zeitpunkt auch unvorhergesehene Aspekte berücksichtigt werden können. Ein methodisches Vorgehen dieser Art-- Prinzip der Offenheit, kommunikative Erhebung von Situationsdeutungen im sozialen Feld im Sinne „kontrollierter Subjektivität“- - bezeichnet man üblicherweise als qualitative oder interpretative Sozialforschung. 18 Dass die Bedeutung objektiver Gegebenheiten für die im sozialen Feld Agierenden von einer Vielzahl von Randbedingungen abhängt und dass die Bedeutung eines Gegenstandes A für dieselbe Person in einer Situation S 1 nicht die gleiche sein muss wie in einer anderen Situation S 2 , wird auch von der analytisch-nomologisch orientierten Wissenschaft nicht bestritten. Sie geht jedoch davon aus, dass auch situationsspezifisch unterschiedliche Bedeutungszuschreibungen nicht beliebig (in immer wieder neuen und jedes Mal vom Ergebnis her offenen Aushandlungsprozessen) erfolgen, 18 Wer sich für die Forschungsmethodik dieser Ausrichtung interessiert, der findet in dem Reader von Flick u. a. (2000) vielfältige Hinweise. Besonders sei aber die Lektüre des immer noch lesenswerten Aufsatzes von Christa Hoffmann-Riem (1980) empfohlen. präzise Hypothesen als Ergebnis verstehen durch subjektive Deutungen Flexibilität bei der-Beobachtung Situationsdeutung in analytischnomologischer Perspektive <?page no="30"?> 31 1.2 Grundpositionen der Erfahrungswissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 31 sondern dass auch die Bedeutungszuschreibungen selbst sozialen Regelmäßigkeiten unterliegen. Erforderlich ist daher aus dieser Sicht entweder die Kontrolle der relevanten Situationsbedingungen (z. B. durch gezielte Auswahl miteinander vergleichbarer Handlungssituationen bzw. durch Beeinflussung der Randbedingungen, etwa im Experiment) oder-- ein Weg, der häufiger gewählt wird-- durch systematische Erhebung von Daten über möglichst alle relevanten Situationsbedingungen. Das macht empirische Sozialforschung zwar erheblich komplizierter als naturwissenschaftliche Forschung, bedeutet jedoch nicht, dass die Sozialwissenschaften für ihre Forschungen eine Methodologie entwickeln müssten, die von anderen Wissenschaften grundsätzlich verschieden wäre. Auch dass die meisten in den Sozialwissenschaften verwendeten Datenerhebungsinstrumente auf die Kommunikation zwischen Forscher (oder Forschungspersonal) und den Forschungsgegenständen (nämlich den Akteuren im sozialen Feld) angewiesen sind, ist kein prinzipielles Hindernis. Es bedeutet lediglich, dass auch die Einflussfaktoren der Forschungskontaktsituation, d. h. der Kommunikationsbeziehung zum Zwecke der Datenerhebung, zu kontrollieren sind. Üblicherweise wird dies von Vertretern der analytisch-nomologischen Wissenschaft dadurch angestrebt, dass man versucht, die Erhebungssituation für alle Einzelfälle identisch zu gestalten (im Falle von Interviews durch Verwendung standardisierter Fragebögen, die den Wortlaut und die Reihenfolge der Fragen exakt festlegen; durch präzise Verhaltensanweisungen an die Interviewer; durch die Forderung, dass jedes Interview mit der Zielperson allein und z. B. jeweils in ihrer häuslichen Umgebung geführt wird usw.). 1.2.4 Ein Missverständnis: standardisiert =-quantitativ Für ein methodisches Vorgehen der oben skizzierten Art-- also möglichst detaillierte Vorstrukturierung des Untersuchungsgegenstands durch Hypothesen sowie Standardisierung der Erhebungssituation mit dem Ziel der Gewinnung präziser, vergleichbarer, intersubjektiv gültiger empirischer Informationen-- haben sich im allgemeinen Sprachgebrauch Bezeichnungen wie quantitative Methoden oder quantitative Sozialforschung eingebürgert. Solche Bezeichnungen sind jedoch irreführend, da die wesentlichen Unterschiede nicht erst in der Phase der Datenauswertung auftreten (quantifizierende Analyse mit Hilfe statistischer Verfahren versus qualitativ-hermeneutische Interpretation des gesammelten Materials), sondern schon im Zuge der Datenerhebung. Die Bezeichnungen richten damit den Fokus auf einen Teilaspekt, der gerade nicht den zentralen Unterschied zwischen der standardisierten und der nicht standardisierten, offenen Forschungsstrategie ausmacht und der sich allenfalls als ideologischer Kampfbegriff („qualitativ“ versus „quantitativ“) eignet. 19 19 Auch die damit häufig übernommene Gleichsetzung von interpretativem Wissenschaftsparadigma mit „qualitativer“ Sozialforschung sowie von analytisch-nomologischer Wissenschaft mit „quantitativer“ Sozialforschung ist nicht zwingend: Prinzipiell können auch Forscher, die sich auf das interpretative Paradigma berufen, quantitative Methoden einsetzen und analy- Kontrolle der relevanten Situationsbedingungen Kontrolle der Befragungssituation verbreitete irreführende Bezeichnung <?page no="31"?> 32 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 32 Zentral ist, dass die in einem standardisierten Vorgehen erhobenen Informationen den Charakter von „Daten“ haben sollen, also von „Messwerten“, die in der Phase der Datenanalyse ohne weitere semantische Deutung unmittelbar statistisch auswertbar sind. Wie dies zu erreichen ist, steht im Detail in den Kapiteln 2 bis 7 dieses Lehrtextes. Will man die Strategie der sogenannten „quantitativen“ Forschung kurz auf den Punkt bringen, dann treffender durch folgende Charakterisierung: ein streng zielorientiertes Vorgehen, das die „Objektivität“ seiner Resultate durch möglichst weitgehende Standardisierung aller Teilschritte anstrebt und das zur Qualitätssicherung die intersubjektive Nachprüfbarkeit des gesamten Prozesses als zentrale Norm postuliert. Ein solches zielorientiertes und auf Standardisierung angelegtes Vorgehen ist allerdings nur realisierbar, wenn zuvor mehrere Voraussetzungen erfüllt sind. Zu Beginn muss die Themenstellung exakt und unter Vermeidung von Leerformeln beschrieben und muss der Informationsbedarf vollständig und präzise angegeben werden (Kapitel 3): Welche Informationen werden in welchem Detaillierungsgrad für welche Zwecke benötigt? In gleicher Genauigkeit ist der „Gegenstand“ zu definieren und abzugrenzen, über den die gewünschten Informationen erhoben werden sollen: Welche Objekte gehören (noch) dazu, und welche Strukturelemente sind relevant? Falls die Formulierung des Themas sowie des Gegenstands der Untersuchung (noch) nicht hinreichend präzise möglich ist, ist auch die Entwicklung eines angemessenen standardisierten Forschungsdesigns nicht möglich; „strukturentdeckende“, auf Offenheit des Vorgehens angelegte Konzepte der sogenannten „qualitativen“ Forschung sind in diesem Fall geeigneter. Bei der Ausarbeitung des Forschungsdesigns (Kapitel 2) und der Planung der einzelnen Schritte zur Informationssammlung (=-Operationalisierung; Kapitel 4) ist die Präzisierung durch Entwicklung eines forschungsleitenden Strukturmodells (einschließlich der Ausformulierung expliziter Zusammenhangshypothesen) und ist die Fokussierung auf den angestrebten Informationsbedarf fortzusetzen. Die Grundgesamtheit aller Objekte, für die die zu gewinnenden Aussagen gelten sollen, ist zu definieren und empirisch abzugrenzen (Kapitel 6). Es ist zu entscheiden, ob eine Vollerhebung angestrebt wird oder eine Stichprobe gezogen werden muss (und falls ja: nach welchem Verfahren). Schließlich ist zu entscheiden, welche Informationsquellen bzw. welche Informanten die benötigten Daten liefern sollen und mit welchen Instrumenten sie in einer für die Untersuchungsfrage geeigneten Weise erhoben werden können (z. B. per Inhaltsanalyse von Dokumenten oder per Interview oder tisch-nomologisch orientierte Wissenschaftler qualitative Verfahren für sich nutzbar machen. Unter dem Titel „Mixed Methods“ werden diese Verbindungen diskutiert und praktiziert (Kuckartz 2011, Small 2011). Schritte des Vorgehens <?page no="32"?> 33 1.2 Grundpositionen der Erfahrungswissenschaft www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 33 schriftlicher Befragung; Kapitel 7). Alle Entscheidungen sind zu begründen und zu dokumentieren, um die geforderte intersubjektive Kontrollierbarkeit überhaupt zu ermöglichen. Die Designphase ist derjenige Abschnitt des Forschungsprojekts, in dem die Basis für die Qualität der Resultate gelegt wird. Was in dieser Phase übersehen oder falsch entschieden wird, lässt sich später (bei der Datenerhebung und bei der Datenanalyse) nicht mehr korrigieren. Gründliche Recherchen des bereits verfügbaren Erkenntnisstandes, die sorgfältige Entwicklung der einzusetzenden Instrumente und ihr umfassender Pretest sind daher unabdingbare Voraussetzungen, um bei einem standardisierten Verfahren der Informationsgewinnung zu verlässlichen Daten zu kommen. „Standardisierung“ bedeutet in diesem Zusammenhang, dass die Erhebung der Informationen sich in jedem einzelnen Fall in gleicher Weise vollzieht. Rein formal ist das zwar relativ gut realisierbar: durch ein für alle identisches Erhebungsinstrument (z. B. standardisierter Fragebogen), durch Sicherstellung des gleichen Typs von Forschungskontakt bei allen Informanten (z. B. persönliches Einzelinterview in der Wohnung des Befragten), durch überall gleichartiges Verhalten des „Informationssammlers“ (z. B. freundlich-neutrales Auftreten des Interviewers). Das allein sichert jedoch noch nicht die semantische Gleichheit formal identischer Antworten. Diese ist vielmehr erst dann gewährleistet, wenn die gleiche Kategorie im Erhebungsinstrument (z. B. Fragewortlaut plus Antwortvorgaben im Fragebogen) von den Informanten in identischer Weise verstanden und nach den gleichen Kriterien beantwortet wird. 20 Diese Prüfung-- Frageverständnis und Beantwortungsweise beim Informanten- - ist die zentrale (und über die Datenqualität entscheidende) Funktion von Pretests, die leider viel zu häufig vernachlässigt wird. Interviewer können darin geschult werden, sich „standardisiert“ zu verhalten; Informanten werden nicht „geschult“, für sie muss das Erhebungsinstrument „selbsterklärend“ sein. Nur so lässt sich eine Datenbasis gewinnen, in der gleiche Codes auch Gleiches bedeuten. Dass letzteres gewährleistet ist-- ohne weitere Deutung vergleichbare Daten--, ist die meist implizit gelassene Voraussetzung der Einsetzbarkeit statistischer Modelle und Verfahren (Kapitel 7) für die Analyse. Nur unter dieser Voraussetzung können die Codes in der Datenmatrix ausgezählt und dürfen die in den Daten ermittelten Häufigkeiten in empirische Häufigkeiten übertragen werden, nur unter dieser Voraussetzung dürfen statistische Beziehungen zwischen „Variablen“ der Datenmatrix als Zusammenhänge zwischen Merkmalen in der empirischen Realität interpretiert werden. Um auf die zu Beginn problematisierte Bezeichnung „quantitative Methoden“ zurückzukommen: Erst auf der Stufe der Datenanalyse ist sie zutreffend. Bei statistischen Verfahren handelt es sich nun in der Tat um „quantitative Methoden“. Ihr Einsatz setzt „quantifizierbare“ (d. h.: unmittelbar auszählbare, weil jeweils Identisches abbildende), nicht jedoch „quantitative“ (d. h.: Quantitäten abbildende) Daten 20 Die Argumente, die hier am Beispiel „mündliches Interview“ vorgebracht werden, gelten natürlich in analoger Weise für andere Erhebungsmethoden, etwa standardisierte Beobachtung oder Dokumentenanalyse. wichtige Designphase wichtig Pretest quantifizierende Auswertung <?page no="33"?> 34 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 34 voraus (Kapitel 5). Auch „qualitative“ Informationen wie „Geschlecht“ oder „höchster Schulabschluss“ können selbstverständlich Gegenstand statistischer Analysen sein, wenn diese Merkmale in standardisierter Weise erhoben worden sind. 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ Als Hintergrundinformationen für die in den Kapiteln 2 bis 7 darzustellende Methodologie standardisiert verfahrender empirischer Forschung werden im Folgenden einige zentrale wissenschaftstheoretische Postulate einer analytisch-nomologisch orientierten Erfahrungswissenschaft näher erläutert. Der Text lehnt sich dabei an die Position an, die als sogenannter „Kritischer Rationalismus“ ausformuliert wurde und als deren Hauptvertreter Karl R. Popper sowie in Deutschland Hans Albert gelten. Dies geschieht nicht, um den Leser zu dieser wissenschaftstheoretischen Schule zu „bekehren“. Vielmehr sind die gängigen Methoden empirischer Sozialforschung sowie deren theoretische Begründungen und die Regeln ihrer Anwendung (die Methodologie) von Vertretern dieser Richtung der Erfahrungswissenschaft entwickelt worden. Manche der später folgenden methodologischen Argumentationen wären ohne einige wissenschaftstheoretische Grundlagen schwer nachzuvollziehen. 1.3.1 Begriffsklärung Empirische Wissenschaft ist- - wie bereits vorne ausgeführt- - der Teil der Wissenschaften, der auf der Erfahrung durch die menschlichen Sinne (auf Beobachtung in allerweitester Bedeutung) beruht. Empirisches Vorgehen ist das „Ausgehen von Erfahrungstatsachen“. Dass dies nicht gleichbedeutend mit theorielosem Vorgehen ist, vielmehr ohne Rückgriff auf Theorien (explizite oder zumindest Alltagstheorien) gar nicht möglich wäre, wurde ebenfalls schon angemerkt und wird im Folgenden noch weiter zu verdeutlichen sein. Bei der Erfassung von „Erfahrungstatsachen“ bedient man sich bestimmter Strategien wie Beobachtung, Experiment, Befragung usw. Für den Ansatz einer standardisiert-quantitativ vorgehenden empirischen Sozialforschung, deren Methoden in diesem Lehrbuch vorgestellt werden, kann die unter dem Namen „Kritischer Rationalismus“ ausformulierte Variante der Forschungslogik (Albert im Anschluss an Popper) als die vorherrschende Leitmethodologie gelten. Die rigorose Position, wie Albert sie vertritt, ist zwar in der praktischen Sozialforschung selten vollständig durchzuhalten; dennoch ist sie weitgehend die wissenschaftstheoretische Basis standardisierter empirischer Forschung. Wenn wir im Folgenden von der Position des Kritischen empirische Wissenschaft <?page no="34"?> 35 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 35 Rationalismus ausgehen, so bedeutet dies selbstverständlich nicht- - das sei noch einmal ausdrücklich betont- -, dass andere wissenschaftstheoretische „Schulen“ (neben der bereits genannten „interpretativen Soziologie“ auch etwa marxistisch-materialistische oder dialektisch-kritische Positionen) auf empirisches Vorgehen bei der Informationsbeschaffung über die Realität verzichten könnten oder wollten. 21 1.3.2 Einige Prinzipien der empirischen Forschungsmethode in der Version des „Kritischen Rationalismus“ Das Hauptprinzip empirischer Forschungsmethodologie - wie es vom Kritischen Rationalismus vertreten wird-- lautet: Alle Aussagen müssen an der Erfahrung überprüfbar sein, müssen sich in der Konfrontation mit der Realität bewähren. Mit anderen Worten: Alle Aussagen einer empirischen Wissenschaft müssen-- sofern sie unzutreffend sind-- prinzipiell an der Erfahrung scheitern können (vgl. Popper 1971, 15). Das hat drei einschränkende Konsequenzen für den Geltungsbereich so abgegrenzter erfahrungswissenschaftlicher Aussagen: 1) Nur solche Begriffe können in erfahrungswissenschaftlichen Aussagen benutzt werden, die sich auf die erfahrbare Realität beziehen: empirischer Bezug der benutzten Begriffe (positive Beispiele: Tisch, Kernkraftwerk, politische Partei; negative Beispiele: „gute Fee“, Zentaur, Himmelstor). 22 2) Die formulierten Sätze oder Aussagen empirischer Wissenschaft müssen eine Beschreibung von Zusammenhängen oder Sachverhalten bieten, die ebenfalls prinzipiell erfahrbar sind: empirischer Bezug der Gesamtaussage (positives Beispiel: Die CSU siegt bei der nächsten bayerischen Landtagswahl; negatives Beispiel: Das Leben nach dem Tode währt ewig). 21 So unterschied sich etwa das seinerzeit in der DDR weit verbreitete Methodenlehrbuch zur „marxistisch-leninistischen Sozialforschung“ von W. Friedrich und W. Hennig (1975) in großen Teilen nicht grundsätzlich von entsprechenden Lehrbüchern „bürgerlicher“ Sozialforschung. Und auch Adorno als ein Exponent der „kritischen Theorie“ besteht auf dem Selbstverständnis von Soziologie als Erfahrungswissenschaft (z. B. in Horkheimer, M.; Adorno, T. W., 1962: Sociologica, II, Frankfurt/ M.). 22 Die Regel bezieht sich selbstverständlich nur auf die sinntragenden Begriffe einer Aussage, die nicht rein sprachlogische Funktionen erfüllen wie „und“, „oder“, „zwar“, „obwohl“ u. ä. Hauptprinzip empirische Überprüfbarkeit Begriffe mit empirischem Bezug Sätze mit empirischem Bezug <?page no="35"?> 36 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 36 3) Die Sätze müssen so formuliert sein, dass sie prinzipiell 23 widerlegbar sind. Als empirische Aussagen nicht zugelassen sind daher analytisch wahre (d. h. aus logischen Gründen wahre) Aussagen sowie „Es-gibt“-Sätze (Existenzbehauptungen). Über die Wahrheit oder Falschheit analytischer Sätze kann allein schon aufgrund ihrer logischen Struktur entschieden werden. „Analytisch wahre“ Aussagen sind z. B. Tautologien; etwa: „Wenn der Hahn kräht auf dem Mist, ändert sich das Wetter, oder es bleibt, wie es ist.“ Dieser Satz ist aufgrund seiner logischen Struktur immer wahr; er schließt alle Möglichkeiten ein, die jemals eintreten könnten, und kann daher auch niemals an der Erfahrung scheitern. Keine Tautologie, aber trotzdem analytisch wahr wäre z. B.: „Wenn irgendein Gegenstand ein soziales System ist, dann besteht es aus Personen, die miteinander interagieren“ (Opp 1976, 118). Im letzteren Fall ist nämlich der Begriff „soziales System“ u. a. definiert als eine Menge von Personen, die miteinander interagieren; die Aussage ist also per definitionem wahr. Eine Existenzaussage wäre z. B.: „Es gibt weiße Raben“. Diese Aussage ist empirisch nicht widerlegbar, da niemals sämtliche Raben in Gegenwart, Vergangenheit und Zukunft auf die Farbe ihrer Federn überprüft werden können. Der folgende Satz könnte Teil eines empirischen Aussagenzusammenhangs sein: „In neu gebauten Vorortwohnsiedlungen sind die Nachbarschaftskontakte weniger intensiv als in innerstädtischen älteren Wohngebieten.“ Zu 1): Die verwendeten (sinntragenden, nicht sprachlogischen) Begriffe beziehen sich auf die erfahrbare Realität (neu gebaute Vorortsiedlungen; Nachbarschaftskontakte; innerstädtische ältere Wohngebiete). Zu 2): Der zum Ausdruck gebrachte Sachverhalt (Zusammenhang von Alter und Lage der Wohngebiete mit der Intensität von Nachbarschaftskontakten) ist real erfahrbar, ist also empirisch feststellbar. Zu 3): Der Satz ist empirisch prüfbar und gegebenenfalls widerlegbar, sowohl was den zum Ausdruck gebrachten Sachverhalt betrifft, als auch von seiner Formulierung her (keine analytisch wahre Aussage, keine Existenzbehauptung): Man könnte in einer Reihe neuer Vorortwohnsiedlungen und in einer Reihe älterer innerstädtischer Wohngebiete die Intensität von Nachbarschaftskontakten messen (ohne jetzt schon auf die Messproblematik eingehen zu wollen) und dabei finden, dass in mindestens einer neu gebauten Vorortsiedlung die Intensität der Nachbarschaftskontakte nicht weniger intensiv ist als in mindestens einem innerstädtischen älteren Wohngebiet. Dann wäre die Aussage falsch (falsifiziert); denn 23 „Prinzipiell erfahrbar“ bzw. „prinzipiell widerlegbar“ soll heißen, dass Sätze zugelassen sind, die Aussagen über Sachverhalte enthalten, die zwar „im Moment“ nicht erfahrbar (und somit auch nicht widerlegbar) sind-- etwa weil geeignete Instrumente fehlen, um ein Ereignis beobachtbar zu machen, oder weil (noch) nicht präzise genug gemessen werden kann--, die aber „im Prinzip“ erfahrbar sind, z. B. sobald geeignete Beobachtungsinstrumente zur Verfügung stehen (etwa in den Naturwissenschaften durch Entwicklungen wie Elektronenmikroskop oder Teilchenbeschleuniger). Sätze prinzipiell widerlegbar Ausschluss analytisch wahrer-Sätze BEISPIEL <?page no="36"?> 37 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 37 in der Formulierung wie oben hat sie die Form eines „All-Satzes“ (=-Für alle Ereignisse oder alle Fälle der beschriebenen Art gilt, dass-…). Eine Formulierung wie die folgende wäre dagegen prinzipiell nicht widerlegbar: „Es gibt neu gebaute Vorortwohnsiedlungen, in denen die Nachbarschaftskontakte mindestens gleich intensiv sind wie in innerstädtischen älteren Wohngebieten.“ Man könnte tausend und noch mehr Fälle vorweisen, in denen die Aussage nicht zutrifft: es bliebe dennoch die Möglichkeit, dass es irgendwo und irgendwann eine Vorortsiedlung gibt, gegeben hat oder geben wird, für die diese Aussage richtig ist. Sobald man dagegen einen einzigen solchen Fall gefunden hat, ist die Aussage als wahr bewiesen: sie ist verifiziert. Anhand der beiden Aussageformen (All-Sätze bzw. nomologische Aussagen und Es-gibt-Sätze bzw. Existenz-Aussagen) lässt sich die Asymmetrie zwischen Falsifikation und Verifikation feststellen. All-Aussagen sind prinzipiell nicht verifizierbar; aber ein einziger konträrer Fall reicht, um sie zu falsifizieren (als endgültig falsch zu erweisen). In ihrem Geltungsanspruch (räumlich und zeitlich) nicht eingegrenzte Existenz-Aussagen sind demgegenüber prinzipiell nicht falsifizierbar; aber ein einziger übereinstimmender Fall reicht, um sie zu verifizieren (als endgültig wahr zu erweisen). Diese Feststellung hat allerdings einen gewichtigen Haken (worauf noch näher einzugehen sein wird), nämlich: (1) Der „Fall“ muss der Beobachtung zugänglich sein, und (2) die Beobachtung muss korrekt sein, genauer: Die Aussage über die Feststellung eines Sachverhalts, der mit der All-Aussage im Widerspruch (bzw. mit der Existenz-Aussage im Einklang) steht, muss „wahr“, muss unwiderlegbar richtig sein. „Wahr sein“ heißt in diesem Zusammenhang: Sie muss mit den Fakten übereinstimmen. Zunächst aber bleibt festzuhalten: 1) Aussagen der Erfahrungswissenschaften (Hypothesen, Theorien) sollen über die Realität eines Gegenstandsbereichs informieren, für den sie aufgestellt wurden. 2) Sie müssen an eben dieser Realität, für die sie gelten sollen, scheitern können. Dieser Anspruch grenzt empirische Theorien von anderen wissenschaftlichen und sonstigen Aussagesystemen ab. Man nennt dies das Abgrenzungskriterium empirischer Wissenschaft. Erfahrungswissenschaft erhebt somit keinen allumfassenden Geltungsanspruch. Das genannte Abgrenzungskriterium definiert vielmehr „aus dem Bereich möglicher Fragestellungen und möglicher Erkenntnisobjekte (der ,Welt‘ überhaupt) ein Segment-…, das als Bereich dessen, was überhaupt von dieser Wissenschaft untersucht werden soll, gilt und zu dessen Erkenntnis ein Satz bestimmter methodischer Regeln sich als brauchbar erwiesen haben soll“ (Hülst 1975,12). Asymmetrie zwischen Falsifikation und Verifikation Bedingungen für die Falsifikation Aussagen sollen informieren Aussagen müssen scheitern können Abgrenzungskriterium <?page no="37"?> 38 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 38 Wenn nun aber in einer erfahrungswissenschaftlichen Theorie nur widerlegbare Hypothesen zugelassen, nicht widerlegbare Aussagen verboten sind, dann besteht das Problem darin, wie man an „wahre Aussagen“ kommt (genauer: wie man die „Wahrheit“ von Aussagen erkennen kann). Die Hypothesen können noch so oft mit den Beobachtungsergebnissen übereinstimmen, sie können dennoch niemals endgültig bewiesen, d. h. verifiziert werden. Das gilt jedenfalls für die oben vorgestellte sprachlogische Form der All-Aussage. Und gerade solche Aussagen, die Geltung unabhängig von Raum und Zeit beanspruchen (nomologische Hypothesen), soll die empirische Wissenschaft (nach den Forderungen des Kritischen Rationalismus) anstreben. Dass es für die Sozialwissenschaften solche Nomologien streng genommen nicht-- oder jedenfalls kaum- - gibt, ändert nichts an dem geforderten Prinzip der Gewinnung von wissenschaftlicher Erkenntnis mittels nomologischer Aussagen. In diesem Zusammenhang schleicht sich häufig ein sprachliches Missverständnis ein. Es beruht darauf, dass nicht unterschieden wird zwischen den Formulierungen: „Eine Aussage ist wahr (bzw. nicht wahr)“ und „Die Wahrheit der Aussage ist bewiesen (bzw. nicht bewiesen)“. Deshalb sei hier hervorgehoben: Im Sinne der Aussagenlogik hat jede Aussage entweder die Eigenschaft „wahr“ oder die Eigenschaft „nicht wahr“. Dass ein All-Satz nicht (endgültig) verifiziert werden kann, heißt nicht, dass die All-Aussage niemals (endgültig) wahr sein könne. Es heißt lediglich: Die (mögliche) Wahrheit der Aussage kann nicht endgültig bewiesen (=-verifiziert) werden. Um sich angesichts der oben genannten Schwierigkeit dennoch an die- - nicht endgültig beweisbare- - Wahrheit heranzutasten, wird von kritischen Rationalisten als eine Strategie (nach einer frühen Version Poppers) das folgende Vorgehen bei der Überprüfung empirischer Aussagen empfohlen: Hat sich eine Hypothese oder eine Theorie als empirisch falsch erwiesen und war die zur Falsifikation führende Beobachtung korrekt, dann wird diese Hypothese/ Theorie verworfen. Das heißt nicht, dass sie samt und sonders in den Papierkorb wandert; sondern sie darf in der gegenwärtigen Formulierung keine Geltung mehr beanspruchen. Die Konsequenz besteht in zwei Alternativen: - Die falsifizierte Hypothese/ Theorie ist entweder aufgrund der ihr widersprechenden Daten „nicht mehr zu retten“ und daher zu verwerfen; - oder sie kann unter Berücksichtigung der neu gewonnenen Erkenntnisse so umformuliert werden, dass ihr „Falschheitsgehalt“ eliminiert wird. Diese neue Theorie oder Hypothese ist dann wiederum empirischen Tests zu unterwerfen. Wird sie wieder falsifiziert, ist sie gegebenenfalls erneut zu modifizieren und empirisch zu testen usw. Bestätigen dagegen die empirischen Befunde die Hypothese/ Theorie, wird diese als vorläufig bestätigt im Bestand empirischer Theorien/ Hypothesen beibehalten und bei nächster Gelegenheit einer schärferen Überprüfung (einem empirischen Test unter härteren Bedingungen) ausgesetzt. Hypothesen/ Theorien, die wiederholten und verschärften empirischen Tests standgehalten haben, gelten als bewährte Aussagen. Damit aber ist der Prozess des Forschens nicht zu Ende. „Bewährte Aussagen“ werden im Allgemeinen solche sein, deren Geltung durch einschränkende Randbedin- Unterschied: wahr / bewiesen Wahrheitsannäherungsstrategie des Kritischen Rationalismus bewährte Aussagen <?page no="38"?> 39 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 39 gungen oder andere Einschränkungen des Geltungsbereichs relativ eng eingegrenzt worden ist. Sie sind dann keine echten All-Aussagen, sondern Aussagen mit eingeschränkter Reichweite. Die empirische Wissenschaft soll nun versuchen, aus solchen Hypothesen/ Theorien „mittlerer Reichweite“ allgemeinere, umfassendere Hypothesen/ Theorien zu formulieren, deren Geltungsbereich die bewährten Aussagen als Teilmenge enthält, aber zusätzlich noch weitere Phänomene mit erklärt. Solche allgemeineren Hypothesen haben einen höheren Informationsgehalt; 24 aus ihnen können spezifischere Hypothesen unter Angabe bestimmter Randbedingungen deduktiv abgeleitet werden. Bei der Überprüfung dieser allgemeineren Aussagen geht der- - idealtypische-- Erfahrungswissenschaftler wieder so vor, wie eben geschildert: empirischer Test → bei Falsifikation Umformulierung → erneuter Test → bei Bestätigung Verschärfung der Überprüfungsbedingungen →usw. 25 Das heißt also: An „wahre Aussagen“ tastet sich die empirische Wissenschaft durch Versuch und Irrtum, durch Ausscheiden falscher Hypothesen, durch verschärften Test bestätigter, durch Erweiterung bewährter Hypothesen heran. Das „Wahrheits- (entscheidungs)kriterium“ ist somit einzig und allein die Konfrontation mit erfahrbarer Realität. Als Kriterium der Wahrheit (genauer: Kriterium der Entscheidung über die Wahrheit) gilt nicht „höhere Einsicht“, nicht der Hinweis auf „letzte Quellen“ oder auf Autoritäten (etwa die Bibel oder Max Weber oder Karl Marx), sondern einzig und allein der langwierige Weg von Versuch und Irrtum beim Vergleich von theoretischer Aussage und beobachtbarer Realität. 26 24 Unter hohem „Informationsgehalt“ (oder: hohem empirischem Gehalt) einer Aussage wird verstanden: Sie sagt relativ viel über die Realität aus, bzw. sie schließt viele potenzielle Realitätszustände aus. Das Tautologie-Beispiel vom Hahn auf dem Mist hat keinen Informationsgehalt; die Aussage informiert überhaupt nicht über das Wetter; sie schließt keinen potenziellen Wetterzustand aus. Für eine sehr gut verständliche Darstellung des Konzepts „Informationsgehalt“ siehe Prim/ Tilmann,1975, 70 ff. 25 Die Schilderung des Vorgehens bei hypothesentestender und theoriebildender Forschung muss an dieser Stelle noch recht abstrakt bleiben, da eine detailliertere Darstellung auf methodologische Konzepte zuzugreifen hätte, die erst in den Kapiteln 3 und 4 zur Verfügung gestellt werden. Dort wird die hier nur grob angerissene Frage noch einmal aufgegriffen und an einem Beispiel vertieft (vgl. Kap. 4.3.1). 26 Das Entscheidungskriterium „Übereinstimmung der theoretischen Aussage mit den Tatsachen“ oder „Korrespondenz von Theorie und Realität“, wie es hier angesprochen wird, verweist auf die schon angesprochene „Korrespondenztheorie der Wahrheit“ (s. Fußnote 17). D. h.: „Die Wahrheit eines Satzes bemisst sich an der Korrespondenz des Aussageinhaltes mit der wirklichen Welt, wenngleich- … Wahrheitsgewissheit prinzipiell nicht zu erlangen ist.“ (Esser/ Klenovits/ Zehnpfennig, Bd. 1, 1977, 167). Erweiterung des Geltungsbereichs Wahrheits- (entscheidungs)kriterium <?page no="39"?> 40 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 40 1.3.3 Probleme und Dilemmata bei der Suche nach empirischen „Gesetzen“ Nun mag zwar das oben postulierte Vorgehen bei der empirischen Suche nach (und der Annäherung an) „Wahrheit“ logisch einleuchten. Praktisch jedoch stellen zwei gravierende Probleme die empirische Wissenschaft vor grundlegende Schwierigkeiten. Das erste Problem bezieht sich auf das absolute Postulat der endgültigen Zurückweisung einer Aussage, sobald auch nur ein einziger Fall auftaucht, der im Widerspruch zu der Theorie/ Hypothese steht. Dieses Postulat gilt logisch nur für nomologische Aussagen, d. h. für (deterministische) „Gesetzesaussagen“, deren Geltungsanspruch weder räumlich noch zeitlich eingeschränkt ist. Da es solche Aussagen für die Sozialwissenschaften derzeit kaum gibt, würde es auch keine empirischen sozialwissenschaftlichen Gesetzmäßigkeiten vorzuweisen geben. Dies wäre natürlich keine für die Sozialforschung (auch nicht für Wissenschaftstheoretiker) befriedigende Situation, so dass ein Ersatz für nomologische Aussagen gefunden werden muss. Das zweite Dilemma allerdings existiert auch im Falle nomologischer Gesetze. Es entsteht, weil die Entscheidung über die (endgültige) Zurückweisung einer empirischen Hypothese bei konträren Beobachtungen sich bei genauerem Hinsehen als weitaus schwieriger erweist, als dies bisher vereinfachend dargestellt wurde. Denn die Hypothese (=-die auf Vermutungen basierende Aussage) über reale Phänomene kann ja nicht unmittelbar mit der Realität konfrontiert werden, sondern lediglich mit einer auf Beobachtungen fußenden anderen Aussage über die Realität. Und diese Beobachtungsaussage 27 über ein Ereignis kann selbst falsch sein. Sie müsste sich, um als Grundlage für die Entscheidung über die Hypothese dienen zu können, verifizieren lassen (siehe weiter unten: Basissatzproblem). Zu Problem 1: Nomologien, statistische Gesetze oder Aussagen mittlerer Reichweite? Eine der Rettungsmöglichkeiten aus diesem ersten Dilemma wurde schon angedeutet: Pragmatischerweise wird man bei gegebener Sachlage nicht sozialwissenschaftliche Hypothesen/ Theorien mit uneingeschränktem Geltungsanspruch („Gesetzeshypothesen“), sondern zunächst Aussagen eingeschränkter Reichweite formulieren. 28 Man gibt also einschränkende Randbedingungen an; beispielsweise soll ein postulierter Zusammenhang nur für entwickelte Industriegesellschaften westlicher/ kapitalistischer Prägung gelten oder nur für eine bestimmte geschichtliche Epoche oder nur für einen begrenzten geografischen Raum oder-… Im Vergleich zu Nomologien haben Aussagen eingeschränkter Reichweite allerdings einen geringeren Informationsgehalt (bzw. „empirischen Gehalt“ vgl. Fußnote 23). Eine Hypothese „Wenn x, dann y“ gilt 27 Synonyme Bezeichnungen: Protokollaussage, Protokollsatz, (empirischer) Basissatz. 28 Vom amerikanischen Soziologen Robert K. Merton wurde der Begriff „Theorien mittlerer Reichweite“ geprägt. Er bezeichnet theoretische Aussagen, „die mehr sind als nur ad-hoc-Theorien, wie sie dauernd zur Verständigung über einzelne wahrgenommene empirische Regelmäßigkeiten produziert werden, aber weniger als umfassende und komplexe Theorien bzw. integrierte theoretische Zusammenhänge“ (König 1973, 3). Dilemmata des Hypothesentests Falsifikation nur für-nomologische Aussagen Prüfung nur durch Beobachtungsaussagen Theorien mittlerer Reichweite <?page no="40"?> 41 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 41 dann nicht mehr für alle x und y (All-Aussage), sondern ist nur noch anwendbar, wenn zusätzliche Randbedingungen erfüllt sind. Das bedeutet aber, dass aus der allgemein formulierten Hypothese durch Deduktion nur noch Aussagen für eine kleinere Zahl konkreter Situationen (=-potenzielle oder „theorie-implizierte“ Basissätze) ableitbar sind, in denen die Hypothese sich bewähren oder auch scheitern könnte. Der Kritische Rationalist würde formulieren: Die Menge der potenziellen Falsifikatoren ist eingeschränkt worden. Im Extremfall kann der Informationsgehalt durch Formulierung von ceteris-paribus-Klauseln (d. h. Einschränkungen wie „unter ansonsten gleichen Bedingungen“) so weit eingegrenzt werden, dass empirisch überhaupt kein einziger Fall mehr den Bedingungen dieser Aussage gerecht werden kann. Damit aber ist die Aussage/ Theorie nicht mehr empirisch überprüfbar, sie hat keinen empirischen Gehalt mehr und ist dadurch gegen die Erfahrung „immunisiert“ worden. 29 Der Kritische Rationalismus lässt die Formulierung von Hypothesen und Theorien eingeschränkter Reichweite durchaus zu, hält aber an dem Ziel der Erfahrungswissenschaft fest, möglichst „kühne“ Theoriegebäude mit möglichst hoher Erklärungskraft (d. h. auch: mit möglichst hohem empirischem Gehalt) zu entwerfen und durch Konfrontation mit der Realität weiterzuentwickeln. Theorien, die sich bei empirischen Tests teilweise bewähren oder teilweise falsifiziert werden, sind so umzuformulieren, dass ihr „Wahrheitsgehalt“ (weniger anspruchsvoll formuliert: die bewährten Bestandteile der Aussagen) nicht verloren geht und ihr „Falschheitsgehalt“ (die falsifizierten Bestandteile) eliminiert wird. Bewährte Aussagen wiederum sind „gehaltserweiternd“ umzuformulieren und erneut empirisch zu prüfen. Auf diese Weise-- so hofft der überzeugte Kritische Rationalist-- nähert sich die Wissenschaft Schritt für Schritt dem Idealbild empirisch bewährter Nomologien. 30 Die zweite-- in den Sozialwissenschaften am häufigsten gewählte-- Rettungsmöglichkeit ist, nicht deterministische Hypothesen (immer wenn x, dann auch y), sondern statistische oder probabilistische Aussagen zu formulieren. So ist z. B. mit einer Aussage über räumliche Mobilität: „Ältere Leute sind weniger mobil als jüngere Personen“ im Allgemeinen nicht gemeint: „Für alle Personen x und y gilt: Immer wenn Person x älter ist als Person y, dann ist x weniger mobil als y“. Sondern man meint damit entweder: „Für die Gruppe der alten Menschen gilt, dass sie im Durchschnitt weniger mobil ist als die Gruppe der jungen Menschen“. Oder-- auf die Einzelperson 29 Ein Beispiel hierfür ist das statische Marktmodell in der Volkswirtschaftstheorie, das allenfalls noch heuristische Funktionen erfüllen kann (als vorläufige, wenn auch unrealistische Annahme zum Zweck des besseren Verständnisses eines Sachverhalts). 30 Nicht weiter eingegangen wird an dieser Stelle auf die wissenschaftstheoretische Kontroverse, die sich an diesem Modell wissenschaftlichen Fortschritts entzündete und die sich insbesondere mit den Namen Imre Lakatos („Methodologie wissenschaftlicher Forschungsprogramme“; vgl. Lakatos/ Musgrave 1974) sowie Thomas S. Kuhn („Struktur wissenschaftlicher Revolutionen“; vgl. Kuhn 1967) verbindet. In dieser Kontroverse geht es um die „Makro“- Frage, inwieweit das Falsifikationsprinzip ein geeignetes Erklärungskonzept für Wissenschaftsfortschritt bzw. für den Übergang der Wissenschaft von einem Theorie- und Forschungsprogramm zum nachfolgenden darstellen kann. Ihr Nachvollzug ist für das Verständnis des methodischen Vorgehens der Erfahrungswissenschaft im hier behandelten „Mikro“-Bereich des einzelnen Forschungsprojekts entbehrlich. Menge möglicher Falsifikatoren Gehaltserweiterung von Theorien probabilistische Aussagen <?page no="41"?> 42 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 42 gemünzt--: „Die Wahrscheinlichkeit, mobil zu sein, ist für eine ältere Person geringer als für eine jüngere“. Beide Aussagen sind mit der Beobachtung von Fällen vereinbar, in denen die eine oder andere ältere Person dennoch mobiler ist als die eine oder andere jüngere Person. Nur sind solche Fälle eben weniger wahrscheinlich als die umgekehrte Merkmalskombination, so dass sich in den meisten Fällen die formulierte Hypothese bestätigen dürfte. Für die Prüfung statistischer/ probabilistischer Hypothesen reichen Einzelbeobachtungen nicht aus. Erforderlich sind vielmehr Informationen über eine größere Zahl von Fällen, die in ihrer Zusammensetzung „repräsentativ“ für die Gesamtheit der durch x und y bezeichneten Fälle sein müssen. Die Wahrscheinlichkeitsstatistik stellt für die Entscheidung über statistische/ probabilistische Hypothesen geeignete Modelle bereit. Zu Problem 2: Objektivität oder Intersubjektivität? Das Basissatz-Dilemma „Das Ethos der Wissenschaft ist die Suche nach ‚objektiver‘ Wahrheit“, schrieb 1971 der schwedische Sozialwissenschaftler Gunnar Myrdal. „Objektiv“ meint in diesem Zusammenhang, dass für die Wahrheit einer Erkenntnis die Objekte in der Realität entscheidend sind, wie sie außerhalb des erkennenden Subjekts existieren. Dies kommt auch in der Entscheidungsregel des Kritischen Rationalismus zum Ausdruck, wie sie bisher in diesem Text dargestellt wurde: Über die Wahrheit einer empirischen Aussage (Hypothese) entscheidet die Konfrontation mit der Realität. Stimmt der semantische Gehalt (=- die Bedeutung) der Aussage mit den Gegebenheiten in der Realität überein, dann gilt sie als richtig; ist dies nicht der Fall, dann gilt sie als falsch (=-„Korrespondenztheorie der Wahrheit“, vgl. Fußnoten 17 und 26). Nun kann jedoch eine Aussage nicht unmittelbar „mit der Realität konfrontiert“ werden; vielmehr muss die Realitätswahrnehmung eines erkennenden Subjekts zwischengeschaltet werden. Sinneswahrnehmungen bilden somit die Grundlage für jegliche Form von Wissen (vgl. „erkenntnistheoretischer Realismus“, Kapitel 1.2.1). Die „Konfrontation mit der Realität“ geschieht im erkennenden Subjekt; dieses vergleicht den semantischen Gehalt der Aussage (=-die Behauptung über die Realität) mit seinem Wahrnehmungserlebnis (=- mit den durch die Wahrnehmungssinne erkannten Gegebenheiten der Realität). Soll dieses der „Beweis“ für die Richtigkeit oder Falschheit einer (hypothetisch formulierten) Tatsachenbehauptung sein, muss die Möglichkeit einer unverfälschten, die Gegebenheiten der Realität korrekt abbildenden (insofern also „objektiven“) Wahrnehmung unterstellt werden. Diese Möglichkeit wurde in der Tat im frühen Positivismus angenommen. Unterstellt, „objektive“ Wahrnehmung wäre tatsächlich möglich, bleibt immer noch ein Problem bestehen: Das Wahrnehmungserlebnis der beobachtenden Person kann nicht als solches kommuniziert werden; es ist lediglich subjektive Erfahrung. Zum Zwecke der Kommunikation ist es in eine sprachliche Form zu übersetzen: in eine „Beobachtungsaussage“ bzw. einen „Protokollsatz“. Erst diese Beobachtungsaussage lässt sich vom erkennenden Subjekt ablösen und kann damit zur Basis für intersubjektiv geteilte Erfahrung werden. Korrespondenztheorie der Wahrheit Problem wahrgenommener Realität <?page no="42"?> 43 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 43 Doch auch jetzt sind wir noch nicht am Ziel. Ein direkter Vergleich der Beobachtungsaussage (des Protokollsatzes) mit der Realitätsbehauptung der zu prüfenden Hypothese ist noch immer nicht möglich. Die beiden Aussagen gehören nämlich zwei unterschiedlichen „Sprach-Ebenen“ (Carnap) an. Bei der Beobachtungsaussage (empirischer Basissatz) handelt es sich um das „Protokoll“ eines einzelnen, raum-zeitlich fixierten Beobachtungsfalls, um eine „singuläre Aussage“; etwa: „Am 29.8.2005 zwischen 18 und 19 Uhr wurden in der Straße ‚An der Bottmühle‘ im zentrumsnah gelegenen Severinsviertel der Stadt Köln 23 Nachbarschaftskontakte beobachtet.“ Und: „In der Neubausiedlung von Bocklemünd am Stadtrand von Köln wurden am 29.8.2005 zwischen 18 und 19 Uhr am ‚Theodor-Heuß-Ring‘ sechs Nachbarschaftskontakte beobachtet.“ Die Hypothese aus dem weiter oben behandelten Beispiel („In neu gebauten Vorortwohnsiedlungen sind die Nachbarschaftskontakte weniger intensiv als in innerstädtischen älteren Wohngebieten“) ist demgegenüber allgemeiner und ohne räumlich-zeitliche Einschränkungen formuliert. Bevor diese hypothetisch-theoretische Aussage mit den Beobachtungsergebnissen konfrontiert werden kann, ist sie auf eine konkrete empirische Basis zu beziehen. Anders ausgedrückt: Aus der abstrakt und allgemein formulierten Hypothese sind durch logische Deduktion konkrete und beobachtbare Realitätsbehauptungen (theoretische Basissätze) abzuleiten; etwa: „Beim Kölner Severinsviertel handelt es sich um ein älteres innerstädtisches Gebiet; in Bocklemünd am Kölner Stadtrand existiert eine Neubauwohnsiedlung. In den Wohnstraßen des Severinsviertels kommt es zu mehr Nachbarschaftskontakten als in den Wohnstraßen des Neubauteils von Bocklemünd.“ Jetzt erst-- nachdem die Hypothese/ Theorie auf eine konkrete empirische Basis bezogen wurde und nachdem Aussagen über das Ergebnis von Beobachtungen an eben dieser empirischen Basis vorliegen-- ist der Vergleich zwischen Theorie und Empirie möglich: Verglichen werden die (deduktiv aus der Hypothese abgeleiteten) theoretischen bzw. theorie-implizierten (Esser 1984) Basissätze mit den (die Beobachtungen beschreibenden) empirischen Basissätzen. Allerdings ergibt sich bis zu diesem Punkt noch nicht das behauptete „Basissatz-Problem“ oder „Basissatz-Dilemma“. Dieses entsteht vielmehr dadurch, dass es- - im Unterschied zur Annahme des frühen Positivismus- - eine voraussetzungslose Wahrnehmung nicht geben kann, dass vielmehr jede Wahrnehmung „theoriegetränkt“ ist. In Wirklichkeit wird nicht lediglich-- wie oben vereinfachend formuliert-- das Wahrnehmungserlebnis des erkennenden Subjekts in eine sprachliche Form „übersetzt“. Vielmehr wird die Wahrnehmung durch das begriffliche Instrumentarium gelenkt. Kein Beobachter hat es mit irgendeiner neutral wahrnehmbaren Realität zu tun, sondern immer mit einer durch Begriffe bereits vorstrukturierten. „Wir ordnen die Erfahrungswelt durch unsere Begriffe, aber diese Ordnung entspricht nicht unbedingt einer objektiven Wirklichkeitsstruktur“ (Mayntz, Holm, Hübner 1971, 9). empirische Basissätze BEISPIEL theoretische Basissätze BEISPIEL Basissatz-Problem Begriffliche Ordnung der Wahrnehmung <?page no="43"?> 44 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 44 Unter einem Begriff verstehen wir ein sprachliches Zeichen (Wort), das mit einem bestimmten Vorstellungsinhalt fest verbunden ist; und Wahrnehmung besteht darin, diesen durch den Begriff vorgegebenen Vorstellungsinhalt in der Realität wiederzufinden. Für Dinge, für die wir keine Vorstellungsinhalte entwickelt haben und die wir somit nicht „auf den Begriff bringen“ können, sind wir praktisch blind. Diese generelle, in den Beobachtungsbegriffen sich manifestierende „Realitätstheorie“ müssen wir bei jeder-- auch der alltäglichen-- Wahrnehmung anwenden, um Realität überhaupt erkennen zu können. Bei der methodisch kontrollierten wissenschaftlichen Beobachtung sind darüber hinaus weitere Theorien heranzuziehen, um zu den empirischen Beobachtungsbzw. Protokollsätzen (allgemein: zu Daten) zu gelangen. Dass-- auf der sprachlich-logischen Ebene-- die theoretische Sprache der Hypothesen in Beobachtungssprache (deduktiv abgeleitete Realitätsbehauptungen) überführt werden muss, wurde als Aufgabe schon benannt. Auf der empirischen Ebene, also der Ebene der Sachverhalte und Phänomene, ist eine analoge „Übersetzungs“-Aufgabe zu lösen: Für den mit dem theoretischen Begriff gemeinten (nicht direkt beobachtbaren) Sachverhalt müssen andere (und zwar: unmittelbar wahrnehmbare) Sachverhalte bestimmt und über sogenannte „Korrespondenzregeln“ mit dem theoretischen Sachverhalt verknüpft werden, so dass sie in eindeutiger Weise als (beobachtbare) „Indikatoren“ für das eigentlich Gemeinte dienen können. 31 Im obigen Beispiel ist in der Hypothese von der Intensität der Nachbarschaftskontakte die Rede, die Protokollsätze geben dagegen lediglich Auskunft über die Häufigkeit von Kontakten. Die (zählbare) Häufigkeit wird anstelle der nicht ohne Weiteres feststellbaren Intensität beobachtet und protokolliert. Offenbar soll hier folgende Korrespondenzregel gelten: „Je intensiver die Nachbarschaftsbeziehungen ausgeprägt sind, desto häufiger kommt es zu Kontakten zwischen den Nachbarn.“ Sofern diese Annahme stimmt, kann man aus der Häufigkeit auf die Intensität rückschließen. Zur systematischen Feststellung und Protokollierung der zu beobachtenden Sachverhalte müssen sodann Erhebungsbzw. Messinstrumente entwickelt und eingesetzt werden. Zur Auswertung der gewonnenen Informationen sind des Weiteren geeignete Methoden der Informationsverdichtung (statistische Modelle) anzuwenden. Der schließlich zu formulierende empirische Basissatz kommt erst in Abhängigkeit von all diesen Zwischenschritten und den dabei verwendeten theoretischen Vorannahmen zustande, ist also das Resultat von Wahrnehmungs- und Instrumententheorien sowie ihrer praktischen Anwendung. 32 31 Auf die Thematik Indikatoren/ Korrespondenzregeln sowie auf das daraus sich ergebende „Korrespondenzproblem“ wird sowohl in Kapitel 2.4.2 (Design hypothesentestender Forschung) als auch im Kapitel 4 (Operationalisierung) noch ausführlicher eingegangen. 32 Damit eine intersubjektive Nachvollziehbarkeit und Kontrolle möglich ist, sind alle diese Zwischenschritte und die dabei anzuwendenden Verfahren zu begründen und zu dokumentieren. empirische mit theoretischen Sachverhalten verknüpfen BEISPIEL methodenabhängiger empirischer Basissatz <?page no="44"?> 45 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 45 Eine „objektive“ Abbildung der Realität können empirische Basissätze nur in dem Maße sein, in dem diese (Hilfs-)Theorien nicht fehlerhaft sind und in dem bei ihrer Anwendung keine Fehler begangen wurden. Wie unschwer zu erkennen ist, befindet sich der Kritische Rationalismus mit seiner Wahrheits-Entscheidungsregel an dieser Stelle in einem logisch nicht auflösbaren Dilemma: Soll (und kann) tatsächlich eine Protokollaussage über eine Beobachtung, die zu einer nomologischen Hypothese im Gegensatz steht, ausreichen, um diese Hypothese in der vorliegenden Form endgültig zu widerlegen? Kehren wir noch einmal zu der Hypothese über Nachbarschaftskontakte in unterschiedlichen Wohngebieten zurück und nehmen wir an, ein weiteres Paar von Beobachtungen habe zu folgendem Protokollsatz geführt: „In der Vorortsiedlung x sind zum Zeitpunkt t die Nachbarschaftskontakte (gemessen an ihrer Häufigkeit) intensiver gewesen als im innerstädtischen Gebiet y zum gleichen Zeitpunkt t.“ Logisch ergäbe sich überhaupt kein Problem, die Hypothese aufgrund dieses Protokollsatzes zurückzuweisen, sofern dieser als wahr bewiesen (verifiziert) werden könnte. Das aber ist-- wie eben dargelegt-- nicht möglich. Denn das Forschungsprojekt ist ja nicht ohne die implizite Unterstellung der Richtigkeit anderer Hypothesen zu dieser Aussage gekommen, z. B.: Immer, wenn ich die Beobachtungs- oder Befragungsinstrumente A, B, C von geschulten Mitarbeitern auf beliebige Erhebungsobjekte (hier: Wohnsiedlungen) anwenden lasse, werden die Ergebnisse der Erhebung von Eigenschaften der Objekte (hier: Häufigkeit von Nachbarschaftskontakten als Indikator für deren Intensität) zu korrekten Abbildungen der realen Phänomene führen. Aber: Solche Hintergrundhypothesen sind ihrerseits genauso wenig verifizierbar wie andere empirische Hypothesen. Wenn es deshalb so ist, dass der Protokollsatz (der empirische Basissatz) nicht verifiziert werden kann, dann ist er eine unsichere Datenbasis. Die logische Konsequenz ist: Durch einen solchen (nicht beweisbaren) Protokollsatz können wir eigentlich die zu überprüfende Hypothese nicht falsifizieren (als endgültig falsch zurückweisen), selbst wenn er der aus der Hypothese abgeleiteten Realitätsbehauptung (=-dem theorie-implizierten Basissatz) widerspricht. 33 . Die Lösung dieses Dilemmas ist nur konventionalistisch, d. h. durch Vereinbarung der Wissenschaftlergemeinde (des sozialen Systems „Erfahrungswissenschaft“) möglich. Man vereinbart: - Die Forscherin bzw. der Forscher hat den gegenwärtig höchstmöglichen methodischen Standard einzuhalten; und 33 Ihnen wird vielleicht aufgefallen sein, dass bei der geschilderten Hypothesenprüfung eigentlich zwei Problemtypen auftreten: a) der Nachweis der Richtigkeit der Beobachtung und ihrer Beschreibung im Protokollsatz (=-das Basissatzproblem im engeren Sinne) sowie b) der Nachweis der „Gültigkeit“ der Indikatoren als Stellvertreter für den theoretisch gemeinten Sachverhalt, d. h. die Verifikation der Korrespondenzregeln (=-das „Korrespondenzproblem“; hierauf wird im Kapitel 2.4.2 sowie im Kapitel 4 noch näher eingegangen). Basissatzdilemma Forschungsergebnisse basieren auf Annahmen Lösung durch Konvention <?page no="45"?> 46 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 46 - die Forschungsprozesse, die zu den Protokollsätzen (allgemeiner: zur Datenmatrix, vgl. Kapitel 5.3.3) geführt haben, müssen intersubjektiv überprüfbar und nachvollziehbar sein; d. h.: Das ganze Vorgehen muss gut dokumentiert, jede Entscheidung muss explizit gemacht und begründet werden. Wenn andere Forscher an der Richtigkeit der Protokollsätze zweifeln, sollen sie in der Lage sein, den Vorgang genau zu replizieren. Zumindest muss das Vorgehen gedanklich nachvollziehbar sein, um eventuelle Schwachstellen im Forschungskonzept aufdecken zu können. Mit anderen Worten: Das empirische Forschungsprojekt hat sich offen der Kritik anderer Wissenschaftler und der Öffentlichkeit zu stellen (das ist die Bedeutung des Wortes „Kritik“ in der Bezeichnung „Kritischer Rationalismus“). 34 Wenn diese Bedingungen erfüllt sind, dann wird der Protokollsatz (der empirische Basissatz) so lange als richtig anerkannt, wie er nicht durch begründete Methodenkritik ins Wanken gebracht oder durch andere Forschungsergebnisse selbst widerlegt worden ist. Wird also die Datenbasis, die zur Falsifikation einer Hypothese/ Theorie geführt hat, selbst hinsichtlich ihrer Gültigkeit und Zuverlässigkeit (vgl. Kap. 4.3 und 5.6) widerlegt, dann kann die zunächst falsifizierte Hypothese/ Theorie wieder in den Kreis der noch nicht falsifizierten empirischen Aussagen zurückgeholt werden. Nach der Unmöglichkeit der Verifikation empirischer Hypothesen erweist sich auch deren (endgültige) Falsifikation als unmöglich. Das ansonsten nicht lösbare Basissatz-Problem wird nur per Vereinbarung umschifft: Solange das Vorgehen der Forschung dem jeweils besten methodischen Standard entspricht, sollen die empirischen Befunde als brauchbare Annäherung an die realen Phänomene akzeptiert werden. „Die Basissätze werden durch Beschluss, durch Konvention anerkannt, sie sind Festsetzungen“ (Popper 1971, 71). Das Ziel „Objektivität“ muss mangels Einlösbarkeit (wegen der zwischengeschalteten, immer subjektiv bleibenden Wahrnehmungserlebnisse der Beobachter) zurückgenommen und reduziert werden auf das Konzept „kontrollierte Intersubjektivität“. 1.3.4 Hypothesen und Theorien Ein weiteres Stichwort ist bisher schon mehrfach gefallen: empirische Theorie. Beispielsweise wurde es als die zentrale Aufgabe der Wissenschaft erfahrungswissenschaftlicher Richtung bezeichnet, Theorien über die Realität eines Gegenstandes aufzustellen und diese zu überprüfen. Das Ziel empirischer Forschung ist also nicht das Sammeln verstreuter Einzelinformationen-- auch wenn dies angesichts mancher 34 Dieser unbequemen Forderung geht ein großer Teil der Forschungspraxis nur allzu gern aus dem Wege. Nachvollziehbarkeit der Forschung Intersubjektivität statt Objektivität Ziel der Theorieentwicklung <?page no="46"?> 47 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 47 Datenfriedhöfe so aussehen mag--, sondern sie hat (wie jede wissenschaftliche Forschung) die systematische Erfassung von Zusammenhängen zum Ziel. Und solche systematische Beschreibung der Zusammenhänge von Sachverhalten geschieht in der Form von Theorien. Empirisch bewährte Theorien sind nichts anderes als die „Systematisierung des gesammelten Wissens“ (Zetterberg 1973, 103). Unter empirischer Theorie soll im Folgenden verstanden werden: ein System logisch widerspruchsfreier Aussagen (Sätze, Hypothesen) über den jeweiligen Untersuchungsgegenstand mit den zugehörigen Definitionen der verwendeten Begriffe. Unter einer Hypothese versteht man zunächst nicht mehr als eine Vermutung über einen Tatbestand. Im Alltag kann jemand die „Hypothese“ aufstellen, dass der als wenig zuverlässig bekannte Kommilitone Franz wieder einmal die übernommene Aufgabe bis zum nächsten Treffen der studentischen Arbeitsgruppe nicht vollständig erledigt haben wird. Eine „statistische Hypothese“ kann lauten, dass der Mittelwert des Einkommens der untersuchten Stichprobe von Beschäftigten nicht signifikant vom Durchschnitt der erwerbstätigen Bevölkerung abweicht. Im Zusammenhang mit empirischen Theorien hat jedoch der Begriff eine spezifischere Bedeutung. Unter Hypothese wird im Kontext sozialwissenschaftlicher Theorien verstanden: eine Vermutung über einen Zusammenhang zwischen mindestens zwei Sachverhalten. Nach Auffassung des Kritischen Rationalismus ist es für das wissenschaftliche Vorgehen der Bestätigung oder Widerlegung von Hypothesen gleichgültig, wie der Forscher an seine Hypothesen kommt: ob aus seinem Alltagsvorverständnis über den Tatbestand, ob aus Zeitungsberichten, ob durch induktive Herleitung aus beobachteten singulären Ereignissen. 35 Interessant ist einzig und allein, ob sich die Vermutungen empirisch widerlegen oder bestätigen lassen. Zu einer Theorie gehören mehrere Hypothesen, jedoch nicht ungeordnete isolierte Hypothesen über dieses und jenes. Von einer Theorie reden wir erst bei einem System 35 Hier befindet sich der Kritische Rationalismus in deutlichem Gegensatz zu Methodologien, für die auch die Entwicklung von Hypothesen, die „Entdeckung“ einer Theorie ein wichtiges Ziel des methodisch kontrollierten Forschungsprozesses ist. Dies gilt in besonderem Maße für den „Grounded-Theory“-Ansatz (vgl. Strauss 1991, Strübing 2008). Definition: Theorie BEISPIEL Definition: Hypothese <?page no="47"?> 48 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 48 von Hypothesen über einen Gegenstandsbereich, und zwar einem logisch widerspruchsfreien System. D. h.: Die einzelnen Sätze oder Hypothesen müssen sich auf den gleichen Gegenstandsbereich beziehen, und sie dürfen sich nicht logisch ganz oder teilweise gegenseitig ausschließen oder sich widersprechen. Die Hypothese über die Intensität von Nachbarschaftskontakten in alten und neuen Wohngebieten (s. o.) könnte z. B. Bestandteil einer- - hier frei erfundenen- - Mini-Theorie über den Zusammenhang zwischen Wohndauer, räumlicher Nähe und Kontakthäufigkeit sein oder als Ableitung aus ihr folgen. Beispiel: 1) Je näher Personen zusammen wohnen, desto häufiger nehmen sie miteinander Kontakt auf. 2) Je häufiger Personen interagieren, desto intensiver wird die Beziehung zwischen ihnen. 3) Je länger Personen in einem Gebiet wohnen, desto stabiler wird das Interaktionsnetz im Nachbarschaftsbereich. 4) Je älter und zentraler gelegen Wohngebiete sind, desto höher ist ihre Bebauungsdichte. 5) In älteren innerstädtischen Wohngebieten wohnen die Menschen länger als in neu gebauten Vorortwohnsiedlungen. 6) In neu gebauten Vorortwohnsiedlungen sind die Nachbarschaftskontakte weniger intensiv als in innerstädtischen älteren Wohngebieten. Erste Anforderung an empirische Hypothesen war: Sie müssen an der Erfahrung prinzipiell scheitern können (Kriterium der Prüfbarkeit). Alle sechs Aussagen genügen dieser Anforderung. Sie sind so formuliert, dass sie widerlegbar sind; sie enthalten nur Begriffe mit empirischem Bezug; jede Aussage bezieht sich auf einen Sachverhalt, der prinzipiell erfahrbar ist. Die zweite Anforderung- - bezogen auf den Begriff Theorie- - wird auch erfüllt: Die Aussagen stehen in einem erkennbaren Zusammenhang zueinander und beziehen sich auf den gleichen Gegenstandsbereich; es sind nicht ungeordnete Aussagen. Auch die dritte Anforderung ist erfüllt: Die Aussagen sind miteinander logisch verträglich (Kriterium der internen Konsistenz); was in einer Hypothese gesagt wird, steht nicht in Widerspruch zu den jeweils anderen Aussagen. 36 Das Aussagensystem weist in diesem Beispiel sogar noch Merkmale einer axiomatisch formulierten Theorie auf, und zwar ist die sechste Aussage die (deduktive) Ableitung aus vorhergehenden Sätzen. Die Aussagen 1 bis 5 sind Axiome; die Aussage 6 ist eine abgeleitete Hypothese (ein Theorem); sie enthält nicht mehr 36 Logisch unverträglich wäre das Aussagensystem, wenn z. B. Hypothese 3 lautete: „Je länger Personen in einem Gebiet wohnen, desto seltener nehmen sie miteinander Kontakt auf.“ In diesem Fall nämlich führen die Kombinationen (4 und 1) sowie (5 und 3) zu entgegengesetzten abgeleiteten Aussagen. BEISPIEL <?page no="48"?> 49 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 49 Informationen als schon in den Axiomen stecken. Genauer: Sie fasst hier die Informationen der Axiome 1, 2 und 4 zusammen. 37 Was an einer „Theorie“ im oben skizzierten Sinne jetzt noch fehlt, sind die Definitionen der verwendeten Begriffe (beispielsweise „Intensität von Nachbarschaftskontakten“, „Bebauungsdichte“). 1.3.5 Empirische Theorie und Realität Dass empirische Theorien/ Hypothesen überhaupt einen Bezug zur Realität haben müssen, stand oben als eine grundlegende Forderung: Alle Hypothesen müssen an der Erfahrung scheitern können. Daraus folgt, dass die Formulierung von Hypothesen nach Auffassung des Kritischen Rationalismus am Beginn der Forschungstätigkeit stehen muss 38 und dass erst danach über den Einsatz von Methoden und Instrumenten zur Gewinnung der benötigten Informationen entschieden werden kann. Denn wie sollte eine Theorie/ Hypothese an der Erfahrung scheitern können, wäre sie nicht vorher-- vor der gezielten Erfahrung durch Beobachtung-- schon vorhanden gewesen? Es gibt aber einen weiteren, weniger trivialen Grund, weshalb zunächst theoretische Überlegungen angestellt werden sollen und erst im Anschluss daran Forschungsaktivitäten einsetzen können. Und dieser Grund gilt nicht nur für hypothesentestende Untersuchungen, sondern für jede, auch noch so deskriptive Datensammlung. Keine Beschreibung eines realen Tatbestandes kann sozusagen fotografisch die Realität in ihrer ganzen Komplexität abbilden; darauf wurde in anderem Zusammenhang schon im Kapitel 1.3.3 verwiesen. Jede Beschreibung muss sich auf eine bestimmte Perspektive und auf einen relativ kleinen Ausschnitt aus der Wirklichkeit beschränken. Es muss also immer eine gezielte Selektion der Merkmale des Untersuchungsgegenstandes vorgenommen werden, die beobachtet werden sollen. Damit stehen wir vor der schwierigen Frage: Welchen Teil der Realität wollen wir abbilden? Welche Merkmale sollen als besonders relevant behandelt und somit erhoben werden? Welche Merkmale sollen wir als weniger relevant betrachten und bei der Datensammlung außer Acht lassen? Erst wenn wir eine gezielte Wahl getroffen und damit unsere Beobachtungsperspektive festgelegt haben, können wir systematisch beobachten, befragen, Daten erheben. Nur eine systematische Beobachtung eines Objektbereichs kann gewährleisten, „dass regelhafte Beziehungen seiner Struktur oder der Veränderung der Struktur-… erkannt werden. Eine Beobachtung ist prinzipiell theoriegeleitet; d. h. unabhängig von impliziten oder expliziten theoretischen 37 Häufig ermöglicht erst eine solche Ordnung der Hypothesen nach Axiomen und Theoremen (also eine Formalisierung der Theorie) das Aufdecken logischer Widersprüche. 38 Auch mit dieser Auffassung befindet sich der Kritische Rationalismus im Widerspruch zur qualitativen Sozialforschung. Ihr erscheint es (jedenfalls mehrheitlich) geboten, zunächst möglichst „offen“ in das Untersuchungsfeld einzutreten, sich also nicht durch vorab formulierte Hypothesen lenken zu lassen (vgl. etwa Hoffmann-Riem 1980). Hypothesen als-Ausgangspunkt der Forschung Forschung als gezielte Auswahl Vorbereitung systematischer Beobachtung <?page no="49"?> 50 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 50 Vorurteilen, ideellen Vorwegnahmen oder Vorentscheidungen-… kann keine Erfahrung gemacht werden“ (Hülst 1975, 14). 39 Ist eine Theorie oder eine Hypothese empirisch zu testen, dann gibt natürlich die Formulierung der Theorie/ Hypothese bis zu einem gewissen Grad die Beobachtungsperspektive und damit die Auswahl der zu beobachtenden Merkmale vor. Lautet die Aufgabe dagegen, einen nur global abgegrenzten Gegenstandsbereich zu beschreiben, dann muss zunächst aufgrund sorgfältiger Überlegungen (einer gedanklichen Durchdringung des Untersuchungsgegenstandes: „dimensionale Analyse“, vgl. Kap. 3.1) ein untersuchungsleitendes Modell des Gegenstandes konstruiert sowie eine Liste der relevanten Merkmale erstellt werden. Wir benötigen ein-- wie Zetterberg (1973) es genannt hat-- deskriptives Schema, eine Begriffsanordnung, die uns zu den Phänomenen und den Aspekten hinführt, denen wir unsere Aufmerksamkeit zuwenden wollen. Die Erstellung einer solchen Liste relevanter Eigenschaften, eines solchen deskriptiven Schemas, setzt zumindest implizite theoretische Überlegungen über die Eigenschaften des Gegenstandsbereichs und die Beziehungen zwischen diesen Eigenschaften (eben ein „Modell“ des Untersuchungsgegenstandes) voraus. So berichtet Zetterberg davon, dass z. B. die für Meinungserhebungen benutzten „objektiven (sozialstatistischen) Merkmale“ einer Person wie Alter, Geschlecht, Familienstand, Einkommen, Beruf, Konfession sowie Erziehung und andere Indikatoren der sozialen Position in der Gesellschaft von den Meinungsforschern scheinbar zwar durch reines Ausprobieren gewonnen wurden. Tatsächlich aber ist es der Versuch, alle Faktoren zu erfassen, die Meinungen und Einstellungen zu differenzieren scheinen. Also: Im Hintergrund dieser Merkmalsliste- - hierbei handelt es sich um ein solches „deskriptives Schema“- - steht eine Theorie über Zusammenhänge von „objektiven“ (soziodemografischen) Persönlichkeitsmerkmalen mit „subjektiven“ Persönlichkeitsmerkmalen wie Meinungen, Einstellungen (Zetterberg 1973, 118-119). Am Prozess der Entwicklung dieser Liste sozialstatistischer Merkmale von Personen zeigt sich auch die wechselseitige Abhängigkeit von Theorie und Empirie: Je besser die theoretischen Kenntnisse, umso brauchbarer wird das deskriptive Schema, das die Erhebung lenkt. Je besser wiederum das deskriptive Schema, um so theoretisch relevanter werden die erhobenen Daten und umso besser sind die Voraussetzungen für die Fortentwicklung der Theorie. Die theoretischen Kenntnisse oder-- wo solche nicht in gesicherter Weise vorhanden sind- - die Vermutungen/ Hypothesen über bestimmte Sachverhalte und Beziehungen strukturieren für eine beobachtende Person erst den Gegenstandsbereich, lenken ihre Aufmerksamkeit auf bestimmte, als relevant angesehene Aspekte. 39 Noch einmal zur Erinnerung: „Beobachtung“ ist in diesem Zusammenhang in sehr weit gefasstem Sinn zu verstehen als „jede Form sinnlicher Wahrnehmung“. Deskriptives Schema als Ausgangspunkt wechselseitige Abhängigkeit von-Theorie und Empirie <?page no="50"?> 51 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 51 Am Beispiel der Mini-Theorie über den Zusammenhang zwischen Wohndauer, räumlicher Nähe und Kontakthäufigkeit sei dies noch einmal verdeutlicht. Aus den formulierten Aussagen ergibt sich unmittelbar, welche Merkmale von Wohngebieten und welche Merkmale der Bewohner relevant sein (und daher beobachtet werden) sollen, bzw. welche anderen Merkmale im gegebenen Zusammenhang als unbedeutend außer Acht gelassen werden können. Wir hätten also Merkmale zu erheben wie: räumliche Nähe des Zusammenwohnens von Haushalten, Häufigkeit des Kontakts zwischen Mitgliedern verschiedener Haushalte, Intensität der Kontakte, Alter und Lage der Wohngebiete, Bebauungsdichte, Wohndauer der Haushalte. Unberücksichtigt lassen wir nach dieser Theorie dagegen Merkmale wie: Einkommen der Bewohner, Schulbildung, Art der Berufstätigkeit, Alter der Bewohner, Kinderzahl und Alter der Kinder in den Haushalten. Nun könnte es natürlich sein, dass jemand hierbei ein ungutes Gefühl hat und meint, zumindest Einkommen, Bildung, Berufstätigkeit, Alter, Kinderzahl müssten auch noch erhoben werden. Das wäre dann aber ein eindeutiges Zeichen dafür, dass offenbar im Hinterkopf eine umfassendere Theorie vorhanden ist, die lediglich nicht ausformuliert wurde. In dieser impliziten Theorie könnten Hypothesen vorkommen wie: Je höher die Schulbildung, desto reservierter verhält sich eine Person gegenüber ihren Nachbarn. Je älter eine Person, desto stärker ist sie an Nachbarschaftskontakten interessiert. Je höher die Kinderzahl und je jünger die Kinder, desto mehr Anknüpfungsmöglichkeiten und -notwendigkeiten ergeben sich für Familien im Nachbarschaftsbereich (usw.). Eine Strategie, die sich darauf beschränken würde, lediglich diejenigen Beobachtungsmerkmale aufzulisten, die dem Forschungsteam spontan einfallen, wird meist dann Schiffbruch erleiden, wenn nicht auch die im Kopf existierenden Hypothesen mit ausformuliert und zu einem Hypothesensystem (oder zu alternativen Hypothesensystemen) geordnet werden. Die Folge einer solchen Strategie wird häufig sein, dass den Forschern später- - wenn die Daten ausgewertet werden- - aufgeht, dass relevante Merkmale übersehen wurden und dass aufgrund dieser Lücken die gesamte erhobene Datenbasis für die zu bearbeitende Problemstellung möglicherweise nicht viel wert ist. Durch diese wenigen Überlegungen wird bereits deutlich, wie sehr Hypothesenbildung bzw. Theoriekonstruktion, Datenerhebung und Auswertung (d. h. Anwendung von Erhebungstechniken und statistischen Modellen) miteinander verwoben und aufeinander angewiesen sind. Die Forscherin bzw. der Forscher wird bei den theoretischen Formulierungen bereits die Methoden der Datenerhebung und die möglichen statistischen Auswertungsverfahren mit bedenken müssen, ebenso wie später bei der Berechnung statistischer Kennziffern durch den Computer ohne Rückbezug zu den theoretischen Überlegungen nur bedeutungslose Zahlen zu erhalten sind. BEISPIEL <?page no="51"?> 52 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 52 Theorien sind für die Erfahrungswissenschaft die wesentlichen (Denk)„Werkzeuge“, die den Zugang zur Realität ermöglichen. 40 Die Theorie liefert 1) die grundlegende Orientierung; sie definiert den Objektbereich, sie legt fest, welche Aspekte der Realität zum Gegenstand der Forschungstätigkeit gemacht werden sollen. Die Theorie stellt 2) das begriffliche Bezugssystem zur Verfügung; sie erlaubt, die als relevant definierten Aspekte des Objektbereichs systematisch darzustellen, zu klassifizieren und Beziehungen zu postulieren. In Theorien werden 3) empirisch ermittelte Fakten zu Generalisierungen bzw. zu Systemen solcher Generalisierungen zusammengefasst. Je nach dem Grad ihrer Allgemeinheit kann man zwischen Ad-hoc-Theorien, Theorien mittlerer Reichweite und solchen höherer Komplexität („allgemeinen“ Theorien) unterscheiden (vgl. König 1973, 4 ff.). Eine Theorie ermöglicht 4) die Vorhersage zukünftiger Ereignisse. „Wenn eine Zusammenfassung von Beobachtungen in Form von Verallgemeinerungen erstellt worden ist, erwartet man, dass dieselben Strukturen und Beziehungen auch dort gefunden werden, wo noch keine Erfahrungen oder Beobachtungen gemacht werden konnten, und man erwartet die Gültigkeit dieser Beziehungen auch in der Zukunft“ (Hülst 1975, 22). Schließlich gibt sie 5) Hinweise auf vorhandene Wissenslücken. 1.3.6 Hypothesentest und Theorieentwicklung im Wechselspiel von-Theorie-Empirie-Theorie. Ein Beispiel Die analytisch-nomologisch orientierte Sozialwissenschaft tastet sich- - wie in Abschnitt 1.3.2 skizziert- - durch Aufstellen von Hypothesen und ihre empirische Überprüfung schrittweise, in einem Prozess von Versuch und Irrtum, an „wahres“ Wissen über die soziale Realität heran. Am Ende soll dieses Wissen in Form „bestätigter“ Theorien, also einem logisch widerspruchsfreien System von empirisch bewährten Hypothesen, dokumentiert sein. Zur Erinnerung: Die dieser Forschungsrichtung zugrunde liegende Vorgehenslogik kennt zwei parallele Wege zu „wissenschaftlichem Fortschritt“. Erstens: Hypothesen, die sich bei Konfrontation mit der empirischen Wirklichkeit als unzutreffend erweisen, gelten als „falsifiziert“; sie sind-- unter Berücksichtigung der neu gewonnenen Erkenntnisse- - zu korrigieren und erneut empirisch zu testen. Zweitens: Hypothesen, die sich bei Konfrontation mit der empirischen Wirklichkeit als zutreffend erweisen, gelten als „bestätigt“; sie sind entweder „verschärften“ empirischen Tests zu unterwerfen, oder sie sind- - falls sie 40 Der Wechsel von einer vorherrschenden theoretischen Orientierung zu einer alternativen theoretischen Sicht bringt in einer Wissenschaft unter Umständen völlig neue Problemstellungen in den Vordergrund des Interesses.-- Wie stark unterschiedliche theoretische Orientierungen die Wahrnehmung und Interpretation sozialer Sachverhalte und damit die Auswahl der „relevanten“ Untersuchungsmerkmale in alternative Richtungen lenken können, wird am Beispiel individualistischer und struktureller Theorieansätze diskutiert von H. Esser (1979a). Rolle der Theorie Orientierung begriffliches Bezugssystem Generalisierung von Fakten Möglichkeit der-Vorhersage Hinweise auf Wissenslücken <?page no="52"?> 53 1.3 Empirische Sozialforschung als „kritisch-rationale Wissenschaft“ www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 53 sich bereits wiederholt bewährt haben-- „gehaltserweiternd“ umzuformulieren (also stärker zu verallgemeinern) und danach wiederum empirisch zu überprüfen. Detailliert und unter methodologischen Gesichtspunkten werden die Argumentationslogik und das Design dieser „hypothesentestenden“ Sozialforschung im Kapitel 2.4.2 dargestellt. Vorgreifend soll jedoch schon an dieser Stelle die in der analytisch-nomologischen Wissenschaftstheorie postulierte Wechselbeziehung Theorie-Empirie-Theorie an einem Beispiel veranschaulicht werden. Ausgangspunkt der Überlegungen sei die (generelle, d. h. stark verallgemeinernde) Hypothese: „Das Denken und Urteilen der Menschen wird von ihrer sozialen Umwelt bestimmt.“ Diese Aussage erhebt einen sehr weit gefassten Geltungsanspruch und ist zu unspezifisch, als dass sie durch eine einzige Untersuchung auf ihre empirische Richtigkeit überprüft werden könnte. Wir können jedoch auf logischem Wege (durch deduktiv-analytische Ableitung) zu Hypothesen kommen, die spezifischer sind. Zum Beispiel: „Das Denken und Urteilen der Mitglieder einer Gruppe wird vom Denken und Urteilen der übrigen Gruppenmitglieder bestimmt.“ Durch eine sprachlogische Analyse lässt sich feststellen, dass die Bedeutung des Begriffs „soziale Umwelt“ den sozialen Sachverhalt „Gruppe“ mit umfasst, dass also „Gruppe“ für deren Mitglieder ein Bestandteil von sozialer Umwelt ist. Wenn die zu prüfende Hypothese uneingeschränkt für den Einfluss „sozialer Umwelt“ auf einzelne Menschen gelten soll, dann folgt daraus, dass dies auch für den Einfluss von Gruppen (als eines Bestandteils dieser sozialen Umwelt) zutreffen muss; andernfalls hätte sie einen zu weiten Geltungsanspruch erhoben. Auch die jetzt formulierte zweite Hypothese ist noch recht allgemein gehalten; sie erhebt Anspruch auf Geltung für beliebige Personen als Mitglieder beliebiger Gruppen zu beliebigen Zeitpunkten oder Zeiträumen. Wiederum auf logisch-deduktivem Wege lassen sich jedoch Aussagen ableiten, die nur noch für bestimmte Personen, bestimmte Gruppen und bestimmte Zeitpunkte oder Zeiträume etwas behaupten. Mit anderen Worten: Aus generellen Hypothesen lassen sich singuläre, auf Einzelfälle bezogene Aussagen ableiten. Zum Beispiel: Das Denken und Urteilen der Person P 1 (Egon Müller) als Mitglied der Gruppe G 1 (Computer-Hobbyclub „Fauler Apfel“ in Bochum) wird im Zeitraum t 1 (Mitgliederstammtisch am-…) vom Denken und Urteilen dieser Gruppe G 1 bestimmt. Gleiches gilt für Personen P 2 , P 3 ,-…, für Gruppen G 2 , G 3 ,-… und für Zeiträume t 2 , t 3 ,-… Solche singulären, deduktiv aus generellen Hypothesen gewonnenen Behauptungen lassen sich durch gezielte empirische Beobachtungen daraufhin prüfen, ob sie in der beschriebenen Situation zutreffen. Die bisher skizzierte Ableitung beschränkt sich allein auf die sprachliche Ebene, auf die Umformung von generellen Hypothesen in singuläre Sätze (vgl. in der Überblicksskizze am Ende von Kapitel 2.4.2 den linken Teil). Zur gezielten empirischen Beobachtung ist jetzt auf der methodologischen Seite (in der genannten Skizze der rechte Teil) zusätzlich die Verknüpfung der sprachlichen mit der empirischen Ebene herzustellen. Wenn wir davon ausgehen, dass die Bedeutungsanalyse der Hypothese ergeben hat, dass sowohl die in ihr vorkommenden Begriffe wie auch die Aussage insgesamt empirischen Bezug haben, dann sind geeignete Indikatoren (d. h. beobachtbare Sachverhalte) zu benennen und zu begründen, und dann ist ein geeignetes <?page no="53"?> 54 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 54 Datenerhebungsinstrument zu wählen oder neu zu entwickeln (Operationalisierung). 41 Mit Hilfe dieses Erhebungsinstruments werden die für die Hypothesenprüfung relevanten Daten gesammelt. Am Schluss sind statistische Modelle anzuwenden, um die Daten auszuwerten. Als Resultat werden die empirischen Ergebnisse in „Beobachtungsaussagen“ festgehalten. Wie man sieht, greift der Forscher auf dem Wege von den in der Hypothese verwendeten Begriffen bis zur Gewinnung von Beobachtungsaussagen auf einen ganzen Satz von „Hilfstheorien“ zurück: Korrespondenzhypothesen zur Begründung der Indikatoren; Mess-, Instrumenten- und Beobachtungstheorien bei der Entwicklung und Anwendung der Erhebungsinstrumente; statistische Modelle bei der Datenauswertung. Damit die Beobachtungsaussagen als sichere Basis für die Entscheidung über die Bestätigung oder Zurückweisung der zu testenden Hypothese (als Bestandteil einer Gegenstandstheorie) geeignet sind, müsste auch die Richtigkeit der verwendeten Hilfstheorien gesichert sein. Innerhalb der durchzuführenden Untersuchung können diese Hilfstheorien-- wie schon erwähnt (vgl. Kapitel 1.3.3)-- jedoch nicht empirisch geprüft werden; ihre Richtigkeit muss vielmehr unterstellt werden. Der Inhalt unserer Hypothese war Gegenstand der psychologischen Gruppenforschung. Der amerikanische Psychologe M. Sherif entwarf zum Test des behaupteten Einflusses der Gruppe auf die individuelle Urteilsbildung folgende Versuchsanordnung (Forschungsdesign „Labor-Experiment“, vgl. Kapitel 2.4.3): Einer Gruppe von Personen wird in einem völlig verdunkelten Raum für kurze Zeit ein kleiner, schwacher, nicht bewegter Lichtpunkt dargeboten. Die Personen werden gebeten zu schätzen, um wie viel Zentimeter sich der Lichtpunkt während der Betrachtung bewegt hat; sie sollen ihre Schätzungen nacheinander ausrufen, so dass jeder in der Gruppe sie hören kann. Da die Augenachsen des Menschen niemals ganz ruhig sind, scheint sich tatsächlich für jeden Versuchsteilnehmer der objektiv feste Punkt zu bewegen, jedenfalls dann, wenn- - wie hier durch den völlig verdunkelten Raum- - keinerlei zum Vergleich geeignete Bezugspunkte gegeben sind. Bei Wiederholungen der Versuchsdurchgänge zeigt sich, dass die einzelnen Gruppenmitglieder sich sehr bald in ihren Einzelschätzungen einem gemeinsamen (mittleren) Wert annähern. Die individuelle Annäherung der Schätzungen ist umso stärker, je weiter die Versuchsperson in ihren ersten Schätzungen vom späteren Gruppenwert nach oben oder nach unten abweicht. Sherif hat also aus der genannten generellen Hypothese die Aussage abgeleitet: „Die Urteile der Mitglieder einer Versuchsgruppe werden durch die Urteile dieser Gruppe bestimmt.“ „Urteil“ hat er dabei operationalisiert durch den Indikator: Einschätzung der scheinbaren Bewegung eines nicht bewegten Lichtpunktes im dunklen Raum. Die Ergebnisse seines Experiments (die Beobachtungsaussagen, also die Beschreibung der empirischen Schätzungen in mehreren Versuchsdurchgängen) stimmen mit dieser aus der Hypothese abgeleiteten Aussage überein; die Untersuchung hat die Hypothese „vorläufig bestätigt“. 41 Die Themen „Indikatoren“ und „Operationalisierung“ werden ausführlich in Kapitel 4 behandelt. <?page no="54"?> 55 1.4 Empirische Verfahren und alternative Wissenschaftspositionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 55 Der deutsche Psychologe P. R. Hofstätter entwarf daraufhin einen härteren Test zur Prüfung der gleichen Hypothese. Er behielt im Prinzip das Sherifsche Experimentaldesign bei, führte jedoch zunächst vier Durchgänge von Schätzungen durch, bei denen jede Versuchsperson allein im Untersuchungsraum war, danach drei Versuchsdurchgänge von Schätzungen in der Sherifschen Gruppensituation und abschließend noch einmal vier Durchgänge von Einzelschätzungen. Die Verschärfung der Testsituation bestand darin, dass die Versuchspersonen zunächst die Chance hatten, sich ihre eigenen, individuellen Maßstäbe zu bilden, und dass ihnen nach dem Gruppenexperiment die Möglichkeit geboten wurde, ohne Kontrolle durch die anderen Versuchsteilnehmer vom Gruppenmaßstab wieder abzurücken und zu ihrem ursprünglichen Maßstab zurückzukehren. Die Ergebnisse bestätigten jedoch weiterhin die Hypothese: Zunächst bildete sich in der Tat jede Person in den vier Einzeldurchgängen eine eigene, gegenüber den anderen Teilnehmern unterschiedliche Urteilsskala. Bei den Schätzungen in der Gruppensituation trat dann rasch eine Angleichung an den Gruppenmittelwert ein. Und: Diese Orientierung an der „Gruppennorm“ blieb auch in den abschließenden vier Einzelschätzungen erhalten (Hofstätter 1957, 53 ff.). In weiteren Folgeuntersuchungen führten andere Forscher zusätzliche Verschärfungen für den Test der Hypothese ein, z. B. Variation im Grad der Information über den Urteilsgegenstand, Bereitstellung von Bezugssystemen, Kontrolle vorgefasster individueller Meinungen der Versuchspersonen zum Urteilsgegenstand, komplexere Beurteilungsaufgaben. Dabei erwies es sich, dass die genannte Hypothese zwar im Prinzip Bestand behielt, jedoch nicht unter allen Bedingungen in gleichem Ausmaß. Als Resultat der fortgesetzten Forschungsbemühungen konnte aufgrund zunehmenden empirischen Wissens die Ausgangshypothese präziser und differenzierter formuliert werden; ihr Geltungsbereich wurde damit schrittweise immer genauer abgesteckt. „Wissenschaftlicher Fortschritt“ vollzieht sich nach den Vorstellungen der analytisch-nomologischen Position auf die hier skizzierte Weise. 42 1.4 Empirische Verfahren und alternative Wissenschaftspositionen In den Sozialwissenschaften gibt es die Wissenschaft als ein einheitliches und unbestrittenes System der Erkenntnisgewinnung nicht. Stattdessen existieren eine ganze Reihe unterschiedlicher Wissenschaftspositionen, die sich zum Teil in Details und zum Teil in sehr grundsätzlichen Fragen unterscheiden. Sie lassen sich zur besseren Übersichtlichkeit zu einigen Hauptströmungen zusammenfassen; etwa: - analytisch-nomologische Richtung mit Ausprägungen wie Empirismus, logischer Empirismus, Positivismus, Neo-Positivismus, Kritischer Rationalismus, Falsifikationismus, Fallibilismus; 42 Ein sehr viel ausführlicheres Beispiel steht bei Hunt (1991, Kap. 4). Es thematisiert insbesondere die ethische Problematik des Experimentierens mit Menschen. unterschiedliche Wissenschaftspositionen <?page no="55"?> 56 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 56 - hermeneutisch-dialektische Richtung mit Bezeichnungen wie kritisch-emanzipatorische Richtung, Frankfurter Schule, Kritische Theorie, Historismus, Verstehen-Ansatz, hermeneutischer Ansatz, kritische Diskursanalyse; - dialektisch-materialistische Richtung mit Bezeichnungen wie marxistische, neomarxistische Richtung, marxistisch-leninistische Wissenschaft, Materialismus (vgl. Esser/ Klenovits/ Zehnpfennig 1977/ I, 163 ff.); - qualitative Sozialforschung verschiedener Richtungen wie „interpretatives Paradigma“, symbolischer Interaktionismus, „natural sociology“, Ethnomethodologie, Phänomenologie, rekonstruktive Sozialforschung. Ein systematischer Vergleich dieser Positionen ist hier nicht das Ziel. Andererseits soll diese Vielfalt nicht einfach unter den Tisch fallen. Die prominenteste Alternative zu der hier diskutierten analytisch-nomologischen Richtung ist die qualitativ-interpretative Richtung. Wegen ihrer Bedeutung in den Sozialwissenschaften diskutieren Annotationen am Ende jedes Kapitels die Unterschiede zwischen der analytisch-nomologischen und der qualitativ-interpretativen Richtung. Eine andere, ebenfalls prominente Richtung ist die Kritische Theorie der Frankfurter Schule (Wiggershaus 1986, Albrecht u. a. 1999). Diese Richtung, die insgesamt eine umfassende Gesellschaftstheorie mit methodischen und methodologischen Implikationen ist, kann weder hier noch in den Annotationen im Detail erörtert werden, doch ein Vergleich anhand von zwei Kriterien soll zumindest einen Eindruck der Unterschiede vermitteln. 1. Kriterium: „Kritik“ und Erkenntnisziel Strikt erfahrungswissenschaftliche Soziologie verfolgt das Ziel, soziale Phänomene zu beschreiben und zu erklären. Die angestrebte Theorie ist ein System von empirisch prüfbaren Aussagen. Dabei hat die Empirie eine dominierende Stellung. Die Realität, so wie sie vom Forscher beobachtet werden kann, soll alleinige und letzte Entscheidungsinstanz darüber sein, ob eine Theorie richtig oder falsch ist. Die Entscheidung soll von jedem nachvollzogen werden können: Die theoretischen Aussagen und deren empirische Überprüfung müssen intersubjektiv nachvollziehbar, intersubjektiv überprüfbar und kritisierbar sein. Kritik heißt beim „Kritischen Rationalismus“: Die Forschungsergebnisse und das Vorgehen beim Erzielen der Ergebnisse sind der ständigen kritischen Überprüfung anderer Forscher, der (wissenschaftlichen) Öffentlichkeit, ausgesetzt. Erkenntnisziel der Forschung ist die Aufklärung über das, was wirklich ist, wobei die Annäherung an die Wahrheit- - „was wirklich ist“- - mittels Aussonderung empirisch falsifizierter und härterer Überprüfung bestätigter Theorien versucht wird. Eine Bewertung der Realität gehört nicht zum Gegenstand der Wissenschaft 43 (Wertneutralitätspostulat, da Werte nicht wissenschaftlich-- „intersubjektiv“-- begründbar sind; siehe Kapitel 2.3). 43 Das schließt nicht aus, dass die Forscherin/ der Forscher als Person, in ihrer Eigenschaft als kritisches Mitglied der Gesellschaft eine Bewertung der Realität vornehmen kann und soll. erfahrungswissenschaftliche Soziologie: Ziel: beschreiben und erklären Forschung als Aufklärung <?page no="56"?> 57 1.4 Empirische Verfahren und alternative Wissenschaftspositionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 57 Für den dialektisch-kritischen Ansatz („Kritische Theorie“) ergibt sich eine ganz andere Zieldefinition: Nicht nur die Beschreibung und Erklärung sozialer Phänomene (nomologisches Wissen) ist ihr Gegenstand, sondern vor allem die kritische Beurteilung der sozialen Tatbestände. Kritik heißt hier nicht kritische Überprüfung theoretischer Aussagen an der Realität, sondern kritische Auseinandersetzung mit der Realität. Nicht ein eher technisches-- wie bei der analytisch-nomologischen Richtung--, sondern ein emanzipatorisches Erkenntnisinteresse ist für dialektisch-kritische Ansätze grundlegend. Kritik an der Wirklichkeit als wissenschaftliches Ziel ergibt sich für die dialektische Richtung aus der Tatsache, dass der Mensch als wollendes Subjekt den soziologischen Gegenstand, also die soziale Wirklichkeit, selbst produziert hat, und zwar geleitet von Werten und Bedürfnissen. Eine in diesem Sinne als kritisch verstandene Sozialwissenschaft wird sich also „mit der Analyse ,nomologischen Wissens‘ nicht begnügen; sie bemüht sich darüber hinaus, zu prüfen, wann die theoretischen Aussagen invariante Gesetzmäßigkeiten des sozialen Handelns überhaupt und wann sie ideologisch festgefrorene, im Prinzip aber veränderliche Abhängigkeitsverhältnisse erfassen. ,Emanzipatorisch‘ wird dieses Erkenntnisinteresse deshalb genannt, weil es auf ,Selbstreflexion‘ abzielt (…) Eine so verstandene kritische Soziologie ist natürlich nicht wertfrei. Die gegebenen gesellschaftlichen Verhältnisse werden ja daraufhin befragt, ob das, was ist (z. B. ideologisch festgefrorene Abhängigkeitsverhältnisse), auch dem entspricht, was stattdessen sein könnte und sein sollte (etwa Selbstreflexion, Mündigkeit)“ (Bellebaum 1977, 29 ff., unter Verweis auf Habermas). Auf solche Aussagen, die sich nicht nur auf das beziehen, was ist, sondern auch auf das, was sein sollte, ist das Kriterium empirischer Prüfbarkeit und intersubjektiver Kontrolle nicht mehr anwendbar. Für einen so konzipierten Erkenntnisprozess ist die Funktion empirischer Sozialforschung nicht mehr so zentral wie bei einem strikt erfahrungswissenschaftlichen Ansatz; sie hat aber selbstverständlich auch hier ihren unverzichtbaren Platz. 2. Kriterium: Thematisierung der Wirklichkeit Aus erfahrungswissenschaftlicher Sicht lassen sich die Tatbestände der Realität unter einer Unzahl verschiedener Themen angehen. Der Gegenstand sagt nicht aus sich heraus, wie wir ihn betrachten sollen, sondern wir tragen Fragen an den Gegenstand heran. Der Blickwinkel, unter dem wir einen Tatbestand betrachten, ist prinzipiell beliebig. Beispielsweise können wir Gruppen hinsichtlich ihres Einflusses auf andere Gruppen untersuchen, wir können die Machtstruktur einer Gruppe analysieren, wir können uns auch auf die Rolle von Außenseitern oder von Meinungsführern in Gruppen beschränken. Die Begriffe, die wir aufgrund theoretischer Überlegungen oder Vermutungen definieren, „strukturieren die Wirklichkeit“. 44 Vom dialektisch-kritischen Ansatz dagegen werden die sozialen Tatbestände als Produkt der jeweiligen gesellschaftlichen Verhältnisse begriffen, in denen auch die 44 D. h. sie legen z. B. fest, ob wir regelmäßige Kontakte zwischen Personen als ein Netz von Interaktionen zwischen Individuen oder als ein „soziales System“ (oder Teilsystem) betrachten. dialektischkritischer Ansatz: Kritik an gesellschaftlichen Zuständen Erkundung möglicher Alternativen erfahrungswissenschaftliche Sicht: Vielfalt möglicher Perspektiven dialektischkritischer Ansatz: <?page no="57"?> 58 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 58 Forscher selbst leben und handeln. Forschung kann deshalb nicht losgelöst von der gesellschaftlichen Wirklichkeit einzelne soziale Tatbestände untersuchen. Vielmehr haben die Gegenstände- - als gesellschaftlich geformte- - sozusagen ihre „eigenen Begriffe“: die Gegenstände lenken die Erkenntnis. „Das entscheidende Spezifikum ist dabei die Tatsache, dass die Theorie über die bewusst gestaltete Praxis Einfluss nimmt. Das heißt, der Einfluss der Praxis findet nicht in vager Form, etwa als ,soziologischer Alltag‘ Eingang in den Forschungsprozess, sondern die Ausführung eines soziologischen Forschungsvorhabens ist selbst Teil der bewusst gestalteten gesellschaftlichen Prozesse. Insofern ist die Auffassung des Forschers von der Gesellschaft zwingend vorgegeben-… Indem also die gesellschaftlichen Prozesse gestaltet werden auf der Grundlage der Kenntnis der grundlegenden Bewegungsgesetze der Gesellschaft, kann die Ausführung von soziologischen Forschungsvorhaben auch nichts weiter sein als ein Stück dieser Gestaltung, die direkte Vorarbeit zu praktischen Maßnahmen“ (Koch 1976, 56 f.). Will die Forscherin bzw. der Forscher aus dieser Situation ausbrechen, muss sie/ er die eigene Situation in ihren Abhängigkeiten reflektieren und den Sinn dieses Zusammenhangs sowie dessen Einflüsse auf die Erkenntnis zu durchdringen suchen. 1.5 Annotationen aus der Perspektive qualitativinterpretativer Methoden Das Verhältnis von Empirie, Theorie und Methoden stellt sich für qualitativ-interpretative Ansätze in etwas anderer Weise als für standardisierte Verfahren. Das hat ganz basal mit unterschiedlichen erkenntnis- und wissenschaftstheoretischen Grundannahmen (Axiomen) zu tun, häufig aber auch mit vielfältig variierenden sozialtheoretischen Prämissen. Es hat aber in vielen Feldern der Sozialforschung auch mit unterschiedlichen methodischen Anforderungen zu tun, wie sie aus den Gegenstandsbereichen und Forschungsfragen resultieren. So stellt z. B. die Sozialstrukturanalyse andere Fragen, präferiert andere Arten von Daten und andere Analyseverfahren als etwa die fallrekonstruktive Biografieforschung. 45 Doch bleiben wir zunächst bei erkenntnis- und wissenschaftstheoretischen Grundannahmen (Axiomen). Der in diesem Kapitel bereits vorgestellte Kritische Rationalismus basiert erkenntnistheoretisch auf einer dezidiert „realistischen“ erkenntnistheoretischen Position: Die Handelnden ebenso wie die wissenschaftlichen Beobachter finden eine identische, universelle Realität vor, die damit objektiv gegeben ist. Die handelnden Akteure können diese Realität mehr oder weniger zutreffend wahrnehmen („beobachten“); fallweise unterschiedliche Wahrnehmungen der Realität ändern indes nichts an deren objektivem ‚So-Sein‘. Allerdings steht dem wissenschaftlichen 45 Wobei angesichts der Pluralisierung der Lebensstile auch die Sozialstrukturanalyse mit den aggregierten Daten standardisierter Erhebungen nicht mehr auskommt und gerade für die Lebensstilanalyse und Milieuforschung zunehmend auf qualitativ-interpretative Verfahren der Datengewinnung und -analyse zurückgreift. gesellschaftskritische Haltung der Forschenden unterschiedliche erkenntnistheoretische Grundannahmen universelle, objektiv gegebene Realität? <?page no="58"?> 59 1.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 59 Beobachter kein unmittelbarer Zugang zur Realität zur Verfügung, weil jede Beobachtung immer nur in schon theoriegeladenen „Protokollsätzen“ formuliert werden kann (vgl. Kapitel 1.2.1 und 1.3.2) (Popper 1994, 73). Alternative Positionen finden wir z. B. im Pragmatismus und im Konstruktivismus. Im Pragmatismus, einer in Nordamerika um die vorletzte Jahrhundertwende ausformulierten und für Gesellschaftsentwicklung der USA prägenden Sozialphilosophie, geht man von der Vorstellung aus, dass Realität ausschließlich im Handeln und in den Konsequenzen dieses Handelns existiert. Das heißt nicht, dass wir uns die Welt so machen, wie wir sie gerne hätten, denn weil Handeln nicht ein rein mentaler Prozess, sondern praktisches Umgehen mit der materialen und sozialen Umwelt ist, muss es sich immer mit jener mal diffusen, mal sehr spezifischen Widerständigkeit auseinandersetzen, der die Handelnden ‚in der Welt‘ begegnen. In dieser Perspektive-- die sich insofern deutlich nicht nur vom Realismus, sondern auch vom Idealismus und vom Nominalismus unterscheidet-- konstituieren wir die Wirklichkeit dadurch, dass wir in der Welt ‚da draußen‘ auf Probleme stoßen, d. h. mit unserem Handeln nicht immer in erwarteter Weise fortfahren und ans Ziel kommen können. Aus dieser Handlungshemmung (Mead 1959, Orig. 1932) und dem damit verbundenen Zustand der ‚Ungewissheit‘ heraus setzen Problemlösungsprozesse ein, mit denen wir versuchen, einen Zustand der ‚Gewissheit‘ zu erlangen, also wieder handlungsfähig zu werden. Ob das Problem gelöst und damit der in der Problemlösung unterstellte Zustand der ‚Welt da draußen‘ als gewiss angenommen werden kann, entscheidet sich allein daran, ob unsere Handlungsfähigkeit wieder hergestellt und-- durch die Auseinandersetzung mit dem Problem-- erweitert werden konnte (Dewey 2002, Orig. 1938, 132 ff.). Der Prozess des Problemlösens wird dabei- - gleichviel ob in alltäglichen Handlungsprozessen oder im Forschungshandeln-- nicht als deduktiver Prozess des Erschließens bestimmter Konsequenzen aus gegebenen Bedingungen und Regeln verstanden, sondern als ein tentatives und kreatives Vorgehen: Wir benötigen in der Regel eine neue Idee, ein neues Verständnis der Situation, um eine Lösung zu entwerfen. Dieser Entwurf ist es, der im (auch gedanklichen) Handeln experimentell überprüft wird. 46 Deduktion und Induktion werden hier also um die Abduktion ergänzt, ein nicht formallogisch zwingendes, sondern tentativ-praktisches Schlussverfahren, das kreative neue Problemlösungen generiert, deren Ergebnisse sich allerdings erst in der anschließenden praktischen Bewährung als zutreffend erweisen müssen (vgl. ausführlich Reichertz 2003). In diesem Kapitel ist deutlich geworden, dass axiomatische Setzungen erkenntnistheoretischer Grundaussagen im methodologischen Diskurs vor allem legitimatorische Funktion haben: Wir beziehen die Geltungsbegründung für die jeweiligen Methodenkonzeptionen aus genau diesen Annahmen, die sich aufgrund ihres Status als Letztbegründungen weder empirisch noch logisch-theoretisch beweisen lassen. 46 Zum Pragmatismus vgl. neben den Schriften der Klassiker Charles S. Peirce, William James, John Dewey und George H. Mead insbesondere Ludwig Nagel (1998) und-- für die sozialtheoretischen Konsequenzen-- Hans Joas (1988, 1980). Zur den methodologischen Bedeutung des Pragmatismus vgl. Jörg Strübing (2008a, 2008b, Kapitel 2). Realität als im sozialen Handeln hergestellt Realität als perspektivengebunden legitimatorische Funktion erkenntnistheoretischer Postulate <?page no="59"?> 60 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 60 Auch wenn sich alle für die empirische Sozialforschung relevanten methodologischen Positionen im Kern mit der kritisch-rationalistischen Idee vereinbaren lassen, dass alle „Aussagen einer empirischen Wissenschaft […] prinzipiell an der Erfahrung scheitern können (müssen)“ (Popper 1994, 38): Die hinter diesem Satz liegenden grundsätzlichen Bestimmungen dessen, was wir unter Welt, Realität, Erfahrung etc. verstehen wollen, können nicht in gleicher Weise dem Kriterium des empirischen Scheiterns unterliegen. Auch deshalb formuliert Popper mit Bezug auf das Basissatzproblem: „So ist die empirische Basis der objektiven Wissenschaft nichts ‚Absolutes‘; die Wissenschaft baut nicht auf Felsengrund. Es ist eher ein Sumpfland-…“ (Popper 1994, 35). Auch wenn sie als Geltungsbegründungen im rationalen Diskurs über Methoden und ihre Leistungsversprechen zentral sind: Nicht aus erkenntnis- und wissenschaftstheoretischen Setzungen resultieren unsere empirischen Methoden, sondern aus praktischen Versuchen zur Bewältigung von Forschungsproblemen, also aus unterschiedlichen Anwendungsbezügen-- seien es solche aus den Wissenschaften selbst, oder seien es Problemlösungssuchen aus der Gesellschaft und ihren Institutionen heraus. So wurden wichtige „qualitative“ Studien in der Frühzeit der empirischen Sozialforschung von den sozialen Problemlagen inspiriert, die sich aus den enormen Zuwanderungsströmen im Chicago des frühen 20.-Jahrhunderts ergaben. 47 Lange vor der expliziten Auseinandersetzung mit Fragen einer wissenschaftstheoretischen Fundierung sind empirische Methoden so zunächst meist recht ‚hemdsärmelig‘ entwickelt sowie sukzessive in der Forschungspraxis und dann zunehmend auch unter Bezug auf methodologische Argumente und Diskussionen verfeinert worden. 48 Ähnlich wie standardisierte Verfahren referieren qualitative Methoden nicht allein in ihrem Problembezug auch auf außerwissenschaftliche professionelle oder alltagspraktische Kontexte. Alltägliche Praktiken zur Lösung von Wissensproblemen (epistemische Praktiken) stehen in der Methodenentwicklung Pate für konkrete Verfahren oder Verfahrenskomponenten (so etwa Vergleichsheuristiken und Praktiken der Typenbildung). Damit geht häufig die Vorstellung einher, dass es keine distinkte Unterscheidung von Wissenschafts- und Alltagspraxis gibt. Das heißt nicht, dass der Unterschied negiert wird, er wird vielmehr gradualisiert: Die Perspektive qualitativ-interpretativer wissenschaftlicher Sozialforschung zeichnet sich gegenüber Alltagspraktiken aus durch 47 So befasste sich etwa die klassische Studie „The Polish Peasant in Europe and America“ mit der biografischen und milieubezogenen Neukonfiguration der Lebensverhältnisse polnischer Migranten in Chicago (Thomas/ Znaniecki 1918). Und die von Robert E. Park (1915, vgl. auch Lindner 2007) programmatisch ins Leben gerufene Stadtsoziologie resultierte in einer Vielzahl vorwiegend qualitativ orientierter Studien etwa zu den Lebensverhältnissen von Wanderarbeitern (Anderson 1923) oder zur Rolle junger Frauen in den Tanzlokalen der Armen (Cressey 1932). 48 Die methodische Anlage der Polish Peasant-Studie z. B. löste eine bis in die späten 1930er-Jahre reichende wissenschaftliche Kontroverse aus (Blumer 1939), die Florian Znaniecki schließlich dazu inspirierte, die ‚analytische Induktion‘ als stärker ausformuliertes und verwissenschaftlichtes qualitativ-empirisches Verfahren zu entwickeln (Znaniecki 1934). Methoden als Ergebnis praktischer Forschungsprobleme Verwendung von Alltagsheuristiken <?page no="60"?> 61 1.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 61 - die Positionierung in einer sekundären Beobachterposition, also außerhalb der konkreten Handlungsbezüge im untersuchten Feld; mit der Konsequenz, dass die so gewonnenen Erkenntnisse-- wie es bei Alfred Schütz heißt-- als „Konstruktionen zweiter Ordnung“ anzusehen sind (Schütz 2004, Orig. 1953, 159); 49 - eine explizitere Orientierung auf Theorie als dominantem Wissenstypus im Unterschied zu Handlungswissen, das zwar mit generiert wird, aber oft unter Ableitung aus zunächst erarbeiteten Theorien; - eine entsprechend systematischer angelegte Gewinnung und explizitere Repräsentation wissenschaftlichen Wissens. Ein Punkt, in dem weitgehende Einigkeit unter den Vertreterinnen und Vertretern qualitativ-interpretativer Methoden besteht, ist die Distanz gegenüber der im Kritischen Rationalismus und in der analytischen Wissenschaftstheorie anzutreffenden Vorstellung, das Ziel empirischen Forschens liege in der Erarbeitung und Prüfung nomologischer Aussagen über die soziale Realität. Jedoch zielt auch die qualitativ-empirische Forschung sehr nachhaltig auf Theorie, sie pflegt allerdings ein anderes Theorieverständnis (oder besser: verschiedene andere Theorieverständnisse) und legt den Akzent stärker auf den Aspekt einer empirisch basierten Theoriegenese (vgl. Kalthoff/ Hirschauer/ Lindemann 2008). Damit geht auch die Kritik an einer einheitswissenschaftlichen Position einher. 50 Vor allem Hempel und Oppenheim (1948), aber auch Popper vertreten die Vorstellung, alle wissenschaftlichen Aussagen hätten sich an dem von ersteren formulierten Modell wissenschaftlicher Erklärungen (Hempel-Oppenheim-Schema, Kapitel 2.4.1) zu orientieren. Diese Position wird von vielen Ansätzen qualitativ-interpretativer Sozialforschung entschieden abgelehnt. Reklamiert wird stattdessen- - und mit im Detail durchaus unterschiedlichen Argumenten- - ein gegenüber den Naturwissenschaften anderer Status der Sozial- und Geisteswissenschaften. Geltend gemacht wird dabei unter anderem, dass soziales Handeln im Unterschied zu naturwissenschaftlichen Prozessen immer schon sinnhaftes Handeln ist, beobachtetes manifestes Handeln also immer auch mit subjektivem Sinn der Handlungsträger unterlegt ist. Diesen gilt es im Wege des Verstehens und Deutens interpretativ zu erschließen, um „soziales Handeln“, wie Max Weber (1980, 1) fordert, „ursächlich erklären“ zu können. Gefragt ist also methodisch-kontrolliertes Fremdverstehen. Zugleich wird geltend gemacht, dass der Akt wissenschaftlichen Beobachtens immer ein Handeln in der Welt darstellt und insofern auch allen damit verbundenen Restriktionen unterliegt, also perspektivgebunden und in der Vermittlung des im 49 Auch die Positionierung ist graduell zu verstehen, denn die qualitative Forschung geht nicht von einer strikten Neutralität der Forscher im Feld aus, sondern von einer reflektierten partiellen Involviertheit in die zu erforschenden Handlungsvollzüge (dazu mehr in den Abschnitten zur Datengewinnung in qualitativ-interpretativen Verfahren; Kap. 7.5). 50 Darüber gibt es eine seit über hundert Jahren andauernde, von Wilhelm Windelband mit der Entgegensetzung nomothetischer und idiografischer Methodenorientierungen im ausgehenden 19.-Jahrhundert angestoßene Debatte, die hier nicht im Detail nachvollzogen werden soll (Windelband 1924). empirisch basierte Theoriegenese Kritik des Methodenmonismus <?page no="61"?> 62 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 62 Handeln Erfahrenen auf ‚immer schon‘ theoriehaltige Sprache verwiesen ist. Während aber in der standardisierten Forschung unter Bezug auf ein ursprünglich den Naturwissenschaften entlehntes Objektivitätsideal versucht wird, diese als Störgrößen betrachteten Einflussfaktoren möglichst auszuschalten, kritisieren die verschiedenen Ansätze qualitativer Forschung dieses Vorgehen als unangemessen und betonen stattdessen das Erfordernis, die kreativ-interpretative Leistung der Forschenden und ihre handelnde Involviertheit in die zu erforschende Wirklichkeit als Ressource für den Forschungsprozess nutzbar zu machen. Gleichviel, ob man in der qualitativ-interpretativen Sozialforschung nun einen subjektorientierten, intentionalen Handlungsbegriff à la Max Weber oder Alfred Schütz oder- - wie George Herbert Mead- - ein dezidiert interaktionistisches Verständnis von Sozialität vertritt: Einig sind sich diese Richtungen innerhalb der Soziologie über ein nicht-deterministisches Verständnis menschlichen Handelns. Was auch immer den Handelnden an Bedingungen entgegentritt: Diese wirken nicht wie Faktoren auf die Handelnden ein und bestimmen deren Handeln, sondern die Handelnden müssen sich im Handeln mit diesen Bedingungen auseinandersetzen. Und mehr noch: Die von Thomas/ Thomas (1928, 572) geprägte klassische These von der „Definition der Situation“ besagt, dass die Art und Weise, in der die Menschen eine Situation und die darin enthaltenen Handlungsbedingungen wahrnehmen, realitätsverändernd wirkt. Wir handeln auf der Basis unserer subjektiven Situationsdefinition; und gleichviel, ob diese Definition in einem objektiven Verständnis oder auch nur aus der Perspektive anderer Handelnder richtig oder falsch ist, die Definition hat mit dem auf ihr gründenden Handeln immer reale Konsequenzen. Diese sozialtheoretischen Argumente liegen auch der Distanzierung vom kritisch-rationalistischen Vorschlag einer Hypothesen-testenden, falsifikatorischen Forschungslogik zugrunde. Während bei Popper und der auf seiner Wissenschaftstheorie fußenden nomologisch-deduktiven Sozialforschung ein universell verstandenes Modell wissenschaftlichen Erklärens unter Zuhilfenahme allgemeiner Gesetze vertreten und das Kontingenzproblem menschlichen Handelns (wir wissen erst, wie gehandelt wird, wenn gehandelt wurde) mit der provisorischen Ablösung allgemeiner Gesetze durch induktiv-statistische Wahrscheinlichkeitsannahmen zu heilen versucht wird, ziehen die unterschiedlichen Methodologien qualitativ-interpretativer Sozialforschung aus diesen Ausgangsüberlegungen andere Konsequenzen. Man geht hier davon aus, dass Kausalerklärungen zur Erforschung der Sozialwelt eines deutend-verstehenden Zugangs zur Sinnproblematik menschlichen Handelns bedürfen. Nicht alle in der qualitativ-interpretativen Sozialforschung vertretenen methodologischen Positionen gehen dabei in ihrem Erklärungsanspruch gleich weit. 51 Insgesamt aber verzichten qualitative Verfahren nicht etwa auf den Anspruch, soziales 51 So vertritt etwa Clifford Geertz für die von ihm vertretene Version ethnografischen Forschens den Erkenntnisanspruch einer „dichten Beschreibung“, also einer elaborierten Version deskriptiver Forschungsergebnisse (Geertz 1987) und Adele Clarke gibt das Ziel kausalen Erklärens zugunsten der Analyse der umfassenden Komplexität sozialer Situationen auf (Clarke 2012). Unverzichtbarkeit kreativer Eigenleistungen Handeln als nicht determiniert Kritik falsifikatorischer Forschungslogik <?page no="62"?> 63 1.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 63 Handeln „ursächlich zu erklären“; sie halten nur andere Wege dorthin für erforderlich. 52 Insbesondere ist damit gemeint, dass soziales Handeln als Forschungsgegenstand einen deutenden Nachvollzug, d. h. eine Rekonstruktion der Perspektiven der Handelnden erfordert. Dieser Nachvollzug wird unterschiedlich konzeptualisiert: mal schlicht als Forderung nach Empathie, also danach, sich in die Handenden hineinzuversetzen und ihre Sichtweise temporär zu übernehmen; häufiger aber wird eine mehr oder weniger ausdifferenzierte Form verstehenden Erklärens und ein diffiziles Wechselspiel zwischen theoretischen Sensibilisierungen und empirischen Induktionen in Anspruch genommen. Frühe Anknüpfungspunkte dafür finden sich in der deutschen geisteswissenschaftlichen Hermeneutik, wie sie entscheidend von Dilthey (2004, Orig. 1900) geprägt wurde, aber auch in der von dem deutsch-ungarischen Wissenssoziologen Karl Mannheim entwickelten „dokumentarischen Methode“ (2004, Orig. 1921). Beide haben es-- auf unterschiedliche Art und Weise-- unternommen, den alltäglichen Prozess des Interpretierens zu analysieren und in einer systematisierten Form als wissenschaftliches Verfahren verfügbar zu machen. Das Problem besteht darin, dass für wissenschaftliche Verfahren andere Geltungsbedingungen zugrunde gelegt werden als für Alltagspraktiken. Insbesondere gelungenen Interpretationen schwieriger Zusammenhänge oder Artefakte haftet schnell der Ruf des Künstlerischen an. Kann aber das, was nur besondere Ausnahmekönner- - Künstler eben- - können, Wissenschaft sein, d. h. auch intersubjektiv zuverlässig überprüf- und nachvollziehbar sowie in systematischer Weise erlern- und vermittelbar? Dilthey wie auch Mannheim haben dafür unterschiedliche Gründe ins Feld geführt: etwa den, dass der Interpret durch eine gemeinsame Kulturzugehörigkeit mit dem Produzenten der zu interpretierenden Artefakte in die Lage versetzt wird, den latenten Gehalt in der manifesten Ausdrucksgestalt des Artefaktes zuverlässig zu erschließen (Dilthey). Oder den, dass es einer konsequenten „Einklammerung“ des Ausdruckssinns eines Artefaktes bedarf, um zuverlässig seinen „Dokumentsinn“ bestimmen zu können, also das, wofür ein Artefakt steht oder worauf es verweist (Mannheim). Nichtsdestotrotz ist es offensichtlich zutreffend, dass Verstehen und Interpretation keine Systeme logisch-zwingenden Schließens sind: Wenn also Wissenschaft als in diesem engen Sinne limitiert verstanden würde, hätten qualitativ-interpretative Verfahren gewiss Schwierigkeiten, ihren Platz darin zu behaupten-- und genau um diese Frage drehten sich die wissenschaftstheoretischen Kontroversen des vergangene Jahrhunderts. 53 Wenn es die Wissenschaft allerdings mit empirischen Phänomenen zu tun bekommt, kann sie sich (anders als etwa in der Logik oder in weiten Teilen der Mathematik) ohnehin nicht mehr als geschlossenes System logisch konsistenter Aussagesätze begreifen. Zwar bilden logisch konsistente Schlüsse in jedem Fall ein Ker- 52 Ausführlich hat dies Udo Kelle (1994) unter dem Stichwort der empirisch begründeten Theoriebildung argumentiert. 53 Etwa die Auseinandersetzung von Hempel (1942) mit Dilthey, von Abel (1948) mit Weber oder von Leat (1978, Orig. 1972) wiederum mit Hempel und Abel. Perspektivische Rekonstruktion statt Kausalerklärung Interpretation und-Rekonstruktion als Kunst? <?page no="63"?> 64 1. Empirische Sozialforschung und empirische Theorie www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 64 nelement wissenschaftlichen Forschens, doch ebenso zentral ist die-- in wesentlich höherem Maße fehlbare- - kreative Leistung der interpretativen Bestimmung der Bedeutung relevanter empirischer Phänomene. 1.5.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Becker, Howard S., 1996: The Epistemology of Qualitative Research, in: R. Jessor, R.; Colby R.; Shweder, R. A. (Hg.): Ethnography and Human Development. Context and Meaning in Social Inquiry. Chicago, 53-71 Kalthoff, Herbert; Hirschauer, Stefan; Lindemann, Gesa (Hg.) 2008: Theoretische Empirie, Frankfurt a. M. (Der Sammelband diskutiert in Beiträgen unterschiedlicher Herkunft und Orientierung das Verhältnis von Theorie, Empirie und Methoden in der qualitativen Forschung.) Kelle, Udo, 1994: Empirisch begründete Theoriebildung: Zur Logik und Methodologie interpretativer Sozialforschung. Weinheim (Eine umfassende und gründlich argumentierte Darstellung der erkenntnis- und wissenschaftstheoretischen Positionen einer auf Theoriebildung zielenden interpretativen Sozialforschung.) Krotz, Friedrich, 2005: Neue Theorien entwickeln. Eine Einführung in die Grounded Theory, die heuristische Sozialforschung und die Ethnographie anhand von Beispielen aus der Kommunikationsforschung. Köln, hier Kap. 2: Basisannahmen theoriegenerierender Forschung, S. 76-115. Reichertz, Jo, 2003: Die Abduktion in der qualitativen Sozialforschung. Opladen (differenzierte Herleitung der Grundlagen abduktiven Erkenntnisgewinns und seiner Voraussetzungen für die empirische Sozialforschung). Rosenthal, Gabriele, 2005: Interpretative Sozialforschung: eine Einführung. Weinheim (hier: Kap. 2: Grundannahmen und Prinzipien der interpretativen Sozialforschung S. 39-83). (Stellt insbesondere die allen qualitativ-interpretativen Verfahren- - weitestgehend- - gemeinsamen Grundannahmen theoretisch und an empirischen Beispielen dar.) Strübing, Jörg, 2013: Qualitative Sozialforschung. Eine komprimierte Einführung für Studierende, München (hier Kap. 1 und 2, S. 1-52). (Eine grundlegende Einführung in die Denk- und Arbeitsweisen qualitativ-interpretativer Sozialforschung) Wilson, Thomas P., 1981: Theorien der Interaktion und Modelle soziologischer Erklärung. In: Arbeitsgruppe Bielefelder Soziologen (Hg.): Alltagswissen, Interaktion und gesellschaftliche Wirklichkeit, Opladen, S. 54-79. (Ein klassischer Text, in dem die Forschungslogiken einerseits standardisierender und quantifizierender sowie andererseits qualitativ-interpretativer Sozialforschung als „normatives“ bzw. „interpretatives Paradigma“ unterschieden und in der Unterschiedlichkeit ihrer epistemologischen, wissenschafts- und sozialtheoretischen Annahmen kontrastierend dargestellt werden.) <?page no="64"?> 65 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 65 2 Forschungsfragen, Forschungsdesign, Forschungsprozess Empirische Sozialforschung ist im Regelfall dadurch charakterisiert, dass es Patentrezepte, die für alle Fälle gültig sind, nicht gibt. Von einigen Ausnahmen abgesehen (etwa regelmäßig wiederkehrende Routineerhebungen in der Markt- und Meinungsforschung) ist der Forscher gezwungen, in gründlicher Auseinandersetzung mit dem Untersuchungsgegenstand immer wieder neu ein für die jeweilige Fragestellung geeignetes Untersuchungsdesign zu entwerfen, d. h. einen speziellen Untersuchungsplan zu entwickeln. Das Kapitel 2 soll einen ersten Eindruck von der Vielfalt von Fragestellungen und dem breiten Spektrum zu treffender Entscheidungen vermitteln. Ihre detaillierte Behandlung ist den folgenden Kapiteln vorbehalten. 2.1 Fragestellungen und Forschungsansätze: Einige Beispiele Die zu bearbeitenden Fragestellungen können in vielerlei Hinsicht variieren: So kann es darum gehen, in einem relativ neuen Problemfeld, für das bisher nur wenig gesichertes Wissen existiert, empirische Basisdaten zu beschaffen. Der Forscher wird in diesem Fall den interessierenden Themenbereich nur grob abgrenzen, wird den mit empirischen Daten zu beschreibenden Untersuchungsgegenstand vergleichsweise wenig vorstrukturieren können. Er ist daher darauf angewiesen, möglichst „offene“-- d. h. wenig oder gar nicht standardisierte-- Erhebungsinstrumente einzusetzen, etwa Leitfadengespräche, Gruppendiskussionen, freie (wenig systematisierte) Beobachtungen. Seine Untersuchung hat in diesem Fall explorativen (erkundenden) Charakter. Mit Exploration verbindet man im Kontext analytisch-nomologisch orientierter Forschung die Vorstellung einer Vorstudie zur Vorbereitung einer danach folgenden „ernsthaften“ Untersuchung oder von Pretests zur Entwicklung eines anspruchsvollen Erhebungsinstruments: „Explorative Studien wird man durchführen, wenn der soziale Bereich, den es zu erforschen gilt, relativ unbekannt ist und nur recht vage oder gar keine spezifischen Vermutungen über die soziale Struktur und die Regelmäßigkeiten sozialer Handlungen vorliegen“ (Diekmann 1995, 30). Allerdings sollte man nicht vorschnell zu einer Exploration übergehen, wenn eine erste Literaturrecherche nicht das gewünschte Ergebnis bringt. Ähnliche Phänomene in anderen Bereichen oder unter einem anderen Namen können durchaus bereits untersucht worden sein. So ist bei der vorbereitenden Recherche auch Kreativität gefragt. Das Verständnis von Exploration in der qualitativen Sozialforschung ist anders. Hier wird unter Exploration eine methodologische Perspektive innerhalb des Prozesses von Informationssammlung und -analyse verstanden. So bezeichnet im Konzept von Herbert Blumer „Exploration“ das umfassende, in die Tiefe gehende, detektivi- Untersuchungsdesign sorgfältig entwerfen explorative Untersuchung <?page no="65"?> 66 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 66 sche Erkunden des Forschungsfeldes, das Sammeln möglichst vielfältiger und das ganze Spektrum von Sichtweisen repräsentierender Informationen im Unterschied zur „Inspektion“, womit das-- die Exploration begleitende-- Deuten und Analysieren der Informationen gemeint ist (Blumer 2004, 363 ff.). Im Gegensatz zum erkundenden Explorieren kann das Erkenntnisinteresse aber auch darauf gerichtet sein, eine möglichst exakte Beschreibung eines komplexen Sachverhalts zu gewinnen, über den im Prinzip hinreichendes (Rahmen-)Wissen bereits existiert, über den man jedoch für einen bestimmten Zeitpunkt und für einen bestimmten räumlichen Bereich quantitativ präzise Informationen benötigt. Ein Ministerium benötigt aktuelle Daten über die Verbreitung von Arbeitslosigkeit in unterschiedlichen Regionen der Bundesrepublik bei verschiedenen Berufs-, Bildungs- und Altersgruppen; eine Tageszeitung interessiert sich für die Meinungen der wahlberechtigten Bevölkerung über die Arbeit von Regierung und Opposition sowie über die politischen Parteien, um darüber zu berichten. In solchen Fällen kann das Untersuchungsthema genau abgegrenzt und können die relevanten Themenaspekte sowie die zu erhebenden Merkmale im Voraus angegeben werden. Die empirische Erhebung soll lediglich die aktuelle „Diagnose“, z. B. die Angaben über die-- möglicherweise ungleiche-- empirische Verteilung des Problems Arbeitslosigkeit auf unterschiedliche Bevölkerungsgruppen und Regionen liefern. Hierfür wird die Forschung zweckmäßigerweise auf hoch standardisierte Erhebungsinstrumente zurückgreifen. Bei beiden genannten Typen von Fragestellungen kann das Erkenntnisinteresse ein statisches oder ein dynamisches sein; d. h. die Informationen können sich entweder auf den Zustand zu einem bestimmten Zeitpunkt oder aber auf (kurz-, mittel- oder langfristige) Entwicklungen und Veränderungsprozesse beziehen. Im ersten Fall genügt eine einmalige Datenerhebung. Im zweiten Fall müssen die Erhebungen entweder von vornherein längerfristig durchgeführt oder zu verschiedenen Zeitpunkten wiederholt werden. Geschehen die wiederholten Datenerhebungen immer wieder bei den gleichen Untersuchungseinheiten (z. B. den gleichen Personen, Haushalten oder Organisationen), dann spricht man von einer Panel-Analyse. Werden bei jeder der wiederholten Erhebungen die Untersuchungseinheiten neu ausgewählt und bei der Auswertung lediglich die statistischen Merkmalsverteilungen verglichen, handelt es sich um vergleichend-statische (komparativ-statische) Analysen. Eine für die Sozialwissenschaften bedeutsame Panel-Erhebung ist das Sozioökonomische Panel (SOEP). Seit 1984 wird eine große Anzahl von privaten Haushalten in der Bundesrepublik Deutschland regelmäßig einmal jährlich befragt. Ein Schwerpunkt-Thema ist die Entwicklung sozialer Ungleichheit, ein anderer Schwerpunkt sind Menschen mit Migrationshintergrund, die mit besonderen Stichproben berücksichtigt sind. Hinzu kommen immer wieder wechselnde Zusatzthemen. deskriptive Untersuchung, Diagnose BEISPIEL statisches oder dynamisches Interesse Panel-Analyse komparativstatische Analyse BEISPIEL <?page no="66"?> 67 2.1 Fragestellungen und Forschungsansätze: Einige Beispiele www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 67 Die Befragung wird vom Deutschen Institut für Wirtschaftsforschung, Berlin, betreut. Der SOEP-Datensatz kann von universitären Forschungseinrichtungen im In- und Ausland für Forschung und Lehre genutzt werden. Umfangreiches Dokumentationsmaterial steht in deutscher und englischer Sprache auch online zur Verfügung (www.diw.de/ de/ soep/ ).- - Eine eindrucksvolle Schilderung der (auch methodologischen) Schwierigkeiten von Langzeitstudien finden Sie in Hunt (1991, Kap. 5). Sehr lesenswert! Man spricht bei „statischen“ Ansätzen auch von Querschnitt-, bei „dynamischen“ Ansätzen auch von Längsschnittuntersuchungen. Stehen Daten aus hinreichend vielen Wiederholungszeitpunkten zur Verfügung, können Trend- oder Zeitreihenanalysen vorgenommen werden. Eine zentrale Datenbasis für komparativ-statische Untersuchungsfragestellungen liefert die Allgemeine Bevölkerungsumfrage der Sozialwissenschaften (ALL- BUS). Der ALLBUS ist eine Wiederholungsstudie, in der seit 1980 alle zwei Jahre ein repräsentativer Querschnitt der Bevölkerung in der Bundesrepublik Deutschland mit einem teils gleichbleibenden, teils variablen Fragenprogramm befragt wird. Standardthemen sind politische Einstellungen, Verhaltensweisen und die Sozialstruktur der Bevölkerung. Hinzu kommen verschiedene zusätzliche Schwerpunktthemen, zum Beispiel Religion, Freundschaft, Freizeitgestaltung oder politische Kultur. Der ALLBUS wird vom Zentrum für Umfragen, Methoden und Analysen in Mannheim (ZUMA) betreut. Auch diese Daten stehen für Forschung und Lehre zur Verfügung (www.gesis.org/ allbus/ allbus-home/ ). Trotz Globalisierung und europäischer Integration finden die meisten Studien bis heute im nationalstaatlichen Rahmen statt, sehr oft als Erhebung, die repräsentativ ist für die Bevölkerung in einem Nationalstaat. Zunehmend werden aber auch länder-und kulturvergleichende Untersuchungen durchgeführt. Der European Social Survey (ESS) ist eine große ländervergleichende Studie in Europa. Seit 2004 werden alle zwei Jahre in zwanzig bis dreißig europäischen Ländern vergleichbare Befragungen durchgeführt. Gleichbleibende Kernthemen sind politische Einstellungen, Mediennutzung, subjektives Wohlbefinden, Diskriminierung und Vertrauen. Hinzu kommen wechselnde Themen, zum Beispiel Erwerbs und Hausarbeit, Gesundheit oder Umgang mit Migration. Ein Zusammenschluss von fünfzehn Forschungsinstituten verschiedener Länder koordiniert die Befragung. Zusätzlich können sich Teams aus weiteren Ländern für die Teilnahme bewerben, müssen aber eine eigene Finanzierung finden, weshalb die Anzahl teilnehmender Länder wechselt. Die Daten können unter www. europeansocialsurvey.org heruntergeladen werden. Querschnitt-/ Längsschnittanalysen Zeitreihenanalysen BEISPIEL länder-und kulturvergleichende Untersuchungen BEISPIEL <?page no="67"?> 68 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 68 Bei Fragestellungen, die an der Feststellung von Veränderungen, am Nachzeichnen von Entwicklungsprozessen orientiert sind, muss die Datenerhebung jedoch nicht zwangsläufig zeitgleich mit den zu beschreibenden Ereignissen stattfinden. Für den Spezialfall zeitlicher Übereinstimmung von Ereignissen/ Prozessen und ihrer Erhebung spricht man von einer Realzeituntersuchung. Oft kann aber die Ermittlung der Informationen auch im Nachhinein („ex post facto“) durchgeführt werden. Dabei wird versucht, die Abfolge von Ereignissen und Situationen zu rekonstruieren, etwa durch Auswertung von Dokumenten aus dem in Betracht kommenden Zeitraum oder durch Sekundäranalyse früher erhobener Daten oder durch Interviews mit Personen, die die interessierenden Ereignisse miterlebt haben („oral history“). Bisher wurden zwei Typen deskriptiver Fragestellungen (Exploration und Diagnose) in verschiedenen Variationen vorgestellt. Die Untersuchung kann jedoch auch-- darauf wurde in Kapitel 1 schon eingegangen-- mit dem Ziel der Entwicklung oder des Tests wissenschaftlicher Theorien/ Hypothesen oder zur empirischen Entscheidung über die Angemessenheit konkurrierender Theorien durchgeführt werden. Während es im Falle deskriptiver Forschung um die Erhebung von Daten im sozialen „Feld“ geht (Daten über den Alltag von Personen bzw. über existierende Haushalte, Gruppen, Organisationen, Regionen etc.), kann es bei theorietestenden Analysen notwendig sein, Untersuchungssituationen künstlich zu schaffen, in denen die zentralen Bedingungen, wie sie in den zu testenden Hypothesen benannt werden, vom Forscher beeinflusst oder zumindest exakt kontrolliert werden können. Forschungen in solchen künstlich geschaffenen Situationen nennt man „Labor“-Untersuchungen; das Forschungsdesign ist im Allgemeinen das des Experiments. Die Untersuchung kann schließlich auch dazu dienen, entweder das wissenschaftliche Grundlagenwissen zu vergrößern oder aber anwendungsorientierte Informationen zur Verfügung zu stellen (vgl. auch dazu Kapitel 1). Der Anwendungsbezug wiederum kann mehr oder weniger direkt sein, etwa wissenschaftliche Begleitung eines kommunalen Projekts zur sozialen Integration der Bewohner einer Obdachlosensiedlung oder Untersuchung der Auswirkungen eines staatlichen Programms zur Investitionsförderung in mittelständischen Unternehmen bis zur wissenschaftlichen Beratung der Politik auf Bundesebene etwa bei der Novellierung des Baurechts. Häufig kommt es bei anwendungsbezogener Forschung vor, dass das Erkenntnisinteresse darauf gerichtet ist, den Erfolg oder Misserfolg einer Maßnahme bzw. eines Handlungsprogramms mit Hilfe empirischer Informationen zu beurteilen, das Programm also im Lichte empirischer Daten zu bewerten. In diesem Fall haben wir es mit Evaluationsstudien zu tun. Geschieht diese Bewertung mit Blickrichtung auf potenzielle zukünftige Konsequenzen eines Vorhabens, muss die Untersuchung auch eine Prognose künftiger Entwicklungen mit einschließen. Da dieses in die Zukunft gerichtete Erkenntnisinteresse besonders oft bei anstehenden Entscheidungen über das Weiterverfolgen technologischer Entwicklungen und Programme besteht, ist um diesbezügliche Fragestellungen herum ein eigener Forschungstyp mit vielfältigen Differenzierungen und Schwerpunkten entstanden: die Technikfolgenbzw. Technologiefolgen-Abschätzung (TA). Realzeituntersuchung/ ex post facto- Analyse Sekundäranalyse Hypothesentest Feldforschung/ Laborforschung Grundlagenforschung/ angewandte Forschung Evaluationsstudie <?page no="68"?> 69 2.2 Der Forschungsprozess als eine Reihe ineinander verzahnter Entscheidungen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 69 Mit diesen Ausführungen sind lediglich einige Dimensionen angesprochen, in die ein konkretes Forschungsprojekt einzuordnen ist. Ein auch nur annähernd vollständiger Überblick ist damit bei Weitem nicht gegeben und auch nicht beabsichtigt. Diese Skizze macht vielmehr deutlich, dass das Vorgehen der empirischen Sozialforschung eben nicht in einer umfassenden und allen denkbaren Aufgaben gerecht werdenden Rezeptsammlung kodifizierbar ist. Diesen Aspekt greifen wir später im Kapitel 2.4 noch einmal auf und vertiefen ihn durch die Darstellung der unterschiedlichen Forschungslogiken verschiedener ausgewählter Designtypen. Danach allerdings ist eine bewusste Beschränkung auf einen besonders typischen Anwendungsfall empirischer Forschung unabdingbar. Wie als wissenschaftstheoretischer Zugang in diesem Buch die Position des Kritischen Rationalismus gewählt wurde, so wird sich auch der forschungsmethodische Teil ab Kapitel 3 schwerpunktmäßig an nur einem Typ von Fragestellungen (der mehr oder weniger standardisierten Datenerhebung im sozialen Feld) und am Vorgehen nur einer Forschungsrichtung (der „traditionellen“, analytisch-nomologischen) orientieren. Ergänzt ist diese Schwerpunktsetzung durch die Annotationen aus qualitativ-interpretativer Sicht am Ende jedes Kapitels und einen kurzen Überblick über qualitative Ansätze in Kapitel 9. Doch auch bei Einschränkung auf den genannten Vorgehenstyp sind Ablauf und Organisation eines Forschungsprojektes immer noch eine äußerst verwickelte Angelegenheit, wie im folgenden Abschnitt gezeigt wird. 2.2 Der Forschungsprozess als eine Reihe ineinander verzahnter Entscheidungen Die Methoden der empirischen Sozialforschung sind Verfahrensregeln formaler Art, die sicherstellen sollen, dass ihre Ergebnisse einen angebbaren Grad von Verbindlichkeit haben. Zu diesem Zweck hat sich die Empirie auf ein bestimmtes Vorgehen bei der Untersuchung sozialer Realität geeinigt. Dieses bezieht sich auf Entscheidungen, die im Forschungsprozess zu treffen sind. In diesem Abschnitt werden die in jedem Forschungsprojekt notwendigen Entscheidungen sowie dabei auftretende Probleme kurz aufgelistet, ohne schon näher erläutert werden zu können. Ihre ausführliche Behandlung bleibt den späteren Kapiteln vorbehalten. Die Funktion dieses Abschnitts ist insbesondere, den „roten Faden“ für den weiteren Text zu liefern. Dabei sollte sich der Leser jedoch bewusst bleiben, dass die hier gewählte Reihenfolge der Entscheidungen idealtypischen Charakter hat. Im realen Forschungsablauf werden Überschneidungen, Sprünge und Rückkoppelungen die Regel sein. Jedes Forschungsvorhaben impliziert vom Beginn bis zum Abschluss eine Fülle von Entscheidungen über den Umgang mit anfallenden Problemen (Eingrenzung des Themas, Wahl der Instrumente, Auswahl der Untersuchungsobjekte, Anwendung statistischer Verfahren usw.), die erhebliche Auswirkungen auf das Forschungsresultat haben können und deshalb zur Sicherung der intersubjektiven Nachprüfbarkeit sorgfältig zu dokumentieren sind. eine Reihe wichtiger Entscheidungen Nachprüfbarkeit durch Dokumentation <?page no="69"?> 70 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 70 Inhaltlich richten sich die vom Forscher zu treffenden Entscheidungen auf folgende Punkte (einige der dabei zu beantwortenden Fragen sind jeweils mit aufgeführt): a) Klärung des „Entdeckungs-“ und des „Verwertungszusammenhangs“: - Welches Problem soll erforscht werden (Forschungsfrage)? Warum ist dieses Problem so relevant, dass es erforscht werden soll? - Wessen Probleme werden aufgegriffen? Wessen Interessen werden berührt (Erkenntnisinteressen)? - Handelt es sich um ein dem Forscher vorgegebenes oder ein von ihm selbst gestelltes Problem? - Für welche Zwecke sollen die Ergebnisse verwendet werden (Verwertungsinteressen)? - Welche Informationen werden zur Erfüllung dieser Zwecke und zur Beantwortung der Forschungsfrage benötigt (Informationsbedarf )? b) Präzisierung der Problemformulierung, „dimensionale Analyse“ des Forschungsgegenstands: - Welche Bereiche („Dimensionen“) der Realität sind durch die Forschungsfragestellung explizit angesprochen? - Welche Dimensionen werden berührt, ohne direkt angesprochen zu sein? - Können die als relevant angenommenen Dimensionen zusammengefasst oder müssen sie differenziert betrachtet werden? c) Zuordnung von geeigneten Begriffen zu den als relevant angenommenen Dimensionen: - Existieren bereits eindeutig verwendete und für die Fragestellung geeignete Begriffe, oder müssen diese neu eingeführt und unmissverständlich definiert werden? - Werden durch die verwendeten Begriffe bzw. durch die Wahl der für Definitionen verwendeten Merkmale möglicherweise vorhandene Beziehungen zwischen den realen Erscheinungen verschleiert, „wegdefiniert“? d) Einordnung der Problemstellung in vorhandene Kenntnisse (Theorien, Forschungsergebnisse, Methoden); Hypothesenbildung unter Verwendung der definierten Begriffe; Entscheidung über das Forschungsdesign: - Welche theoretischen Kenntnisse sind über den Untersuchungsgegenstand sowie über Beziehungen zwischen den angesprochenen Dimensionen vorhanden? Welche Vermutungen können/ müssen zusätzlich formuliert werden? - Welcher Untersuchungsansatz ist dem Forschungsproblem angemessen? - Sind die vorhandenen Vorkenntnisse ausreichend, um ein endgültiges Forschungsdesign zu entwerfen? Oder ist zuvor eine (explorative) Vorstudie erforderlich? - Welche Methoden der Informationsgewinnung sind prinzipiell geeignet und im gegebenen Zusammenhang zweckmäßig? e) Auswahl von „Indikatoren“ für die verwendeten Begriffe (falls erforderlich): Fragen für den Forschungsprozess <?page no="70"?> 71 2.2 Der Forschungsprozess als eine Reihe ineinander verzahnter Entscheidungen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 71 - Fassen Begriffe mehrere Dimensionen der Realität zusammen, so dass von einzelnen Aspekten auf den Gesamtbegriff (auf das sprachliche Konstrukt) geschlossen werden muss? - Ist das mit einem Begriff bezeichnete reale Phänomen direkt beobachtbar, oder muss vom Vorliegen anderer, direkt beobachtbarer Sachverhalte (Indikatoren) auf das Vorhandensein des gemeinten Phänomens geschlossen werden? - Welche Kenntnisse sind vorhanden, um geeignete Indikatoren auswählen zu können? f ) Festlegung des erforderlichen Differenzierungsgrades der Informationen sowie Angabe der Messinstrumente („Operationalisierung“ der Begriffe): - Kann auf bewährte Erhebungsinstrumente und Skalen zurückgegriffen werden? Oder ist ein spezifisches Instrument zu entwickeln und zu testen (Pretest)? - Mit welchen „Messverfahren“ sollen die Ausprägungen der Variablen festgestellt werden? Wie muss die Situation beschaffen sein, in der die Messung vorgenommen wird? - Auf welchem Skalenniveau kann/ soll gemessen werden? - Sind die Indikatoren und die gewählten Ausprägungen „gültig“, d. h. erfassen sie genau diejenigen Tatbestände und diejenigen Differenzierungen der Realität, die mit der Forschungs-Problemstellung gemeint sind? - Sind die verwendeten Instrumente zuverlässig, d. h. führt ihre wiederholte Anwendung unter gleichen Bedingungen zu gleichen Ergebnissen? g) Festlegung der Objekte (Merkmalsträger), bei denen die Merkmale gemessen werden sollen; Definition der Grundgesamtheit; gegebenenfalls Entscheidung über Art und Umfang der Stichprobe: - Wer sind die Merkmalsträger (z. B. Personen, Gebiete, Zeitschriften, Zeitpunkte)? - Sollen alle Objekte, auf die sich die Problemstellung bezieht, untersucht werden oder nur ein Teil davon? - Bei Teilauswahlen: Sollen besonders typische Fälle herausgegriffen werden, oder ist eine „repräsentative“ Auswahl erforderlich? h) Erhebung und Aufbereitung der Daten: - Ist eine Primärerhebung erforderlich? Oder existieren die benötigten Informationen bereits anderswo (Sekundärauswertung)? - Stehen qualifizierte Personen für die Datenerhebung zur Verfügung? Oder muss Erhebungspersonal rekrutiert und geschult werden? - Lässt sich die Zuverlässigkeit der Datenerhebung kontrollieren (Feldkontrolle)? - In welcher Weise sollen die Erhebungsprotokolle (z. B. Fragebögen, Beobachtungsprotokolle) aufbereitet und gespeichert werden? i) Verringerung der Unübersichtlichkeit der Informationsfülle, Straffung und Verdichtung von Informationen (Anwendung statistischer Modelle und Verfahren): - Sollen die erhobenen Daten quantitativ ausgewertet werden? - Welche statistischen Modelle sind geeignet? j) Interpretation der Ergebnisse; Rückbezug zu den Punkten a bis i. <?page no="71"?> 72 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 72 Im Interpretationsprozess sind folgende Fragen zu klären: - Sind die statistischen Modelle sowohl dem Messniveau der Daten als auch der empirischen Realität angemessen? Werden die im Hinblick auf die Problemstellung wesentlichen Informationen ausgewertet? Können also die berechneten Beziehungen zwischen den Daten (=- zwischen den Reihen von Zahlen) überhaupt in Beziehungen zwischen Dimensionen der Realität zurückübersetzt werden? (vgl. i) Wenn ja: - Gelten die ermittelten Beziehungen nur für die untersuchte Menge von Objekten, oder können die Ergebnisse auf ähnliche Objekte oder auf eine größere Gesamtheit verallgemeinert werden? (vgl. g) - Sind die Daten zuverlässig gemessen/ erhoben und aufbereitet worden? Können die ermittelten Beziehungen zwischen den Daten also als Beziehungen zwischen den Variablen interpretiert werden? (vgl. h) - Sind geeignete Methoden gewählt worden? Die Fragestellung bei traditionellen empirischen Untersuchungen lautet: Welche Methoden der Datenerhebung sind geeignet, 1. die Dimensionen der Realität adäquat zu erfassen, ohne sie 2. durch die Datenerhebung selbst zu verändern? - Sind die Ausprägungen der Variablen in geeigneter Weise abgegrenzt worden? Können also die ermittelten Beziehungen zwischen den Variablen als Beziehungen zwischen den (empirischen) Indikatoren interpretiert werden? (vgl. f ) - Sind geeignete Indikatoren für die mit Begriffen bezeichneten Sachverhalte gewählt worden? Können die ermittelten Beziehungen zwischen den Indikatoren als Beziehungen zwischen den (mit Begriffen bezeichneten) Dimensionen der Realität interpretiert werden? (vgl. e und f ) - Werden die vorher formulierten Hypothesen bzw. Theorien (vgl. d) durch die Ergebnisse (vorläufig) bestätigt? Oder müssen die Hypothesen verworfen bzw. umformuliert werden? - Ergeben sich durch die Resultate der Untersuchung Konsequenzen für die Auswahl und Abgrenzung der als relevant angenommenen Dimensionen der Realität sowie für die Definition der benutzten Begriffe (d. h. wurden relevante Dimensionen nicht berücksichtigt, haben sich Definitionen als nicht brauchbar erwiesen)? (vgl. b und c) - Welche Konsequenzen für die eingangs formulierte Problemstellung lassen sich aus den Ergebnissen ableiten? Können die auf der Ebene der Symbole (Begriffe, Sprache) gefundenen Erkenntnisse auf die Realität bezogen werden (Praxisrelevanz; Verwertungszusammenhang)? k) Dokumentation des Forschungsprozesses und der Ergebnisse (Forschungsbericht) sowie Präsentation der Befunde: - Wie ausführlich sind die Entscheidungen im Projekt und die verwendeten Instrumente zu dokumentieren (Sicherung der Möglichkeit intersubjektiver Nachprüfung)? - Wie ausführlich und auf welche Weise sind die Ergebnisse der Analyse zu dokumentieren? <?page no="72"?> 73 2.3 Entdeckungs-, Begründungs- und Verwertungszusammenhang www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 73 - Kann/ soll der erhobene Datenbestand für Sekundäranalysen archiviert werden? - Auf welche Weise werden die Befunde gegenüber der Öffentlichkeit, dem Auftraggeber etc. präsentiert (Artikel für Fachzeitschriften, Vorträge, Zusammenfassungen für die Presse)? 2.3 Entdeckungs-, Begründungs- und Verwertungszusammenhang: Das Problem der Wertungen in der empirischen Forschung Die Klärung des Entdeckungs- und des Verwendungszusammenhangs (Punkt a) in Abschnitt 2.2) stellt den Ausgangspunkt und das Ziel der Forschung dar. Er ist die eigentliche Bezugsgröße für alle Überlegungen und liefert im Zweifelsfall die Kriterien für die im Forschungsprozess notwendigen Entscheidungen. Während die Punkte b) bis k) eingehender in den folgenden Kapiteln behandelt werden, sind zum Punkt a) einige nähere Erläuterungen schon an dieser Stelle erforderlich. Dazu soll die häufig benutzte Unterscheidung zwischen Entdeckungs-, Begründungssowie Verwertungsbzw. Wirkungszusammenhang der Forschung (z. B. Friedrichs 1977, 50 ff.) herangezogen werden. Dabei ist unter Entdeckungszusammenhang (oder Entdeckungskontext) „der Anlass zu verstehen, der zu einem Forschungsprojekt geführt hat“ (Friedrichs 1977, 50). Hier spielen Interessen immer eine Rolle, etwa: das Erkenntnisinteresse eines Wissenschaftlers, der aufgrund vorliegender widersprüchlicher Befunde sozialwissenschaftliche Theorien testen und fortentwickeln möchte; problembezogene politische Interessen, wenn z. B. vom Forscher (oder Auftraggeber) soziale Situationen gesehen werden, die nicht im Einklang mit bestimmten Soll-Vorstellungen stehen. Insbesondere bei Auftragsforschung ist also bei der Lektüre von Forschungsberichten immer die Frage zu klären, wessen Probleme und Interessen aufgegriffen worden sind (bzw. wessen Probleme/ Interessen ausgeklammert wurden! ). Letzteres verweist bereits auf die enge Verzahnung des Entdeckungszusammenhangs mit dem Verwertungssowie Wirkungszusammenhang der Forschung, worunter die „Effekte einer Untersuchung verstanden werden, ihr Beitrag zur Lösung des anfangs gestellten Problems“ (Friedrichs 1977, 54). Jede Untersuchung erweitert Wissen über soziale Zusammenhänge, kann zur Lösung sozialer Probleme beitragen (wenn die neu gewonnenen Kenntnisse mit diesem Ziel eingesetzt werden) oder diese Lösung verhindern bzw. zumindest verzögern (wenn Kenntnisse bewusst zurückgehalten werden oder wenn durch die Untersuchung bestimmter sozialer Fragen andere Probleme unbeachtet bleiben). Die Unterscheidung geht im Wesentlichen auf Reichenbach zurück (context of discovery, context of justification) und erweist sich als nützlich in der Einschätzung des Werturteilsfreiheits-Postulats der Erfahrungswissenschaft. Wertungen sind für das Wissenschaftskonzept des Kritischen Rationalismus in mehrfacher Hinsicht ein Problem. Entdeckungszusammenhang Verwertungszusammenhang Werturteilsproblematik <?page no="73"?> 74 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 74 Erstens: Erfahrungswissenschaft soll über die Realität, so wie sie unabhängig vom wissenschaftlichen Beobachter existiert, informieren, soll sie beschreiben und erklären. Wertende Aussagen jedoch können nicht aus Tatsachenaussagen logisch abgeleitet werden; anders ausgedrückt: Aus dem, was ist, kann nicht hergeleitet werden, was sein soll. Wertungen informieren also nicht über die „objektive“ Realität, sondern sind Ausdruck der subjektiven Sicht der wertenden Person oder Instanz. Auf Wertungen lässt sich das Kriterium der Wahrheit oder Falschheit nicht anwenden. Somit kann über sie mit Hilfe des Instrumentariums der Erfahrungswissenschaft nicht entschieden werden (vgl. Abschnitt 1.2.3). Zweitens: Bei der Beobachtung der Realität wird die Wahrnehmung von den Zielen der beobachtenden Person beeinflusst. Die Wahrnehmungspsychologie hat nachgewiesen, dass man tendenziell vor allem das erkennt, was man zu erkennen hofft. Das gilt sowohl für vertraute Sachverhalte als auch für ungewohnte Situationen: Das Unvertraute wird zunächst so interpretiert, dass es in das eigene Orientierungsraster hineinpasst. Um solche Wahrnehmungsverzerrungen auszuschließen (realistischer: möglichst gering zu halten), muss deshalb die strikte Neutralität das Leitprinzip bei der Informationserhebung sein, um der „objektiven“ Realität (d. h. der Realität der Untersuchungsobjekte) die bestmögliche Chance zu geben, sich in den Wahrnehmungseindrücken abzubilden (vgl. Abschnitt 1.3.3, Problem 2: Basissatzdilemma). Drittens: Kein Forschungsprojekt kann soziale Realität in ihrer „Ganzheit“ untersuchen; jedes Projekt muss vielmehr außerordentlich selektiv vorgehen. Es ist immer nur ein kleiner Ausschnitt (ein eng abgegrenztes Thema, ein relativ kleiner Gegenstandsbereich) aus im Wesentlichen nur einer Perspektive analysierbar. Im Verlauf des Projekts sind unablässig Entscheidungen zu treffen: über das angemessen erscheinende Vorgehen, über die Auswahl der zu untersuchenden Situationen oder Personen, über die zu messenden Merkmale usw. (vgl. Kapitel 2.2). Jede Selektion kann allerdings nur vorgenommen, jede Entscheidung nur getroffen werden unter Bezugnahme auf Werturteile (auf Bewertungen der „Aktualität“ eines Themas, der „Relevanz“ von Fragestellungen, der „Gültigkeit“ von Indikatoren, der „Repräsentativität“ einer Auswahl, der „praktischen Verwertbarkeit“ von Erkenntnissen und vieles mehr). Solche Entscheidungen-- und damit der Rückgriff auf Wertungen-- sind unvermeidbar. Dennoch dürfen sie die wissenschaftliche Geltung der Ergebnisse nicht beeinträchtigen. Aus diesen drei Problemen folgt für die Erfahrungswissenschaft die Forderung nach strikt interessenneutralem und unparteiischem Vorgehen, das zugespitzt als Postulat der Wertneutralität bzw. der Wert(urteils)freiheit formuliert wurde. Das Postulat der Wert(urteils)freiheit- - ursprünglich formuliert von Max Weber (1904)-- wird allerdings häufig missverstanden. Es bedeutet nicht, dass Wissenschaftler/ innen als Personen sich jeder Wertung enthalten müssten, sondern lediglich, dass ihre subjektiven Wertungen ihre Entscheidungen innerhalb des Forschungsprojekts nicht beeinflussen dürfen. 54 Mit anderen Worten: Das Wert(urteils)freiheitspostulat 54 Der „Werturteilsstreit“ in der Sozialwissenschaft ist ausführlich mit zahlreichen Beiträgen dokumentiert in Albert/ Topitsch 1971. Eine umfassende und anregende Diskussion der Wertproblematik findet sich bei Beck 1974. Wertungen folgen nicht aus Tatsachen Problem: Wahrnehmungsverzerrung Entscheidungen erfordern Werturteile Wert(urteils)freiheits-Postulat Wertfreiheit im Begründungszusammenhang <?page no="74"?> 75 2.3 Entdeckungs-, Begründungs- und Verwertungszusammenhang www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 75 bezieht sich ausschließlich auf den sogenannten Begründungszusammenhang (Reichenbach: context of justification), worunter „die methodologischen Schritte zu verstehen (sind), mit deren Hilfe das Problem untersucht werden soll“ (Friedrichs 1977, 52 f.; vgl. Kapitel 2.2, Buchstaben b bis k). 55 Es besagt weiter, dass die innerhalb des Begründungszusammenhangs notwendigen Entscheidungen nicht auf der Basis subjektiver Wertungen und Präferenzen zustande kommen dürfen, sondern ausschließlich entsprechend den Normen der Methodologie empirischer Forschung sowie unter Rückgriff auf bestätigtes empirisches Wissen zu begründen sind. Das Postulat der Wert(urteils)freiheit lautet demnach: (1) Werturteile sind erfahrungswissenschaftlich nicht begründbar. (2) Im Begründungszusammenhang der Forschung haben subjektive Werturteile keinen Platz; hier müssen sich die Wissenschaftler auf methodologisch begründbare Schlussfolgerungen und intersubjektiv nachprüfbare Aussagen beschränken. Für das Feld des Begründungszusammenhangs empirischer Forschung soll also- - zusammengefasst-- gelten: a) Werturteile (normative Aussagen) können nicht Inhalt erfahrungswissenschaftlicher Aussagen sein. Werturteile sind nicht intersubjektiv nachprüfbar, sie informieren nicht über einen Gegenstandsbereich, sondern über die wertende Person. Bei identischen Sachverhalten können verschiedene Personen zu unterschiedlichen Wertungen gelangen. b) Werturteile können dagegen sehr wohl zum Gegenstand sozialwissenschaftlicher Untersuchungen und erfahrungswissenschaftlicher Aussagen gemacht werden (z. B. Analyse des Ideologiegehalts von Propagandasendungen). c) Vorab zu fällende Werturteile schließlich sind Grundlage jeder wissenschaftlichen Aussage. Wissenschaftstheorie und Methodologie sind Bestandteile der Wertbasis, 56 sind somit explizit normativ: Sie setzen fest, welche Aussagen als zum Bereich der definierten Wissenschaft zugehörig gelten sollen und welche nicht (s. o.: „Abgrenzungskriterium“). Sie setzen z. B. fest, unter welchen Bedingungen eine Aussage als wahr oder zumindest vorläufig bestätigt akzeptiert bzw. wann sie als falsch zurückgewiesen werden soll. Solche immanenten Basisregeln des Forschens sind es gerade, die intersubjektiv überprüfbare wissenschaftliche Entscheidungen ermöglichen (sollen). Sie beruhen auf dem Konsens der Wissenschaftlerinnen und Wissenschaftler einer „Wissenschaftlergemeinde“ (scientific community), sind also nicht in das Belieben der einzelnen Forscherin oder des einzelnen Forschers gestellt (vgl. Albert 1972 u. 55 Die anfangs möglicherweise unplausibel erscheinende Bezeichnung „Begründungszusammenhang“ für die Phase der „eigentlichen Forschung“ wird nunmehr vielleicht plausibler: Es geht (u. a.) um die Geltungsbegründung der auf empirischem Wege gewonnenen wissenschaftlichen Erkenntnisse. 56 Zur Wertbasis einer Wissenschaft gehören weitere Normen: etwa die Verpflichtung, den Bestand an gesichertem Wissen über die Realität zu vermehren, aufklärend zu wirken, die Regeln der Forschungsethik zu beachten. Werturteile nicht Inhalt wissenschaftlicher Aussagen Werturteile können erforscht werden notwendig: methodologische Wertbasis Regeln der Wissenschaftsgemeinde <?page no="75"?> 76 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 76 1973). 57 Die wissenschaftsimmanenten Normen informieren in diesem Fall nicht über die Person des einzelnen Forschers (vgl. a), sondern über die „Wissenschaftlergemeinde“, nämlich über deren Regeln für „wissenschaftliches Vorgehen“. Das Wert(urteils)freiheits-Postulat bedeutet: Innerhalb des Begründungszusammenhangs erfahrungswissenschaftlicher Forschung ist auf andere als wissenschaftsimmanente Wertungen zu verzichten! Ist aber die Wert(urteils)freiheit-- wie vom Kritischen Rationalismus postuliert-- in der praktischen empirischen Forschung überhaupt realisierbar? Abgesehen davon, dass sehr schwer abgrenzbar ist, welche Forschungsentscheidung schon (bzw. noch) zum „Begründungszusammenhang“ gehört (eine Durchsicht der einzelnen Punkte in Kapitel 2.2 dürfte das deutlich machen), und abgesehen davon, dass es praktisch schwierig sein dürfte, für alle (häufig ad hoc im Forschungsprozess zu treffenden) Entscheidungen immer und schnell genug die erforderliche methodologische und/ oder empirische Informationsbasis zu beschaffen, bleibt darüber hinaus prinzipiell umstritten, ob eine Realisierung des Werturteilsfreiheitspostulats- - auch in der präzisierten Formulierung- - überhaupt denkbar ist. Immerhin hat die Art der Präzisierung einer Fragestellung, hat die Wahl einer theoretischen Perspektive, unter der die Untersuchung in Angriff genommen wird, haben Begriffsdefinitionen und Operationalisierungen-- um nur einige Punkte zu nennen-- unbestreitbar Auswirkungen auf die Ergebnisse, und sei es auch nur dadurch, dass bestimmte Realitätsaspekte in den Blick geraten, andere ausgeblendet werden. Ebenso unbestreitbar dürfte sein, dass es schon aus logischen Gründen nicht möglich ist, alle diese Entscheidungen ausschließlich unter Rückgriff auf die methodologischen Regeln und auf empirisch gesicherte Kenntnisse über den Gegenstandsbereich der Untersuchung zu treffen. Zu Ende gedacht, würde dies nämlich voraussetzen, dass bereits vollständiges Wissen über den Untersuchungsgegenstand vorhanden ist-- dann aber wäre die Forschung überflüssig. Praktisch wird also vielfach auch innerhalb des Begründungszusammenhangs des Projekts auf Argumente aus dem Entdeckungs- und dem Verwertungszusammenhang Bezug zu nehmen sein (=-wissenschaftsexterne Wertungen als Basis von Entscheidungen) oder wird die Intuition der Forscherin bzw. des Forschers weiterhelfen müssen (=-subjektive Überzeugungen). Dies spricht jedoch nicht gegen das Wertneutralitätspostulat als orientierende Perspektive erfahrungswissenschaftlicher Forschung. Solange solche Wertbezüge nicht verschleiert oder hinter scheinobjektiven Formulierungen versteckt werden, ist darin für die Intersubjektivität der Ergebnisse kein grundsätzliches Problem zu sehen. Im Gegenteil wird durch die Offenlegung aller Wertbezüge eine wesentliche Vorausset- 57 Methodologische Standards, die zu bestimmten Zeitpunkten allgemein anerkannt sind, müssen jedoch nicht „für alle Zeiten“ festgeschrieben sein (so die Diskussion bei Galtung 1978). Definition: Wert(urteils)freiheits-Postulat Durchführbarkeit des Wert(urteils)freiheits-Postulat Möglichkeit der Werturteilsfreiheit fraglich Wertneutralitätspostulat als orientierende Perspektive Offenlegung aller Wertbezüge <?page no="76"?> 77 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 77 zung für die wechselseitige Kritik innerhalb des Wissenschaftssystems-- eine zentrale Forderung des Kritischen Rationalismus-- geschaffen. 58 Anders als für den Begründungszusammenhang wird im Übrigen von keiner Seite bestritten, dass in den Bereichen des Entdeckungs- und des Verwertungszusammenhangs der Forschung notwendigerweise eine Fülle von (nicht wissenschaftsimmanenten) Werturteilen zu fällen ist. 2.4 Forschungsplanung und Forschungsdesign An mehreren Stellen wurde bereits darauf hingewiesen, dass die Methodenlehre der empirischen Sozialforschung kein Handbuch mit Rezepten bereitstellen kann, die schematisch auf konkrete Forschungsprojekte anzuwenden wären. Vielmehr muss in der Regel-- mit Ausnahme weniger, häufig wiederholter Routineerhebungen-- für jedes Vorhaben ein zur jeweiligen Thematik „maßgeschneiderter“ Forschungsplan entworfen werden, müssen die jeweiligen Forschungsfragen operationalisiert, müssen problemadäquate Erhebungsinstrumente entwickelt und getestet werden. Dabei können die verschiedenen Verfahren und Techniken aus dem Baukasten der Methodenlehre in vielfältiger Weise miteinander kombiniert werden, so wie sie bei gegebenen Rahmenbedingungen (Zeitrestriktionen, Ressourcen, Stand der Vorkenntnisse, Zugänglichkeit und Kontrolle des Untersuchungsfeldes, Art der verfügbaren Informationsquellen u. a.) für den jeweiligen Untersuchungszweck am nützlichsten zu sein scheinen. Solche Entwurfsarbeit ist vergleichbar der Tätigkeit eines Architekten, der ein Gebäude zu planen hat, das in bestmöglicher Weise der vorgesehenen künftigen Nutzung gerecht werden soll, für dessen Realisierung der Architekt jedoch den vorgegebenen Möglichkeitsrahmen (verfügbare Finanzen, Art und Lage des Grundstücks, örtliche baurechtliche Auflagen usw.) nicht durchbrechen kann. Trotz aller „Individualität“ des jeweiligen konkreten Forschungsvorhabens gibt es dennoch für bestimmte Gruppen von Fragestellungen durchaus einige spezifische Designtypen mit jeweils spezifischer Forschungslogik- - wie ja auch der Architekt unterschiedliche Gebäudetypen kennt: vom Einfamilienreihenhaus über den freistehenden Bungalow bis zum Wohnbzw. Bürohochhaus oder zur Fabrikhalle. Aus dem Spektrum der existierenden Designtypen sollen hier vier besonders häufig vorkommende herausgegriffen und etwas näher dargestellt werden: - die theorie- oder hypothesentestende Untersuchung, - das Experiment sowie quasi-experimentelle Ansätze, - das Standardmodell der Programm-Evaluation sowie - das deskriptive Surveymodell (Querschnittserhebung nicht-experimenteller Daten). 58 Für Popper ist die intersubjektive Nachprüfbarkeit ein wesentliches Instrument für die Chance auf Erkenntnisfortschritt. Er fordert ausdrücklich eine Einstellung, „die bereit ist, auf kritische Argumente zu hören und von der Erfahrung zu lernen- …, eine Einstellung, die die Hoffnung nicht leichtfertig aufgibt, dass man durch Argumente und durch sorgfältiges Beobachten in vielen wichtigen Punkten zu einer Art Übereinstimmung kommen kann“ (Popper 1973a, II, 276). Entdeckungs- und Verwertungszusammenhang mit-Werturteilen maßgeschneiderter Forschungsplan notwendig Designtypen <?page no="77"?> 78 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 78 Zum besseren Vergleich der ihnen zugrunde liegenden Verfahrenslogik ziehen wir das von Hempel und Oppenheim vorgeschlagene Schema deduktiv-nomologischer wissenschaftlicher Erklärung (H-O-Schema) heran. Es wird im folgenden Abschnitt in seinen Grundzügen erläutert. 2.4.1 Das Modell wissenschaftlicher Erklärung von Hempel und Oppenheim Der Ausgangspunkt: Es ist etwas- - möglicherweise Unerwartetes- - passiert, das erklärt werden soll. In der Sprache der Methodologen: Ein aufgetretenes singuläres Ereignis soll logisch haltbar mit empirischen Argumenten erklärt werden. Nochmals anders ausgedrückt: Für einen „zu erklärenden Sachverhalt“ (Explanandum) wird ein „erklärendes Argument“ (Explanans) gesucht. Wird-- wie im analytisch-nomologischen Wissenschaftsverständnis-- Kausalität als Wirkungsprinzip in der empirischen Realität unterstellt (vgl. Abschnitt 1.2.2), dann kann der „zu erklärende Sachverhalt“ nur als Effekt einer wirksam gewordenen Ursache (oder mehrerer Ursachen) verstanden werden. Die „Erklärung“ bestünde also in der Angabe der Ursache(n). Nehmen wir als Beispiel für einen „erklärungsbedürftigen“ Sachverhalt: „Die Studiendauer der Studierenden an deutschen Universitäten ist lang“ (nach Auffassung mancher Hochschulpolitiker: zu lang). Als Erklärung dafür wird von manchen angeboten (z. B. vom SPIEGEL): „Die Lehre an deutschen Universitäten ist schlecht“ (1993, Nr. 16). Als alltägliche Erklärung mag das bereits ausreichend und einleuchtend sein. Als logisches Argument allerdings ist diese „Erklärung“ unvollständig. Es fehlt noch die Angabe eines Ursache-Wirkungs-Prinzips. Dieses könnte in unserem Beispiel etwa lauten: „Wenn die Lehre an der Hochschule schlecht ist, dann ist die bis zum erfolgreichen Studienabschluss erforderliche Studiendauer lang.“ Explanans: („das Erklärende“) (1) Wenn die Lehre an der Hochschule schlecht ist, dann ist die bis zum erfolgreichen Studienabschluss erforderliche Studiendauer lang. (Ursache- Wirkungs-Prinzip) (2) Die Lehre an deutschen Universitäten ist schlecht. (Vorliegende Ursache) 59 Explanandum: („das zu Erklärende“) (3) Die Studiendauer an deutschen Universitäten ist lang. (Eingetretene Wirkung) 59 Die in Aussage (2) beschriebenen Situationskomponenten, also die in der Argumentation als „Ursache“ genannten Sachverhalte, werden im Erklärungsschema auch als „Anfangsbedingungen“ oder „Randbedingungen“ bezeichnet. Erklärung: erkennen der Ursache BEISPIEL <?page no="78"?> 79 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 79 Damit aus dieser „Alltagserklärung“ eine wissenschaftliche Erklärung wird, müssen allerdings einige ergänzende Bedingungen erfüllt sein: Zum einen muss es sich bei (1) um ein „empirisches Gesetz“ handeln, des Weiteren müssen die in den Aussagen verwendeten Begriffe präzise definiert und operationalisiert sein, 60 und selbstverständlich müssen die Aussagen (2) und (3) empirisch „wahr“ sein. Formaler ausgedrückt lauten diese „Adäquatheitsbedingungen für Erklärungen singulärer Ereignisse“ nach Opp (1976, 128 f. und 131 ff.): 1) Das Explanandum muss aus dem Explanans korrekt gefolgert worden sein. Dies bedeutet: a) Die Anfangsbedingungen (siehe Fußnote 59) stellen raum-zeitlich lokalisierte Elemente derjenigen Objekte dar, die die Wenn-Komponente bezeichnet. b) Die Prädikate der Dann-Komponente und des Explanandums müssen entweder identisch sein, oder das Prädikat der Dann-Komponente muss in dem Prädikat des Explanandums enthalten sein. 2) Das Explanans muss mindestens ein Gesetz enthalten, das für die Ableitung des Explanandums erforderlich ist, sowie singuläre Sätze, die die Randbedingungen beschreiben. 3) Das Explanans muss empirischen Gehalt haben, d. h. es muss empirisch überprüfbar sein. 4) Die Sätze des Explanans müssen wahr sein (oder zumindest: sie müssen sich sehr gut bewährt haben). Ganz ähnlich ließe sich eine Beobachtung wie die folgende erklären: „Die Studiendauer an deutschen Universitäten ist heute länger als sie vor 20 Jahren war.“ Zutreffen müssten ein Ursache-Wirkungs-Prinzip wie „Je schlechter die Lehre ist, desto länger ist die bis zum Studienabschluss benötigte Zeit“ sowie die empirische Feststellung der „Randbedingung“: „Die Lehre an deutschen Universitäten ist heute schlechter als vor 20 Jahren“. Allgemein lautet das deduktiv-nomologische Erklärungskonzept von Hempel und Oppenheim (1948) (DN-Schema oder H-O-Schema): Explanans: (1) Es gilt (mindestens) ein nomologisches Gesetz z. B.: („Wenn A und B, dann C“). (2) Die in der Wenn-Komponente genannten Randbedingungen sind erfüllt (z. B.: „A und B liegen vor“). Explanandum: (3) Singulärer Satz, der den zu erklärenden Sachverhalt beschreibt (z. B. „C liegt vor“). 60 Das heißt: Die „Qualität der Lehre“ sowie die „Studiendauer“ müssen gültig und zuverlässig gemessen werden können; und es ist anzugeben, ab welchem Messwert die Lehre „schlecht“, ab welchem Messwert die Studiendauer „lang“ ist. deduktivnomologisches Schema <?page no="79"?> 80 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 80 Gegeben ist das zu erklärende „singuläre Ereignis“(3), gesucht ist das „Explanans“ (1 und 2). Bei dieser Art von Erklärung muss (3) deduktiv-logisch aus (1) und (2) folgen, wobei (2) aus der Wenn-Komponente und (3) aus der Dann-Komponente des nomologischen Gesetzes abgeleitet wird. 61 Äußerlich ähnlich ist die Struktur bei den Argumentations-Typen „Prognose“ und „Technologische Aussage“. Bei der „Prognose“ ist das Explanandum aus Gesetz(en) und Randbedingung(en) „vorherzusagen“. Bei „Technologischen Aussagen“ ist das Explanandum das in der Zukunft zu erreichende Ziel; gesucht sind geeignete Gesetze, die in der Dann-Komponente das Explanandum enthalten und die in der Wenn-Komponente Sachverhalte benennen, welche gezielt so veränderbar sind, dass dadurch das gewünschte Ziel erreicht wird. 2.4.2 Das Design hypothesen- und theorietestender Forschung Vielen erscheint der Theoriebzw. Hypothesentest als der Prototyp empirischer Forschung: „Sozialwissenschaftliche Datenerhebung ist kein Selbstzweck. Befragungen, Beobachtungen und andere Erhebungsmethoden dienen in der Regel einem allgemeineren Zweck: der Überprüfung der Geltung von Theorien“ (Esser 1984, I, 3). Methodologische Texte sind im Allgemeinen (explizit oder zumindest implizit) vor diesem Hintergrund geschrieben, methodologische Argumentationen und Dispute häufig nur vor diesem Hintergrund zu verstehen. Auch Forschungsberichte über abgeschlossene Projekte berufen sich häufig auf die Logik des hypothesentestenden Vorgehens. 62 Die Fragestellung dieses Typs von Forschung ist: Kann eine Hypothese oder eine Theorie empirische Geltung beanspruchen? Das mit der Beantwortung dieser Frage verfolgte Ziel könnte sein: - eine bei der Analyse empirischer Befunde einer früheren Untersuchung ad hoc formulierte Dateninterpretation auf ihre allgemeinere Geltung zu testen oder - zwischen „konkurrierenden“ Hypothesen eine empirische Entscheidung herbeizuführen oder - Theorien, die sich bisher zwar schon empirisch „bewährt“ haben, einem härteren Test zu unterwerfen, um sie gegebenenfalls weiterzuentwickeln oder zu präzisieren. Die Logik des Hypothesentests ist anhand des H-O-Schemas der Erklärung (Abschnitt 2.4.1) leicht nachzuvollziehen. Vorab gegeben ist die Aussage (1)-- die zu prüfende Hypothese. Gesucht sind Situationen, in denen die in der Wenn-Komponente genannten Aspekte als Randbedingungen (2) empirisch vorliegen. In diesen Situati- 61 Analog ist der Argumentationszusammenhang bei einer Je-desto-Beziehung. Das „Gesetz“ (1) könnte lauten: „Je höher X, desto höher Y“. Empirisch erfüllt sein müsste die Randbedingung (2): „X ist gestiegen“. Erklärt wäre damit das Explanandum (3): „Y ist gestiegen“. 62 Dies geschieht allerdings häufiger als gerechtfertigt. Nicht selten werden Interpretationen, die erst bei der Datenanalyse ad hoc formuliert wurden, nachträglich zu forschungsleitenden Hypothesen umgedeutet. Struktur der Prognose Technologische Aussagen Ziel des Hypothesentests Logik des Hypothesentests <?page no="80"?> 81 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 81 onen wird „beobachtet“, 63 ob auch die aus der Dann-Komponente ableitbaren Sachverhalte (3) empirisch auftreten. Diese „Beobachtung“ kann in „natürlichen Situationen“ geschehen (also in der sozialen Realität, wie sie unabhängig von der Forschung existiert) oder in „künstlich geschaffenen Situationen“, die speziell für den Forschungszweck herbeigeführt werden (Experimentalforschung, vgl. Abschnitt 2.4.3). Das Design einer hypothesentestenden Untersuchung ist so anzulegen, dass ein gezielter und kontrollierter Vergleich der empirisch feststellbaren Sachverhalte mit den aus der Hypothese ableitbaren Behauptungen über die empirische Realität möglich ist. Die Überlegungen, die in diesem Zusammenhang anzustellen sind, beziehen sich also noch nicht auf die Wahl bestimmter Instrumente oder Methoden. Mit der Bezeichnung „Design einer hypothesentestenden Untersuchung“ ist vielmehr einerseits eine spezifische Verfahrenslogik (s. o.), andererseits ein spezifischer Argumentationstyp angesprochen. Der Argumentationstyp besteht darin, dass zunächst aus der zu testenden Theorie/ Hypothese [(1) im H-O-Schema] deduktiv-logisch Aussagenpaare [(2) und (3) im H-O-Schema] derart abgeleitet werden, dass sie in der Realität beobachtbare Sachverhalte bezeichnen. Im Folgenden werden sie als hypothesenbzw. theorie-implizierte Basissätze (kürzer: als theoretische Basissätze) bezeichnet. 64 Anschließend werden diese Deduktionen mit Aussagen über reale (durch empirische Beobachtung festgestellte) Situationskonstellationen verglichen. Stimmen die aus der Theorie/ Hypothese abgeleiteten Sätze mit den Beobachtungsaussagen (=-den empirischen Basissätzen) überein, gilt die zu prüfende Theorie/ Hypothese als empirisch bestätigt, andernfalls als empirisch widerlegt, zumindest als in ihrem empirischen Geltungsanspruch „erschüttert“. Wissenschaftstheoretisch sind die aus einer Hypothese ableitbaren Realitätsbehauptungen-- also die Gesamtheit der „theorie-implizierten“ Aussagenpaare (2) und (3)-- potenzielle Konfirmatoren (=-„Bestätiger“; falls sie empirisch zutreffen sollten) bzw. potenzielle Falsifikatoren der Hypothese (=- „Widerleger“; falls sie empirisch nicht zutreffen sollten). Natürlich können in einer Untersuchung nicht alle denkbaren (deduktiv ableitbaren) Tatsachenbehauptungen empirisch getestet werden, sondern immer nur eine (gezielte) Auswahl von ihnen. Dabei sollen solche Hypothesen/ Theorien ausgewählt werden, die einen möglichst „harten“ Test bedeuten. Hypothesenbzw. theorietestende Forschung besteht (nach dem Idealbild der kritisch-rationalen Wissenschaftstheorie) also darin, zunächst solche Tatsachenbehauptungen zu deduzieren, von denen man annehmen kann, dass sie (möglicherweise) empirisch nicht zutreffen. 65 Danach werden in der Realität entweder Situationen geschaffen oder natürliche Situationen aufgesucht, in denen die aus der Wenn-Komponente der Hypothese abge- 63 „Beobachten“ ist hier wieder im weitesten Sinne zu verstehen. (vgl. Kapitel 1.2.3). 64 Die Bezeichnung „theoretischer Basissatz“ kann man wie folgt verstehen: Die allgemeine Geltung beanspruchende, also abstrakte Theorie/ Hypothese wird hier konkret spezifiziert und damit theoretisch auf eine konkrete Basis bezogen, die empirisch untersucht werden kann. 65 Vielleicht ist es nützlich, wenn Sie jetzt noch einmal das Beispiel in Kapitel 1.3.6 lesen. Ziel des hypothesentestenden Designs Argumentationstyp: deduktiver Schluss theoretische Basissätze Vergleich mit Beobachtungen empirische Basissätze Konfirmatoren / Falsifikatoren „harter“ Test <?page no="81"?> 82 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 82 leiteten Phänomene/ Sachverhalte realisiert sind. Zugleich wird mit empirischen Mitteln festgestellt, ob in diesen Situationen auch die aus der Dann-Komponente abgeleiteten Phänomene/ Sachverhalte eintreten bzw. vorliegen. Die Beschreibungen der Ergebnisse dieser empirischen Feststellungen sind die empirischen Basissätze der Forschung. Der Vergleich dieser empirischen mit den theoretischen Basissätzen bildet dann die Grundlage der Entscheidung über die Richtigkeit (=-Bestätigung) oder Falschheit (=-Falsifikation) der zu prüfenden Hypothese bzw. Theorie. Die Abbildung 2.1 fasst das geschilderte Argumentationsmodell theoriebzw. hypothesentestender Forschung zusammen. Dieses schlüssig scheinende Verfahren sieht sich allerdings mit zwei gravierenden methodologischen Problemen konfrontiert: einerseits dem Korrespondenzproblem Falsifikation / Bestätigung methodologische Probleme des Hypothesentests Logische Denkschritte Empirische Arbeitsschritte und Hilfstheorien Hypothesen/ Theorie Theoretische Begri e, ggf. Aussagen über Zusammenhänge Indikatoren (de-nitorische, korrelative, schlussfolgernde) logische (analytische) Ableitung Operationalisierung Messinstrumente ggf. härtere Tests Erhebung empirischer Daten ggf. Reformulierung der Hypothesen bzw. der Theorie Auswertung Singuläre Aussagen (theoretische Basissätze) Beobachtungsaussagen (empirische Basissätze) Vergleich Falsi-kation der Hypothesen Korrespondenzregeln oder hypothesen Mess-, Instrumenten- und Beobachtungstheorien Bestätigung der Hypothesen Quelle: Eigene Darstellung Abbildung 2.1: Designtyp Theorie- und Hypothesentest. <?page no="82"?> 83 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 83 (das wird in Kapitel 4.3-- Operationalisierung-- noch zu vertiefen sein), andererseits dem Basissatz-Dilemma. Das beim Vergleich der theorie-implizierten mit empirischen Basissätzen auftretende Basissatz-Dilemma wurde bereits in Abschnitt 1.3.3 skizziert. Es besagt in der jetzt vorgenommenen Präzisierung der Vergleichssituation zwischen „Theorie“ und „Realität“, dass die empirisch gewonnene Beobachtungsaussage (also der empirische Basissatz) „wahr“ sein muss, damit aus ihrem Vergleich mit dem theoretisch abgeleiteten Basissatz, dem potenziellen Falsifikator oder Konfirmator, eine Schlussfolgerung auf die „Wahrheit“ der Hypothese begründet werden kann. Diese Wahrheit des empirischen Basissatzes lässt sich aber nicht beweisen. Das Korrespondenzproblem setzt eine Stufe früher an. Wie schon in Kapitel 1.3 betont, sollen sich die von der analytisch-nomologischen Wissenschaft angestrebten Hypothesen/ Theorien durch möglichst hohen Informationsgehalt auszeichnen. Dazu sollen sie nicht nur im Idealfall eine raum- und zeit-unabhängige Geltung beanspruchen, sondern auch in Begriffen formuliert sein, die zeitüberdauernd und ortsübergreifend gelten können, also von den Besonderheiten singulärer Situationen bewusst abstrahieren. Außerdem sollen sich die Hypothesen/ Theorien nicht auf Aussagen über unmittelbar beobachtbare Phänomene beschränken, sondern auch Vermutungen über nicht direkt erfahrbare Eigenschaften und Phänomene, wie zum Beispiel „Vertrauen“ oder „Erreichbarkeit“, über Dispositionen wie „Autoritarismus“ oder „Umzugsbereitschaft“ bzw. über theoretische Konstrukte wie „soziale Schicht“ oder „Rollenkonflikt“ zum Ausdruck bringen. Mit anderen Worten: Die von der Erfahrungswissenschaft angestrebten Hypothesen sind in „theoretischer Sprache“ formuliert. Die Basissätze dagegen (und zwar sowohl die deduktiv aus den Hypothesen abzuleitenden wie die aufgrund von Datenerhebungen zu formulierenden) greifen auf „Beobachtungsbegriffe“ zurück, beziehen sich also auf Sachverhalte, die unmittelbar wahrnehmbar oder unter Benutzung geeigneter Instrumente erfassbar sind. Zwischen diesen beiden Aussage-Ebenen klafft eine semantische Lücke, die mit Hilfe geeigneter Verknüpfungsregeln zwischen theoretischem Begriff und Beobachtungsbegriffen geschlossen werden muss: Dem theoretisch bezeichneten Phänomen müssen direkt erfahrbare Sachverhalte zugeordnet werden, die als beobachtbare Hinweise (Indikatoren) auf das in seiner Allgemeinheit oder Abstraktheit nicht unmittelbar beobachtbare Phänomen dienen können. Diese Verknüpfungsregeln stellen die „Korrespondenz“ (=-die Entsprechung) von theoretischer Ebene und Beobachtungsebene her und heißen daher Korrespondenzregeln. Das Problem besteht nun darin, dass nicht immer unbezweifelbare Indikatoren für das theoretisch gemeinte Phänomen benannt und begründet werden können. Während dies bei einem Begriff wie „Erreichbarkeit“ noch auf intuitiver Basis möglich ist, fällt es bei einem Konstrukt wie Rollenkonflikt schon viel schwerer. Bei einer hypothetischen Aussage über den Zusammenhang zwischen der Erreichbarkeit der Universität von der studentischen Wohnung aus und der Häufigkeit der Anwesenheit der/ des Studierenden in der Universität könnten wir z. B. die Entfernung zwischen Wohnung und Hochschule als Indikator nennen. Eine Basissatz-Dilemma Korrespondenzproblem theoretische Sprache / Beobachtungssprache Korrespondenzregel BEISPIEL <?page no="83"?> 84 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 84 mögliche Korrespondenzregel wäre dann: „Je kürzer der Weg, desto besser die Erreichbarkeit.“ Wir könnten aber auch die Anzahl der Linien des öffentlichen Nahverkehrs und die Dichte der Zug-/ Busfolge als Indikatoren nennen. Korrespondenzregeln: „Je mehr Linien des öffentlichen Nahverkehrs die Universität anfahren, desto besser die Erreichbarkeit.“ Und: „Je dichter die Zugbzw. Busfolge, desto besser die Erreichbarkeit.“ Bei näherem Hinsehen erweist sich die „Korrespondenz“ von Begriff und Indikatoren aber selbst hier als problematisch: Die Zugfolge ist nicht zu jeder Uhrzeit gleich dicht; wir hätten also je nach Tageszeit unterschiedliche „Erreichbarkeiten“. Die Linien des öffentlichen Nahverkehrs nützen dem Studierenden nichts, wenn in der Nähe der eigenen Wohnung keine Haltestelle ist. Die Universität wäre dann zwar „im Prinzip“ gut erreichbar, für den betreffenden Studierenden jedoch mit öffentlichen Nahverkehrsmitteln überhaupt nicht. Wir müssten für diese Hypothese die Erreichbarkeit mit Indikatoren operationalisieren, die sich auf die individuelle Situation der/ des jeweiligen Studierenden beziehen. Für eine andere Hypothese- - etwa über einen Zusammenhang zwischen der Erreichbarkeit der Universität und ihrer Bedeutung für die Wirtschaft in der Region-- könnten wir allerdings mit solchen Indikatoren nichts anfangen, sondern würden ganz andere, nämlich von individuellen Situationen abstrahierende Indikatoren benötigen. Allgemeiner ausgedrückt: Eine hypothesenbzw. theorie-unabhängige (sozusagen „objektive“) Operationalisierung eines theoretischen Begriffs ist nicht möglich; beides hängt unauflösbar miteinander zusammen. Selbst wenn das eigentliche Basissatzproblem in einem bestimmten Projekt als vernachlässigbar angesehen werden könnte, 66 wäre aus der Übereinstimmung oder Nicht-Übereinstimmung zwischen theoretischen Tatsachenbehauptungen und empirischen Beobachtungsaussagen kein von der Operationalisierung ablösbarer Schluss auf die Bestätigung oder Falsifizierung der überprüften Hypothese möglich, sondern lediglich auf die Bestätigung oder Falsifizierung der Hypothese in Verbindung mit den in diesem Projekt verwendeten Korrespondenzregeln. 67 Eine eigentlich falsche Hypothese könnte aufgrund der empirischen Daten bestätigt scheinen, falls die Korrespondenzregeln falsch sind. In gleicher Weise könnte eine eigentlich richtige Hypothese fälschlicherweise empirisch widerlegt erscheinen. Das Problem ist prinzipiell unlösbar. Der einzige Rat kann nur lauten, die Arbeitsschritte der Operationalisierung (vgl. Kapitel 4) sehr ernst zu nehmen und Korrespondenzregeln nicht lediglich auf Plausibilitätsannahmen, sondern auf empirisch bereits gut bestätigte Hypothesen/ Theorien zu stützen-- und zwar auf solche Hypo- 66 Die Messung der gewählten Indikatoren sei mit bewährten und vielfach getesteten Instrumenten geschehen, und die Sorgfalt bei der Datenerhebung und -aufbereitung sei sehr genau kontrolliert worden. 67 Das Korrespondenzproblem (ebenso wie das Basissatz-Dilemma) wird ausführlich in dem bereits genannten Text von H. Esser (1984, I) behandelt. keine theorieunabhängige Operationalisierung Bestätigung/ Falsifikation bei geltenden Korrespondenzregeln bewährte Korrespondenzregeln nutzen <?page no="84"?> 85 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 85 thesen/ Theorien, die nicht in der zu prüfenden Hypothese/ Theorie enthalten sind; andernfalls besteht die Gefahr der Tautologisierung der Hypothesenprüfung. 2.4.3 Experiment und Quasi-Experimente Wird der im vorigen Abschnitt dargestellte „Theoriebzw. Hypothesentest“ von manchen Autoren als der Zweck empirischen Forschens überhaupt eingeschätzt, so gilt das Experiment als das Design der Wahl bei jeder Form von Kausalanalysen, d. h. bei Fragestellungen des Typs: Wie und in welcher Stärke wirkt sich X (als Ursache) auf Y (als Folge) aus? Im Lexikon zur Soziologie findet sich folgende Definition: Ein Experiment ist eine „planmäßige Beobachtung bestimmter Sachverhalte und ihrer Veränderungen unter vom Forscher kontrollierten und variierten Bedingungen.“ Weiter heißt es dort: „[Es] unterscheidet sich u. a. dadurch von anderen Beobachtungsformen, dass die beobachteten Vorgänge durch den Forscher hervorgerufen, hergestellt werden“ (Fuchs-Heinritz u. a., 1994, 190). Besonders in den Naturwissenschaften wird das kontrollierte Experimentieren als eine der zentralen Strategien der Erkenntnisgewinnung, des „Entdeckens“ neuer Zusammenhänge und Gesetzmäßigkeiten in der Natur eingesetzt. Doch auch in den Sozialwissenschaften hat das Experiment in den letzten Jahren an Bedeutung gewonnen, wenn auch die methodisch „reine“ Form des Einsatzes von Experimenten oftmals an ethische Grenzen stößt. 68 In den Kategorien des H-O-Erklärungsschemas (vgl. Abschnitt 2.4.1) lässt sich die experimentelle Fragestellung wie folgt konkretisieren: Der Forscher führt in einer kontrollierten Untersuchungssituation, die insbesondere von allen externen Einflüssen abgeschirmt ist, eine „Maßnahme“ durch-- d. h. er realisiert bestimmte „Randbedingungen“: Punkt (2) des H-O-Schemas-- und setzt seine Untersuchungsobjekte dieser „Maßnahme“ (engl.: treatment) aus. Danach beobachtet er, welchen Effekt die „Maßnahme“ auf seine Versuchsobjekte hat, d. h. welche „Wirkungen“ eintreten: Punkt (3) des H-O-Schemas. Bei mehrfacher Wiederholung des Experiments unter jeweils gleichen Bedingungen kann aus den Resultaten der Versuchsreihe das in dieser Konstellation zur Geltung kommende Ursache-Wirkungs-Prinzip-- Punkt (1) im H-O-Schema-- abgelesen werden. 68 Eine aktuelle Einführung in Experimente in den Sozialwissenschaften bietet Kubbe (2016) mit Blick auf Anwendungen in der Politikwissenschaft. Gute, kurz gefasste Überblicke über die Experimentalmethode geben auch Eifler (2014), Jackson/ Cox (2013) und Draper/ Pukelsheim (1996); ausführlich Zimmermann 1972; aus qualitativer Perspektive Kleining 1986. Experiment als Idealdesign des Theorietests Experiment im HO-Schema <?page no="85"?> 86 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 86 Wird in einer Versuchsreihe das „treatment“ systematisch variiert, während alle sonstigen Bedingungen konstant bleiben, 69 kann aus dem Zusammenhang von variierendem „treatment“ und dem in Abhängigkeit davon variierenden Effekt das Ursache-Wirkung-Prinzip (das empirische „Gesetz“) differenziert ausformuliert werden. Ging es bei der Konzipierung hypothesentestender Forschung in erster Linie um ein methodologisch abgesichertes Argumentationsschema, so konzentrieren sich die methodologischen Überlegungen zum Design des Experiments 70 um die Gestaltung und Kontrolle der Untersuchungssituation. Im Mittelpunkt des klassischen Experiments steht das Bemühen, für die Datenerhebung Bedingungen zu schaffen, in denen nur das Ursache-Wirkungs-Prinzip zwischen Maßnahme und Effekt zur Geltung kommen kann. Zum anderen ist Vorsorge zu treffen, dass die Art und die Stärke der vermuteten Kausalwirkungen eindeutig festgestellt und in gültiger Weise-- nach Möglichkeit sogar quantitativ-- gemessen werden können. Die erste Anforderung kann dadurch erfüllt werden, dass-- wie bereits angesprochen-- die als (mögliche) Ursache angenommene Einflussgröße (s. o.: „Maßnahme“ oder „treatment“; in der psychologischen Experimentalforschung häufig auch „Stimulus“ genannt) vom Forscher kontrolliert in die Untersuchungssituation eingeführt wird und dass alle sonstigen, im Prinzip denkbaren Einflussgrößen weitestgehend abgeschirmt oder in anderer Weise (z. B. durch „Randomisierung“, s. u.) unwirksam gemacht werden. Die zweite Anforderung ist dann erfüllt, wenn parallel zur Experimentalsituation eine „geeignete“ Vergleichssituation existiert, in der die (angenommene) Ursache nicht wirkt, die jedoch in allen anderen Aspekten mit der Experimentalsituation identisch ist. Im Falle sozialwissenschaftlicher Experimente mit Menschen als Untersuchungsobjekten (in der Psychologie meist Versuchspersonen- - abgekürzt: Vpn- - genannt) zeichnet sich das Design eines „echten“ Experiments dadurch aus, dass es mindestens die folgenden Merkmale aufweist: - Es existiert eine Experimentalgruppe G 1 , die dem „treatment“ bzw. dem experimentellen „Stimulus“, also der auf ihre Auswirkungen zu untersuchenden Maßnahme, ausgesetzt wird. - Es existiert eine in allen wesentlichen Merkmalen äquivalente Kontrollgruppe G 2 , die dem experimentellen Stimulus nicht ausgesetzt wird, die also vom „treatment“ verschont bleibt. - In beiden Gruppen werden vor dem Zeitpunkt des „treatments“ und ausreichende Zeit danach die Ausprägungen der abhängigen Variablen (also der Merkmale, bei denen man Auswirkungen durch das „treatment“ erwartet) gemessen. 69 Häufig werden Sie für diese Bedingung die Bezeichnung „ceteris paribus“ (abgekürzt: c.p.) finden. 70 Statt Experimentaldesign verwendet man häufig auch die Bezeichnung „Versuchsanordnung“. Anforderungen an das Experiment Kontrolle der Untersuchungssituation Experimentalsituation/ Vergleichssituation Merkmale des „echten“ Experiments Experimentalgruppe Kontrollgruppe Vorher- nachher-Messung <?page no="86"?> 87 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 87 - Stimmen vor dem „treatment“ in der Experimental- und in der Kontrollgruppe die Verteilungen der abhängigen Variablen überein (was bei äquivalenten Vergleichsgruppen der Fall sein sollte) und sind nach dem „treatment“ Unterschiede zwischen den Gruppen feststellbar, dann werden diese Unterschiede als Effekte interpretiert (d. h. als Auswirkungen der experimentellen Stimuli). Als Prototyp des sozialwissenschaftlichen Experiments ist das Labor-Experiment anzusehen. Hierfür gilt, dass- - im günstigsten Fall- - die Auswirkungen möglichst aller Randbedingungen mit Ausnahme des experimentellen Stimulus bekannt sein sollten, so dass die Äquivalenz von Versuchs- und Kontrollgruppe auf der Basis empirisch bestätigter Kenntnisse herstellbar ist. Die Zusammensetzung der Gruppen kann in einem solchen Fall gezielt vorgenommen werden, die möglichen Einflussgrößen sind gezielt kontrollierbar. Diese anspruchsvolle Voraussetzung- - dass man schon hinreichende empirisch bestätigte Kenntnisse hat, um vollständig kontrollierte Experimente durchzuführen- - ist allerdings normalerweise nicht gegeben. Daher machen sich auch sogenannte „echte“ sozialwissenschaftliche Experimente den Vorteil des kontrollierten Zufallsprinzips zunutze, 71 der darin besteht, auch (noch) unbekannte Merkmale und Faktoren mit angebbarer Wahrscheinlichkeit in einer nicht einseitig verzerrenden Weise zu repräsentieren: Die Versuchspersonen werden „zufällig“ (etwa durch Auslosen) auf Experimental- und Kontrollgruppe verteilt. Dieses Vorgehen wird als „Randomisierung“ bezeichnet. Diese zufällige Zuordnung darf nicht mit einer Zufallsauswahl der Experimentalteilnehmer verwechselt werden-- in aller Regel wird man auf Freiwillige angewiesen sein (Selbstselektion statt Zufallsauswahl). Das Prinzip der Randomisierung setzt eine Stufe tiefer ein: Sobald eine genügende Anzahl von Versuchspersonen gefunden ist, werden diese zunächst hinsichtlich derjenigen Merkmale, die für den Ausgang des Experiments als bedeutsam gelten- - vielleicht Alter, Geschlecht, Bildung- -, „geschichtet“, also sozusagen vorgruppiert. Danach entscheidet ein Zufallsverfahren, welche Personen aus jeder Schicht der Experimentalgruppe und welche der Kontrollgruppe zugewiesen werden. Auf diese Weise erreicht man zweierlei: zum einen die Bildung unmittelbar äquivalenter Experimental- und Kontrollgruppen hinsichtlich der Schichtungsmerkmale, zum anderen durch das zufällige Zuweisen- - das sogenannte Randomisieren-- die Ausschaltung der Gefahr systematischer Ergebnisverzerrungen durch Faktoren, die dem Forscher vorab nicht bekannt sind. Dieses Zweigruppen-Design (G 1 und G 2 ) kann noch um zwei weitere Gruppen (eine Experimental- und eine Kontrollgruppe, G 3 und G 4 ) erweitert werden, in denen man auf den Vorgang des Messens vor dem eigentlichen „treatment“ verzichtet. Dadurch wird kontrolliert, ob nicht allein schon durch die Messung vor dem „treatment“ Veränderungen in Gang gesetzt wurden (Versuchskaninchen-Effekt). Für Untersuchungsgegenstände, bei denen man in verschiedenen Bevölkerungsschichten 71 Auf das Prinzip des „kontrollierten Zufalls“ wird im Detail im Kapitel 6- - Auswahlverfahren-- eingegangen. Interpretation von-Effekten Prototyp: Laborexperiment Randomisierung Randomisierung ≠ Zufallsauswahl der Versuchspersonen Effekt des Messens kontrollieren <?page no="87"?> 88 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 88 jeweils unterschiedliche Auswirkungen der gleichen Maßnahmen für möglich hält (z. B. alte Leute gegenüber Jugendlichen, Frauen gegenüber Männern, Familien mit Kleinkindern gegenüber alten Ehepaaren usw.), kann außerdem das Design auf eine größere Zahl von Experimental- und zugeordneten Kontrollgruppen ausgeweitet werden (für jede relevante Bevölkerungsschicht ein komplettes Experimentaldesign). Die folgende Übersicht zeigt einige der wichtigsten Experimental-Designs: Geschildert wurde bisher das Design „echter Experimente“. 72 Wie leicht vorstellbar, sind die dafür genannten Bedingungen allenfalls im „Labor“ herstellbar. Laborexperimente haben jedoch den Nachteil, im Allgemeinen ausgesprochen „realitätsfern“ zu sein. In ihnen wird künstlich eine Situation hergestellt, in der nur ein einziges Merkmal (der experimentelle Stimulus) in kontrollierter Weise wirksam wird und alle anderen möglichen Einflussgrößen „ausgeblendet“ werden (engl.: screening). Dies widerspricht fast allen realen sozialen Situationen, die sich ja gerade dadurch auszeichnen, dass praktisch „alles mit allem“ zusammenhängt. Ideal geeignet sind solche Labor-Untersuchungssituationen für Fragestellungen, die den isolierten Einfluss einer einzigen Variablen für den idealtypischen Fall nachweisen wollen, dass „alle übrigen Bedingungen gleich bleiben“ (sogenannte ceteris-paribus-Klausel), selbst wenn in der Realität dieser Fall nie eintritt. Dies ist etwa für theoretische Argumentationen sowie für den Test und die Konkretisierung von Hypothesen und Theorien von unschätzbarem Vorteil (vgl. das kurze Beispiel in Kapitel 1.3.5 sowie die ausführliche Darstellung einer sozialwissenschaftlichen Labor-Experimentalreihe in Hunt 1991, Kapitel 4). Für andere- - insbesondere anwendungsorientierte- - Fragestellungen ist die Realitätsferne dagegen ein kaum akzeptabler Nachteil. Anstelle von Laborforschung wird für solche Zwecke Feldforschung zu betreiben sein. Ihr Ziel ist es, soziale Prozesse und Strukturen, wie sie unabhängig vom wissenschaftlichen Forschungsprozess bestehen, zu erfassen und zu analysieren. Versuchen die Forscher dabei, in systematischer Weise die Bedingun- 72 Ein Beispiel für ein echtes Laborexperiment findet sich in Kapitel 1.3.6. Nachteil von Laborexperiment: realitätsfern ideal für isolierten Einfluss Feldforschung Quelle: Darstellung nach Frey/ Frenz (1982, 250) four-group design (Solomon) pretest-posttest controlgroup design G 1 G 2 M 1 M 1 M 2 M 2 M M G 3 G 4 R R R R posttest-only controlgroup design (non)equival. controlgroup design static group comparison one-shot case study ohne Randomisierung mit Randomisierung x - - x one-group pretest-posttest design Abbildung 2.2: Design-Strukturen bei Experimenten. <?page no="88"?> 89 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 89 gen einer gegebenen Feldsituation zu kontrollieren und die für die Untersuchung relevanten Variablen gezielt zu manipulieren, orientieren sie sich am Konzept des Feldexperiments. Feldexperimente verfolgen das Ziel, die Logik des klassischen Experiments auch auf Untersuchungsanordnungen im sozialen Feld zu übertragen und dort zu realisieren. Dies ist in realen sozialen Situationen jedoch fast niemals in vollem Umfang möglich. Beispielsweise wird im Allgemeinen nicht für Zwecke der Wissenschaft in die soziale Realität eingegriffen. 73 Vielmehr muss die Forschung sich an Situationen „anhängen“, in denen im Rahmen des „normalen“ sozialen Handelns Veränderungen in Gang gesetzt werden (etwa Einführung einer neuen Produktionstechnik in der Automobilindustrie, Reform der Verwaltungsabläufe in der Kommune mit dem Ziel „mehr Bürgernähe“, Realisierung eines Arbeitsbeschaffungsprogramms für Langzeitarbeitslose). In solchen Situationen wird aber die Forschung allenfalls geduldet; keinesfalls erhält sie eine federführende Rolle bei der Gestaltung der von ihr untersuchten sozialen Realität. Insbesondere wäre die Erwartung unrealistisch, Versuchs- und Kontrollgruppen nach von der Forschung vorgegebenen Kriterien zusammenzusetzen und/ oder nach dem Zufallsprinzip zu bilden (s. o.: Randomisierung). In manchen Fällen wird es überhaupt nicht möglich sein, über direkte Kontrollgruppen zu verfügen. Häufig sind auch „Vorher-Messungen“ der interessierenden Variablen nicht durchführbar. Besondere Probleme verursachen die Kontrolle der „treatments“ 74 sowie die Abschirmung der übrigen Einflussgrößen. 75 Für nicht voll erfüllbare Bedingungen des „echten“ Experiments (s. o.) wird man dann bestrebt sein, Ersatzlösungen zu finden, die nach Möglichkeit die gleiche Funktion erfüllen: Anstelle äquivalenter Kontrollgruppen kann man versuchen, Vergleiche mit Situationen anzustellen, in denen die untersuchten Maßnahmen nicht durchgeführt werden. Anstelle expliziter „Vorher-Messungen“ bei den Versuchspersonen kann man Daten aus früheren Zeiträumen heranziehen. Sind „externe“ Einflüsse auf die Effekte des untersuchten Programms nicht abzuschirmen, müssen diese externen Einflussgrößen gleichfalls gemessen werden, um sie bei der Auswertung der gesammelten Daten berücksichtigen zu können (statistische Variablenkontrolle in der Phase der Datenanalyse anstelle der Situationskontrolle im Experiment). Untersuchungsanordnungen, die sich an der Experimentallogik orientieren, jedoch nicht alle Bedingungen des klassischen Experiments erfüllen können, werden als Quasi-Experimente bezeichnet. In der Übersicht „Designstrukturen bei Experi- 73 Eine Ausnahme bildet der Ansatz der sogenannten „experimentellen Politik“: Beabsichtigte politische Maßnahmen werden zunächst „versuchsweise“ in begrenztem Rahmen mit wissenschaftlicher Begleitung durchgeführt. Erst aufgrund der so gewonnenen Erfahrungen wird endgültig entschieden (vgl. Hellstern/ Wollmann 1983a). 74 Werden die politischen Maßnahmen von den zuständigen Stellen auch wirklich so durchgeführt wie vorgesehen und/ oder wie nach außen dargestellt? 75 Wie reagiert die nicht direkt betroffene „Umwelt“ auf die Maßnahmen? Welche einflussreichen anderen Veränderungen finden statt? Feldexperiment Nutzung experimentähnlicher Situationen Probleme beim Feldexperiment vergleichbare Situationen als Kontrollgruppe statistische Kontrolle anderer Einflüsse Quasi-Experimente <?page no="89"?> 90 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 90 menten“ (Abb. 2.2) sind auch einige solcher quasi-experimenteller Designs dargestellt, etwa das Design mit nicht äquivalenten Kontrollgruppen (fehlende Randomisierung) oder der statische Gruppenvergleich (keine Vorher-Messung). 76 Ein Feldexperiment zur Durchsetzung informeller Normen haben Wolbring, Bozoyan und Langner (2013) in der Münchener U-Bahn durchgeführt. Sie prüften dabei folgende Hypothese: Je höher der erkennbare soziale Status einer Person, die eine Norm verletzt, desto geringer die Wahrscheinlichkeit einer Sanktion durch andere. Diese allgemeine Hypothese wurde in einem Feldexperiment auf der Rolltreppe einer Münchner U-Bahn-Station geprüft. Auf den Rolltreppen gilt die informelle Norm, dass Menschen auf der rechten Seite stehen und die linke Seite frei lassen für Menschen, die gehen wollen. Diese informelle Norm wurde in dem Feldexperiment gebrochen, indem jemand auf der linken Seite steht und so den Weg versperrt. Die Frage war nun, ob dieser Regelverletzer- - entsprechend der Hypothese- - mit geringerer Wahrscheinlichkeit von anderen sanktioniert wird, also auf sein Fehlverhalten durch Schimpfen oder zur Seite drängen hingewiesen wird, wenn er einen höheren sozialen Status hat. Nach dem Hempel-Oppenheim-Schema ist die Untersuchungsfrage folgende: Explanans: („das Erklärende“) (1) Je höher der erkennbare soziale Status einer Person, die eine Norm verletzt, desto geringer die Wahrscheinlichkeit einer Sanktion durch andere. (Ursache- Wirkungs- Prinzip) (2a) Links gehen, rechts stehen ist in der-Münchner U-Bahn eine Norm. (2b) Person A hat einen geringeren sozialen Status als Person B. (Vorliegende Ursache) Explanandum: („das zu Erklärende“) (3) Person A wird mit höherer Wahrscheinlichkeit für den Verstoß der Norm „Links gehen, rechts stehen“ in der Münchner U-Bahn sanktioniert als Person B. (Eingetretene Wirkung) Diese Erwartung wurde in der Münchner U-Bahn als Feldexperiment geprüft. Eine Person stellte sich einmal in eleganter, formeller Kleidung auf der linken Seite in den Weg und war so der Normverletzer mit erkennbar höherem sozialen Status. Zum Vergleich stellte sich die selbe Person in ausgewaschener, informeller Kleidung auf der linken Seite in den Weg und war so der Normverletzer mit erkennbar niedrigerem sozialen Status. 77 Die Versuchsanordnung des Feldexperiments war also folgende: 76 Für die Darstellung der Methodologie von Quasi-Experimenten sei neben Frey/ Frenz 1982 auf die „Klassiker“ Campbell 1983 sowie Cook/ Campbell 1979 verwiesen. 77 Fotos sind in dem Artikel zu finden, wie auch der Vergleich zwischen der Normverletzung durch einen Mann und eine Frau. BEISPIEL <?page no="90"?> 91 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 91 Gruppe treatment Messung G1 X (niedriger sozialer Status) M G2 - (hoher sozialer Status) M Weil es sich um ein Feldexperiment handelt, gibt es eine Reihe von Einschränkungen im Vergleich zum Laborexperiment. So gibt es keine vorher-Messung. Für diesen Fall wird schlicht unterstellt, dass es ohne eine Person, die den Weg versperrt, auch keine Sanktion geben dürfte. Auch fehlt eine zufällige Zuweisung zu den Gruppen. Stattdessen wird das Experiment häufig durchgeführt, um so eine größere und möglichst zufällig variierende Anzahl von Personen zu haben, denen der Weg versperrt wird. Schließlich lassen sich, wie immer bei Feldexperimenten, nicht alle Randbedingungen kontrollieren. So erweist es sich als eine wichtige Randbedingung, ob auf dem Gleis gerade ein Zug steht, der durch den versperrten Weg nicht erreicht werden kann. Auch die unterschiedlichen Randbedingungen finden Berücksichtigung, indem das Experiment häufiger, zu unterschiedlichen Tageszeiten und Wochentagen durchgeführt wurde, um so eine möglichst breite Palette von Randbedingungen abzudecken. Durch diese Prüfung zeigt sich dann, dass die Person mit erkennbar niedrigerem sozialen Status in der Tat mir höherer Wahrscheinlichkeit auf ihr Fehlverhalten hingewiesen und zur Seite gedrängt wird. Die Details der Ergebnisse finden sich in dem Artikel von Wolbring, Bozoyan und Langner (2013). 2.4.4 Das Evaluationsdesign der Programmforschung Im alltäglichen Sprachgebrauch bedeutet „Evaluation“ nichts weiter als „Bewertung“. Im Kontext von Forschung wird der Begriff Evaluation in verschiedenstem Sinne benutzt; entsprechend vielfältig sind die methodischen Ansätze, sich in Wissenschaft und Forschung mit Evaluation zu befassen. 78 Diesem in seiner Komplexität kaum überschaubaren Feld will sich der folgende Abschnitt jedoch nicht zu nähern versuchen. Herausgegriffen wird vielmehr die einflussreiche und methodologisch besonders fundierte Richtung der Implementations- und Wirkungsevaluation. Darin bezeichnet Evaluation einerseits eine spezifische Fragestellung: 78 Für komprimierte Überblicke siehe Kromrey 2001 und 2003; ausführlicher Giel 2013. Eine sehr detaillierte Zusammenstellung der diversen Fragestellungen, Gegenstände, Funktionen und Ansätze findet man in Döring/ Bortz 2016, Kap. 18; siehe auch eval-wiki.org/ glossar/ Kategorie: A_bis_Z. Für die Evaluationspraxis wertvolle Hinweise sowie Darstellungen von Evaluationsprojekten unterschiedlichen Typs finden sich in Giel/ Klockgether/ Mäder (2015). <?page no="91"?> 92 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 92 Die Fragestellung der Evaluation ist die Bewertung eines bestimmten Sachverhalts oder eines bestimmten Handelns-- z. B. ein politisches Reformprogramm oder eine neue Technologie oder das Handeln einer bestimmten Gruppe- - nach vorgegebenen Kriterien und gestützt auf empirische Informationen (Ziel: Objektivierung des Bewertungsproblems). Zum anderen bezeichnet der Begriff ein spezifisches Design. Das Design der Evaluation ist ein Untersuchungsansatz, bei dem das zu evaluierende Handeln- - die durchgeführten Maßnahmen sowie die eingesetzten Instrumente, nennen wir es zusammenfassend „Programm“ 79 -- und die durch dieses Handeln bewirkten Effekte in methodisch kontrollierter Weise miteinander in Beziehung gesetzt und aus der Perspektive der Handlungsziele auf ihren Erfolg hin beurteilt werden. Dabei muss die Forschung explizit berücksichtigen, dass das „Programm“ nur in enger Verflechtung mit seiner sozialen Umwelt durchführbar ist, dass es also von Umgebungseinflüssen nicht abgeschirmt werden kann: Beziehen wir Fragestellung und Design wieder auf das in Abschnitt 2.4.1 dargestellte Hempel-Oppenheim-Erklärungsschema, dann finden wir dessen Komponenten gleich in doppelter Weise wieder. Zum einen erweist sich das „Programm“ als eine „technologische Aussage“, die ja formal die gleiche Struktur wie eine „Erklärung“ hat. Die Programmziele stellen die 79 Unter Programmen versteht die Sozialwissenschaft komplexe Handlungsmodelle, die auf die Erreichung bestimmter Ziele gerichtet sind, die auf bestimmten, den Zielen angemessen erscheinenden Handlungsstrategien beruhen und für deren Abwicklung finanzielle, personelle und sonstige administrative Ressourcen bereitgestellt werden (nach Hellstern/ Wollmann 1983b, 7; grundlegend zum Konzept der Programm- und Implementationsforschung Mayntz 1980). Evaluation als Fragestellung Evaluation als-Design Programmevaluation Programmevaluation-- H-O-Schema Abbildung 2.3: Programmevaluation Quelle: Eigene Darstellung HANDLUNGSPROGRAMM (Maßnahmen/ Instrumente) EFFEKTE (beabsichtigte und nichtbeabsichtigte Wirkungen = Kriterien der Zielerreichung) PROGRAMMZIELE PROGRAMMUMWELT <?page no="92"?> 93 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 93 angestrebte künftige Situation dar-- Punkt (3) im H-O-Schema. Die „Maßnahmen“ sind die zu vollziehenden Eingriffe in die gegenwärtigen „Randbedingungen“- - Punkt (2) im H-O-Schema. Die Art und Weise, wie eingegriffen werden soll, beruht auf Annahmen über Ursache-Wirkungs-Prinzipien-- Punkt (1) im H-O-Schema--; sie liefern die theoretische Basis des Programms: „Wenn die Randbedingungen in bestimmter Weise verändert werden- (2), dann werden dadurch die beabsichtigten Effekte hervorgerufen (3).“ Zum anderen orientiert sich das Evaluationsdesign an eben diesen Komponenten: Es hat sicherzustellen, dass sowohl die existierenden Randbedingungen (2) als auch der Ist-Zustand der Zielvariablen (3) vor Programmbeginn- - also zum Zeitpunkt t 0 -- empirisch beschrieben werden. Es hat weiter sicherzustellen, dass die während der Programmlaufzeit vorgenommenen Eingriffe in die Randbedingungen (2) erfasst werden, und zwar sowohl Eingriffe durch die im Programm vorgesehenen Maßnahmen als auch andere relevante Veränderungen in der Programmumwelt (Diese „begleitende Buchführung“ wird monitoring genannt). Das Design hat schließlich sicherzustellen, dass der Zustand der Zielvariablen (3) nach Programmdurchführung-- also zum Zeitpunkt t 1 -- wiederum empirisch beschrieben wird, so dass Art und Ausmaß der Veränderungen feststellbar sind. Ein zentrales methodisches Problem besteht darin, für festgestellte Veränderungen der Zielvariablen (=-Unterschiede zwischen den Zeitpunkten t 0 und t 1 ) zu entscheiden, ob und in welcher Höhe sie durch die Maßnahmen des Programms bewirkt wurden oder ob sie auf (programmexterne) Umwelteinflüsse zurückführbar sind. Diese Aufgabe der „Wirkungszurechnung“ ist am ehesten lösbar, wenn die Evaluationsforschung sich an der Logik des Feldexperiments orientiert und soweit möglich eine quasi-experimentelle Untersuchungsanordnung mit Vergleichsgruppen realisiert (vgl. Abschnitt 2.4.3). Der eigentliche Bewertungsteil der Evaluationsforschung besteht darin, anhand der festgestellten Effekte den „Erfolg“ des Programms, seine Effektivität einzuschätzen. Als Maßstab für die Erfolgsbewertung gelten die Programmziele, also die beabsichtigten Effekte. Die faktisch eingetretenen Wirkungen können in mehr oder weniger hohem Maße den beabsichtigten Effekten entsprechen. Der Programmerfolg ist allerdings nicht schon aus den festgestellten Veränderungen, sondern erst aus der Wirkungszurechnung (s. o.) ablesbar. Selbst bei einem absolut wirkungslosen Programm könnten Veränderungen der Zielvariablen in der gewünschten Richtung durch positive Einflüsse der Programmumwelt hervorgerufen worden sein. Andererseits kann der umgekehrte Fall eintreten, dass trotz eines eigentlich wirksamen Programms aufgrund negativer Umgebungseinflüsse nur geringe Veränderungen der Zielvariablen (oder gar Veränderungen in nicht gewünschter Richtung) sichtbar werden. Das Programm selbst war dann trotzdem nicht „erfolglos“, denn es hat immerhin eine Verschlechterung der Situation verhindert. Zusammengefasst: Als „erfolgreich“ gilt ein Programm dann, wenn die getroffenen Maßnahmen die Zielvariablen in der gewünschten Richtung und in der gewünschten Stärke beeinflussen. Evaluation darf sich jedoch nicht auf den Nachweis des Eintretens oder Nicht-Eintretens der beabsichtigten Effekte beschränken. In aller Regel werden neben den vom Evaluationsdesign-- H-O-Schema Zurechnung der Wirkungen erzielte Wirkung als Bewertungsmaßstab <?page no="93"?> 94 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 94 Programm beabsichtigten auch nicht beabsichtigte Wirkungen zu beobachten sein. Diese wiederum können von positiver oder von negativer Art sein und somit das Gesamturteil über ein Programm in erheblicher Weise beeinflussen. Das Evaluationsdesign muss daher das Untersuchungsfeld von vornherein so weit fassen, dass es über den Eingriffsbereich der Maßnahmen des Programms hinausreicht. Das schließt die Entwicklung eines theoretischen Wirkungsmodells-- Punkt (1) im H-O-Schema-- ein, welches auch Alternativen zu den Ursache-Wirkungs-Annahmen berücksichtigt, die dem Programm selbst zugrunde liegen (s. o.). Darüber hinaus impliziert dieser Arbeitsschritt eine fundierte „dimensionale Analyse“ 80 des Eingriffs- und des Wirkungsfeldes. Solche umfassenden-- auch theoretischen-- Vorarbeiten sind erforderlich, da von einer guten Evaluation nicht lediglich Aussagen über den Erfolg oder Misserfolg eines Programms erwartet werden. Vielmehr sollen bei ausbleibendem Erfolg aus den Forschungsergebnissen auch Hinweise auf Möglichkeiten zur Verbesserung des Programms ableitbar sein. Dazu ist neben der eigentlichen Wirkungsanalyse u. a. auch die Beurteilung der Programmdurchführung sowie der theoretischen Basis erforderlich. Selbstverständlich ist eine Evaluation in so umfassender Weise, dass sie alle bisher angesprochenen Aspekte vollständig berücksichtigt, in keinem Projekt realisierbar. Jedes faktische Vorhaben wird Schwerpunkte setzen müssen. Forschungsmethodisch führt dies zu unterschiedlichen Evaluationstypen, abhängig davon, welche der in der Abbildung „Programmforschung“ (S. 94) angesprochenen Dimensionen und/ oder deren Zusammenhänge den Kern der Evaluationsfragestellung bildet. 81 Eine übliche Unterscheidung bezieht sich auf den Gegenstand der Evaluation. Stehen im Vordergrund die Effekte, die von den Maßnahmen eines Programms hervorgerufen werden, haben wir es mit Wirkungsanalysen zu tun. Richtet sich der Blick nicht schwerpunktmäßig auf die Effekte, sondern steht die systematische Untersuchung der Planung, Durchsetzung und des Vollzugs eines Programms und seiner Maßnahmen im Vordergrund, spricht man von Implementationsforschung. Von Interesse kann auch sein, ob und in welcher Weise die von einem Handlungsprogramm gebotenen Leistungen von der Zielgruppe, für die diese Leistungen erstellt werden, in Anspruch genommen werden bzw. ob das Angebot auf Zustimmung oder Ablehnung stößt. Für diese Evaluationsrichtung steht der Begriff Akzeptanzforschung. Eine weitere gängige Differenzierung wird hinsichtlich des Zeitpunkts vorgenommen, an dem eine Evaluation ansetzt. Hier kann man zwischen einer projektbegleitenden und einer abschließenden Evaluation unterscheiden. Da üblicherweise bei begleitender Evaluation zugleich regelmäßige Rückkoppelungen von Ergebnissen in das Projekt vorgesehen sind, hat die Forschung Konsequenzen für dessen Verlauf; sie wirkt „programmformend“. Ein solches Konzept heißt formative Evaluation. Eine 80 Dieser Arbeitsschritt wird ausführlich in Kapitel 3.1 und 3.2 behandelt. 81 Ausführlicher dazu: Kromrey 1987, 1995a, 2007; Stockmann 2004, Giel 2013. nicht beabsichtigte Wirkungen Wirkungsmodell Evaluation zeigt Verbesserungsmöglichkeiten Evaluationstypen mit Schwerpunkten Wirkungsanalyse Implementationsforschung Akzeptanzforschung begleitende Evaluation formative Evaluation <?page no="94"?> 95 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 95 erst gegen Ende oder gar nach Abschluss eines Projekts durchgeführte- - oder erst dann zugänglich gemachte-- Evaluation verzichtet explizit auf formative Effekte. Sie gibt vielmehr im Nachhinein ein zusammenfassendes Evaluationsgutachten ab. Man spricht hier von summativer Evaluation. Schließlich ist noch danach zu unterscheiden, woher die Kriterien der Evaluation stammen und wer die Bewertungsinstanz ist. Im „traditionellen Fall“, der hier bisher dargestellt wurde, stammen die Beurteilungskriterien aus dem zu evaluierenden Programm selbst. Seine Implementation sowie seine Wirkungen werden im Lichte seiner eigenen Ziele bewertet. Vorgenommen wird die Beurteilung von den Durchführenden der Evaluationsforschung. Dieser Typ von Beurteilung besteht ausdrücklich nicht in der Abgabe subjektiver Werturteile, sondern in der Formulierung „technologischer Einschätzungen“, die intersubjektiv nachprüfbar sein müssen. In manchen Fällen wird die eigentliche Bewertung jedoch auf programm- und evaluationsexterne Instanzen verlagert. So holt man beispielsweise Fachgutachten ein; oder man befragt neutrale Expertinnen oder Experten, die sich thematisch besonders intensiv mit projektrelevanten Themen befasst haben oder die durch berufliche Erfahrungen mit ähnlich gelagerten Aufgaben ausgewiesen sind. Unter forschungsmethodischen Gesichtspunkten handelt es sich dabei jedoch nicht um „Evaluationsforschung“, sondern um herkömmliche Umfrageforschung: Unter Verwendung empirischer Instrumente werden Experteneinschätzungen erhoben und ausgewertet. Als eine Variante des Verlagerns der Evaluierung auf eine programmexterne Instanz wird verschiedentlich die Befragung der Adressaten und Adressatinnen eines Programms (Nutzer oder Betroffene, häufig „Anspruchsgruppen“ oder „stakeholder“ genannt) favorisiert. Die Begründung fällt scheinbar leicht: Die Nutzerinnen oder Nutzer einer Dienstleistung und/ oder die Betroffenen einer Maßnahme sind die „eigentlichen“ Expertinnen und Experten. Sie haben den Gegenstand der Untersuchung aus eigener Erfahrung kennengelernt und wissen, wie er (bei ihnen) wirkt. Sie sind also-- so wird unterstellt-- in der Lage, die konkretest-möglichen Urteile darüber zu fällen. Diese Form von Evaluationsbefragung ist jedoch methodisch besonders problematisch, da die erhobenen Urteile weder den Status von Bewertungen im Sinne „technologischer“ Evaluationen noch von Bewertungen neutraler Experten haben. Es handelt sich um individuell parteiische Werturteile von Personen, die in einer besonderen Beziehung-- eben als Nutzer, als Betroffene-- zum Untersuchungsgegenstand stehen. Hier sollte nicht von „Evaluation“, sondern von Akzeptanzerhebung gesprochen werden. 82 82 Um diesen Typ von Akzeptanzbefragungen handelt es sich im Allgemeinen, wenn im Hochschulbereich von „Evaluation der Lehre“ die Rede ist. Befragt werden Teilnehmerinnen und Teilnehmer von Lehrveranstaltungen, wie sie die Güte der gebotenen Ausbildung und Betreuung einschätzen. Ausführlich dazu: Kromrey (1994b, 1995b, 1996). summative Evaluation Bewertung nach Programmzielen Befragung neutraler Experten Adressatenbefragung Problem von Adressatenbefragungen Akzeptanzerhebung <?page no="95"?> 96 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 96 2.4.5 Das deskriptive Survey-Modell: Querschnittserhebung nicht-experimenteller Daten In den vorhergehenden Abschnitten wurden drei wichtige Spezialfälle sozialwissenschaftlicher Forschungsdesigns vorgestellt: der Hypothesenbzw. Theorietest als der Prototyp wissenschaftlicher Fragestellungen und empirisch-methodologischer Argumentation, das Experiment als der „Königsweg“ methodisch kontrollierter Gestaltung der Untersuchungssituation für die Entdeckung und Prüfung von Ursache- Wirkungs-Zusammenhängen sowie die Evaluationsforschung als eine typische anwendungsorientierte Fragestellung. Im folgenden Abschnitt geht es nun um den „Forschungsalltag“ und zugleich um die allgemeinste und methodisch umfassendste Untersuchungsanordnung: um das Design für die Erhebung (engl.: survey) und Analyse empirischer Informationen zur Beschreibung und Diagnose eines interessierenden sozialen Sachverhalts zu einem Zeitpunkt. 83 Ziele deskriptiver Untersuchungen können sein, - als Basis für eine zu treffende Entscheidung empirisch gesicherte aktuelle Erkenntnisse über den in Frage stehenden Gegenstand zu erhalten (Fragestellung: Entscheidungsvorbereitung) oder - bei unvorhergesehenen gesellschaftlichen Veränderungen umfassende Informationen zur Beurteilung und zum Verständnis dieser Entwicklungen zu gewinnen (Fragestellung: Diagnose) oder - einen noch relativ unbekannten empirischen Sachverhalt durch eine möglichst breit angelegte Deskription zu erkunden (Fragestellung: Exploration) oder - beispielhafte Deskriptionen für eine allgemeine Regelhaftigkeit bzw. „Gesetzmäßigkeit“ zur Verfügung zu stellen (Fragestellung: Illustration) oder - in regelmäßigen Abständen die Informationen über wichtige Teilbereiche der Gesellschaft zu aktualisieren (Fragestellung: gesellschaftliche Dauerbeobachtung) oder - zu aktuellen politischen und/ oder gesellschaftlichen Themen das Meinungsbild in der Bevölkerung zu erheben (Fragestellung: Meinungsforschung/ Demoskopie) oder - die Vorlieben und Konsumneigungen potenzieller Kunden für kommerziell anzubietende Güter und Dienstleistungen zu durchleuchten (Fragestellung: Marktforschung) - und manches andere. Der Geltungsbereich empirischer Deskriptionen kann entweder auf die untersuchten Fälle-- bei sogenannten „Fallstudien“ sogar auf den untersuchten Fall-- beschränkt sein: etwa bei Gegenstandsbeschreibungen zur Vorbereitung spezifischer Entscheidungen oder bei Explorationen. Die Absicht kann aber auch sein, die Befunde über 83 Daher die Bezeichnung „Querschnittserhebung“. Eine „Längsschnittuntersuchung“ bezieht sich auf die Analyse eines Sachverhalts im Zeitverlauf (siehe Kapitel 2.1). Beschreibung und-Diagnose Geltung: Einzelfall bis repräsentative Dauerbeobachtung <?page no="96"?> 97 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 97 die untersuchten Fälle hinaus zu verallgemeinern: etwa bei Markt- und Meinungsforschungen oder bei gesellschaftlicher Dauerbeobachtung. Während im ersten Fall das Untersuchungsfeld eindeutig abgegrenzt ist, wird im zweiten Fall explizit eine „Grenzüberschreitung“ beabsichtigt: Die Befunde sollen „repräsentativ“ sein für eine über die untersuchten Fälle weit hinausreichende „Grundgesamtheit“. 84 Im Vergleich zu den bisher behandelten Untersuchungsanordnungen verlangt die deskriptive Surveystudie die umfassendsten methodologischen Überlegungen zur Gestaltung des Forschungsdesigns. Sie reichen von der Präzisierung der Fragestellung (sowie deren expliziter Einbettung in den Entstehungs- und Verwertungskontext) über die Entwicklung eines untersuchungsleitenden und theoretisch fundierten Gegenstandsmodells sowie die Definition des Untersuchungsfeldes bis hin zur Auswertungsplanung. Während beispielsweise beim Untersuchungstyp „Theorietest“ die Fragestellung durch die zu prüfenden Hypothesen von vornherein eingeschränkt und präzisiert ist, und während dort auch die in Frage kommenden Objekte der Untersuchung relativ eindeutig zu bestimmen sind (nämlich mit Hilfe der aus den Hypothesen abzuleitenden „theorie-implizierten Basissätze“, vgl. Kapitel 1.3), erfordern deskriptive Surveystudien in dieser Hinsicht umfassende Konzipierungsaufgaben mit zentraler Bedeutung für die spätere Brauchbarkeit der Resultate. Während bei Evaluationsforschungen trotz aller Komplexität der Aufgabenstellung immerhin der Gegenstand der Untersuchung (das zu evaluierende Programm und dessen Eingriffsbereich) klar vorgegeben ist, müssen bei deskriptiven Studien auch in dieser Hinsicht konzeptionelle Vorleistungen erbracht werden. Diese sollen in ein Modell des Untersuchungsgegenstands einmünden, das sowohl dem Gegenstand selbst als auch dem Verwertungszweck der Studie gerecht wird und das zudem durch empirische wie theoretische Vorkenntnisse hinreichend abgesichert ist. Dadurch wird sichergestellt, dass bei wichtigen Aspekten keine Lücken entstehen und dass man nicht Unnötiges oder Irrelevantes erfasst. Darüber hinaus sollen im Idealfall auch deskriptive Surveystudien Ansätze für die Weiterentwicklung sozialwissenschaftlicher Theorien bieten, sie sollen nicht „rein deskriptiv“, sondern zugleich „theoretisch relevant“ sein (vgl. Abschnitt 1.3.5). Das „Strukturmodell“ für nicht-experimentelle Forschungsprojekte in Abbildung 2.4 zeigt die einzelnen Arbeitsschritte und ihre Zusammenhänge auf. In Kapitel 2.2 wurde der Forschungsprozess als „eine Reihe ineinander verzahnter Entscheidungen“ in einer Abfolge von elf Etappen dargestellt: beginnend mit der Klärung des „Entdeckungs-“ und des „Verwertungszusammenhangs“ sowie der Präzisierung der Problemformulierung über die dimensionale Analyse des Forschungsgegenstands, seine Beschreibung mit geeigneten Begriffen, über Hypothesenbildung und Operationalisierung bis zur Erhebung von Daten bei den ausgewählten „Untersuchungsobjekten“ sowie deren Aufbereitung, statistische Auswertung und Analyse/ Interpretation. Dort wurde schon darauf hingewiesen, dass diese Aneinanderreihung der Arbeitsaufgaben im Zusammenhang eines empirischen Projekts jedoch nicht so (miss)verstanden werden darf, als wäre der Prozess der Forschung eine lineare Folge 84 Die Methodik repräsentativer Auswahlen wird in Kapitel 6 behandelt. umfassendste Designplanung Modell des Untersuchungsgegenstands miteinander verflochtene Entscheidungen <?page no="97"?> 98 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 98 von Entscheidungsschritten. Auch bei der Betrachtung der folgenden Übersicht sollten Sie sich vergegenwärtigen: Es handelt sich hierbei um ein Strukturmodell, nicht um ein Ablaufmodell. 85 85 Wollte man ein Modell skizzieren, das den Ablauf eines Projekts repräsentiert, wären an vielen Stellen Rückkoppelungsschleifen einzufügen. Quelle: Eigene Darstellung Untersuchungsschritte Forschungsentscheidungen Fragestellung der Untersuchung Objektbereich dimensionale Analyse semantische Analyse „Modell“ des Objektbereichs (relevante Dimensionen und Beziehungen zwischen ihnen) Begri e Auswahl von Elementen aus dem Objektbereich Indikatoren Variablen (Merkmalsausprägungen) Objekte (Untersuchungseinheiten / Merkmalsträger) Messen (Regeln für die Zuordnung von Variablenausprägungen zu Untersuchungseinheiten) Methoden/ Instrumente Datenerhebung und Vercodung Auswertung Art der Fragestellung statisch / dynamisch; Deskription / Exploration / Evaluation De nitionen (Extension / Intension) Korrespondenzhypothesen Festlegung des zu erhebenden Dierenzierungsgrads der Indikatoren messtheoretische Annahmen / Messniveaus Inhaltsanalyse / Beobachtung / Befragung / Gruppendiskussion / psycholog. Tests usw. Anwendung der Instrumente statistische Modelle Abbildung 2.4: Strukturmodell nicht-experimenteller Forschung <?page no="98"?> 99 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 99 Faktisch sind in jedem Projekt alle Teilschritte untereinander vernetzt: Die Projektidee und die erste Formulierung der Forschungsfragestellung- - also die „Geburtsphase“ des Vorhabens-- ist nicht denkbar, ihre endgültige Präzisierung ist nicht realisierbar ohne ausdrücklichen und intensiven Bezug zur Schlussetappe: zur (gedanklich als Projektziel vorweggenommenen) Aufbereitung und Verwertung der Forschungsergebnisse. Das Projekt wird ja nicht um seiner selbst willen durchgeführt, es soll vielmehr etwas ganz Bestimmtes erreichen. Darauf-- auf dieses Projektziel-- ist jede Entscheidung zwischen Beginn und Ende des Forschungsprozesses bezogen. Auch innerhalb dieses Prozesses läuft nichts geradlinig ab: Bei der Ausformulierung der untersuchungsleitenden Hypothesen und der Definition der zentralen Begriffe müssen schon die Erhebungsinstrumente mit bedacht werden und sind zugleich Entscheidungen über die Informanten und Informationsquellen sowie über die „Objekte“ der Forschung (Personen, Familien, Organisationen, soziale Situationen etc.) zu treffen. Bei der Entwicklung und beim Test der Erhebungsinstrumente und Mess-Skalen muss bereits ein grober Auswertungsplan vor Augen stehen, u. a. damit schon bei der Operationalisierung auf das später benötigte Messniveau der Daten geachtet werden kann. Gedanklich ist bei der Konkretisierung des „Designs“ der gesamte Projektablauf vorwegzunehmen. Sobald das Projekt erst einmal „im Feld“ ist, kann bei einem auf Standardisierung angelegten Vorhaben kaum noch etwas „repariert“ werden, was im Zuge der Planung nicht bedacht wurde. Wir haben schon darauf hingewiesen, dass unter methodischen Gesichtspunkten das hier skizzierte Standardmodell deskriptiver Erhebungen das umfassendste und „kompletteste“ Design der empirischen Sozialforschung ist. Es dient daher in diesem Lehrtext für die folgenden Kapitel als „roter Faden“ der Darstellung und Argumentation. 2.4.6 Spezielle Untersuchungsanordnungen Die bisher vorgestellten Untersuchungsdesigns sind gewissermaßen die Grundtypen in der standardisierten Sozialforschung. Einzelne speziellere Untersuchungsanordnungen seien hier zumindest kurz vorgestellt. 86 Mehrebenenstudie Die bisher vorgestellten Forschungsdesigns sind durchweg davon ausgegangen, dass sie Aussagen über Menschen (oder andere Untersuchungs-„Objekte“) aus einem gemeinsamen Zusammenhang machen. Diese Annahme ist aber keineswegs realistisch. Ganz im Gegenteil: Menschen leben in Gesellschaften, und auch die Situation der Gesellschaften wird das Leben der Menschen wesentlich beeinflussen. 86 Für die Logik von Untersuchungen in der qualitativ-interpretativen Sichtweise siehe Kapitel 9. Projektplan als Gesamtkonzept gegenseitige Abhängigkeit der Entscheidungen <?page no="99"?> 100 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 100 Beispielsweise könnten wir die Einstellung zur angemessenen Höhe der Altersrente untersuchen und fragen, welche Personen eher für ein hohes und welche Personen eher für ein niedriges Rentenniveau plädieren. Zur Erklärung einer solchen Einstellung würden wir sicherlich eine Reihe von Merkmalen der Person heranziehen und z. B. vermuten, dass ältere Menschen eher für hohe Renten plädieren (weil sie schon oder bald selbst Rentnerinnen und Rentner sind). Weitere Merkmale der Person, die einen Einfluss haben könnten, fallen uns schnell ein. Für die Erklärung könnte aber auch noch wichtig sein, ob die Person in Deutschland lebt oder in Polen, in der Schweiz oder den Niederlanden, denn das Rentenniveau und die Wirtschaftslage des Landes ebenso wie die verschiedenen Lebensstile und Kulturen spielen möglicherweise eine Rolle. Dies sind Einflüsse, die nicht allein von Merkmalen der Individuen abhängen, sondern von den verschiedenen Kontexten, in denen die Menschen leben. Es geht also um Einflüsse, die sich auf einer übergeordneten Ebene (hier: der Länderebene) unterscheiden. Um sowohl die Einflüsse auf Ebene der Personen (Individualebene) als auch die Einflüsse auf Ebene der Länder (Länderebene) in unserer Untersuchung berücksichtigen zu können, müssten wir eine Mehrebenenstudie durchführen. Mehrebenstudien sind also solche, bei denen „Individualdaten und Daten über Kollektive-… miteinander in Beziehung gesetzt (werden), um den Einfluss der durch die Kollektivmerkmale charakterisierten Umwelten auf Individualeinstellungen und Individualverhalten zu analysieren bzw. um Generalisierungen auf der strukturellen Ebene durch Spezifikatoren auf der Individualebene einen höheren Informationsgehalt zu verleihen“ (Eirmbter 1979, 710). Oder einfacher ausgedrückt: Mehrebenenstudien sind Untersuchungsanlagen, die Einflüsse auf mehreren Ebenen gleichzeitig berücksichtigen. Die Mehrebenenstudien sammeln deshalb Informationen für mehrere Ebenen. Mit diesen Informationen oder Daten lassen sich dann Theorien testen, die sich gleichzeitig auf mehrere Ebenen beziehen (vgl. Kap. 2.4.2). Die Datenerhebung bei Mehrebenenstudien unterscheidet sich nicht prinzipiell von Studien mit nur einer Ebene. Die verschiedenen, in den folgenden Kapiteln diskutierten Schritte müssen in diesem Fall für mehrere Ebenen durchgeführt werden, und wir müssen wissen, welcher Fall der untersten Ebene in welche Gruppe der höheren Ebene(n) gehört (also zum Beispiel welche Person in welches Land gehört). Bei der Datenauswertung müssen dann diese Ebenen berücksichtigt werden, indem Mehrebenenanalysen gerechnet werden. 87 Die Mehrebenstudien sind in der ländervergleichenden Forschung von großer Bedeutung. Aber auch in der Bildungsforschung führt man Mehrebenenstudien 87 Zur Mehrebenenanalyse, einem fortgeschrittenen statistischen Analyseverfahren, siehe Langer (2009, auch 2010). BEISPIEL Mehrebenenstudien Datenerhebungsschritte auf mehreren Ebenen <?page no="100"?> 101 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 101 durch, wenn Schülerinnen und Schüler innerhalb unterschiedlicher Schulen untersucht werden. In diesem Fall gibt es Hypothesen, die sich auf die Schülerinnen und Schüler beziehen, und andere Hypothesen beziehen sich auf die Schulen (zum Beispiel Schulform, Ausstattung usw.). Ähnliches gilt für die Untersuchung von Arbeitnehmerinnen und Arbeitnehmern innerhalb verschiedener Unternehmen. Sekundäranalyse Nicht in jedem Fall werden für eine Untersuchung Daten erhoben. Oft lassen sich bereits existierende Daten für bislang nicht untersuchte Fragestellungen nutzen. Solche Studien heißen Sekundäranalyse. Eine Sekundäranalyse ist eine Analyse von vorliegenden Daten, die nicht zu diesem Zweck und/ oder nicht bei diesen Personen erhoben wurden (Roose 2013, 699). Sekundäranalysen sind in der Sozialforschung ausgesprochen verbreitet. Mehr als die Hälfte der quantitativen Analysen, die in den deutschen renommierten sozialwissenschaftlichen Zeitschriften veröffentlicht werden, sind Sekundäranalysen (Roose 2013, 702 f.). 88 Sekundäranalysen haben eine Reihe von entscheidenden Vorteilen. 89 Die finanziellen und zeitlichen Vorteile liegen auf der Hand, weil der Aufwand einer Erhebung (einer Primärstudie) entfällt. Da schon Daten vorliegen, bleibt Zeit und Energie, um neue, weiterführende Fragestellungen-- möglicherweise unter Berücksichtigung neuerer theoretischer Erkenntnisse-- durch eingehendere Analysen, durch Anwendung komplexerer statistischer Auswertungsverfahren vertieft zu bearbeiten. Die schon vorliegenden empirischen Befunde können dann mit den Resultaten der Sekundäranalyse konfrontiert werden. Zu den Vorteilen gehört auch die Möglichkeit einer Spezialisierung. Die Durchführung von Primärstudien ist nicht ganz leicht. Die folgenden Kapitel vermitteln einen Eindruck von den Tücken. Insbesondere kulturvergleichende Studien oder Paneluntersuchungen stellen hohe Anforderungen an die Forschenden, über die erheblichen finanziellen Ressourcen hinaus. Die Verwendung vorliegender Daten ermöglicht auch jenen, die nicht Expertinnen oder Experten von kulturvergleichen Umfragen oder Panelstudien sind, Analysen mit diesen Daten. Sie können dafür auf andere Aspekte spezialisiert sein, wie Auswertungsverfahren oder Theorie. Damit hängt ein weiterer Vorteil eng zusammen: Sekundäranalysen erlauben es allen Sozialwissenschaftlerinnen und Sozialwissenschaftlern, quantitativ zu arbeiten. Während Primärstudien eine Finanzierungsquelle brauchen und entsprechend von erfolgreichen Förderanträgen abhängig sind, können mit Sekundäranalysen alle 88 Statt „Sekundäranalyse“ verwenden manche Autoren den Begriff „Re-Analyse“. 89 Vgl. für die folgende Diskussion Hyman (1972), Klingemann und Mochmann (1975), van Deth (2003), Fielding/ Fielding (1986), Stewart (1984) und insbesondere Roose (2013). Verbreitung von-Mehrebenenstudien Sekundäranalyse Vorteil: Zeit- und Geldersparnis Vorteil: Spezialisierung Vorteil: Analysemöglichkeit für alle <?page no="101"?> 102 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 102 arbeiten und zum Beispiel in einer Studienabschlussarbeit eigene Fragen verfolgen. Sekundäranalysen ‚demokratisieren‘ in diesem Sinne die Forschung (Diekmann 2002, 173; Hyman 1972, 9). Diesen Vorteilen stehen allerdings Nachteile gegenüber. Sekundäranalysen müssen sich bei den Versuchen zur Operationalisierung ihrer theoretischen Variablen auf das vorhandene Datenmaterial beschränken. Dies kann dazu führen, dass relevante und interessante Fragen nicht mit den verfügbaren Daten bearbeitet werden können. Dies ist nicht nur ein Nachteil für die einzelne Studie, deren Geltung durch die Datenbeschränkung begrenzt bleibt. Es schränkt auch die Entwicklung der sozialwissenschaftlichen Disziplinen ein, denn Fragen, die sich mit vorliegenden Daten nicht behandeln lassen, laufen Gefahr, nicht behandelt zu werden. 90 Auch deshalb bleiben Primärerhebungen wichtig. Das Angebot an gut dokumentierten, einfach zugänglichen Datensätzen zur Sekundäranalyse hat sich in den vergangenen Jahren stark erhöht. Das Datenarchiv der GESIS (www.gesis.org) erlaubt es, eine Vielzahl theoretischer Fragen auch ohne aufwendige Primärerhebungen zu bearbeiten. Eingeschränkt ist allerdings das Datenangebot bei aufwändigen Erhebungsverfahren (Panel, Ländervergleich). Verifikations- und Replikationsstudien Eine Variante der Sekundäranalyse sind die Verifikations- und Replikationsstudien. Sie dienen der Überprüfung vorliegender Befunde. Dabei ist eine Verifikationsstudie die Analyse der identischen Daten mit der identischen Vorgehensweise. Sie dient also direkt der Kontrolle, ohne ein weiteres eigenes Erkenntnisinteresse zu verfolgen. Die Replikationsstudie behandelt die identische Frage auf dieselbe Weise, nutzt aber andere Daten und erweitert somit das Wissen (Herrnson 1995). Verifikationsstudien sind ausgesprochen selten. Forschende können mit einer Verifikationsstudie kaum Reputation gewinnen und werden deshalb den großen Aufwand scheuen. Reine Replikationen sind ebenfalls selten, aber im Rahmen der Weiterentwicklung von Forschungsfragen gibt es nicht selten-- gewissermaßen ‚auf dem Weg‘-- Replikationen, weil die bekannten Ergebnisse zunächst auch mit neuen und aktuelleren Daten ermittelt werden, bevor die Analyse darüber hinaus geht und neue Erkenntnisse präsentiert. Prozessgenerierte Daten Eine besondere Form von Daten, die für Sekundäranalysen zur Verfügung stehen, sind prozessgenerierte Daten. Diese entstehen in vielen alltäglichen Zusammenhängen: Webseiten protokollieren das Verhalten der Nutzer, Stromerzeuger sammeln die Stromverbrauchsdaten ihrer Kunden, Krankenkassen erheben die Häufigkeit von Medikamentenverschreibungen, Kitas wie auch Fluggesellschaften verzeichnen die Auslastung ihrer Plätze etc. 90 So basiert jeder fünfte quantitativ-empirische Artikel in den führenden soziologischen Zeitschriften Deutschlands auf nur einem Datensatz: dem sozio-ökonomischen Panel (Roose 2013). Nachteil: Abhängigkeit von verfügbaren Daten Angebot an Datensätzen Verifikationsstudie, Replikationsstudie <?page no="102"?> 103 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 103 Prozessgenerierte Daten sind Daten, die nicht für Forschungszwecke hergestellt werden, sondern im Rahmen von anderen Prozessen entstehen, aber für sozialwissenschaftliche Analyse genutzt werden können. Für die Verwendung von prozessgenerierten Daten gelten dieselben Vor- und Nachteile wie für Sekundäranalysen. Auch hier sind nicht immer alle relevanten Informationen verfügbar, und die Untersuchung muss sich auf das beschränken, was zugänglich ist. Andererseits können prozessgenerierte Daten Einblicke bieten, die sonst kaum möglich wären. Eine Besonderheit der prozessgenerierten Daten liegt darin, dass sie nicht durch den Umstand sozialwissenschaftlicher Datenerhebung beeinflusst sind. Wir können vermuten, dass Menschen sich anders verhalten, wenn ihnen bewusst ist, dass ihre Angaben in eine sozialwissenschaftliche Studie eingehen. Menschen reagieren auf die Situation, Teil einer wissenschaftlichen Studie zu sein. In diesem Fall sprechen wir von reaktiven Daten. 91 Bei Daten, die unabhängig von solchen Erhebungen entstehen und genutzt werden können, liegt die Sache anders. Es sind nicht-reaktive Daten. Data Mining in Big Data Durch die Ausbreitung von Computertechnologie in die verschiedensten Lebensbereiche und insbesondere durch das Internet fallen heute sehr große Mengen von prozessproduzierten Daten an. Auf Internetseiten werden Lesedauer und weitere Klicks von den Nutzenden gespeichert, Daten über körperliche Leistungen von Millionen Hobbysportlern, die sich mit entsprechenden Sensoren und Smartphone-Apps selbst vermessen, landen auf den Servern der Gerätehersteller, digitale Verkehrsüberwachungssysteme messen Verkehrsströme und sammeln die Daten auf ihren Großrechnern. Diese Art von Datensammlungen werden unter dem Stichwort Big Data diskutiert. Unter Big Data werden prozessgenerierte Datensätze verstanden, die riesig sind, in großer Geschwindigkeit entstehen, Bereiche vollständig abdecken (also nicht nur Teile oder Stichproben umfassen, vgl. Kap. 6) und in sich heterogen sind (vgl. Kitchin/ McArdle 2016, 2). Typische Arten von Big Data sind Daten, die im Web 2.0 entstehen, deren Inhalte in Form von Kommentaren und Beiträgen der Nutzenden von allen mit produziert werden. So sammeln sich auf sozialen Plattformen oder bei Kurznachrichtendiensten in kurzer Zeit enorme Textmengen an, die bisher verarbeitete Daten weit übersteigen. Die Diskussion um die Spezifik und Bedeutung von Big Data ist noch in der Entstehung, genauso wie die Techniken ihrer Nutzung. Sie erfordern aufgrund ihrer 91 Zum Messvorgang schreibt Campbell (1957): „Wenn der Messvorgang nicht Teil der normalen Umgebung ist, ist er wahrscheinlich reaktiv“ (zit. nach Bungard/ Lück 1974, 88). prozessgenerierte Daten nicht-reaktive Daten Big Data Big Data in der Diskussion <?page no="103"?> 104 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 104 Größe spezifische technische Umgangsweisen, aber auch im Hinblick auf die Art der Analyse dieser Daten gibt es oft, aber nicht zwingend Unterschiede zu den bisher diskutierten Forschungsdesigns. Die Analyse von Daten dieser Art erfolgt oft nach dem Forschungsdesign des „Data Mining“. Data Mining ist die automatische oder semi-automatische Technik der Identifikation von Mustern in großen komplexen Datensätzen (vgl. Gorunescu 2011, 4). Data Mining fasst demnach Analysetechniken zusammen, die mit geringer Theoriesteuerung vorgehen (vgl. Runkler 2015). Mit mathematischen Algorithmen sollen Muster entdeckt und dann interpretiert werden. Der Fokus liegt auf der Entdeckung von einander ähnlichen Fällen (zum Beispiel ähnlichen Benutzern sozialer Plattformen oder ähnlichen Themensträngen bei Kurznachrichtendiensten) als Untergruppen innerhalb des großen Datensatzes. Was diese Untergruppen dann ausmacht, wie sie also theoretisch interpretiert werden können, wird erst nach der statistischen Analyse entwickelt. Allerdings gilt der Grundsatz, dass Forschung immer theoriegesteuert ist, auch für das Data Mining. Die Auswahl der berücksichtigten Variablen und die Entscheidung für ein bestimmtes statistisches Verfahren-- und damit gegen andere Verfahren-- sind bewusst oder unbewusst theoretisch gesteuert. Bei der Interpretation von Ergebnissen und dem Verwerfen von Ergebnissen als „nicht interpretierbar“ spielt dann wiederum das theoretische Verständnis eine große Rolle. Die Diskussion, in welcher Weise sozialwissenschaftliche Theorien in diese Analysen eingebracht werden, steht noch am Anfang (Mützel 2016). Fallstudien Fallstudien oder- - wenn nur ein einziger Fall Gegenstand der Untersuchung ist- - Einzelfallstudien haben in der Soziologie eine lange Tradition. Bei (Einzel-)Fallstudien werden besonders interessante Fälle möglichst umfassend 92 und zumeist über einen längeren Zeitraum hinweg beobachtet (bzw. befragt, inhaltsanalytisch ausgewertet), beschrieben und analysiert. 92 Vgl. die Definition von Goode/ Hatt (1962, 300): „Die Einzelfallstudie ist-… keine besondere Technik. Sie ist vielmehr eine bestimmte Art, das Forschungsmaterial so zu ordnen, dass der einheitliche Charakter des untersuchten sozialen Gegenstandes erhalten bleibt. Anders ausgedrückt ist die Einzelfallstudie ein Ansatz, bei dem jede soziale Einheit als ein Ganzes angesehen wird.“ Eine kurz gefasste Darstellung verschiedener Varianten des Fallstudienansatzes in der quantitativen und in der qualitativen Forschung gibt Lamnek 1989, Kapitel 2; siehe auch Reinecker 1984, Petermann 1989. Data Mining mathematische Entdeckung von-Mustern Theoriesteuerung Fallstudien <?page no="104"?> 105 2.4 Forschungsplanung und Forschungsdesign www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 105 Untersuchungseinheiten können nicht nur einzelne Personen sein, sondern auch Personengruppen oder -klassen, Organisationen, ökologische Einheiten oder kulturelle Aggregate (vgl. v. Alemann/ Ortlieb 1975, 159 ff.). Fallstudien- - und in besonderem Maße Einzelfallstudien- - dienen im Rahmen „quantitativer“ Sozialforschung in erster Linie explorativen Zwecken: Ein Gegenstandsbereich der sozialen Realität soll zunächst deskriptiv aufgearbeitet werden, um im Anschluss daran empirisch begründbare theoretische Konzepte, Theorien, Hypothesen entwickeln zu können. Für den Test nicht-deterministischer Theorien oder Hypothesen wie auch für Prognosen, die sich auf Kollektive beziehen, eignen sie sich nach dieser Auffassung weniger, da Generalisierungen nur selten möglich sind. Dagegen gelten sie als sehr gut geeignet zur Plausibilisierung von Theorien oder Hypothesen sowie zur Illustration quantitativer Ergebnisse. Einen methodisch höheren Stellenwert haben Fallanalysen in der qualitativen Forschung. Eine bevorzugte Untersuchungsanordnung sind Einzelfallstudien auch in der Kulturanthropologie, in der ethnografischen Sozialforschung und in dem Zweig der Soziologie, der als Ethnomethodologie bezeichnet wird. Klassische Fallstudien sind die ethnografische Untersuchung von William F. Whyte zur Gruppenstruktur von „street gangs“ (Whyte 1969), die Studie „The Jack-Roller“ über einen devianten Jugendlichen von Clifford R. Shaw (1930) sowie die Studie über die Arbeitslosen von Marienthal von Marie Jahoda, Paul F. Lazarsfeld und Hans Zeisel (1975). Die Bedeutung von Fallstudien in den verschiedenen Forschungsperspektiven der qualitativ-interpretativen Sichtweise wird in Kapitel 9 deutlich gemacht. Mehrmethodenansatz/ Triangulation Ein Grundproblem zahlreicher empirischer Untersuchungen ist, dass die Datenerhebung sich nur auf ein Erhebungsinstrument, die Studie sich also auf nur eine Operationalisierungsstrategie stützt. Damit steht die gesamte Untersuchung unter dem prägenden Einfluss eines einzigen Instruments, dessen instrumentenspezifische Fehler und „Verzerrungen“ kaum kontrolliert werden können. Erst durch die Wahl eines Mehrmethodenansatzes eröffnen sich Möglichkeiten zur Kontrolle instrumentenspezifischer Verzerrungen. Zugleich sichert die Umsetzung unterschiedlicher Operationalisierungsstrategien eine verlässlichere empirische Interpretation oder Überprüfung von Theorien/ Hypothesen. Die Kombination nicht nur verschiedener Messinstrumente im Rahmen eines Forschungsansatzes, sondern auch die parallele Annäherung an das gleiche Forschungsproblem auf der Basis verschiedener Forschungsansätze wird in den Sozialwissenschaften über wissenschaftstheoretische Grenzen hinweg zunehmend für notwendig gehalten (Kelle 2007). Wie es scheint, findet zumindest in der Forschungspraxis die Auffassung Wilsons immer breitere Zustimmung, dass der Gebrauch einer spezifischen Methode oder eines spezifischen Satzes von Methoden immer nur von der aktuellen Forschungsaufgabe her begründet werden kann, also gegenstandsangemessen sein muss (Wilson 1981, 58). Über die begrenzte Frage möglicher instrumentenspezifischer „Verzerrungen“ beim eigentlichen Messvorgang hinaus ist zu bedenken, dass jede Methode, jedes Hypothesenentwicklung große Bedeutung für qualitative Ansätze Mehrmethodenansatz Kombination von Ansätzen notwendig <?page no="105"?> 106 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 106 Verfahren spezifische Stärken und Schwächen aufweist und Sachverhalte aus unterschiedlichen Perspektiven, mit unterschiedlicher Breite oder Tiefe erfasst. Eventuelle Differenzen in den Ergebnissen sind daher nicht ohne Weiteres nach dem Kriterium ‚richtig‘ oder ‚falsch‘ zu bewerten, sondern zunächst und in erster Linie nach dem Kriterium, aus welcher Perspektive welcher Aspekt des Gegenstandes erfasst wurde. Insbesondere bei komplexen und bei noch in der Entwicklung befindlichen Forschungsgegenständen erbringt erst eine bewusst geplante Methodenvielfalt die notwendige Fülle an Informationen, um daraus ein Gesamtbild zusammenstellen und auch um die gefundenen Teilinformationen gegenseitig validieren zu können. Die klassische Studie von P. Lazarsfeld, M. Jahoda und H. Zeisel über „Die Arbeitslosen von Marienthal“ (Jahoda u. a. 1975, Orig. 1933) ist ein Beispiel für einen Mehrmethodenansatz. Über vier Monate beobachtete das Forschungsteam die Veränderungen in Marienthal nach der Schließung der örtlichen Fabrik, die einen Großteil der Bevölkerung Marienthals in die Arbeitslosigkeit entließ. Mit Befragungen und Beobachtungen ganz unterschiedlicher Art untersuchten sie, wie sich das dörfliche Leben im Angesicht der Langzeitarbeitslosigkeit eines Großteils der Bevölkerung entwickelt. Die Studie ist bis heute eindrucksvoll, nicht nur in ihrer Beschreibung der Auswirkungen von Arbeitslosigkeit, sondern auch in der Kreativität, mit der das Forschungsteam Methoden entwickelte. Die systematische Kombination mehrerer Methoden zur gegenseitigen Ergänzung und Prüfung der Ergebnisse wird Triangulation genannt. Triangulation ist die Untersuchung eines Forschungsgegenstandes aus mindestens zwei unterschiedlichen Perspektiven, wobei die Perspektiven sich durch Theorien oder Methoden unterscheiden können und möglichst gleichberechtigt angewendet werden (nach Flick 2008, 12). Ziel der Triangulation ist es, Schwächen einer Perspektive durch eine andere Perspektive zu kompensieren und so einen breiteren und besser abgesicherten Erkenntniszugang zu gewinnen. Mixed Methods Eine spezifische Form der Kombination unterschiedlicher empirischer Zugänge wird unter dem Stichwort Mixed Methods zusammengefasst. Mixed-Methods-Studien kombinieren ebenfalls unterschiedliche Zugangsweisen zur Wirklichkeit und ähneln damit den Mehrmethodenstudien. Spezifisch für den Mixed-Methods-Ansatz ist allerdings die Kombination von Analysen aus der quantitativen, kritisch-rationalen Perspektive und der qualitativen, interpretativen Perspektive. spezifische Stärken und Schwächen BEISPIEL <?page no="106"?> 107 2.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 107 Als Mixed-Methods-Studien werden solche Studien bezeichnet, die bei der Art benutzter Daten, der Datenerhebung oder der Datenanalyse qualitative und quantitative Zugänge kombinieren (vgl. Small 2011, 59). Damit ergibt sich ein breites Feld sehr unterschiedlicher Untersuchungsanordnungen, die unter den Begriff Mixed Methods fallen. Dazu zählen Studien, die standardisierte oder unstandardisierte Daten analysieren, die unterschiedliche Datenerhebungsinstrumente nutzen (zum Beispiel einen standardisierten Fragebogen und offene Interviews) oder die empirisches Material aus der Sicht der hypothesenprüfenden Tradition und der interpretativen Tradition interpretieren. Während die Kombination von standardisierten und unstandardisierten Verfahren noch vergleichsweise gut zu bewältigen ist, stellt insbesondere die Interpretation von Material aus den ganz unterschiedlichen Perspektiven von nomologischer und interpretativer Tradition erhebliche Anforderungen an die Forschenden. 2.5 Annotationen aus der Perspektive qualitativinterpretativer Methoden Systematisch beginnt die Unterscheidung qualitativ-interpretativer Ansätze vom analytisch-nomologischen Programm mit einer zentralen Erweiterung des Problemhorizonts: Während die auf dem Kritischen Rationalismus aufbauende Methodologie die von Hans Reichenbach (1983, Orig. 1938) vorgeschlagene Eingrenzung des Gegenstands der Erkenntnistheorie auf den Begründungszusammenhang wissenschaftlicher Theorien übernimmt, betonen Vertreter qualitativ-interpretativer Methodologien, dass diese Ausgrenzung des Entdeckungszusammenhangs zu einer problematischen Vereinseitigung führt. Zwar ist es richtig, dass wir den Forschenden nicht „in den Kopf schauen“ können, wenn in ihnen Forschungsfragen Gestalt annehmen oder sie sich ihre Hypothesen ausdenken, und dass wir im Wege der Geltungsprüfung nur bewerten können, was in versprachlichten Aussagesystemen niedergelegt ist. Doch die von Reichenbach vorgeschlagene Verbannung des Entdeckungszusammenhangs aus der Erkenntnistheorie in die Psychologie verkennt aus der Sicht qualitativ-interpretativer Sozialforschung die Zentralität des erkenntnispragmatischen Arbeitsschrittes der Entwicklung hypothetischer, theoretisierender Aussagen. Auch wenn dieser Teil des Forschungsprozesses nicht-logischer Natur ist und sich daher auch nicht vollständig logisch-zwingend rational herleiten oder begründen lässt: Für Forschungsprozesse, die im Kern immer auf die Generierung neuen Wissens zielen, finden entscheidende Weichenstellungen gerade vor der Etablierung logischer Aussagesysteme statt. Und-- so wird in qualitativ-interpretativer Perspektive weiter argumentiert- - die erkenntnispraktischen Vorgänge der Hypothesengenerierung sind zumindest intersubjektiv plausibel darstellbar und nachvollziehbar bzw. finden darin ein wesentliches Gütekriterium. Mixed Methods hohe Anforderung an Forschende Bedeutung des Entdeckungszusammenhangs Theoriebezug qualitativer Forschung <?page no="107"?> 108 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 108 Damit geht zugleich eine wichtige Umstellung im Verhältnis von Theorie und Empirie einher: An die Stelle der empirischen Überprüfung eines vorab gebildeten theoretischen Aussagensystems über den Untersuchungsbereich tritt in der qualitativ-interpretativen Forschungslogik die Entwicklung einer auf den Untersuchungsbereich bezogenen Theorie. Dabei entsteht die Theorie nicht im Sinne eines rein induktiven Prozesses ‚aus der Empirie‘-- eine solche Tabula rasa wäre erkenntnislogisch auch ganz unmöglich. Vielmehr bestehen alle qualitativ-interpretativen Forschungsprozesse aus einem Wechselspiel zwischen Empirie und Theorie: Ohne dabei von (auch theoretischem) Vorwissen absehen zu können oder zu wollen, geht die Analyse primär vom empirischen Material aus, bewegt sich insgesamt aber in einem iterativ-zyklischen Prozess zwischen Theorie und Empirie hin und her. Das Primat der Daten müssen wir uns eingebettet in einen größeren Wissens- und Entscheidungskontext vorstellen. So betont etwa Lindemann (2008, 110 f.), dass schon in die Konzeption von Methoden selbst basale sozialtheoretische Grundüberzeugungen eingehen, wie etwa die, ob ein handlungs-, interaktions- oder strukturtheoretisches Grundmodell angenommen wird. Noch basaler sind die erkenntnis- und wissenschaftstheoretischen Annahmen z. B. über den zugrunde zu legenden Realitätsbegriff, über das Theorieverständnis oder die Bestimmung dessen, was Daten sind und welche Rolle ihnen in den Methoden zukommt. Diese a priori und nicht von allen Forschenden immer bewusst getroffenen Entscheidungen haben axiomatischen Charakter, d. h. sie sind einer empirischen Überprüfung nicht zugänglich. Für eine rationale Diskussion über Methoden und Forschungsergebnisse ist es allerdings unabdingbar, die Grundannahmen des jeweiligen Forschungsprozesses zu explizieren. Selbst innerhalb der qualitativ-interpretativen Methoden findet sich in Bezug auf diese erkenntnis-, wissenschafts- und sozialtheoretischen Grundannahmen eine große Variation. Allerdings existieren über alle Methoden hinweg basale Prinzipien qualitativen Forschens, die weitestgehend geteilt werden. Es sind dies die Prinzipien der Offenheit, der Kommunikation, der Prozesshaftigkeit und der Reflexivität. Das Prinzip der Offenheit erklärt sich aus dem Interesse qualitativer Forschung an der Spezifik und Tiefgründigkeit sozialer Phänomene. Darin ist zugleich eine Kritik am „methodischen Filtersystem“ (Lamnek 1988, 22) standardisierter Verfahren enthalten: Batterien geschlossener Fragen, selektive Beobachtungsschemata oder vordefinierte inhaltsanalytische Kategoriensysteme können im Wesentlichen nur überprüfen, was vorab bereits gewusst-- oder genauer: theoretisch begründet vermutet-- wurde. Offenheit zielt dagegen auf eine initiale Öffnung des Forschungsprozesses gegenüber dem im empirischen Feld vorhandenen Wissen. Das beginnt bereits mit der Art der Fragestellungen, denn in der qualitativ-interpretativen Sozialforschung stehen Fragen des ‚Wie‘ und des ‚Was‘ im Vordergrund. Dem von Geertz geprägten Motto „What the devil is going on here? “ (Geertz 1973, 27) die qualitativ-interpretative Forschung daran interessiert, die im empirischen Feld relevant gemachten Perspektiven zu rekonstruieren und sich dabei immer wieder überraschen zu lassen. Das impliziert auch im Forschungsverlauf einige Offenheit in Bezug auf die Forschungsfrage: Gerade weil wir a priori noch nicht genau wissen können, wie unser For- Wechselspiel zwischen Empirie und Theorie Prinzip der Offenheit <?page no="108"?> 109 2.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 109 schungsgegenstand beschaffen ist, kann auch die Präzisierung der Forschungsfrage erst im Verlauf der Forschung erfolgen. Forschungsfrage und Forschungsergebnis stehen also in einem wechselseitigen Konstitutionsverhältnis. Offenheit ist auch das zentrale Charakteristikum für die Prozesse und Methoden der Datengewinnung. An die Stelle des in der standardisierten Forschung dominierenden Motivs der Vergleichbarkeit tritt in der qualitativen Forschung das Ziel einer maximalen Ausschöpfung des spezifischen Informationspotenzials. Statt z. B. starrer Fragebögen werden flexible, situativ zu variierende Interviewleitfäden verwendet, statt der selektiven Messung einzelner Variablen strebt man ein offenes Spektrum kontextreicher Informationen an. All dies zielt darauf, im Verlauf des Forschungsprozesses und im Lichte einer intensiven Materialkenntnis zur Formulierung und dann auch Überprüfung von Hypothesen zu gelangen. „Datengewinnung ist eine kommunikative Leistung“, schreibt Christa Hoffmann-Riem (1980). Damit ist-- im Sinne des Prinzips von Forschung als Kommunikation-- gemeint, dass die angestrebte Ausschöpfung des spezifischen Informationspotenzials in der Datengewinnungssituation nur gelingen kann, wenn wir unseren Kontakt mit dem Forschungsfeld konsequent als sozialen Prozess der Kommunikation und Interaktion auffassen und unsere Informanten im Feld als „orientierungs-, deutungs- und theoriemächtige Subjekte“ (Schütze 1978, 118) behandeln, statt sie zu „Fällen“ oder „Probanden“ zu degradieren, an denen uns nicht die Person, sondern allein die Ausprägung definierter Variablen interessiert. Auch wenn dies eher wie ein forschungsethischer Imperativ klingen mag-- hinter Prinzipien wie Offenheit und Kommunikation steckt wesentlich ein Qualitätsargument: Nur wenn wir unsere Forschung an diesen Prinzipien ausrichten, können wir die angestrebte Spezifität und Tiefgründigkeit unserer Ergebnisse erreichen. Forschung als Kommunikation bedeutet daher, dass wir die Situation der Datengewinnung konsequent an den Strukturen des Alltagshandelns ausrichten müssen. Statt artifizieller Datenerhebungssituationen sind eher alltagsähnliche Situationen des Gesprächs und des Mithandelns zu nutzen, um relevantes Wissen über unsere Forschungsgegenstände zu erlangen. Dies ist insbesondere deshalb von hoher Bedeutung, weil ein wesentlicher Teil unseres Forschungsgegenstandes immer auch die Motive, Reflexionen und Hintergrundkonstruktionen der handelnden Menschen betrifft, die wir nur in kommunikativen Prozessen erschließen können. Mit dem Prinzip der Prozesshaftigkeit ist zweierlei gemeint: Einerseits ist Forschung als Kommunikation ersichtlich als Prozess zu verstehen. In dem Sinne, dass ein Forschungsvorhaben immer eine gewisse Zeit beansprucht, ist diese Feststellung trivial. Gemeint ist hier aber, dass die Gewinnung der Daten nicht als einmaliger Akt des Messens, sondern als fortgesetzter Interaktionsprozess mit den Akteuren im Feld zu konzipieren ist. Damit werden die Forschenden unvermeidlich selbst zu einem Teil des Forschungsprozesses und seiner Ergebnisse. Wichtiger noch ist die zweite Bedeutung von Prozesshaftigkeit qualitativer Forschung: Auch der Gegenstand qualitativ-interpretativer Forschung wird als prozessual hergestellter verstanden: Die soziale Wirklichkeit, die wir untersuchen, bringen soziale Akteure fortwährend hervor, erhalten und modifizieren sie. Soziale Realität Forschung als kommunikative Leistung Forschung als Prozess Forschungsgegenstand wird im Forschungsprozess hergestellt <?page no="109"?> 110 2. Forschungsfragen, Forschungsdesign, Forschungsprozess www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 110 ist in stetem Wandel begriffen; selbst vermeintlich Statisches muss immer aufs Neue interaktiv erzeugt werden: „Not change but the dynamics of remaining the same is the miracle which social science must explain” (Hughes 1955, 6)Es sind genau diese Hervorbringungsprozesse, für die sich qualitative Forschung interessiert: Wie entstehen Gruppen oder Netzwerke? Aber auch: Wie werden sie erhalten, verändert, weiterentwickelt oder auch aufgelöst? Wie geht der Wandel gesellschaftlicher Institutionen-- etwa Ehe oder Familie-- tatsächlich vonstatten und wie wird ihre Stabilität fortwährend hergestellt? Wie definieren Akteure Situationen als z. B. kritisch, und wie gehen sie interaktiv damit um? Auch mit dem Prinzip der Reflexivität ist die qualitative Sozialforschung in mehrfacher Hinsicht befasst: Zunächst einmal gilt, dass kein Objekt und keine Äußerung aus sich selbst heraus eine Bedeutung hat, diese vielmehr erst in einem Verweisungskontext von Objekt, Äußerung und Kontext entsteht. Je nach Referenzrahmen ist ein Objekt oder eine Äußerung anders zu interpretieren. Dieses reflexive Verhältnis von Einzelnem und Ganzem, das Wilson (1982) als „Indexikalität“ bezeichnet hat, war der implizite Hintergrund schon der Hermeneutik, jener ‚Kunst‘ der Auslegung also, die sich mit der Interpretation des Sinns von Artefakten (Texten, Bildern, Objekten) befasst und von einer Zirkularität von Sinnkonstitution und Sinnverstehen ausgeht. So wie das Einzelne erst im Kontext des Ganzen verstehbar ist, so erschließt sich auch die Bedeutung des Ganzen erst aus der Bedeutung des Einzelnen-- dies wird auch als hermeneutischer Zirkel bezeichnet. Zugleich aber existiert Reflexivität auch im Verhältnis von Forschungsfrage und Forschungsgegenstand: Unser Forschungsinteresse und unsere konkrete Forschungsfragen sind mitentscheidend dafür, welche Bedeutung wir bestimmten empirischen Phänomenen im Feld und bestimmten Daten, die wir über sie gewonnen haben, zuweisen. In einem gewissen Umfang richtet die Fragestellung also die Daten zu, beeinflusst mithin, was die Daten uns bedeuten. In diesem Sinne spricht etwa Mead davon, dass wir als Handelnde unsere Objekte aus der Welt „herausmeißeln“ müssen (1938, 660) und dass Tatsachen nicht einfach vorhanden sind und aufgesammelt werden können, sondern dass man sie als Daten herauspräparieren muss (1938, 98). In einem dritten Sinne schließlich meint Reflexivität auch das gegenüber der standardisierten Forschung veränderte Verständnis der Rolle der Forschenden. Nicht nur ist ihre kreative Eigenleistung in den vielfältigen Interpretations- und Rekonstruktionsprozessen unverzichtbar. „Qualitative Forschung ist Feldforschung“, wie Aglaja Przyborski und Monika Wohlrab-Sahr (2014, 39) schreiben. Deshalb sind die Forschenden in die Produktion von Datenmaterial als konkrete Personen verstrickt. Reflexivität bedeutet hier, diese Weisen der Verstrickung in das Feld analytisch fortgesetzt mit zu bedenken. Prinzip der Reflexivität Indexikalität Reziprozität von Forschungsfrage und Forschungsgegenstand <?page no="110"?> 111 2.5 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 111 2.5.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Bohnsack, Ralf, 2014: Rekonstruktive Sozialforschung. Einführung in qualitative Methoden, Opladen (Hier: Kapitel 1: Rekonstruktive Verfahren in der empirischen Sozialforschung im Unterschied zu hypothesenprüfenden Verfahren.) Hoffmann-Riem, Christa, 1980: Die Sozialforschung einer interpretativen Soziologie-- Der Datengewinn. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 32, 339-372. (Ein methodenhistorisch für die Etablierung der interpretativen Sozialforschung in Deutschland bedeutsamer Aufsatz. Die Forschungslogik qualitativ-interpretativer Verfahren wird in der Perspektive einer die Sozialforschung insgesamt bereichernden Andersartigkeit der auf diesem Weg zu gewinnenden Daten und Theorien kontrastierend zur hypothesentestenden Forschungslogik der standardisierten Sozialforschung dargestellt.) Kelle, Udo, 1994: Empirisch begründete Theoriebildung: Zur Logik und Methodologie interpretativer Sozialforschung. Weinheim Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Forschungsdesigns für die qualitative Sozialforschung, in: Baur, N.; Blasius, J. (Hg.): Handbuch Methoden der empirischen Sozialforschung, Wiesbaden, 117-133 Silverman, David, 1997: The Logics of Qualitative Research. In: Miller G.; Dingwall, R. (Hg.), Context and Method in Qualitative Research, London; Thousand Oaks, Calif., 12-25. <?page no="111"?> www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 112 <?page no="112"?> 113 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 113 3 Die empirische „Übersetzung“ des-Forschungsproblems 3.1 Problempräzisierung und Strukturierung des Untersuchungsgegenstandes: dimensionale und semantische Analyse Wenn die Wissenschaftlerin bzw. der Wissenschaftler das Forschungsproblem abgegrenzt hat (bzw. bei Auftragsforschung: wenn die Fragestellung vorgegeben worden ist) und wenn er oder sie sich über die Relevanz des Problems sowie über damit verbundenen Interessen klar geworden ist (vgl. Kapitel 2.3: „Entdeckungs- und Verwertungszusammenhang“), dann ist in aller Regel die Problemformulierung noch recht grob. Es werden also einige Überlegungen in die Präzisierung der Aufgabenstellung zu investieren sein. Diese nächsten Arbeitsschritte im Forschungsprozess, die man als Exploration des Vorstellungsfelds über den Untersuchungsgegenstand bezeichnen kann, werden für die Art und Qualität der Ergebnisse mitentscheidend sein. Ihr Ergebnis soll in einer modellhaften Strukturierung des Objektbereichs bestehen: In gedanklichen Vorleistungen ist der Gegenstand der Untersuchung so zu durchleuchten, so in seine vielfältigen Facetten zu zerlegen und zu ordnen, dass sich daraus ein problemangemessenes Forschungsdesign entwickeln und begründen lässt. 93 Dazu zunächst ein grober Überblick: Je nach dem Typ der Untersuchung stehen zu Beginn unterschiedliche Einzelaufgaben im Vordergrund. Zumindest analytisch lässt sich das Vorgehen in dieser Phase danach unterscheiden, ob die Aufgabenstellung auf die Überprüfung einer Hypothese/ Theorie gerichtet ist (theorie-/ hypothesentestende Forschung; Kapitel 2.4.2) 94 , oder ob es sich um die Beschreibung eines mehr oder weniger komplexen sozialen Sachverhalts oder Zusammenhangs handelt (deskriptive Untersuchung; Kapitel 2.4.5). Geht es bei einem Forschungsvorhaben in erster Linie um die beschreibende Diagnose eines Sachverhalts (deskriptive Untersuchung), so wird sich der Blick zunächst auf die empirische Struktur des Realitätsausschnitts richten, über den Daten erhoben werden sollen. Hierüber werden möglichst umfassend diejenigen Informationen 93 Bei einigen Lehrbuchautoren wird dieser Projektabschnitt „Konzeptspezifikation“ genannt, so etwa bei Schnell/ Hill/ Esser 1999, Diekmann 1995, Döring/ Bortz 2016 (wenn auch vor allem bezogen auf die Klärung „theoretischer Konzepte“). 94 Für den hier diskutierten Zusammenhang darf allerdings die Trennung in deskriptive Studien auf der einen und hypothesenbzw. theorietestende Untersuchungen auf der anderen Seite nicht als einander ausschließend verstanden werden. Jede Beschreibung setzt gewisse Annahmen über den Gegenstandsbereich (zumindest also „Alltagstheorien“) voraus. Und zu testende Hypothesen/ Theorien haben einen unterschiedlichen Allgemeinheitsgrad, wobei die Trennungslinie zwischen (noch) „Verbalisierung beobachteter empirischer Regelmäßigkeiten“ und (schon) „Theorie“ unscharf wird. Präzisierung der Aufgabenstellung abhängig vom Untersuchungstyp Beschreibung: Struktur des Realitätsausschnitts <?page no="113"?> 114 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 114 zusammengetragen, die bereits existieren. Auf der Grundlage dieser-- zunächst mehr oder weniger unstrukturierten- - Informationssammlung filtert man die Aspekte („Dimensionen“) des empirischen Untersuchungsgegenstands heraus, die für die aktuelle Fragestellung besonders bedeutsam erscheinen. 95 Dieser Arbeitsabschnitt wird im Folgenden nach Zetterberg (1973) als „dimensionale Analyse des Untersuchungsgegenstandes“ bezeichnet. 96 Anschließend sind die geeigneten sprachlichen Symbole (objektsprachliche Begriffe) zu wählen, die den Untersuchungsgegenstand in der als problemangemessen erkannten Differenzierung, d. h. kontrolliert selektiv, abzubilden und kommunikativ zu vermitteln erlauben. Um zugleich sicherzustellen, dass die erzielten Forschungsresultate nicht lediglich einen bestehenden Datenfriedhof vergrößern, sollten die verwendeten objektsprachlichen Begriffe dennoch „theoretisch relevant“ sein (darauf wird an späterer Stelle noch weiter eingegangen; vgl. auch Kapitel 1.3.5: „deskriptives Schema“). Ist demgegenüber die empirische Überprüfung einer Theorie oder von Theorieteilen (Hypothesen) das Ziel einer Untersuchung, so enthalten die zu testenden Hypothesen bereits explizite Behauptungen über die Struktur des empirischen Untersuchungsgegenstands. Das heißt: Überlegungen darüber, wie der Gegenstand beschaffen ist, über den Daten erhoben werden sollen, sowie welche seiner Aspekte untersuchungsrelevant sind und welche nicht, brauchen hier nicht am Anfang der Phase der „Konzeptspezifikation“ zu stehen; denn die Art und Richtung der Selektion wird bereits durch die Hypothesen vorgegeben. Auch die verwendeten sprachlichen Zeichen (Begriffe) sind in den Formulierungen der Hypothesen bereits festgelegt. Da jedoch Begriffe nicht immer und von jedem eindeutig und einheitlich verwendet werden, wird es in diesem Fall (d. h. bei hypothesentestender Forschung) einer der ersten Arbeitsschritte sein müssen, die Bedeutung der in den Hypothesen verwendeten Begriffe zu klären. Es ist also zu prüfen, was der Autor der Theorie oder der Hypothesen über die empirische Realität präzise behauptet; es ist zu erschließen, was mit den verwendeten Begriffen im Detail gemeint ist. Nicht nur dies: Im Falle hypothesentestender Forschung hat es der Empiriker mit so genannten „theoretischen“ (oder theoriesprachlichen) Begriffen zu tun, das heißt mit Begriffen, die bewusst so allgemein und abstrahierend gehalten sind, dass sie üblicherweise mehr als eine eng abgrenzbare Menge konkreter Ereignisse umgreifen (bitte lesen Sie ggf. noch einmal Kapitel 2.4.2). In diesem Falle muss festgelegt werden, welches die konkreten empirischen Beziehungen und Sachverhalte sein sollen, auf die die theoretische Aussage anzuwenden sei. Mit anderen Worten: Aus der (all- 95 Natürlich hat die Forscherin und hat der Forscher zu begründen, warum sie/ er bestimmte Aspekte für relevant, andere im gegebenen Zusammenhang für weniger relevant oder gar für unerheblich hält. 96 „In der modernen soziologischen Theorie richtete sich die Aufmerksamkeit in starkem Maße auf die Entwicklung von Definitionen deskriptiver Kategorien (Taxonomien). Wir wollen dies dimensionale Analyse nennen-… Den besonderen Aspekt der Wirklichkeit, den ein Wissenschaftler behandeln will, nennen wir eine ‚Dimension der Natur‘. Diese Dimensionen werden mit verschiedenen Namen oder ‚Begriffen‘ bezeichnet.“ (Zetterberg 1973, 105, ähnlich Holm 1975, 15) dimensionale Analyse Hypothesentest: Bedeutung der-Begriffe Beziehung Begriffe-- Sachverhalte <?page no="114"?> 115 3.1 Problempräzisierung und Strukturierung des Untersuchungsgegenstandes www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 115 gemeinen) Theorie sind unter Einhaltung logischer Regeln (durch Deduktion) spezifische Hypothesen für spezifische Sachverhalte abzuleiten. Hierzu ist es in aller Regel notwendig, die in der Theorie verwendeten „theoretischen Begriffe“ oder Konstrukte zu spezifizieren und „empirisch zu interpretieren“, d. h. ihren Bedeutungsgehalt für die konkrete Untersuchungssituation festzulegen. Für die dann angesprochenen spezifischen Sachverhalte soll sich die (allgemeine) Theorie „bewähren“. Jede denkmögliche empirische Situation, die von der Theorie ausgeschlossen wird, ist ein „potenzieller Falsifikator“ dieser Theorie. Die Aufgabe der Festlegung der zwecks Hypothesentests zu untersuchenden konkreten empirischen Beziehungen und Sachverhalte bedeutet also: aus der Gesamtheit der potenziellen Falsifikatoren einer Hypothese (bzw. Theorie) eine Auswahl zu treffen. 97 Dieser Arbeitsabschnitt der Erschließung der Bedeutung von Begriffen (der Rekonstruktion ihrer „semantischen Regeln“, 98 aber auch der „empirischen Interpretation“ theoretischer Begriffe) wird im Folgenden als „semantische Analyse“ bezeichnet. Erst danach kann endgültig entschieden werden, über welche empirischen Gegebenheiten Daten zu sammeln sind. Gemeinsam ist beiden Ausgangssituationen (beschreibende Diagnose, Theorietest) die Notwendigkeit, die empirische Wirklichkeit mit Begriffen zu verknüpfen; also entweder relevante Dimensionen der zu untersuchenden Realität mit Begriffen zu bezeichnen oder umgekehrt-- von theoretischen Begriffen ausgehend-- die Begriffe mit konkreten Aspekten der Wirklichkeit in Beziehung zu setzen, d. h. anzugeben, welche Aspekte der Realität im konkreten Untersuchungsfall unter den Begriff subsumiert werden sollen. Die Begriffe sind-- mit anderen Worten-- so zu wählen und ggf. zu definieren, dass eine Korrespondenz zwischen empirischen Sachverhalten und sprachlichen Zeichen hergestellt ist. Häufig werden die in Frage kommenden Begriffe in der alltäglichen und/ oder wissenschaftlichen Sprache nicht genau den Bedeutungsgehalt haben, der für den konkreten Untersuchungsfall zweckmäßig ist. In diesem Fall braucht es präzisierende und/ oder einschränkende Definitionen, in denen nach Zweckmäßigkeitsgesichtspunkten die sprachlichen Zeichen auf damit gemeinte Aspekte der Realität („Referenzobjekte“) bezogen werden. Der Definition hat also entweder eine dimensionale Analyse des Gegenstandsbereichs voranzugehen (bei deskriptiven Untersuchungen), 97 Es sei daran erinnert, dass dieser Konfrontation der Theorie mit Beobachtungsdaten zwei andere Prüfungsdurchgänge voranzugehen haben (vgl. Kapitel 1.3.2): 1. der logische Vergleich der Folgerungen (der abgeleiteten Hypothesen) untereinander, d. h. die Suche nach internen Widersprüchen, 2. die logische Analyse der Theorie auf ihren empirischen Gehalt (Popper 1971; Opp 1976, Kapitel VIII). 98 Semantik =-Lehre von der Bedeutung sprachlicher Zeichen.-- Um Missverständnissen entgegenzuwirken: Wenn hier zur Verdeutlichung die dimensionale und die semantische Analyse idealtypisch am Beispiel deskriptiver und theorietestender Forschung abgehandelt wird, dann bedeutet dies selbstverständlich nicht, dass die Strukturierung des empirischen Objektbereichs nur bei deskriptiven und die Analyse von Bedeutungsdimensionen nur bei theorietestenden Untersuchungen erforderlich sei. Vielmehr besteht bei jeder Forschung die Aufgabe, beides (den Untersuchungsgegenstand wie die zu verwendende Sprache) im Detail zu klären, wenn auch jeweils mit unterschiedlichem Gewicht. semantische Analyse Korrespondenz: Begriff und Sachverhalt präzise Definitionen <?page no="115"?> 116 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 116 oder der für die Untersuchung geltenden Definition hat eine semantische Analyse der in den Hypothesen vorkommenden Begriffe voranzugehen. Dadurch wird nicht nur sichergestellt, dass intersubjektive Klarheit über die Bedeutung der verwendeten Begriffe besteht, sondern auch, dass die Begriffe empirischen Bezug haben. In der Erfahrungswissenschaft folgt auf diese semantische Klärung noch als weiterer Schritt die Verknüpfung von Begriffen mit empirischen Sachverhalten, und zwar in einer Weise, dass durch Forschungsoperationen (also durch Beobachtung, Befragung, Inhaltsanalyse usw.) entscheidbar wird, ob der gemeinte Sachverhalt in der Realität vorliegt oder nicht. Dies nennt man Operationalisierung, manchmal auch operationale Definition. In den vorangegangenen Abschnitten dieses Überblicks haben wir einige zentrale Fachausdrücke zunächst ohne hinreichende Erläuterung eingeführt. Sie werden an geeigneter Stelle noch ausführlich behandelt. Vorerst seien hier zwei Worte herausgegriffen, die für unsere weiteren Überlegungen die Basis bilden: „Begriffe“ und „Dimensionen“. Beide beziehen sich aufeinander. Nach Zetterberg (1973) soll unter Dimension (der Realität) eine „Eigenschaft der Wirklichkeit“, also des zu untersuchenden Gegenstandsbereichs, verstanden werden. Begriffe dagegen sind Bestandteil der Sprache, mit denen der Gegenstandsbereich „besprochen“, bezeichnet wird. Man kann für die gleiche Dimension der Realität verschiedene Begriffe prägen (Synonyme wie Automobil oder Kraftfahrzeug oder Auto oder Kfz). Man kann auch für unterschiedliche Gegenstände der Realität den gleichen Begriff benutzen (Homonyme, Homogramme, z. B. „Hahn“, wobei sich erst aus dem Kontext ergibt, ob der Hahn auf dem Hühnerhof oder der an der Wasserleitung gemeint ist). Bei deskriptiver Aufgabenstellung wird es die erste Aufgabe sein, die nach der Fragestellung zu erfassenden Dimensionen der Wirklichkeit festzulegen und abzugrenzen. Wenn dies auf der gedanklichen Ebene geschehen ist-- zugegebenermaßen eine Abstraktion--, dann muss der Forscher/ die Forscherin dazu die geeigneten deskriptiven Kategorien definieren. Als Resultat der Verknüpfung mit geeigneten Begriffen erhalten wir das deskriptive Schema des Untersuchungsgegenstands. Ziel der dimensionalen Analyse bei sozialwissenschaftlichen Forschungen ist also die Aufstellung eines Modells der für die empirische Studie relevanten Dimensionen des Untersuchungsgegenstands und die Zuordnung geeigneter Begriffe. Dieses Dimensions- und Begriffssystem ist der Orientierungsrahmen bei deskriptiver Forschung. Das den Untersuchungsdimensionen zugeordnete Begriffssystem soll aber zugleich „theoretisch relevant“ sein, damit die Ergebnisse zur Theoriebildung und -fortentwicklung verwendet werden können. Dieses Zusammenbringen von Objektbereich und Sprache ist jedoch nicht lediglich bei deskriptiver Forschung ein zentraler Arbeitsschritt; er ist ebenso unabdingbar bei Operationalisierung: Verknüpfung Begriff-Sachverhalt Dimension: Eigenschaft der Wirklichkeit Begriff: sprachliche Bezeichnung des Gegenstandes deskriptives Schema zur Orientierung <?page no="116"?> 117 3.1 Problempräzisierung und Strukturierung des Untersuchungsgegenstandes www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 117 hypothesentestenden Untersuchungen. Der ins Auge springende Unterschied ist lediglich der entgegengesetzte Startpunkt dieses Bemühens: Hypothesentestende Forschung hat von Begriffen auszugehen, die bereits in ihrem jeweils theoretischen Zusammenhang festgelegt worden sind und deren spezifische Bedeutung im gegebenen (Hypothesen-)Kontext zunächst zu klären ist. Am Anfang steht also die Notwendigkeit einer präzisen semantischen Analyse. Bei der semantischen Analyse zerlegt man die Begriffe in ihre Bedeutungskomponenten; es wird festgestellt, welche Bedeutungsdimensionen der theoretische Begriff anspricht. Dieser semantischen Klärung hat sodann die „empirische Interpretation“ zu folgen. Es ist zu explizieren, auf welche Dimensionen der Wirklichkeit sich die Bedeutungsdimensionen des Begriffs konkret beziehen (sollen). Was mit Dimension, gleichgültig ob „Bedeutungsdimension“ oder „Dimension der Wirklichkeit“ gemeint ist, soll zunächst an einem Beispiel eingeführt werden. Mit „individuelle Lebensqualität“ wird ein empirischer Sachverhalt bezeichnet, der u. a. dadurch charakterisiert ist, dass er nicht nur einen einzigen Aspekt hat, dass er also nicht „eindimensional“, sondern „mehrdimensional“ ist. Richten Sie jetzt Ihre Überlegungen nicht auf das sprachliche Zeichen, den Begriff „Lebensqualität“, sondern auf den gemeinten realen Sachverhalt. Dieser setzt sich nach übereinstimmender Vorstellung aus einer Vielzahl von Teilaspekten (eben: „Dimensionen“) zusammen, die sehr unterschiedlich ausgeprägt sein können: Umweltqualität insgesamt, Wohnumwelt, Wohnung, Konsummöglichkeiten, Freizeit, Berufs- und Arbeitssituation, Familiensituation und noch manches mehr. Alles dies sind „Dimensionen der Lebensqualität“, Aspekte der Realität, an denen wir unterscheiden (können), ob die Lebensqualität „hoch“ oder „niedrig“ ist, genauer: ob die Lebensqualität als hoch oder niedrig gelten soll. Noch einmal: Auch wenn wir an dieser Stelle zur Wiedergabe unserer gedanklichen Strukturierung des Sachverhalts Lebensqualität sprachliche Zeichen verwenden müssen (wie „Umweltqualität“ oder „Wohnung“)-- Ihre Denkarbeit sollte sich im Moment auf die Ebene der empirischen Sachverhalte (nicht der Begriffe) richten. 99 Nehmen wir von den aufgezählten Dimensionen eine heraus: die Familiensituation. Auch hiermit ist wieder ein empirischer Sachverhalt gemeint, der nicht eindimensional ist. Wiederum kann man verschiedene Aspekte unterscheiden: Grad 99 Wir sind als schulisch sozialisierte Erwachsene mittlerweile so sehr daran gewöhnt, Unterschiede in der Realwelt sprachlich-abstrakt zu denken, dass die hier geforderte Trennung von sprachlicher Bezeichnung und Gegenstandsbereich manchem schwerfällt. Das Kleinkind, dem Sprache noch nicht als Kommunikations- und Denkinstrument zur Verfügung steht, muss seine Lebensumwelt und ihre „Dimensionen“ noch ausschließlich begriffsunabhängig durch sein erkundendes Handeln entdecken. dimensionale Analyse auch bei Hypothesentest BEISPIEL <?page no="117"?> 118 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 118 der emotionalen Sicherheit (z. B. Konfliktfreiheit, Familiengebundenheit der Kinder usw.), materielle Sicherheit, Familienzyklus und einiges mehr. Auch von diesen „Unterdimensionen“ sei eine herausgegriffen: Familien- oder Lebenszyklus. Erneut bezeichnet dies einen empirischen Sachverhalt, der offensichtlich nicht eindimensional ist; denn darunter wird eine Kombination der Merkmale Alter, Familienstand, Kinder im Haushalt verstanden. Beispielsweise fassen die Merkmalskombinationen „jung/ verheiratet/ kinderlos“ zur Vorstellung „Familie im Gründungsstadium“ und „alt/ verheiratet/ Kinder nicht mehr im Haushalt der Eltern“ zur Vorstellung „reduzierte Familie“ zusammen. Erst die Teilaspekte, aus denen sich entsprechend diesem Konzept der „Familienzyklus“ zusammensetzt-- Alter, Familienstand, Kinder im Haushalt--, sind „eindimensional“: Jeder dieser Teilaspekte lässt sich auf einer einfachen Skala abbilden: Altersangabe in Jahren, Familienstand auf einer Nominalskala (ledig, verheiratet, geschieden etc.) und Kinder im Haushalt in natürlichen Zahlen. Unter „Dimensionen“ sind also diejenigen Merkmale zu verstehen, nach denen empirische Sachverhalte unterschieden werden können. Je nach Fragestellung kann diese dimensionale Unterscheidung weit vorangetrieben werden (im Beispielsfall etwa bis hin zu Individualmerkmalen wie Alter, Familienstand, Kinderzahl), oder man wird sich auf einer höheren Abstraktionsstufe bewegen (z. B. wenn Dimensionen der Lebensqualität in verschiedenen Regionen zu untersuchen sind). Bitte beachten Sie jedoch: Mit „Dimensionen“ sind nicht die Merkmalsausprägungen gemeint wie „67 Jahre alt“ oder „verheiratet“, mit denen man eine einzelne Person charakterisiert, sondern gemeint ist immer das ganze Spektrum möglicher Ausprägungen eines Merkmals (hier eben: Alter und Familienstand). Auf derjenigen Ebene, bis zu der die dimensionale Unterscheidung „gedanklich“ 100 vorangetrieben wird, setzt der Forscher für die zu unterscheidenden Dimensionen Begriffe ein, die zu definieren und für die gegebenenfalls Indikatoren festzulegen sind. Richten wir den Blick bei unseren Bemühungen um gedankliche Strukturierung (wie im obigen Beispiel) auf den empirischen Gegenstand, dessen Details wir ergründen und ordnen wollen, dann handelt es sich um eine dimensionale Analyse des Gegenstandsbereichs. Setzen wir uns dagegen mit der Frage auseinander, welche Bedeutungen 100 Diese zunächst nur „gedankliche“ dimensionale Strukturierung ist natürlich eine idealtypische Abstraktion. Im obigen Text mussten notwendigerweise bei der Schilderung des Beispiels bereits Begriffe verwendet werden, und auch „in Wirklichkeit“ sind wir es gewöhnt, „in Begriffen“ zu denken. Um die beiden Ebenen „Objektbereich“ und „Sprache“ an dieser Stelle eindeutig zu trennen, stellen Sie sich bitte vor, Sie verfügten noch über keinerlei für Ihren Untersuchungsgegenstand geeigneten Begriffsapparat und seien deshalb gezwungen, bei der dimensionalen Strukturierung die zu unterscheidenden Sachverhalte grafisch zu skizzieren (so wie z. B. ein Architekt den Grundriss, die räumliche Aufteilung und das äußere Erscheinungsbild eines von ihm zu planenden Bauwerks zeichnerisch darstellt). Dimension: Merkmal mit möglichen Ausprägungen dimensionale Analyse des Gegenstandsbereichs <?page no="118"?> 119 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 119 sprachlichen Zeichen zugeschrieben werden (sollen), dann bemühen wir uns um eine semantische Analyse von Begriffen (oder: eine Analyse der Bedeutungsdimensionen von Begriffen). Um auf unser Beispiel zurückzukommen: Bei einer semantischen Analyse des Begriffs „Lebensqualität“ würde unsere Frage nicht lauten, aus welchen Aspekten sich der „Sachverhalt Lebensqualität“ zusammensetzt, sondern was Personen meinen, wenn sie von „Lebensqualität“ reden. Die geforderte Unterscheidung zwischen der dimensionalen Analyse eines empirischen Gegenstandsbereichs und der semantischen Analyse von Begriffen fällt-- wie bereits angemerkt-- manchen Studierenden anfangs schwer; denn beides kann nur sprachlich kommuniziert werden. Vielleicht hilft hier eine Unterscheidung nach der Art der verwendeten Sprache: Begriffe, mit denen wir Sachverhalte, Ereignisse (allgemeiner: Objekte) bezeichnen, gehören zur Objektsprache; Aussagen, die wir über die sprachlichen Zeichen treffen, gehören zur Metasprache. Das bedeutet dann: Als Resultat einer dimensionalen Analyse erhalten wir objektsprachliche Aussagen; das Resultat einer semantischen Analyse formulieren wir in einer Metasprache. Und vielleicht hilft auch ein Satz weiter, den wir bei Wienold (2000, 147) gefunden haben: „Das Bild eines Hundes bellt nicht.“ Präzisierung der Fragestellung, dimensionale bzw. semantische Analyse sind wie die gesamte Konzeptualisierung des Forschungsvorhabens wichtige und für den erfolgreichen Verlauf eines Forschungsprojekts kritische Punkte. Festlegungen auf dieser Stufe können in einer späteren Untersuchungsphase nicht mehr zurückgenommen, Unterlassungen nicht mehr korrigiert werden (s. auch Kriz 1981, Kap. 6 bis 9). 3.2 Dimensionale Analyse Wie dargestellt dient die dimensionale Analyse der Identifikation wichtiger Dimensionen des zu untersuchenden Gegenstandsbereichs und der anschließenden Entwicklung eines geeigneten begrifflichen Schemas. Wir widmen uns zunächst komprimiert dem Vorgehen bei einer dimensionalen Analyse und illustrieren danach das Vorgehen an einem ausführlichen Beispiel. 3.2.1 Vorgehen bei einer dimensionalen Analyse Die dimensionale Analyse hat eine idealtypische Abfolge von vier Arbeitsschritten: - Ideen- und Materialsammlung: Welche Sachverhalte sind von der Fragestellung direkt angesprochen? Was hängt (indirekt) mit ihr zusammen? Wie sind die angesprochenen Sachverhalte gegliedert? Haben sie eine angebbare Struktur; d. h.: Welche empirischen Zusammensemantische Analyse von Begriffen BEISPIEL dimensionale Analyse: objektsprachliche Aussagen semantische Analyse: Metasprache Ideen- und Materialsammlung <?page no="119"?> 120 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 120 hänge gibt es zwischen den Teilelementen des Untersuchungsgegenstands? Als methodische Vorgehensweisen bieten sich an: „Brainstorming“, Rückgriff auf vorhandene empirische Kenntnisse bei den Forschern, Literaturstudium, Expertenbefragung, explorative Vorstudie. - Systematisierung: Die gesammelten Ideen und Materialien sind in eine realitäts- und themenadäquate Ordnung zu bringen. Erst durch eine solche Ordnung wird erkennbar, ob und wo möglicherweise noch Lücken bestehen, so dass gegebenenfalls eine Ergänzung der Ideen- und Materialsammlung erforderlich wird. Strategien der Systematisierung können sein: - theoretische Ordnung (z. B. unter Rückgriff auf Ursache-, Wirkungs- oder Systemzusammenhangs-Hypothesen), - Ordnung in Form eines Ablaufschemas (z. B. Entscheidungs- oder Ereignisabfolge), - formale Ordnung (z. B. vom Allgemeinen zum Spezifischen, von Oberzielen über Zwischen- und Unterziele zu konkreten Maßnahmen). - Auswahl der untersuchungsrelevanten Aspekte: Aus der Ergebnisfülle der möglichst umfassend angelegten Ideen- und Materialsammlung und ihrer systematisierten Zusammenfassung sind diejenigen Aspekte („Dimensionen“) auszuwählen, die für die Fragestellung der Untersuchung bedeutsam scheinen und über die deshalb empirische Daten erhoben werden sollen. Die Selektion ist anhand begründeter und intersubjektiv nachprüfbarer Kriterien vorzunehmen; die Begründungen sind zu dokumentieren. Auswahlkriterien lassen sich z. B. aus empirisch bewährten theoretischen Kenntnissen ableiten, oder sie können sich aus dem Erkenntnisinteresse des Forschers oder dem Verwertungsinteresse des Auftraggebers einer Studie ergeben. - Entwicklung eines untersuchungsleitenden Modells sowie des deskriptiven Begriffsschemas: Die als untersuchungsrelevant ausgewählten Dimensionen des Gegenstands sind zueinander in Beziehung zu setzen (Was hängt in welcher Weise womit zusammen? Was wirkt sich in welcher Weise worauf aus? ). Es empfiehlt sich, dieses untersuchungsleitende Gegenstandsmodell in Form einer Grafik zu visualisieren sowie die im Modell implizierten Zusammenhangshypothesen explizit auszuformulieren. Dies erleichtert Ihnen zudem die nächste Aufgabe: die Erstellung des deskriptiven Begriffsschemas. Beim deskriptiven Begriffsschema ist darauf zu achten, dass die zur Beschreibung und Analyse des Untersuchungsgegenstands benutzten Begriffe der Fragestellung angemessen sind; d. h. sie sollen geeignet sein, die Struktur des empirischen Sachverhalts in der notwendigen Differenzierung sprachlich abzubilden. Ferner müssen sie- - zur Sicherung der intersubjektiven Geltung der Aussagen- - entweder bereits eine unmissverständliche Bedeutung haben oder gegebenenfalls vom For- Systematisierung Auswahl relevanter Aspekte Entwicklung eines untersuchungsleitenden Modells Entwicklung eines deskriptiven Begriffsschemas <?page no="120"?> 121 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 121 scher präzise definiert werden. Im Idealfall haben die Begriffe des deskriptiven Schemas zugleich theoretische Relevanz, so dass die Daten auch zur Weiterentwicklung bereits bestehender oder zur Formulierung neuer Theorien/ Hypothesen über den Untersuchungsgegenstand beitragen können. Zur Illustration des möglichen Ergebnisses einer dimensionalen Analyse zeigt Abbildung 3.1 als Beispiel ein mit einfachen grafischen Mitteln übersichtlich dargestelltes Modell eines extrem komplexen Untersuchungsgegenstands. Es handelt sich um ein von G. Maletzke (1981) entworfenes „Schema des Feldes der Massenkommunikation“. Hier wird in vorbildlicher Weise die Visualisierung der als relevant angesehenen Aspekte des Untersuchungsgegenstandes sowie der als relevant angenommenen Beziehungen zwischen den einzelnen Dimensionen realisiert. Zur Erläuterung: „Das Schema versucht, folgende Sachverhalte darzustellen: Der Kommunikator (K) produziert die Aussage durch Stoffwahl und Gestaltung. Seine Arbeit wird mitbestimmt durch seine Persönlichkeit, seine allgemeinen sozialen Beziehungen (u. a. persönliche direkte Kommunikation), durch Einflüsse aus der Öffentlichkeit und durch die Tatsache, dass der Kommunikator meist in einem Produktionsteam arbeitet, das wiederum einer Institution eingefügt ist. Außerdem muss der Kommunikator die Erfordernisse seines Mediums und des ‚Programms‘ kennen und berücksichtigen, und schließlich formt er sich von seinem Publikum ein Bild, das seine Arbeit und damit die Aussage und damit endlich auch die Wirkungen wesentlich mitbestimmt. Die Aussage (A) wird durch das Medium (M) zum Rezipienten geleitet. Sie muss dabei den technischen und dramaturgischen Besonderheiten des jeweiligen Medi- Quelle: Maletzke (1981, 14). Selbstbild als Persönlichkeit im Team in der Institution in sonstigen sozialen Beziehungen Zwang der Ö entlichkeit Zwang der Aussage bzw. des Programms Sto auswahl Gestaltung Spontane Antworten des Rezipienten Auswahl aus dem Angebot Erleben Wirkung Zwang des Mediums Bild vom Medium beim Rezipienten Zwang des Mediums Bild vom Rezipienten beim Kommunikator Bild vom Kommunikator beim Rezipienten in sonstigen sozialen Beziehungen als Glied des Publikums als Persönlichkeit Selbstbild A R M K Abbildung 3.1: Schema des Feldes der Massenkommunikation <?page no="121"?> 122 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 122 ums angepasst werden. Der Rezipient (R) wählt aus dem Angebot bestimmte Aussagen aus und rezipiert sie. Der Akt des Auswählens, das Erleben der Aussage und die daraus resultierenden Wirkungen hängen ab von der Persönlichkeit des Rezipienten, von seinen sozialen Beziehungen, von den wahrnehmungs- und verhaltenspsychologischen Eigenarten des Mediums auf der Empfängerseite, von dem Bild, das sich der Rezipient von der Kommunikatorseite formt und von dem mehr oder weniger klaren Bewusstsein, Glied eines dispersen Publikums zu sein. Schließlich deutet der obere Pfeil im Feldschema an, dass trotz der Einseitigkeit der Massenkommunikation ein ‚Feedback‘ zustande kommt“ (Maletzke 1981, 14). 3.2.2 Beispiel einer dimensionalen Analyse: Berufserfolg-und-soziale-Herkunft Die Aufgabenstellung für eine deskriptive Untersuchung möge sein: Es sollen Daten zur Beschreibung der Bildungs- und Berufssituation von Kindern aus Elternhäusern unterschiedlicher Sozialschichten erhoben und ausgewertet werden. Zunächst stellt sich die Frage (vgl. Kapitel 2.2, Punkt a): Wie steht es um den „Entdeckungszusammenhang“? Eine solche Forschungsaufgabe würde sicher nicht formuliert, wenn nicht bestimmte Probleme aufgetaucht wären und wenn nicht bestimmte Vermutungen oder Kenntnisse über die Zusammenhänge der angesprochenen Aspekte der Wirklichkeit bestünden. Beispielsweise könnte jemand die Erfahrung gemacht haben, dass Arbeiterkinder es sowohl in der Schule als auch später im Beruf schwerer haben, „nach oben“ zu kommen (oder gleichbedeutend: dass Kinder aus Mittelschicht- oder Oberschichtmilieu es in beiden Bereichen leichter haben). Der Ausgangspunkt der Überlegungen könnte aber auch ein ganz anderer sein; nämlich, dass wir- - nach Schelsky (1962)- - in einer hochmobilen Gesellschaft leben, in der im Prinzip jeder die Chance hat, bei entsprechender Leistung „aufzusteigen“, und in der die Schule die eigentliche Zuweisungsinstanz für soziale Chancen sei. Das hier formulierte Forschungsproblem beschäftigt Soziologen seit den Anfangszeiten ihrer Disziplin. Für die USA etwa wurde es in einer klassischen Studie von Blau und Duncan (1967) untersucht. Deren forschungsleitende Hypothese war- - stark vereinfacht--: „Die soziale Herkunft beeinflusst sowohl direkt als auch indirekt (über die ermöglichte Bildung) den beruflichen Erfolg der Kinder.“ Formalisiert lässt sich diese theoretische Annahme (Vermutung über Chancenungleichheiten in der Gesellschaft) so darstellen: Bildung Berufserfolg Soziale Herkunft Sollen die Ergebnisse auch praktische und politische Relevanz haben („Verwertungszusammenhang“), müssen die empirischen Informationen über dieses Problemfeld sowohl relativ präzise als auch begründet sein. Schon daraus ergibt sich die Notwen- <?page no="122"?> 123 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 123 digkeit, den Sachverhalt gedanklich klar durchzustrukturieren (vgl. Kapitel 2.2, Punkt b: Präzisierung der Problemformulierung). Zunächst einmal ist zu klären: Was ist der gesellschaftliche Sachverhalt „soziale Herkunft“? Welchen Einfluss könnte die soziale Herkunft auf Schulerfolg und späteren Berufserfolg der Kinder ausüben? Was ist „Bildung“ und-- schließlich-- was ist „beruflicher Erfolg“ der Kinder? Außerdem, da man ganz gewiss nicht alle Aspekte der zu Beginn global formulierten Aufgabenstellung in einer einzigen Untersuchung wird analysieren können: Welche Aspekte sind besonders relevant? Welche können im gegebenen Zusammenhang als weniger relevant vernachlässigt werden? Mit anderen Worten: Man benötigt Selektionskriterien. Die Formulierung „im gegebenen Zusammenhang weniger relevant“ verweist auf das Erkenntnisinteresse, aber auch auf den Verwendungszusammenhang: Für welche Zwecke sollen die Resultate der Forschung verwendet werden? Das Ergebnis der dimensionalen Analyse und der Problempräzisierung wird z. B. bei Auftragsforschung entscheidend vom Auftraggeber und dessen Interessen abhängen. In dieser Phase strukturieren Erkenntnisziele und Werte bis zu einem gewissen Grad das potenzielle Ergebnis der Forschung, indem sie den Kreis möglicher Erkenntnisse eingrenzen: Was jetzt ausgeblendet wird, darüber werden keine Forschungsresultate gewonnen! Zurück zur ersten Frage: Was könnte „soziale Herkunft“ in der realen Situation einer Gesellschaft wie den USA in den 1960er-Jahren sein? 101 Welche Merkmale könnten (bei gegebener Fragestellung) relevant sein? Ein „Brainstorming“, eine Ideen-Sammlung der Forschergruppe möge die folgende Liste erbringen: 1) Engere soziale Umwelt des Individuums (Familie): - sozialer Status der Familie (Elternhaus, größerer Familienverband in der Gegenwart, Verwandte, Familientradition, „guter Name“) - soziales Netzwerk der Familie (Mitgliedschaft in einflussreichen Organisationen, gute Beziehungen durch persönliche Bekanntschaften von Familienmitgliedern etc.) - Verhaltensstile in der Familie (etwa Erziehungsstile, Leistungsorientierung, soziales Klima, Autoritätsstruktur) - demografische Merkmale der Familie (Haushaltsgröße, Altersstruktur, Geschwister, Rang in der Geschwisterfolge etc.) 2) Weitere soziale Umwelt: - Wohngebiet (Nachbarschaft, „Adresse“) - Stadt/ Land - homogene/ heterogene soziale Umwelt 3) Zugehörigkeit zu gesellschaftlichen Gruppen: - ethnische Gruppen (etwa indigene Völker Amerikas, Afroamerikaner, Latinos) - Randgruppen 101 Man beachte: Die Überlegungen richten sich hier nicht auf die Bedeutung des Begriffs „soziale Herkunft“, sondern auf die Situation im Untersuchungsfeld zum Zeitpunkt der Untersuchung. <?page no="123"?> 124 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 124 Diese Liste ist natürlich unvollständig, dürfte jedoch bereits zu lang sein, als dass sie in der Regel in einem Forschungsprojekt bzw. in einer Untersuchung voll berücksichtigt werden könnte. Die Forschergruppe möge sich dafür entscheiden, „soziale Herkunft“ auf „sozialer Status des Elternhauses“ zu reduzieren. Diese Entscheidung wäre zur Sicherung der intersubjektiven Überprüfbarkeit explizit zu begründen. Soll die Reduzierung dem Anspruch der Wertneutralität genügen, müsste die Begründung sogar im Rahmen der Untersuchungsfragestellung gelingen. Es müsste also der Nachweis möglich sein, dass außer den Merkmalen des sozialen Status des Elternhauses alle übrigen aufgelisteten Aspekte (Dimensionen) der sozialen Herkunft keinen nennenswerten Einfluss auf die Bildung und auf den Berufserfolg der Kinder ausüben. Sie wären „im gegebenen Zusammenhang“ unerheblich. Das Problem ist nur: Um diesen Nachweis führen zu können, müssten bereits sämtliche relevanten Informationen verfügbar sein. Nehmen wir also (im Interesse der Vereinfachung dieses Beispiels) an: Für die USA der 1960er-Jahre sei dieser Nachweis aufgrund vorliegender empirischer Befunde möglich. Nach der Entscheidung für die Reduzierung auf den sozialen Status des Elternhauses geht es nun darum, die Teildimensionen hiervon zu bestimmen. Das Ergebnis könnte folgende Liste sein: 1) Beruf - Berufsbezeichnung - Berufsprestige - mit der Berufsposition verbundener Einfluss (Macht) - Selbständigkeit/ Abhängigkeit (Freiheitsspielraum bei der Ausgestaltung der Arbeit) - berufliche Sicherheit (Kündbarkeit, Zukunftsaussichten etc.) - berufliche Belastung (Schwierigkeit, Eintönigkeit der Arbeit, Arbeitszeit etc.) 2) Vermögen (Geld, Wertsachen, Grund und Boden, Produktivvermögen etc.) 3) Einkommen - durch Erwerbstätigkeit erzielt (selbständige, unselbstständige Erwerbstätigkeit) - durch Vermögen erzielt (durch Produktionsmittel, aus anderen Vermögensanlagen) 4) Bildung - Schulbildung (formale nichtberufliche Schulbildung, Berufsschule) - Erwachsenenbildung, 2. Bildungsweg, allgemeine Weiterbildung - berufliche Ausbildung, berufliche Weiterbildung - „Geistesbildung“, Persönlichkeitsbildung - außerhalb des Schulsystems (z. B. durch Selbststudium) erlangtes Wissen Es zeigt sich, dass auch diese Liste von Merkmalen noch zu umfangreich sein dürfte, so dass auch hier wieder eine Selektion stattzufinden hat; dies aber nicht nur hinsichtlich der Merkmale, sondern auch im Hinblick auf die Personen, die durch die Bezeichnung „Elternhaus“ angesprochen sind: Sollen die Merkmale für alle Mitglie- <?page no="124"?> 125 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 125 der der Familie erhoben werden? Oder nur für das Elternpaar oder nur für eine Person (Vater oder Mutter)? Oder soll ein Gesamtwert für die ganze Familie gefunden werden (etwa: Gesamteinkommen oder Durchschnittseinkommen pro Kopf oder Einkommen des Hauptverdieners)? Auch in diesem Fall ist die Auswahlentscheidung wieder nachprüfbar zu begründen, sind die Selektionskriterien offen zu legen. Was hier für den Aspekt (die Dimension) „soziale Herkunft“ bzw. den Teilaspekt (die Teildimension) „sozialer Status des Elternhauses“ vorgeführt wurde, hätte in ähnlicher Weise für „Bildung der Kinder“ und „beruflicher Erfolg der Kinder“ zu geschehen. In Anlehnung an Blau/ Duncan (1967), und zwar an deren „Basismodell“, sei die Fragestellung im Folgenden eingeschränkt auf die Ermittlung des Zusammenhangs der Merkmale „sozialer Status des Elternhauses“ (gemessen an den beiden Merkmalen: Berufsprestige und Bildung), „Bildung des Befragten“ (gemessen am Merkmal: formale schulische Bildung) sowie „Berufserfolg des Befragten“ (gemessen am Merkmal: Berufsprestige) 102 . Was die Merkmalsträger angeht (die Personen, für die in der Untersuchung die Merkmale Bildung und Berufsprestige erhoben werden), so wird die Analyse auf die Väter (als Repräsentanten für das Elternhaus) und auf die Söhne (als die künftigen Status-Träger) begrenzt. Wie könnte eine solche Selektion der Merkmale und der Merkmalsträger aus der Vielzahl der aufgelisteten möglichen Merkmale und der Zahl möglicher Merkmalsträger begründet werden? Nun, man wird wieder auf Theorien zurückgreifen, auch wenn dies nicht immer deutlich gemacht wird, vielleicht sogar dem Forscher selbst nicht klar ist. Mögliche Begründungen könnten lauten: Es ist gerechtfertigt, „Elternhaus“ auf den Vater des Befragten zu beschränken, weil das „männliche Familienoberhaupt“ (in einer Gesellschaft wie den USA um 1960) die Stellung der Familie in der gesellschaftlichen Hierarchie definiert: Ehefrau und Kinder besitzen demgegenüber lediglich einen davon abgeleiteten Status. Ganz analoge Gründe könnten für die Beschränkung der Untersuchung auf die Söhne angeführt werden. 103 Was die Auswahl der Statusmerkmale angeht, so seien als besonders relevant für die Charakterisierung des Herkunftskontextes angesehen: a) das Berufsprestige des Vaters, denn die gesellschaftliche Stellung drückt sich vor allem im Prestige der Berufsposition aus, vor allem diese ist nach außen sichtbar; b) die erreichte formale Bildung des Vaters; denn: Je höher die Bildung des Elternhauses, umso höher das Anspruchsniveau für die an die Kinder weiter zu vermittelnde Bildung; und: Je höher die Bildung des Elternhauses, desto günstiger die 102 Sozialer Status des Elternhauses sei definiert als (kurz: =-df.): die Position, die die Herkunftsfamilie in der gesellschaftlichen Hierarchie einnimmt.-- Schulische Bildung =-df. über offizielle gesellschaftliche Institutionen vermittelte Kenntnisse und Fähigkeiten, wobei der erfolgreiche Besuch solcher Institutionen durch ein Zertifikat bescheinigt wird.-- Berufsprestige =-df. der Rang eines Berufs in einer nach dem gesellschaftlichen Ansehen gebildeten Rangordnung aller Berufe. 103 „Gender mainstreaming“ war vor 50 Jahren in den USA (wie in Europa) nicht nur noch „kein Thema“; es hatte auch keine empirische Relevanz für die soziale Strukturierung der Gesellschaft. <?page no="125"?> 126 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 126 Voraussetzungen, die in der vorschulischen Sozialisation an die Kinder weitergegeben werden (z. B. Sprache). Als „nicht relevant“ werden im Basismodell von Blau/ Duncan unberücksichtigt gelassen: Höhe und Art des Einkommens (mögliche Begründung: enger statistischer Zusammenhang mit Berufsprestige); andere als formale Bildung („soziale“ Relevanz erhalten vor allem die offiziell dokumentierten Bildungsabschlüsse); soziale und räumliche Umwelt (diese bestimmt nur indirekt den Status des Elternhauses; die Segregation 104 verläuft umgekehrt: sozialer Status → Umwelt). Im Hinblick auf die Bereiche Bildung und Berufserfolg der Söhne werden als problemrelevant angesehen: die formale schulische Bildung sowie das Prestige der Berufsposition. Damit wird nun die zu Beginn formulierte forschungsleitende Hypothese durch folgende Einzelhypothesen (die nur noch einen Ausschnitt aus der Anfangsfragestellung abdecken) spezifiziert: a) Der Berufserfolg (Berufsprestige) der Söhne wird positiv beeinflusst durch deren eigenen Bildungsabschluss (Zuteilung gesellschaftlicher Chancen durch die Schule): beru icher Erfolg des Sohnes Bildung des Sohnes + b) Die Höhe des Bildungsabschlusses wird positiv beeinflusst sowohl von der Berufsposition des Vaters als auch von dem Bildungsniveau des Vaters (höheres Anspruchsniveau und bessere Voraussetzungen aus dem Elternhaus): Bildung des Sohnes beru iche Position des Vaters + Bildung des Sohnes Bildung des Vaters + c) Der berufliche Erfolg wird zusätzlich positiv beeinflusst durch die Berufsposition des Vaters („delayed effect“: bei gleicher bildungsmäßiger Voraussetzung hat die höhere Berufsposition des Vaters einen fördernden Einfluss, z. B. über Einfluss, Beziehungen, Vorurteile der Personalchefs). Die Bildung des Vaters dagegen hat- - so die Annahme- - keinen „delayed effect“ und wirkt sich ausschließlich indirekt auf dem Weg über die Bildung des Sohnes aus: beru iche Position des Vaters + beru icher Erfolg des Sohnes 104 Segregation =- df. Ausmaß der disproportionalen Verteilung von Bevölkerungsgruppen oder Nutzungen über die Teilgebiete (z. B. Ortsteile) eines Gebiets (z. B. Stadt). <?page no="126"?> 127 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 127 Zusammengefasst ergibt sich das folgende (formalisierte) Untersuchungsmodell (vgl. zum bisherigen Argumentationsgang Kapitel 2.2, Punkte a bis d): Berufsprestige des Vaters Berufserfolg (prestige) des Sohnes Bildung des Vaters + + + 0 + Bildung des Sohnes Wie ist das Resultat der hier beispielhaft vorgestellten dimensionalen Analyse und deren Verwertung für ein Untersuchungsmodell einzuschätzen? Die Gesamtheit möglicher Einflussfaktoren auf den Berufserfolg der Kinder reduziert sich hier auf drei Größen und wird lediglich im Hinblick auf die Söhne untersucht. Eine Konsequenz für die Verwertung der Ergebnisse: Informationen für eine Politik oder für Bemühungen mit dem Ziel, etwa die gesellschaftliche Situation der Frau zu verändern, sind aus dieser Untersuchung nicht zu gewinnen. Voraussetzung für die Berechtigung der Reduzierung des komplexen Beziehungsfeldes auf die genannten Einflussgrößen ist entweder: Alle anderen Einflussgrößen sind im Vergleich zu diesen drei (in der untersuchten Gesellschaft und zum Zeitpunkt der Untersuchung) in ihrer Wirkung gering und können daher für den hier interessierenden Zusammenhang vernachlässigt werden. Oder: Andere Einflussgrößen mögen zwar auch bedeutsam sein (etwa Zugehörigkeit zu einer ethnischen Gruppe); sie interessieren (den Forscher oder Auftraggeber) aber nicht. Die zweite Begründung kann man lediglich akzeptieren oder nicht akzeptieren. Die erste Begründung dagegen kann empirisch richtig oder falsch sein. Wenn aber andere als die drei Einflussgrößen auf Berufserfolg nicht erhoben werden, kann man sie im Rahmen dieser Untersuchung auch nicht empirisch überprüfen. Die Annahme könnte ja durchaus falsch sein; in diesem Falle wären aber die gesamten Ergebnisse der Analyse möglicherweise auch falsch, nämlich dann, wenn andere-- nicht berücksichtigte- - Einflussgrößen nicht nur auf die abhängige Variable, sondern auch auf erklärende Variablen 105 Einfluss ausüben. Zum Beispiel könnte das Einkommen des Vaters sowohl die erreichbare Bildung des Sohnes positiv beeinflussen (Lernmaterial, Nachhilfestunden etc.) als auch zusätzlich den späteren Berufserfolg (der „Geldadel“ hilft sich gegenseitig, oder gar: „Kauf“ 105 Erklärende Variablen werden auch „explikative Variablen“ oder „unabhängige Variablen“ genannt. Es sind die Merkmale, die nach den Modell-Annahmen Einfluss auf die „abhängige Variable“ (hier: Berufserfolg der Söhne) nehmen und daher deren Veränderung „erklären“ sollen. Bitte beachten Sie: Dieser statistische Begriff des „Erklärens“ unterscheidet sich von dem in Kapitel 2.4.1 verwendeten Begriff des „wissenschaftlichen Erklärens“; er bedeutet, dass ein bestimmter Teil der Unterschiede in der abhängigen Variablen aufgrund der Kenntnis der unabhängigen Variablen „berechnet“ werden kann (ausführlicher in Kapitel 8.3.3). <?page no="127"?> 128 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 128 einer hoch angesehenen Position). In einem solchen Fall würde aber die Hinzunahme des Merkmals „Einkommen des Vaters“ die Restbeziehung zwischen Bildung und Berufserfolg vermindern und zu einer anderen Interpretation der empirischen Resultate führen. Das Untersuchungsmodell hätte dann folgendes Aussehen: Berufsprestige des Vaters Berufsprestige des Sohnes Bildung des Vaters Einkommen des Vaters + + + + + + Bildung des Sohnes Ob diese ergänzende Annahme in der empirischen Realität Bestand hat, lässt sich nicht im Voraus entscheiden, sondern erst, wenn die dafür benötigten Daten erhoben und statistisch ausgewertet worden sind. Bitte erinnern Sie sich: Bei der dimensionalen Analyse (=- bei der gedanklichen Strukturierung) des Untersuchungsgegenstandes geht es darum, 1. herauszufinden, welche Aspekte an dem Untersuchungsgegenstand prinzipiell festgestellt werden können, 2. zu entscheiden, welche Aspekte für die konkrete Untersuchung so bedeutsam sind, dass dazu Daten erhoben werden sollen. Für beide Aufgaben ist es hilfreich, wenn wir auf bereits bewährte Theorien zurückgreifen können. Zumindest für den Punkt 2. müssen wir uns auch über den „Entdeckungs- und Verwertungszusammenhang“ (vgl. Kapitel 2.3) klar werden. Die strategische Bedeutung der dimensionalen Analyse bei der Konzipierung eines Untersuchungsmodells soll noch kurz an einem Vergleich der empirischen Ergebnisse von Blau und Duncan mit denen einer Nachfolgeuntersuchung in der BRD (Raum Konstanz) durch W. Müller (1976) aufgezeigt werden. Bei Müller wird (wie auch schon bei Blau/ Duncan in einem etwas erweiterten Modell) ebenfalls das bisher entwickelte Schema zugrunde gelegt, allerdings geringfügig ergänzt: und zwar wird die Variable „Berufsprestige des Sohnes“ zu zwei Zeitpunkten gemessen, nämlich bei Berufseintritt (1. Beruf ) und zum Zeitpunkt der Untersuchung (derzeitiger Beruf ). Zu diesem erweiterten Modell berichten Blau und Duncan für die USA anhand ihrer Daten von folgenden Befunden: 106 106 Auf die Details der in der statistischen Auswertung berechneten Koeffizienten kann hier- - ohne die notwendigen statistischen Grundlagenkenntnisse bereits vermittelt zu haben-- nicht eingegangen werden. Vereinfacht soll die Stärke der Beziehungen zwischen den Variablen wie folgt symbolisiert werden: (+) =- sehr geringe, + =- geringe bis mittelstarke, ++ =- starke, +++ =-sehr starke Beziehung. <?page no="128"?> 129 3.2 Dimensionale Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 129 derzeitiger Beruf des Sohnes Bildung des Vaters Beruf des Vaters + + + + (+) + ++ Bildung des Sohnes 1. Beruf des Sohnes Der Bildungsabschluss des Sohnes hängt bis zu einem gewissen Grade von dessen sozialer Herkunft ab, wobei die Merkmale Bildung und Beruf des Vaters zusammen 26 % der Unterschiede in der Schulbildung der befragten Söhne „statistisch erklären“. 107 Das würde die Interpretation rechtfertigen, dass der Einfluss des Elternhauses auf den erzielten Schulabschluss (und das heißt: die Chancenungleichheit im Bildungssystem) gar nicht so groß ist, wie oft behauptet wird. Die Schulbildung wiederum wirkt sich sowohl auf die erste Berufsposition als auch auf den Beruf zum Zeitpunkt der Untersuchung aus; aber auch hier sind die statistisch ermittelten Beziehungen bei weitem nicht so stark, wie die Thesen von der „Status-Vererbung“ und von der Funktion der Schule als Zuweisungsinstanz für soziale Chancen vermuten lassen. Gleiches gilt für den unabhängig von der vermittelten Bildung erkennbaren Effekt des Vaterstatus auf den Berufserfolg des Sohnes. Fazit: Die gängige These vom Aufstieg durch Leistung in einer „offenen Gesellschaft“ wird durch die empirischen Befunde, gewonnen auf der Basis des skizzierten Untersuchungsmodells, für die USA nicht eindeutig widerlegt. Insgesamt lassen sich in den Daten von Blau und Duncan zwar 42 % der festgestellten Unterschiede im Berufsprestige der Befragten auf die Variablen des Untersuchungsmodells und die dort postulierten Beziehungen zurückführen; knapp 60 % der Unterschiede aber bleiben offen für die Vermutung „Leistung zahlt sich aus“. Die Daten der Nachfolgeuntersuchung von Müller für den Konstanzer Raum zeigen bei Zugrundelegen des Blau/ Duncan-Modells durchaus ähnliche Beziehungen. Lediglich der Einfluss der eigenen Schulbildung auf die erste Berufsposition erweist sich hier als stärker. Also: In Deutschland scheint die Situation Ende der 1960er-Jahre ähnlich zu sein wie in den USA. Müller bleibt jedoch nicht bei diesem Befund stehen, sondern nimmt eine geringfügige Änderung der Untersuchungsanlage vor. Er führt die dimensionale Analyse einen Schritt weiter und unterteilt das Merkmal „Bildung des Sohnes“ in a) Bildung vor Eintritt in das Berufsleben sowie b) Weiterbildung. Eine getrennte Auswertung der erhobenen Daten für die Personen, die ihre Ausbildung vor Eintritt in das Berufs- 107 Genauer: 26 % der Varianz der Variablen „Bildung des Sohnes“ wird durch die beiden Herkunftsvariablen kontrolliert. Das statistische Modell der Varianzzerlegung kann an dieser Stelle natürlich nicht eingeführt werden (vgl. dazu Kapitel 8). Zum Verständnis der hier geführten Argumentation sollte folgende Überlegung genügen: Je größer der Anteil der „erklärten Varianz“, umso stärker ist der statistisch festgestellte Zusammenhang zwischen zwei oder mehreren Merkmalen. <?page no="129"?> 130 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 130 leben endgültig abgeschlossen haben (1976, 302 f.), und diejenigen, die sich nach der ersten Berufstätigkeit noch weitergebildet haben (1976, 304 f.), macht nun interessante Unterschiede deutlich: Für Personen mit „normaler Karriere“ (Elternhaus → Schule → Beruf ) zeigt sich eine sehr starke Abhängigkeit ihres „Berufserfolgs“ von sozialer Herkunft und Schulbildung: 81 % der beobachteten Berufsprestige-Unterschiede lassen sich durch die Variablen im Untersuchungsmodell „erklären“. Dabei ist sowohl der Einfluss des Elternhauses auf die Schulbildung (44 % erklärte Varianz) als auch der Effekt des Bildungsabschlusses auf den Einstiegsberuf sowie des Einstiegsberufs auf den späteren Berufserfolg erheblich. Es zeigt sich also eine klar erkennbare Linie der „Status-Vererbung“: soziale Herkunft → Bildung → erster Beruf → späterer Beruf. derzeitiger Beruf des Sohnes Bildung des Vaters Beruf des Vaters +++ + (+) (+) (+) ++ +++ Bildung des Sohnes 1. Beruf des Sohnes Dass dies in den Daten für die gesamte Zahl der Untersuchungspersonen nicht unmittelbar erkennbar wird, liegt an der Gruppe, die den mühevollen Weg der Weiterbildung nach Eintritt in den Beruf gewählt hat. Bei diesen ist der Einfluss des Elternhauses auf ihre Bildung (13 % erklärte Varianz) ebenso wie der Effekt des ersten Berufs auf den späteren Berufserfolg erheblich geringer. Auch das gesamte Variablenmodell kann nur knapp halb so viele Unterschiede im Berufsprestige erklären wie bei der Kontrollgruppe. derzeitiger Beruf des Sohnes Bildung des Vaters Beruf des Vaters (+) (+) + (+) + +++ Bildung des Sohnes 1. Beruf des Sohnes Für den „traditionellen Bildungsweg“ werden nach dieser differenzierteren Analyse die Thesen von der „Statusvererbung“ nun überzeugend bestätigt. Und wenn dieser Prozess der Weitergabe ungleicher Startchancen durchbrochen werden soll, dann-- so muss jetzt das Fazit lauten--, bedarf es dazu zusätzlicher individueller Bemühungen. Das traditionelle Schulsystem nämlich erfüllt nach diesen Resultaten offenbar nicht die Aufgabe, die ihm vielfach zugeschrieben wird: Lebenschancen nach Leistung zu verteilen oder gar Chancenungleichheit zu reduzieren. Eher scheint das Gegenteil zuzutreffen. Müllers Resümee: „Durch die Erweiterung von Blau und Duncans <?page no="130"?> 131 3.3 Semantische Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 131 Modell konnten wir zeigen, dass Bildungsbemühungen während der beruflichen Karriere sich in einer Verbesserung des beruflichen Status auszahlen und zudem wesentlich weniger von Bindungen der sozialen Herkunft abhängen als der Erfolg im ,Ersten Bildungsweg‘. Die größere Distanz zur Herkunftsfamilie, die Berufstätige im Vergleich zu den-- in der Regel jüngeren-- Schülern haben, lässt die bildungsfördernden bzw. -hemmenden Impulse eines unterschiedlichen Herkunftsmilieus weniger zum Zuge kommen“ (1976, 311). Fassen wir zusammen: - Ausgangspunkt der dimensionalen Analyse ist eine auf die Beschreibung eines empirischen Sachverhalts bezogene, relativ grob abgegrenzte Fragestellung. - Die methodische Aufgabe besteht in der Präzisierung der Fragestellung (gegebenenfalls in ihrer Einschränkung) sowie in der gedanklichen und begrifflichen Strukturierung des Untersuchungsgegenstandes. 3.3 Semantische Analyse Erinnern wir uns: Während die Forscherin sich im Rahmen der dimensionalen Analyse mit einem existierenden empirischen Gegenstandsbereich (z. B. soziale und psychische Folgen von Arbeitslosigkeit, Wohnsituation ausländischer Arbeitnehmer, Studienbedingungen an der Massenuniversität) auseinandersetzt, hat sie es bei der semantischen Analyse mit sprachlichen Zeichen (Begriffen) und ihrer Bedeutung, also mit Aussagen über einen (vom Sprecher, vom Schreiber) gemeinten Sachverhalt zu tun. 3.3.1 Vorgehen bei einer semantischen Analyse Während der Forscher/ die Forscherin im Zuge der dimensionalen Analyse mit Hilfe von systematisierter Ideen- und Materialsammlung möglichst präzise die Struktur des zu untersuchenden Gegenstands vorzuklären versucht, muss er/ sie bei der semantischen Analyse die Bedeutung der verwendeten Begriffe in ihrem sprachlichen Kontext rekonstruieren. So spricht beispielsweise das gleiche sprachliche Zeichen „Nordrhein-Westfalen“ in den folgenden Sätzen unterschiedliche Bedeutungsaspekte an: 1. Nordrhein-Westfalen ist 33.958 Quadratkilometer groß. 2. In Nordrhein-Westfalen finden demnächst Landtagswahlen statt. Im ersten Fall ist das räumliche Gebiet gemeint; im zweiten Fall bezieht sich die Aussage auf das politische System, das „Bundesland NRW“ als Teil des föderalistisch organisierten politischen Systems „Bundesrepublik Deutschland“. Dasselbe Begriffsbedeutung rekonstruieren BEISPIEL <?page no="131"?> 132 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 132 sprachliche Zeichen bezeichnet in beiden Aussagekontexten jeweils einen anderen „Gegenstand“: In dem räumlichen Gebiet „Nordrhein-Westfalen“ werden z. B. auf bestimmten Flächen Kartoffeln angebaut, wird in anderen Bereichen (immer noch, wenn auch immer weniger) Kohle gefördert. Im politischen System „Nordrhein-Westfalen“ (im „Bundesland NRW“) bemühen sich CDU, SPD, FDP, GRÜNE und andere Parteien um Sympathie bei „den Wählern“ und um Mandate in den Parlamenten auf Kommunal- und Landesebene. Beides-- räumliches Gebiet/ Fläche und politisches System- - sind offensichtlich außerordentlich unterschiedliche Sachverhalte; mit dem ersten befassen sich innerhalb der Wissenschaften vor allem Geografen, mit dem zweiten Politologen. Sprachliche Zeichen (Begriffe) haben häufig die Eigenschaft, „mehrdeutig“ zu sein. Im unproblematischsten Fall heißt dies, dass der Begriff mehrere unterschiedliche Aspekte eines komplexen Sachverhalts zusammenfasst, dass er also einen mehrdimensionalen Sachverhalt bezeichnet (vgl. das Beispiel „Lebensqualität“ in Kapitel 3.1). „Mehrdeutigkeit“ kann auch bedeuten, dass der Begriff mehrere, in der Realität an sich unterscheidbare Sachverhalte dadurch auf einen Nenner bringt, dass er von individuell spezifischen Merkmalen dieser Sachverhalte absieht (abstrahiert) und nur solche Merkmale hervorhebt, die allen gemeinten Sachverhalten gemeinsam sind. Wir haben es dann mit Oberbegriffen zu tun. So ist z. B. „Kraftfahrzeug“ ein Oberbegriff zu Personenauto, Lastkraftwagen, Sattelschlepper, Lieferwagen, Bus, Motorrad, Motorroller usw., die ihrerseits wieder Oberbegriffe für jeweils eine Reihe unterschiedlicher Kraftfahrzeugarten sind. Von solchen „mehrdimensionalen“ Begriffen sind in einem gegebenen Aussagenzusammenhang- - in einem sprachlichen Kontext-- üblicherweise nicht alle „Bedeutungsdimensionen“ gemeint (vgl. das Beispiel „Nordrhein-Westfalen“). Ziel der semantischen Analyse muss es daher in einem solchen Fall sein, die tatsächlich gemeinten Bedeutungsdimensionen aus dem sprachlichen Kontext zu erschließen. Trotz der Mehrdimensionalität solcher Begriffe wird in den oben genannten Fällen dennoch ein einheitlicher Sprachgebrauch bei unterschiedlichen Sprechern unterstellt, d. h. alle meinen z. B. mit dem Oberbegriff „Kraftfahrzeug“ die gleichen Klassen von Gegenständen. Nicht selten aber geht die „Mehrdeutigkeit“ von Begriffen über ihre „Mehrdimensionalität“ hinaus: Die gleichen sprachlichen Zeichen werden dann von verschiedenen Personengruppen mit jeweils unterschiedlichen, teilweise sogar gegensätzlichen Bedeutungen belegt. Das Begriffspaar „Freiheit und/ oder Sozialismus“ hatte bei Anhängern konservativer bzw. Anhängern linker Parteien in der politischen Auseinandersetzung der 1970er- und 1980er-Jahre völlig unterschiedliche Bedeutung. Wortschöpfungen wie „Wende“ oder „Flexibilisierung des Arbeitsmarktes“ oder „Globalisierung“ oder „demografischer Faktor“ (im Rentensystem) werden ebenfalls unterschiedlich verstanden. Oder überlegen Sie, welche Bedeutung der Begriff „Kapital“ in der marxistischen im Vergleich zur „bürgerlichen“ Wirtschafts- und Gesellschaftstheorie hat. Bei solcher Art von begrifflicher Mehrdeutigkeit ist es Aufgabe der semantischen Analyse, den unterschiedlichen Sprachgebrauch unterschiedlicher Gruppen oder mehrdimensional Oberbegriffe unterschiedliche Bedeutungen begriffliche Mehrdeutigkeit klären <?page no="132"?> 133 3.3 Semantische Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 133 unterschiedlicher theoretischer Ansätze herauszuarbeiten und die verschiedenen Sprachverwendungen einander gegenüberzustellen. Außerdem sind die alternativen Bedeutungen eines sprachlichen Zeichens gegenüber den Bedeutungen ähnlicher Begriffe abzugrenzen. Das heißt: Es sind hinreichend differenziert die Verwendungsregeln sprachlicher Zeichen (die „semantischen Regeln“) für die untersuchungsrelevanten Gruppen von Sprechern oder Autoren sowie für die untersuchungsrelevanten sprachlichen Kontexte zu rekonstruieren. Und noch eines sollte Ihnen stets bewusst sein: Während Begriffe, die im Anschluss an eine dimensionale Analyse des zu untersuchenden Gegenstandsbereichs den Aspekten der Realität durch Definition zugeordnet werden, immer empirischen Bezug haben (vgl. Kapitel 3.1: „deskriptives Schema“ sowie grundlegend Abschnitt 1.3.2), muss dies bei theoretischen Begriffen nicht so sein. Eine semantische Analyse theoretischer Begriffe zum Zwecke der empirischen Überprüfung von Theorien/ Hypothesen umfasst deshalb zwei Ebenen: a) Es müssen die Bedeutungskomponenten (Bedeutungsdimensionen) herausgearbeitet werden, die dem Begriff im verwendeten theoretischen Zusammenhang (eventuell in alternativen theoretischen Zusammenhängen) zukommen, und es müssen b) die empirischen Sachverhalte bestimmt werden, die diesen Bedeutungsdimensionen entsprechen. Dabei kann sich durchaus herausstellen, dass ein Begriff im theoretischen Zusammenhang zwar von seiner (intensionalen) Bedeutung her eindeutig verwendet wird, dass ihm aber (extensional) überhaupt keine oder doch nur sehr wenige auch empirisch mögliche Sachverhalte entsprechen (überhaupt kein bzw. sehr geringer empirischer Bezug). 108 Das praktische Vorgehen bei der semantischen Analyse ist ähnlich dem der dimensionalen Analyse: Beim Verfahren der dimensionalen Analyse des Untersuchungsgegenstandes folgt auf die Ideen- und Materialsammlung sowie auf die Systematisierung der Befunde die Entscheidung, welche Aspekte des zu untersuchenden Realitätsausschnitts für die Analyse so bedeutsam sind, dass darüber Daten erhoben werden müssen, und welche Aspekte im gegebenen Zusammenhang vernachlässigt werden können (vgl. Kapitel 3.2). Diese Entscheidung ist zu begründen. In vergleichbarer Weise läuft auch die semantische Analyse schrittweise ab: Ideen- und Materialsammlung (über mögliche Bedeutungen und Verwendungskontexte, über Begriffe mit ähnlichen Bedeutungen usw.), Systematisierung (Abgrenzungen und Gegenüberstellungen von Begriffsverwendungen). Anschließend folgt die Entscheidung, welche der ermittelten Bedeutungsdimensionen für die durchzuführende Untersuchung zentral sind und welche im gegebenen Zusammenhang außer Acht gelassen werden können. Auch hier gilt: Jede Entscheidung ist zu begründen. Falls 108 Auf diese „Doppelbedeutung“ von Begriffen unter den Bezeichnungen „Intension“ und „Extension“ wird in Kapitel 3.5 eingegangen. semantische Regeln herausarbeiten Ebenen der semantischen Analyse Bedeutungskomponenten im-sprachlichen Kontext zugehörige empirische Sachverhalte bestimmen Arbeitsschritte der-semantischen Analyse <?page no="133"?> 134 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 134 erforderlich, z. B. wenn ein unterschiedlicher Sprachgebrauch festgestellt wurde, sind die Begriffe präzise zu definieren; d. h. es ist anzugeben, in welcher Bedeutung sie in der nachfolgenden empirischen Untersuchung Verwendung finden. Der Prozess der dimensionalen Analyse eines Untersuchungsgegenstandes endet damit, dass den interessierenden empirischen Sachverhalten geeignete (objektsprachliche) Begriffe zugeordnet werden. Diese Begriffe sollen einerseits den empirischen Gegenstandsbereich in der für sinnvoll gehaltenen Differenzierung beschreiben, andererseits sollen sie aber zugleich auch nach Möglichkeit theoretische Relevanz besitzen, z. B. in existierenden Theorien über den Untersuchungsgegenstand vorkommen. Analog dazu besteht der Schlusspunkt der semantischen Analyse darin, die untersuchungsrelevanten Begriffe mit beobachtbaren Sachverhalten der Realität zu verknüpfen (Festlegung des empirischen Gehalts, empirische Interpretation der Begriffe). Mit anderen Worten: Es ist anzugeben, welche empirische Bedeutung den Begriffen zukommen soll, welche konkreten empirischen „Gegenstände“ mit den sprachlichen Zeichen gemeint sein sollen. Je nach dem Abstraktionsgrad der Begriffe kann deren empirische Interpretation ein mehr oder weniger komplexer Vorgang sein. 3.3.2 Drei Beispiele für semantische Analysen Im folgenden Beispiel soll die Suche nach den Bedeutungen eines theoretischen Begriffs ansatzweise skizziert werden. Dabei ist zu bedenken, dass die präzise Bedeutungsanalyse theoretischer Begriffe im Allgemeinen ein intensives Literaturstudium erfordert. Sinnvollerweise beginnt man mit der Sammlung einer Reihe von Definitionen in verschiedenen Nachschlagewerken und fachbezogenen Handbüchern. So gewinnt man einen ersten Eindruck, auf welchen Dimensionen dem Begriff Bedeutungen zugeschrieben werden. 109 Zugleich wird man dabei bereits Hinweise auf existierende Standardveröffentlichungen zum Thema finden. Danach folgt die Durchsicht der Literatur, die sich mit den infrage stehenden theoretischen Konzepten befasst. Schließlich sind die vorgefundenen Bedeutungskomponenten (Bedeutungsdimensionen) der interessierenden Begriffe zu ordnen, zu präzisieren und gegeneinander abzugrenzen. Das kann natürlich an dieser Stelle nur ansatzweise geleistet und nur exemplarisch dargestellt werden. Der hier als erstes Illustrationsbeispiel gewählte Begriff „Entfremdung“ ist nach einer willkürlich herausgegriffenen Definition (Weigt 1968, 16): „eine Kategorie der marxistischen Philosophie. Wird auch als Entäußerung, Selbstentfremdung, Versachlichung, Verdinglichung bezeichnet. Beschreibt eine historisch-gesellschaftliche Gesamtsituation, in der die Beziehungen zwischen Menschen als Verhältnisse zwi- 109 Machen Sie sich bewusst, dass es bei dieser Sammlung und Durchsicht von Definitionen zunächst darum geht, die Bedeutungsdimensionen zu ermitteln, auf die in den Definitionen Bezug genommen wird. Wenn beispielsweise „Greis“ als „sehr alter Mensch“ definiert wurde, dann ist die Bedeutungsdimension das Merkmal „Alter“ und nicht die Merkmalsausprägung „sehr alt“. 1. Beispiel: Entfremdung <?page no="134"?> 135 3.3 Semantische Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 135 schen Sachen, Dingen erscheinen. Die durch materielle und geistige menschliche Arbeit hervorgebrachten Produkte, gesellschaftlichen Verhältnisse, Institutionen und Ideologien treten den Menschen als fremde, beherrschende Mächte gegenüber.“ E. Mandel (1968) versucht, den Begriff direkt auf die Werke von Karl Marx zurückzuführen, der von der „praktischen Feststellung des Elends der Arbeiter“ ausgegangen sei, d. h. von einem empirischen Sachverhalt. Ihm sei-- nachdem er „die Entfremdung nacheinander auf religiösem-… und auf juridischem Gebiet (das Privatinteresse entfremdet den Menschen von der Gemeinschaft) entdeckt hatte“- - schließlich klar geworden, „dass das Privateigentum eine allgemeine Quelle der Entfremdung darstellt-… Indem er die politische Ökonomie einer systematischen Kritik unterwirft, entdeckt er, dass diese dazu neigt, die gesellschaftlichen Widersprüche, das Elend der Arbeiter, welche in der Erscheinung der entfremdeten Arbeit sozusagen zusammengefasst sind, zu verschleiern“ (Mandel 1968, 156 f.). In der Sicht von Marx werden hier also bereits drei Bedeutungsebenen genannt („Dimensionen“, zu denen der Begriff etwas aussagt), nämlich: einige Gebiete, in denen das Phänomen Entfremdung auftaucht (=-Religion, Recht, Ökonomie), eine allgemeine Erscheinungsform (=- Elend) und eine mögliche Ursache (=- Privateigentum). Die Suche nach den Bedeutungsgehalten des Begriffs Entfremdung bei Marx und bei anderen Autoren, die diesen Begriff im marxistischen Sinn benutzen, müsste natürlich fortgesetzt werden. Das soll hier nicht geschehen, sondern lediglich der Anfang einer solchen Arbeit aufgezeigt werden. Grob zusammengefasst, könnte das Ergebnis so ausfallen: Der nicht entfremdete Mensch verwirklicht sich in der gesellschaftlichen Arbeit, findet sich im Produkt seiner Arbeit wieder; er äußert einen Teil seiner Persönlichkeit darin, ist sozusagen ein Teil des Produkts. Die moderne Produktionsweise stört diese Beziehung: Der Mensch tritt als verdinglicht, als Sache (nämlich als bezahlte, beliebig austauschbare Arbeitskraft) in Erscheinung; Arbeitskraft, Arbeitswerkzeug und Arbeitsprodukt gehören ihm nicht mehr, sondern dem Besitzer der Produktionsmittel. Die Arbeit und ihr Ergebnis werden damit dem Arbeiter entfremdet, treten ihm als feindliche Dinge gegenüber. „Mit der Verwertung der Sachenwelt nimmt die Entwertung der Menschenwelt in direktem Verhältnis zu. Die Arbeit produziert nicht nur Waren: sie produziert sich selbst und den Arbeiter als eine Ware-…“ 110 Damit kein Missverständnis aufkommt: Das geschilderte Zwischenergebnis der semantischen Analyse skizziert, welche Bedeutungen in den ausgewerteten Texten mit dem Denkkonzept „Entfremdung“ verbunden werden. Ob diese Begriffsbedeutung auch eine Entsprechung in der empirischen Welt hat, ist damit noch nicht entschieden. Der theoretischen Bedeutung von Entfremdung würden nach diesem Denk-Konzept auf der empirischen Ebene gesellschaftliche Verhältnisse (etwa Rechtsordnung, Arbeitsbedingungen, Produktionsorganisation, Vermögensverteilung), also „objek- 110 Marx, Karl, 1844: Ökonomisch-philosophische Manuskripte („Pariser Manuskripte“), Abschnitt: entfremdete Arbeit; hier zitiert aus: Fetscher (1966, 76).-- Eine ausführliche „marxistische Analyse der Entfremdung“ hat L. Sêve vorgenommen (1978, Frankfurt/ M.) <?page no="135"?> 136 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 136 tive“ Bedingungen entsprechen, die außerhalb des einzelnen Menschen existieren. Dies ist jedoch nicht die einzige Sichtweise. So stellt etwa Sartre kategorisch fest: „Wir weisen jede irreführende Gleichsetzung des entfremdeten Menschen mit einer Sache, der Entfremdung selbst mit physikalischen, die Bedingungsverhältnisse der äußeren Welt beherrschenden Gesetzlichkeiten strikt ab“ (1964, 74 f.). Und Bottigelli wendet den Begriff vom Objektiven ins Subjektive, wenn er schreibt: Der (entfremdete) „Arbeiter fühlt sich außerhalb der Arbeit frei, und in der Arbeit fühlt er sich unfrei“ (Bottigelli 1969, 8). Sie sehen an diesen Zitaten, dass derselbe Begriff in verschiedenen sprachlichen Kontexten (=- von unterschiedlichen Autoren) in unterschiedlicher Weise benutzt wird. Bei „Entfremdung“ handelt es sich offensichtlich um einen „mehrdeutigen“ Begriff (s. o.). Wollte man durch eine empirische Untersuchung entscheiden, welcher Autor denn nun mit seinen Vorstellungen „empirisch recht hat“, so wäre dies ohne eine grundlegende semantische Klärung des jeweils verwendeten Begriffs „Entfremdung“ nicht möglich. Notwendig wäre zunächst eine dimensionale Auflösung des Bedeutungsspektrums, um einen empirischen Vergleich pro Bedeutungsdimension vornehmen zu können. Um zu illustrieren, wie unterschiedlich das hier als Beispiel gewählte Konzept „verstanden“ werden kann, sei deshalb als zweites Beispiel eine alternative semantische Analyse des Begriffs „Entfremdung“ vorgestellt. Sie stammt von Melvin Seeman und soll verdeutlichen, dass aus unterschiedlicher Interpretation theoretischer Begriffe durchaus unterschiedliche empirische Untersuchungsansätze folgen (können), die auch unterschiedliche Resultate erbringen (können). Der Gedankengang von Seeman (1959, 1972) zielt darauf ab, einen Begriff „Entfremdung“ (alienation) zu erhalten, mit dem empirische Aussagen möglich sind, der also mit empirisch angebbaren Merkmalen korrespondiert. Seine Vorüberlegung: „Entfremdung“ ist etwas nicht direkt Beobachtbares; jedenfalls nicht in der Bedeutung, in der Seeman diesen Begriff auffasst, nämlich als eine „dispositionale Eigenschaft“ von Personen, d. h. eine Eigenschaft, die nicht fortwährend, sondern nur unter bestimmten Situationsbedingungen zum Ausdruck kommt, wie z. B. „Mut“. Der Autor bezieht den Entfremdungsbegriff nicht auf die Sachverhalte, die Marx als Entfremdung beschrieben hat (also auf Dimensionen objektiver Gegebenheiten), sondern er bezieht den Begriff auf die individuellen Erfahrungen dieser Gegebenheiten der Umwelt durch die betroffenen Menschen. Wenn Seeman nun diese-- sagen wir-- „subjektive Entfremdung“ für den Forscher (und auch für den Arbeiter selbst) erfahrbar machen will, dann muss er den Begriff auf erfahrbare Sachverhalte beziehen: Er muss Korrespondenzregeln 111 finden, nach denen aus beobachtbaren Sachverhalten auf die nicht direkt erfahrbare dispositionale Eigenschaft geschlossen werden kann. Dies geschieht, indem Seeman von der Existenz und der sozialen Wirksamkeit 111 Korrespondenzregeln verknüpfen gemeinte Sachverhalte, die nicht unmittelbar wahrnehmbar sind, mit direkt beobachtbaren Phänomenen (vgl. auch Kapitel 2.4.2: Korrespondenzproblem und Kapitel 4.1). 2. Beispiel: alternative Analyse von Entfremdung <?page no="136"?> 137 3.3 Semantische Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 137 einer Verhaltensform ausgeht, die als entfremdetes Verhalten zu bezeichnen ist. Verhalten aber ist erfahrbar: erfragbar, beobachtbar. Durch die Wendung vom Objektiven ins Subjektive wird der Begriff „Entfremdung“ in hohem Maße mehrdimensional: Auf die gleichen Umweltbedingungen können Individuen durchaus in unterschiedlicher Weise reagieren, und sie können unterschiedliche dispositionale Eigenschaften aufbauen. Also kann man sich auch unterschiedliche Typen entfremdeten Verhaltens (unterschiedliche Dimensionen entfremdeten Verhaltens) vorstellen. Die erste Dimension des subjektiven Begriffs von Entfremdung ist für Seeman „powerlessness“ (Machtlosigkeit); sie drückt sich aus in der individuellen Wahrnehmung fehlender Möglichkeiten, Einfluss auf Ereignisse im sozialen und politischen Umfeld auszuüben (Politik, Wirtschaft, Gesellschaft) und dementsprechend in dem Verzicht auf Handlungen, die auf Einflussnahmen in solchen Bereichen gerichtet sind (powerlessness =- fehlende Kontrolle über Wirkungen, Folgen, Ergebnisse in gesellschaftlichen Handlungsbereichen). 112 Die zweite Dimension wird mit „meaninglessness“ bezeichnet (etwa: Orientierungslosigkeit). Der Autor versteht darunter, dass das Individuum sich nicht über gesellschaftliche Handlungszusammenhänge klar ist; dass für ihn die Minimalforderungen an die Transparenz von Entscheidungsprozessen, von denen er betroffen ist, nicht erfüllt sind; dass seine Erwartungen, er könne zufriedenstellende Voraussagen über die Folgen von Handlungen machen, gering sind (meaninglessness =-Unfähigkeit, die Mechanismen von Situationen, denen man selbst zugehört, zu begreifen, zu durchschauen). Die dritte Dimension von Entfremdung ist nach Seeman „normlessness“. Darunter versteht er die Überzeugung einer Person, unter gegebenen gesellschaftlichen Bedingungen sei für sie ein gesetztes Ziel nur über sozial nicht akzeptiertes (unapproved) Verhalten erreichbar; die gesellschaftlich erlaubten Mittel und Wege, individuelle Ziele zu erreichen, scheinen ihr verschlossen. Als vierte Dimension nennt der Autor „value isolation“. Entfremdete Personen messen-- wie Intellektuelle-- solchen Zielen, Werten oder Überzeugungen niedrigen individuellen Belohnungswert zu, die üblicherweise in einer gegebenen Gesellschaft hoch bewertet werden und umgekehrt. Diese Form von Entfremdung rückt das Individuum in die Nähe der Verhaltenskategorie des „Innovators“ (vgl.: die Arbeiterklasse als Avantgarde). Eine fünfte Dimension entfremdeten Daseins wird von Seeman „self-estrangement“ genannt (wörtlich: Selbstentfremdung). Damit ist gemeint: der Grad der Abhängigkeit des aktuellen Verhaltens von antizipierten zukünftigen Belohnungen oder Bestrafungen, und zwar Belohnungen/ Bestrafungen, die außerhalb der Aktivi- 112 Da es sich bei powerlessness um eine Dimension subjektiver Entfremdung handeln soll, müsste es genau heißen „Wahrnehmung unterschiedlicher Grade des Fehlens von Möglichkeiten, Einfluss zu nehmen“. Je stärker also das Fehlen von Einflussmöglichkeiten wahrgenommen wird, desto ausgeprägter die subjektive Entfremdung. Gleiches gilt für die folgenden fünf Dimensionen. <?page no="137"?> 138 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 138 tät selbst und außerhalb des Individuums liegen. Diese Dimension bezieht sich mit anderen Worten auf die Unfähigkeit des Individuums, sich Aktivitäten zuzuwenden, die aus sich selbst heraus belohnenden Charakter haben. Dieser letztere Entfremdungstyp entspricht dem, was in der Sozialpsychologie als der „externalisierte“ Persönlichkeitstyp bezeichnet wird: Das Individuum hat normative Regeln nicht internalisiert (verinnerlicht), sondern orientiert sein Verhalten an den zu erwartenden (externen) Belohnungen und Bestrafungen. Eine sechste Dimension schließlich wird „social isolation“ genannt, womit die niedrige individuelle Erwartung gemeint ist, sozial akzeptiert, anerkannt zu werden. 113 Zu diesem Verfahren des Inbeziehung-Setzens eines theoretischen Begriffs zu erfahrbaren Sachverhalten, aufgrund derer dann auf das Vorliegen oder Nichtvorliegen des theoretisch gemeinten Sachverhalts geschlossen werden kann, ist zweierlei anzumerken: Erstens. Die formulierten Korrespondenzregeln sind selbst wieder Hypothesen; sie können falsch sein. Hier wird z. B. postuliert, dass ein Zustand „subjektiver Entfremdung“ mit bestimmten Verhaltensstilen einer Person korrespondiert. Es ist aber durchaus denkbar, dass für ein Individuum zwar „eigentlich“ ein Zustand subjektiver Entfremdung gegeben ist, dass dieses Individuum aber dennoch (und sei es unter großen psychischen Anstrengungen) in der Lage ist, einen bestimmten Verhaltensstil zu unterdrücken. Zweitens. Dadurch, dass der theoretische Begriff nicht direkt auf Erfahrbares bezogen werden kann, sondern erst „semantisch interpretiert“ werden muss, kann er auf geänderte Bedingungen in geänderten historischen Kontexten angewendet werden (Beispiel: die in sozialpolitischen Diskursen übliche Definition des Begriffs „Armut“) 114 . Im Extremfall kann auf diese Weise aber auch eine Theorie gegen jede empirische Überprüfung, gegen jede empirische Erfahrung immunisiert werden. Wie vorn bereits angemerkt (Kapitel 3.1), fällt es erfahrungsgemäß manchen Studierenden schwer, klar zwischen der (abstrakten) Ebene der Sprache und der (konkreten) Ebene der Realitätsphänomene und Sachverhalte zu trennen. Unversehens wird beim Versuch des Herausarbeitens der Bedeutung eines Begriffs zu Überlegungen über Eigenschaften eines realen Sachverhalts „umgeschaltet“; oder umgekehrt: An die Stelle der Begründung relevanter Eigenschaften eines Gegenstandes wird die Definition eines Begriffs gesetzt. Dies ist auch nicht weiter verwunderlich, wird doch diese Unterscheidung in der Alltagssprache oft verwischt. Für die klare gedankliche Strukturierung des Vorgehens bei der semantischen Analyse ist diese Unterscheidung aber von großer Wichtigkeit. 113 Ähnliche Dimensionen wie in dieser von Melvin Seeman entworfenen semantischen Interpretation von „Entfremdung“ tauchen-- ins Positive gewendet-- in der aktuellen Gesundheitsforschung wieder auf in einem von Aaron Antonovsky in die Diskussion eingebrachten Konstrukt „sense von coherence“; etwas umständlich übersetzbar als „Vertrauen in die Verstehbarkeit, Handhabbarkeit und Sinnhaftigkeit der Anforderungen der internalen und externalen Umwelt und der Auseinandersetzung mit ihnen“ (Beck/ Bonn/ Westermayer 2005, 20). 114 Siehe zu dem Konzept „relative Armut“ Groh-Samberg/ Voges (2014: 38). <?page no="138"?> 139 3.3 Semantische Analyse www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 139 Deshalb sei hier als drittes Beispiel noch die semantische Analyse eines weiteren Begriffs skizziert. Um die generelle Notwendigkeit von Bedeutungsanalysen zu illustrieren, soll er nicht einer sozialwissenschaftlichen Theorie, sondern eher alltäglichem Sprachgebrauch entnommen werden: „Führungskräfte“. In welchem Kontext könnte uns dieser Begriff begegnen? Es könnte z. B. sein, dass Ihnen in der Frankfurter Allgemeinen Zeitung im „Stellenmarkt“ die Anzeige eines Unternehmens auffällt, das „Führungskräfte“ sucht. Oder: Sie lesen in Ihrer Lokalzeitung einen Bericht über einen Verwaltungsgerichtsprozess, in dem es darum geht, ob ein Beklagter aus der öffentlichen Verwaltung Ihrer Gemeinde „Führungsaufgaben“ wahrgenommen hat und daher in besonderer Weise für seine Entscheidungen zur Verantwortung gezogen werden kann. Natürlich könnte es auch sein, dass Sie das Angebot erhalten, in einem Forschungsprojekt mit dem Titel „Der Wandel in der Aufgabenstruktur und in der sozialen Herkunft von Führungskräften in Großunternehmen“ mitzuwirken. In keinem der drei Beispielskontexte geht es diesmal um eine theoretische Argumentation, sondern um Alltagssituationen. Im ersten Fall-- Anzeige in der FAZ-- könnte es für Sie persönlich interessant sein zu wissen, was wohl mit „Führungskräfte“ gemeint ist, falls Sie sich nach Abschluss Ihres Studiums um eine „gute“ Anstellung bemühen und daher entscheiden wollen, ob sich eine Bewerbung um die ausgeschriebene Position für Sie lohnen könnte. Im zweiten Fall ist die Klärung des Begriffs „Führungskraft“ für die beteiligten Juristen ausschlaggebend für die Entscheidung darüber, nach welchen Kriterien das zur Verhandlung stehende Verhalten des Beklagten beurteilt wird. Und im Falle eines (deskriptiven) empirischen Forschungsprojekts über den Wandel der Herkunft und der Aufgabenstruktur von Führungskräften gibt erst die semantische Analyse des Begriffs Auskunft darüber, welche Positionen in den verschiedenen Epochen des Untersuchungszeitraums überhaupt in die Analyse einzubeziehen sind. Vielleicht ist Ihnen schon aufgefallen, dass in diesen verschiedenen Zusammenhängen mit demselben sprachlichen Zeichen „Führungskräfte“ bunt durcheinander zwei grundlegend unterschiedliche Gruppen von Sachverhalten bezeichnet worden sind: nämlich einerseits Positionen, andererseits Personen, die diese Positionen ausfüllen. Die „Aufgabenstruktur von Führungskräften“ bezieht sich offensichtlich auf die Position in der Unternehmensorganisation, die „soziale Herkunft von Führungskräften“ ebenso offensichtlich auf die Personen in Führungspositionen. Desgleichen geht es bei der juristischen Auseinandersetzung um die Konfrontation der (im strittigen Fall geltenden) Aufgabenbeschreibung für Führungspositionen mit den von der beklagten Person faktisch wahrgenommenen Aufgaben. Sie sind damit auf eine semantische Dimension des Begriffs „Führungskräfte“ gestoßen, die man den „Objektbereich“ (oder die „Referenzobjekte“) nennen könnte. Anders ausgedrückt: Der Begriff bezeichnet in der einen Ausprägung dieser Dimension bestimmte Schnittpunkte in der Struktur sozialer Organisationen, die die Sozio- 3. Beispiel: Führungskräfte <?page no="139"?> 140 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 140 logie „Positionen“ nennt. In der anderen Ausprägung dieser Dimension dagegen bezieht sich der Begriff auf Personen, die in solchen Positionen tätig sind. Im alltäglichen Sprachgebrauch wird häufig nicht danach unterschieden, ob die Aussage sich auf das Referenzobjekt „Person“ oder auf das Referenzobjekt „Position“ bezieht. Wollen wir dagegen in einem Forschungsprojekt empirische Daten sammeln, muss dies eindeutig geklärt sein: Geht es um die „erforderlichen Qualifikationen für Führungsaufgaben im Unternehmen“, ist vermutlich der Blick auf die Positionen gerichtet: Welche Aufgaben fallen an welcher Stelle an, und über welche Fertigkeiten und Fähigkeiten muss das dafür benötigte Personal verfügen? Der Gegenstand der Untersuchung ist in diesem Fall die Organisationsstruktur von Unternehmen; empirische Informationen über den Aufgabenbereich von und die Qualifikationsanforderungen an bestimmte Positionen können vielleicht in Satzungen, schriftlichen Anweisungen, arbeitsrechtlichen Vorschriften, Betriebsvereinbarungen, Tarifverträgen oder Aufgabenbeschreibungen in Arbeitsverträgen nachgelesen werden. Geht es um die „Weiterbildung von Führungspersonal“, oder um „Führungskräftetrainings“, können dagegen nur die Personen in Führungspositionen gemeint sein: Nur eine Person kann weitergebildet werden, eine „Position“ kann man nicht zum Fortbildungskurs „Verhaltenstraining“ schicken. Der Gegenstand der Untersuchung ist in diesem Fall das Führungspersonal; empirische Informationen über deren Verhaltensstile, deren Fertigkeiten und Fähigkeiten sowie über deren Einstellung zu und Teilnahme an Weiterbildungsmaßnahmen können z. B. durch Befragung der betroffenen Personen gesammelt werden. Die semantische Analyse wäre natürlich noch weiterzuführen. Innerhalb der oben erwähnten beiden „Zweige“ (Führungspositionen einerseits, Führungspersonen andererseits) sind weitere-- für das Verständnis des mit dem Begriff Gemeinten wichtige-- Dimensionen zu identifizieren. Dabei wäre z. B. auf juristische Texte zurückzugreifen (Regelung von Kompetenzen in Personengesellschaften im BGB, für Aktiengesellschaften im AG-Recht, für GmbHs im GmbH-Gesetz, für leitende Angestellte im Betriebsverfassungsgesetz usw.); darüber hinaus wäre einschlägige Fachliteratur zu Rate zu ziehen. Nach Durchsicht des Literatur- und Forschungsstandes könnte sich vielleicht ergeben, dass vier Bedeutungsdimensionen zu berücksichtigen sind: - Verhaltensdimension: Wodurch unterscheidet sich ein Führungsverhalten von anderen Tätigkeiten? (Leitung von Projekten, Abteilungen, Gruppen; Planung und Entscheidung; Beaufsichtigung der Tätigkeit nachgeordneter Personen usw.) - Kompetenzdimension: Welche Rechte und Pflichten bestehen im Unterschied zu anderen Positionen? (Übernahme von Personal- und Sachverantwortung; Recht zur Einstellung und Entlassung von Personal; Vertretung der Organisation nach außen, Generalvollmacht oder Prokura usw.) - Zuordnungsdimension: Wie ist die Zuordnung zur Organisationshierarchie? (höhere Stellung in der hierarchischen Linienorganisation; Selbstständigkeit in <?page no="140"?> 141 3.4 Zusammenfassung: Semantische Analyse und dimensionale Analyse im Vergleich www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 141 der Stabsorganisation; Träger spezieller Aufgaben von besonderer Wichtigkeit; Zugehörigkeit zu Kontrollgremien usw.) - Qualifikationsdimension: Welche Qualifikationen unterscheiden Führungskräfte von Inhabern anderer Positionen? (höherer Bildungsabschluss, z. B. Universität; Durchsetzungsfähigkeit und Entschlusskraft; besondere Fachqualifikationen; umfassende Berufserfahrungen usw.) Die Analyse kann an dieser Stelle nicht im Detail zu Ende geführt werden. Daher die Empfehlung: Nutzen Sie die bisherige Skizze als Denkanstoß und arbeiten Sie zur Vertiefung Ihres Verständnisses die semantische Analyse noch in weiteren Details aus; ergänzen Sie sie, wenn es sich anbietet, auch um weitere Dimensionen. 3.4 Zusammenfassung: Semantische Analyse und dimensionale Analyse im Vergleich Beide Aufgaben- - dimensionale Analyse (der Struktur eines Gegenstandsbereichs) und semantische Analyse (der Bedeutung eines Begriffs)-- haben gemeinsam, dass ein zunächst noch unterbestimmter Sachverhalt gedanklich strukturiert und begrifflich präzisiert werden soll. Richtet sich der Blick auf einen empirisch existierenden oder gedanklich vorgestellten Gegenstandsbereich, dann sind die Eigenschaftsdimensionen dieses „Gegenstands“ von Interesse. Bei einem physikalischen Gegenstand könnte das sein: das Material, aus dem er besteht, seine Form, Festigkeit, Größe, sein Gewicht usw.; bei Personen etwa: Alter, Geschlecht, Bildung, Beruf, Familienstand usw.; bei Organisationen etwa: Organisationsziele, Struktur, Zahl der Mitglieder usw. Ist der Ausgangspunkt ein sprachliches Zeichen (ein „Begriff“), dann geht das Interesse dahin, zu erkunden, was dieser Begriff „bedeutet“, d. h. wen oder was er „bezeichnet“ 115 und nach welchen (semantischen) Regeln bei der Anwendung dieses Begriffs auf die „Realität“ entschieden werden kann, ob ein Sachverhalt unter das mit dem Begriff „Gemeinte“ fällt. Rufen Sie sich für die Überlegungen in diesem Zusammenhang immer wieder ins Bewusstsein: Ein „Gegenstand“ ist etwas real oder ideell Existierendes und hat individuelle Ausprägungen auf bestimmten Eigenschaftsdimensionen. Ein bestimmtes, „real existierendes“ Auto weist etwa die Ausprägung „rot“ bei der Eigenschaftsdimension „Farbe“, die Ausprägung „150 km/ h“ bei der Eigenschaftsdimension „Höchstgeschwindigkeit“, die Ausprägung „15.000 €“ bei der Eigenschaftsdimension „Preis“ auf usw. Demgegenüber ist ein „Begriff“ ein sprachliches Zeichen für eine gedankliche Vorstellung von einer Klasse von „gleichartigen“ Sachverhalten oder Gegenständen. Dabei ist es irrelevant, ob es sich bei den „vorgestellten“ Sachverhalten bzw. Gegen- 115 Zur Erinnerung: Die Semantik ist die Lehre von der Bedeutung sprachlicher Zeichen. gemeinsam: Zusammenhang Begriff-Sachverhalt dimensionale Analyse: Eigenschaftsdimensionen eines Sachverhalts semantische Analyse: vom Begriff bezeichnete Sachverhalte <?page no="141"?> 142 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 142 ständen um reale oder um fiktive Sachverhalte/ Gegenstände handelt. 116 Die gedankliche Vorstellung „Auto“ meint also kein bestimmtes Automobil, sondern eine „Klasse von Gegenständen“ mit gleichartiger Funktion und von im Wesentlichen gleichartiger Erscheinungsform. Der Begriff „Auto“ hat etwa eine Bedeutung auf einer semantischen Dimension „Funktion des Gegenstands“ und weist hier die Ausprägung „Fortbewegungsmittel auf dem Lande“ auf (Gegenstände, die der Fortbewegung in der Luft dienen, bezeichnen wir mit anderen Begriffen: z. B. Flugzeug, Ballon, Hubschrauber). Der Begriff „Auto“ hat auch eine Bedeutung auf einer Dimension, die wir vielleicht mit „Art des Gegenstandes“ bezeichnen könnten und wo die Ausprägung „technisches Artefakt“ lauten könnte, sowie auf einer Dimension „Art des Antriebs“ mit der Ausprägung „Motor“ usw. 117 Er hat dagegen keinerlei Bedeutung auf den oben für den Gegenstand „Auto“ genannten Dimensionen Farbe, Höchstgeschwindigkeit, Preis. Ob ein Gegenstand gelb, schwarz oder blau-weiß-kariert ist, ob er schnell oder nur relativ langsam fahren kann, ob der Preis niedrig oder hoch ist-- wir werden diesem Gegenstand die Bezeichnung „Auto“ nicht verwehren, wenn er die „richtigen“ Ausprägungen auf denjenigen Dimensionen aufweist, die für unsere Vorstellung von der Gegenstandsklasse „Automobil“ relevant sind. 118 Nach diesen Vorüberlegungen lassen sich auch die folgenden Eckpunkte einer semantischen Analyse nachzuvollziehen (s. Abbildung 3.2): Die semantische Strukturierungsarbeit geht aus vom sprachlichen Zeichen und seiner Verwendung in verschiedenen sprachlichen Kontexten. Sie findet ihren Abschluss in der systematisierten semantischen Interpretation des interessierenden sprachlichen Zeichens sowie gegebenenfalls seiner Abgrenzung gegenüber bedeutungsähnlichen Begriffen. Daran schließt sich im Falle eines empirischen Forschungsprojekts die Festlegung der präzisen Bedeutung des Begriffs für den Zweck dieses Projekts an (falls notwendig: durch ausdrückliche Definition) sowie die Verknüpfung des sprachlichen Zeichens mit denjenigen Realitätsaspekten, über die in diesem Projekt Daten erhoben werden sollen (vgl. Kap. 4: Operationalisierung). Bei einer dimensionalen Analyse ist die Abfolge der Arbeitsschritte entgegengesetzt: Am Anfang steht die gedankliche Strukturierung des Gegenstandsbereichs, gefolgt von der Entscheidung, welche Gegenstandsdimensionen untersuchungsrelevant sein sollen. In einem Denkmodell werden sodann die möglichen Zusammenhänge zwischen diesen „relevanten“ Dimensionen dargestellt (vgl. etwa in Kapitel 3.2, Abbil- 116 Im ersteren Fall handelt es sich um einen Begriff mit empirischem Bezug, im zweiten Fall um einen solchen ohne empirischen Bezug. 117 Zur Denkübung: Wie könnte die Dimension bezeichnet werden, zu der die Ausprägung „mindestens drei Räder“ lautet? 118 Genauer: Der Begriff ist die „Abstraktion einer Gegenstandsklasse“. Um die mit dem Begriff gemeinte Vorstellung weitervermitteln zu können, benötigen wir noch einen „Bedeutungsträger“. Das könnte in unserem Beispiel die abstrakt gezeichnete Skizze (neudeutsch: „icon“) eines Automobils sein, ist im Allgemeinen jedoch ein sprachliches Zeichen: ein Wort. Das deutsche Wort „Auto“ können wir auch gegen das englische Wort „motor car“ austauschen, ohne dass sich am Begriff „Auto“ etwas ändert. semantische Strukturierungsarbeit Begriff-- Bedeutungsgehalt-- Verknüpfung mit Realitätsaspekten Realitätsaspekt-- Dimensionen-- Dimensionsbezeichnung <?page no="142"?> 143 3.4 Zusammenfassung: Semantische Analyse und dimensionale Analyse im Vergleich www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 143 dung 3.1 das „Feldschema Massenkommunikation“). Natürlich sind die Überlegungen über den Gegenstandsbereich ohne das Instrument Sprache nicht kommunikationsfähig. Daher müssen die untersuchungsrelevanten Gegenstandsdimensionen mit geeigneten Begriffen bezeichnet werden, und daher ist auch das Denkmodell über Zusammenhänge zwischen den Dimensionen in die Form forschungsleitender Hypothesen zu gießen. 119 Wo wir nicht auf allgemein eingeführte und in der wissenschaftlichen Disziplin eindeutig verwendete Begriffe zurückgreifen können, müssen wir unter Umständen die für die Untersuchung geeigneten Begriffe explizit durch Definition neu einführen. Genau genommen geht also in der Phase der Ausformulierung des deskriptiven 119 Prinzipiell wären für manche Gegenstandsbereiche zwar auch rein zeichnerisch-ikonische Darstellungen möglich (denken Sie z. B. an Modellzeichnungen von Architekten); aber besonders praktisch wäre dies für sozialwissenschaftliche Fragestellungen sicher nicht. Verbindung dimensionale Analyse-- semantische Analyse Selektion der „relevanten“ Aspekte („Beobachtungsdimensionen“) → Kriterien für die Relevanzentscheidungen begründen DIMENSIONALE ANALYSE SEMANTISCHE ANALYSE empirischer Gegenstandsbereich → Ideensammlung → Systematisierung ggf. Explikation der Beziehungen zwischen den relevanten Dimensionen → „Modell“ des Gegenstands → forschungsleitende Hypothesen Verknüpfung der relevanten empirischen Aspekte mit sprachlichen Zeichen; ggf. Denition der Begrie → „adäquate“ Begrie → deskriptives Schema → theoretische Relevanz der Begrie → Kriterien für Begriswahl Aussagen über empirische Sachverhalte Begrie → sprachlicher Kontext → Sprachkontext Klärung der Bedeutung der Begrie → Sammlung von Bedeutungen und Bedeutungsdimensionen → Systematisierung → Gegenüberstellung zu ähnlichen Begrien Selektion der untersuchungsrelevanten Bedeutungen → Kriterien für die Selektion → ggf. Denition Verknüpfung der Begrie mit beobachtbaren Realitätsaspekten → Festlegung des empirischen Gehalts → empirische Interpretation Quelle: Eigene Darstellung. Abbildung 3.2: Arbeitsschritte der dimensionalen und der semantischen Analyse <?page no="143"?> 144 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 144 Schemas die dimensionale Analyse in die semantische Analyse über; denn nur mit ihrer Hilfe ist entscheidbar, ob Begriffe existieren, die für unsere Gegenstandsüberlegungen passen und zugleich hinreichend eindeutig verwendet werden. 3.5 Begriffe und Definitionen Bereits bei der Einführung der wissenschaftstheoretischen Grundbegriffe (vgl. Kapitel 1) haben wir darauf hingewiesen, dass empirische Sozialforscher über weite Strecken ihres Tuns das Instrument Sprache in präziser und systematischer Weise handhaben müssen: - Ihre Vermutungen über die real existierende Welt haben sie unter Einhaltung spezifischer Regeln zu formulieren (empirischer Bezug der verwendeten Begriffe wie der gesamten Aussagen, prinzipielle empirische Widerlegbarkeit der Aussagen, logisch widerspruchsfreie Systematisierung von Hypothesen zu einer Theorie). - Bei der empirischen Prüfung lassen sich die Hypothesen nicht unmittelbar mit der Realität konfrontieren, sondern lediglich mit empirisch gewonnenen Aussagen über beobachtbare Ereignisse oder Sachverhalte in der Realität (Beobachtungsaussagen bzw. Protokollsätze; vgl. „Basissatzproblem“). Innerhalb der Hypothesen werden vorrangig verallgemeinernde, abstrahierende Begriffe verwendet, denen meist nicht unmittelbar beobachtbare Sachverhalte oder Ereignisse in der Realität entsprechen (theoretische Sprache). In den Beobachtungsaussagen (Protokollsätzen) nutzt man dagegen Begriffe, denen immer unmittelbar beobachtbare Sachverhalte oder Ereignisse in der Realität entsprechen (Beobachtungssprache). Die beiden Sprachebenen-- theoretische und Beobachtungssprache-- müssen für die Zwecke der Datenerhebung ebenso wie für die Rückinterpretation der in den empirischen Daten enthaltenen Informationen auf regelgeleitete und kontrollierbare Weise miteinander in Beziehung gesetzt werden. In den Ausführungen zur dimensionalen und zur semantischen Analyse kam dieser Punkt schon zur Sprache. Die entsprechenden methodischen Regeln dieses In-Beziehung-Setzens der Theoriezur Beobachtungsebene werden unter dem Stichwort „Operationalisierung“ im nächsten Kapitel noch im Einzelnen behandelt und vertieft. Es dürfte also bis zu dieser Stelle deutlich geworden sein, dass auch empirische Sozialforscher über einige der in den Sprachwissenschaften entwickelten Techniken und Konzepte verfügen müssen. Die Wissenschaft von der Sprache, von der Funktion sprachlicher Zeichen, wird Semiotik genannt. Ihr Arbeitsfeld ist üblicherweise unterteilt in Syntaktik, Semantik und Pragmatik. - Die Syntaktik handelt von den Beziehungen der Zeichen untereinander (z. B. Grammatik, Zeichensetzung). - Die Semantik befasst sich mit den Beziehungen zwischen den sprachlichen Zeichen und ihren Bedeutungen, d. h. mit der Relation zwischen sprachlichen Zeichen und den damit bezeichneten Sachverhalten (den „Referenzobjekten“). präzise Sprache Regeln für Hypothesen Basissatzproblem Beziehung von theoretischer und Beobachtungssprache Syntaktik Semantik <?page no="144"?> 145 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 145 - Die Pragmatik schließlich handelt von den Beziehungen zwischen Zeichen und Menschen; sie untersucht z. B. den unterschiedlichen Sprachgebrauch bei verschiedenen Personen oder Gruppen (vgl. vorn: „mehrdeutige“ Begriffe). Wissenschaftliche Erkenntnisse werden unter Verwendung von Symbolsystemen 120 weitergegeben und diskursiv (in argumentativer Auseinandersetzung im Kreis der Wissenschaftler oder zwischen Wissenschaft und Anwendern) auf ihre Haltbarkeit geprüft, „kritisiert“ (vgl. Kapitel 1). Sollen wissenschaftliche Erkenntnisse „kritisierbar“, „intersubjektiv nachprüfbar“ sein, muss die verwendete Sprache zwei Funktionen in möglichst optimaler Weise erfüllen: die Repräsentanz- und die Kommunikationsfunktion. Repräsentanzfunktion der Sprache heißt, dass die Begriffe in eindeutiger Weise die gemeinten Sachverhalte (Referenzobjekte) repräsentieren. Daraus folgt zum einen, dass die Sprache differenziert genug sein muss, um die Struktur des Untersuchungsgegenstandes-- wie sie von der Wissenschaftlerin oder dem Wissenschaftler gesehen wird-- exakt abzubilden. So kommt es, dass jede Wissenschaft sich ihren Satz von ganz spezifischen Fachausdrücken schafft (fachspezifische wissenschaftliche Terminologie). Aus der Forderung nach optimaler Erfüllung der Repräsentanzfunktion folgt für die verwendeten Begriffe weiter, dass ihnen durch präzise Definitionen eindeutige Bedeutungen zuzuweisen sind. In teilweisem Widerspruch zur Repräsentanzfunktion der Sprache steht ihre Kommunikationsfunktion. Wissenschaft ist nicht Sache eines Einzelnen, sondern ist auf die Kommunikation zwischen den am Wissenschaftsprozess beteiligten Personen sowie zwischen Wissenschaft und anderen Adressaten (z. B. interessierten Laien, Anwendern) angewiesen. Um die Kommunikationsfunktion zu erfüllen, muss die von den Wissenschaftlern gewählte Sprache daher von möglichst vielen Personen „richtig“ verstanden werden. Soweit es sich bei den Kommunikationspartnern um Angehörige der gleichen wissenschaftlichen Fachrichtung handelt, erfüllen die spezifischen Fachtermini nicht nur die Repräsentanz-, sondern in idealer Weise auch die Kommunikationsfunktion. Schon für Angehörige anderer wissenschaftlicher Fachrichtungen aber- - und erst recht für interessierte Laien- - kann es sich bei solchen Fachtermini um eine kaum noch verstehbare Fremdsprache handeln. Die Wissenschaftlerinnen und Wissenschaftler werden also in ihren Forschungsberichten darauf achten müssen, welches die Zielgruppe ihrer Mitteilungen ist. Bei Veröffentlichungen außerhalb von wissenschaftlichen Fachbuchreihen oder Fachzeitschriften ist entweder eine alltagsnähere Sprache (möglicherweise unter Inkaufnahme von Ungenauigkeiten) zu wählen oder sind zumindest die Fachtermini jeweils zu erläutern. Bevor wir nun im Folgenden (Abschn. 3.5.1 bis 3.5.3) auf weitere Funktionen von Begriffen eingehen und Verfahren zu ihrer Definition vorstellen, sollen zunächst noch einige der dabei vorkommenden Ausdrücke erläutert werden, um das Durcharbeiten des Textes zu erleichtern. 120 Das ist vor allem die Sprache, in den Naturwissenschaften im Allgemeinen ergänzt um mathematische Symbole und Strukturformeln. Pragmatik Anforderung an-Sprache Repräsentanzfunktion Forderung nach-präzisen Definitionen Kommunikationsfunktion Fachsprache und-alltagsnähere Sprache <?page no="145"?> 146 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 146 Begriffe sind sprachliche Zeichen (Wörter), die nach bestimmten Regeln (semantische Regeln, Bedeutungszuweisungen) mit Phänomenen der Realität oder gedanklichen Vorstellungen verbunden sind: 121 Diese Verbindung zwischen sprachlichem Zeichen und dem damit Gemeinten kann man extensional und intensional vornehmen. Unter Extension (Begriffsumfang) versteht man die Menge aller Objekte, die mit einem Begriff bezeichnet werden sollen (z. B. Extension des Begriffs „Haus“ =-die Menge aller Häuser, die es irgendwo und irgendwann gibt, gegeben hat oder geben wird). Mit Intension (Begriffsinhalt) ist die Menge aller Merkmale gemeint, die den mit einem Begriff bezeichneten Objekten gemeinsam sind (z. B. Intension des Begriffs „Haus“ =- die Menge aller Merkmale, die ein Objekt besitzen muss, damit wir es als Haus akzeptieren). Begriffe, deren Extension empirische Objekte umfasst (die sich also nicht nur auf gedanklich vorgestellte Sachverhalte beziehen), haben empirischen Bezug. Der empirische Bezug kann direkt sein; dann sind die mit einem Begriff bezeichneten Objekte/ Merkmale unmittelbar oder unter Zuhilfenahme von Instrumenten beobachtbar (z. B. sind Eiweiß-Moleküle durch ein Mikroskop beobachtbar). Der empirische Bezug kann aber auch indirekt sein; dann sind die bezeichneten Objekte/ Merkmale nicht unmittelbar feststellbar, auch nicht mit Hilfe von Instrumenten. Auf ihr Vorhandensein muss vielmehr aus der Beobachtung anderer, direkt feststellbarer Objekte/ Merkmale („Indikatoren“) geschlossen werden. Nehmen wir z. B. „Geiz“ als dispositionales Merkmal, als Charaktereigenschaft einer Person: Das Vorliegen oder Nichtvorliegen dieses-- als solches nicht beobachtbaren-- Merkmals wird durch das faktische Verhalten dieser Person in bestimmten Situationen angezeigt, „indiziert“. Trotzdem: Mit dem Begriff „Geiz“ meinen wir eben nicht das beobachtbare Verhalten, sondern eine Charaktereigenschaft, die sich lediglich in einem spezifischen Verhalten äußert. Fassen wir zusammen: Wir waren in den methodologischen Überlegungen so weit gediehen, dass wir-- ausgehend von einer Forschungsfrage-- nach der Präzisierung 121 Zur Erinnerung: Die Gleichsetzung von „Begriff“ mit sprachlichem Zeichen plus Bedeutung ist eine aus unserer Alltagspraxis begründete Vereinfachung. Genauer besehen ist ein Begriff ein mentales Modell: die gedankliche Abstraktion einer Gegenstandsklasse (vgl. Fußnote 118). Um diese kommunizierbar zu machen, benutzen wir in Alltag und Wissenschaft überwiegend sprachliche Zeichen als Bedeutungsträger. extensionale Verbindung: Referenzobjekte intensionale Verbindung: gemeinsame Merkmale direkter empirischer Bezug indirekter empirischer Bezug Designata (Objekte, Merkmale) Begri sprachliches Zeichen (Wort) semantische Regeln (Bedeutungzuweisungen) Quelle: Eigene Darstellung. Abbildung 3.3: Definition von „Begriff“. <?page no="146"?> 147 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 147 der Problemstellung eine dimensionale Analyse des Gegenstandsbereichs und/ oder eine Bedeutungsanalyse mehrdeutiger Begriffe vorgenommen haben. D. h. im Falle einer deskriptiven Analyse haben wir uns umfassend Gedanken gemacht über die möglichen Zusammenhänge innerhalb des zu untersuchenden Gegenstandsbereichs, über die zu unterscheidenden „relevanten Dimensionen“ des Sachverhalts. Jetzt müssen wir zweckentsprechende Begriffe finden, die 1) eine der Problemstellung gemäße Differenzierung des Gegenstandsbereichs zulassen und die 2) auch potenziell theoretisch relevant sind. Oder wir haben (speziell im Falle der Hypothesen- oder Theorieprüfung) eine Bedeutungsanalyse der verwendeten theoretischen Begriffe vorgenommen, um abzuschätzen, in welcher Weise sie sich auf konkrete empirische Sachverhalte beziehen lassen. In beiden Fällen ist es nötig, die beabsichtigte Benutzung der Begriffe so präzise zu beschreiben (d. h. sie zu „definieren“), dass unsere Argumentation intersubjektiv nachvollziehbar wird. Damit soll zum einen sichergestellt werden, dass zweifelsfrei klar ist, welche Sachverhalte und/ oder Aspekte in die Untersuchung einbezogen werden und welche nicht (s. o. Repräsentanzfunktion der Sprache). Dabei sind zum anderen die Begriffe so zu wählen, dass die an den Forschungsbefunden Interessierten (insbesondere die Zielgruppe des Projekts) die empirischen Ergebnisse und deren Interpretationen ohne schwierige „Übersetzungsleistungen“ nachvollziehen können (s. o. Kommunikationsfunktion). Was genau bedeutet nun der bisher schon so oft benutzte Terminus „Definition“? Ganz generell sind Definitionen Verknüpfungen zwischen sprachlichen Zeichen nach bestimmten Regeln. Definitionen sind also nicht Verknüpfungen zwischen Zeichen und „Sachverhalten“ nach Korrespondenzregeln. 122 „Definitorische Aussagen werden dazu verwendet, den wissenschaftlichen Sprachgebrauch festzulegen. Sie sind also Mittel der Festsetzung von Verwendungsregeln für Ausdrücke der Wissenschaftssprache“ (Albert 1973, 73). Die Gesamtheit der Ausdrücke der Wissenschaftssprache (Termini) stellt die spezifische Terminologie einer wissenschaftlichen Disziplin dar, sie ist-- vor allen Methoden wie Befragung, Test, Beobachtung usw.-- deren „Grundwerkzeug“ (Heller/ Rosemann 1974, 19). An der grafischen Darstellung des Konzepts „Begriff“ (Abbildung 3.3) können Sie sich nun auch veranschaulichen, was eine „Definition“ ist: Eine Definition ist die Verknüpfung zwischen sprachlichen Zeichen nach bestimmten Regeln. Sie ist a) die Beschreibung (oder Auflistung) der „semantischen Regeln“ für die Verwendung des „Begriffs“ sowie b) die Zuordnung eines sprachlichen Symbols (Wort), mit dem dieser Begriff „bezeichnet“ werden soll. 122 Verknüpfungen zwischen Zeichen und empirischen Sachverhalten werden zwar häufig- - etwas irreführend-- als „operationale Definitionen“ bezeichnet. Im strengen Sinne handelt es sich jedoch nicht um Definitionen, sondern- - im Sprachgebrauch von Bunge (1967)- - um Referitionen. Definition zur intersubjektiven Nachvollziehbarkeit <?page no="147"?> 148 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 148 3.5.1 Nominaldefinition 1: Voraussetzungen Da es unterschiedliche Auffassungen über Art und Funktion von Definitionen gibt, sei hier zunächst von der in den Erfahrungswissenschaften üblichen Form des Definierens, der Nominaldefinition ausgegangen. Eine Nominaldefinition ist die Festlegung der Bedeutung eines Begriffs (des Definiendums) durch einen bereits bekannten Begriff oder durch mehrere bereits bekannte andere Begriffe (Definiens). Definitionen sind konventionelle-- d. h. per Vereinbarung getroffene-- Festlegungen der Bedeutung sprachlicher Zeichen (Giesen/ Schmid 1976, 33; vgl. auch Opp 1976, 189 ff.). Eine Nominaldefinition ist also formal nichts weiter als eine tautologische Umformung; das Definiendum ist bedeutungsgleich, ist identisch mit dem Definiens. Mit anderen Worten: Bei der Nominaldefinition geht man davon aus, dass zwei Zeichen oder Ausdrücke (Definiendum und Definiens) dieselbe Bedeutung haben, sich auf dieselben Gegenstände der Realität (auf dieselben Referenzobjekte) beziehen lassen. Das impliziert zugleich, dass eine solche definitorische Beziehung zwischen zwei Ausdrücken keinen empirischen Bedingungszusammenhang zwischen verschiedenen Gegenständen, sondern eine logische Relation zwischen Ausdrücken und Zeichen unserer Sprache darstellt. Schreibweise: Definiendum: = df.: Definiens A = df.: B, C, D Damit Definitionen in dieser Form möglich sind, müssen bereits einige Begriffe existieren, die undefiniert eine präzise Bedeutung haben (Voraussetzung also: gemeinsame Sprache, gemeinsamer kultureller Hintergrund). In jede Definition gehen notwendigerweise undefinierte Begriffe ein, die in ihrer Bedeutung als bekannt vorausgesetzt werden: Das Definiendum als „Unbekanntes“ wird durch Bekanntes im Definiens erläutert. Für die Theoriebildung auf der Grundlage nominaldefinierter Begriffe heißt dies, dass im Idealfall eine möglichst kleine Gruppe außerlogischer Termini 123 zu finden ist (=-ursprüngliche oder einfache Begriffe), aus denen mit Hilfe verschiedener Kombinationen untereinander und durch Verknüpfung mittels logi- 123 „Außerlogische“ Begriffe sind solche, die eine Bedeutung in der empirischen oder in der Vorstellungswelt haben (wie: ‚Tier‘, ‚Automobil‘, ‚Wind‘, ‚Idee‘, ‚Hölle‘ etc.), positiv formuliert kann man sie auch als sinntragende Begriffe bezeichnen. „Logische“ (hier besser: „sprachlogische“) Termini dagegen haben die Funktion, solche Gegenstandsbegriffe zu verknüpfen, damit daraus eine Aussagestruktur entsteht (wie: ‚und‘, ‚oder‘, ‚nicht‘, ‚das‘, ‚wenn‘ etc.). Nominaldefinition VERTIEFUNG Nominaldefinition: logische Relation zwischen Ausdrücken unbekannte durch bekannte Begriffe festlegen <?page no="148"?> 149 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 149 scher Termini alle anderen außerlogischen Begriffe der Theorie definiert werden können (=-abgeleitete Begriffe) (Zetterberg 1973, 113). Nominaldefinitionen haben keinen empirischen Informationsgehalt. Dennoch sind sie weder überflüssig noch Selbstzweck; denn sie sollen die Mitteilung und die Diskussion in der Wissenschaft erleichtern. Sie sollen vor allem die intersubjektive Kontrolle des empirischen Forschungsprozesses ermöglichen. Was nicht präzise definiert ist, kann auch nicht eindeutig nachvollzogen und nachgeprüft werden. Nominaldefinitionen sind ein geeignetes Instrument, Begriffe exakt und unmissverständlich auf die Bedürfnisse eines Forschungsprojektes zuzuschneiden. 3.5.2 Begriffe und Begriffsarten: Funktionen, theoretischer und-empirischer Bezug von Begriffen An dieser Stelle sei noch einmal eine Aussage aus Kapitel 1 aufgegriffen, wonach auch für den Fall deskriptiver Untersuchungen die Begriffe, mit denen die Realität strukturiert wird, „theoretisch relevant“ sein sollten. Warum? Dass es offensichtlich sinnlos und für den Fortschritt einer Wissenschaft nutzlos ist, nicht weiter verwertbare Datenfriedhöfe mit „rein“ deskriptiven Untersuchungen zu produzieren, ist nur die eine Seite. Die andere ist, dass durch Begriffe der Gegenstandsbereich der Forschung erst strukturiert wird. Begriffe haben insofern die Funktion, aus der Fülle von Merkmalen eines Gegenstandsbereichs diejenigen Aspekte herauszufiltern, die im gegebenen Zusammenhang als relevant angesehen werden, und die übrigen Aspekte als für den gegebenen Zusammenhang irrelevant außer Acht zu lassen (Selektivität von Begriffen). Mit anderen Worten: Ein Begriff erfasst niemals alle Merkmale eines Gegenstands oder Sachverhalts, sonst müsste für jeden individuellen Gegenstand oder Sachverhalt eine spezielle Bezeichnung (ein Name) gefunden werden. Vielmehr treten bestimmte Eigenschaften und Beziehungen ins Blickfeld, andere bleiben unberücksichtigt. Entsprechend legt ein Begriff, und mehr noch die jeweilige Gesamtheit der wissenschaftlichen Begriffe, die Terminologie bestimmte Fragestellungen nahe und blendet andere aus. Diese Selektivität kann nicht willkürlich geschehen, sondern sie muss von einem Vorverständnis, von-- zumindest-- Alltagstheorien über die Struktur des mit dem Begriff zu bezeichnenden Gegenstandsbereichs ausgehen. Nehmen wir ein so einfaches Wort wie „Tisch“, so verstehen wir darunter ganz selbstverständlich die Bezeichnung für einen Gegenstand, der in der Regel nicht zum Sitzen konstruiert wurde, der im allgemeinen eine waagerechte Platte auf vier „Füßen“ oder einem meist senkrechten Ständer aufweist usw. Welche Merkmale uns auch noch einfallen mögen; es wird jedenfalls eine Liste von relativ wenigen Merkmalen sein, die wir zur Entscheidung benötigen, ob ein Gegenstand Tisch ist oder Nicht-Tisch. Und es zeigt sich an den vagen Merkmalsformulierungen wie „im Allgemeinen eine waagerechte Platte“, dass „Tisch“ von seiner Funktion und nicht so sehr von seiner Erscheinung her definiert wurde, Eigenschaften von-Nominaldefinitionen Strukturierung des-Gegenstandsbereichs durch Begriffe Selektivität von-Begriffen BEISPIEL <?page no="149"?> 150 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 150 dass also von der Verwendungsmöglichkeit oder der tatsächlichen Verwendung her entschieden wird, ob etwas als Tisch gilt oder nicht. Das setzt aber voraus, dass wir eine „Alltagstheorie“ besitzen, für welche Zwecke in der Regel ein Tisch verwendet wird und welche Eigenschaften ein Gegenstand besitzen muss, damit er als Tisch geeignet ist. Nicht der Gegenstand als solcher setzt seine Definition als „Tisch“ fest, sondern unsere Art der Nutzung. Deshalb werden wir auch Eigenschaften wie Farbe, Form der waagerechten Tischplatte oder ob aus Metall oder Holz oder Glas bestehend oder ob mit vier oder drei Beinen oder einem einzigen im Fußboden verankerten Ständer versehen usw. als im gegebenen Zusammenhang (nämlich für die Entscheidung, ob Tisch oder Nicht-Tisch) irrelevant außer Acht lassen; irrelevant, weil wir aus unserer „Theorie“ wissen, dass z. B. die Farbe für die Verwendungsfähigkeit eines Gegenstands als Tisch unerheblich ist. Wir bilden durch Begriffe also die jeweils relevanten, die Einzelerscheinung übergreifenden, allgemeinen Eigenschaften eines Gegenstandsbereichs ab. Dazu benötigen wir eine „Theorie“ über den Realitätsausschnitt, den wir mit solchen notwendigerweise verallgemeinernden Begriffen auf gedanklicher Ebene strukturieren wollen. Je besser, je verlässlicher die Theorie, nach der wir den Gegenstandsbereich strukturieren, desto präziser werden die Beschreibungen; und umgekehrt: Je präziser die Beschreibungen, desto besser werden wir unsere Theorie über den Gegenstandsbereich formulieren können. Deshalb sind wir bei jeder Begriffsbildung nicht nur auf eine vorab vorhandene Theorie angewiesen, sondern formulieren zusätzlich die Forderung: Auch die für deskriptive Zwecke verwendeten Begriffe sollen so definiert werden, dass sie theoretisch verwertbar sind; nur dann sind die Ergebnisse der Beobachtungen auf die „Vorab-Theorie“ beziehbar. 124 Wenn ein Begriff vorhanden und seine Bedeutung entweder aufgrund des allgemeinen Sprachgebrauchs oder explizit durch Definition klar ist, erlaubt uns dieser Begriff, aus der Vielfalt von Gegenständen Klassen identischer Fälle zu bilden. Bei genauem Hinsehen erweisen sich allerdings die Elemente dieser Klassen als gar nicht identisch; sie sind vielmehr identisch lediglich im Hinblick auf eine begrenzte Zahl von Merkmalen und können hinsichtlich sämtlicher anderer möglicher Merkmale unterschiedlich sein (vgl. das Beispiel „Tisch“). Man nennt dies die Klassifikationsfunktion von Begriffen. 125 Begriffe ermöglichen es aber nicht nur, Gegenstände zu klassifizieren. Durch die Auswahl und Definition von Begriffen wird zusätzlich entschieden, welche unserer verschiedenen Beobachtungen zusammengehören, welche Daten und welche Sinnes- 124 Zum Verständnis dieser Überlegungen kann es hilfreich sein, wenn Sie sich die Argumente von Kapitel 3.3 (semantische Analyse) noch einmal vor Augen führen. 125 Dieser Aspekt wird in Kapitel 5.2.2 mit der Einführung einer Unterscheidung nach klassifikatorischen, komparativen und metrischen Begriffen weitergeführt. Theorie zur Strukturierung des Gegenstandsbereichs theoretisch verwertbare Begriffe Klassifikationsfunktion von Begriffen <?page no="150"?> 151 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 151 eindrücke nicht als Informationen über isolierte Phänomene, sondern als „ganzheitlicher Komplex“ behandelt werden sollen. Nehmen wir den Begriff „Wettbewerb“, so fasst dieser die Aktivitäten mindestens zweier Personen zusammen, falls zusätzliche Bedingungen erfüllt sind, nämlich: dass die Aktivitäten der Personen auf das gleiche Ziel gerichtet sind, dass es sich bei diesem Ziel um ein knappes Gut handelt (etwa Geld bei wirtschaftlichem Wettbewerb oder der Sieg bei sportlichem Wettbewerb) und dass jeder der „Wettbewerber“ weiß, dass mindestens eine andere Person das gleiche Ziel verfolgt, ihr das knappe Gut also streitig machen könnte. Das heißt, die Aktivitäten von mindestens zwei Personen werden nicht als getrennte Ereignisse gesehen, sondern als eine Einheit aufgefasst und unter einem einzigen Begriff subsumiert. Formuliert man weniger einschränkende Bedingungen, welche Aktivitäten zu einem zusammenhängenden Komplex zusammengefasst werden sollen, kommt man beispielsweise zum soziologischen Begriff der „Interaktion“. 126 In beiden Fällen („Wettbewerb“ und „Interaktion“) werden Ereignisse, die prinzipiell auch isoliert betrachtet werden können, zu einer Einheit zusammengefasst und mit einem speziellen Begriff bezeichnet. Man nennt dies die Synthesefunktion von Begriffen. Ob die durch die Wahl des Begriffs vorgenommene Klassifikation und evtl. Synthese von Sachverhalten zweckmäßig ist, hängt von der zu behandelnden Fragestellung ab. Im wirtschaftlichen Bereich wird ein Begriff wie „Wettbewerb“ sicher zweckmäßig sein; bei anderen Fragestellungen wird vielleicht der Begriff „Interaktion“ zweckmäßiger sein, so dass „Wettbewerb“ als Teilklasse aller Interaktionen erscheint. In anderem Zusammenhang wiederum mag „Interaktion“ eine Strukturierung vornehmen, die zu grob ist, und man wird eventuell einen spezielleren Begriff wie „Kommunikation“ für eine andere Teilklasse von Interaktionen und die damit vorgenommene Strukturierung des Gegenstandsbereichs vorziehen. Begriffe sind Kategorien (oder Abstraktionsklassen) von Sachverhalten, Ereignissen, Ideen etc., die unter einem bestimmten Gesichtspunkt als identisch betrachtet und behandelt werden. Begriffe „konstituieren“ die Wirklichkeit aus der Sicht des Sprechers. 127 126 Interaktion =-df. gegenseitiges, aneinander orientiertes Handeln mindestens zweier Personen. 127 Manche Autoren bleiben bei dem bisher verfolgten Gedankengang nicht stehen und führen zunächst noch den Ausdruck „Prädikator“ ein, worunter ein spezifisches sprachliches Symbol zu verstehen ist, mit dem der gedanklich abgegrenzte Realitätsausschnitt bezeichnet wird (hier z. B. „Tisch“ oder „Interaktion“). Der identische Realitätsausschnitt kann mit unterschiedlichen Prädikatoren bezeichnet werden: An die Stelle von „Tisch“ tritt z. B. in der englischen Sprache der Prädikator „table“. „Begriffe“ sind aus dieser Sicht erst die „Abstraktionsklassen synonymer Prädikatoren“ (Friedrich/ Hennig 1975, 75). Diese für manche Zwecke sicher sinnvolle Differenzierung greift der vorliegende Text nicht auf. Hier wird unter „Begriff“ ein sprachliches Zeichen und dessen Bedeutung verstanden. BEISPIEL Synthesefunktion von Begriffen Ziel: zweckmäßige Klassifkation <?page no="151"?> 152 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 152 Begriffsbildung und Begriffsdefinition sind ein wichtiger Abschnitt von zentraler Bedeutung in jeder Untersuchung. Werden Definitionsmerkmale unzweckmäßig gewählt, können wesentliche Beziehungen in der Realität verschleiert, „wegdefiniert“ werden. „Soziale Schicht“ sei definiert durch eine Kombination von Merkmalen der sozialen Herkunft, der eigenen Bildung, des Berufsprestiges und des Einkommens. Wenn man dies tut, dann werden damit alle Beziehungen „wegdefiniert“, die sich in Hypothesen ausdrücken könnten, wie: Je höher der Status des Elternhauses, desto höher die Bildung der Kinder und deren späteres Berufsprestige sowie deren Einkommen (vgl. Kapitel 3.2). Setzt sich ein bestimmter Sprachgebrauch auf der Grundlage begrifflicher Strukturierung der sozialen Realität durch, dann können auch bestimmte Fragestellungen nicht mehr aufgeworfen werden, weil sie in der Sprache nicht vorgesehen sind. Nochmals zum Theoriegehalt und zum empirischen Bezug von Begriffen: Die unterschiedlichen Grade an Theoriegehalt sowie die Art des empirischen Bezugs werden in einer Unterscheidung deutlich, die A. Kaplan vorgenommen hat. Er klassifiziert Begriffe in direkte und indirekte Beobachtungstermini, Konstrukte und theoretische Begriffe. Zumindest die Unterscheidung zwischen direkten Beobachtungstermini und den nur indirekt beobachtbaren Sachverhalten ist für die empirische Sozialforschung von zentraler Bedeutung. Nach Kaplan (1964, 54 ff.) bietet sich folgende Einteilung an: a) Direkte Beobachtungstermini (observational terms): Diese lassen sich aufgrund relativ einfacher und direkter Beobachtungen anwenden (Beispiele: Einkauf, Spaziergang, Familie, Arbeitsgruppe, Alter, Geschlecht, Klausurteilnehmer, Papagei). Man nennt solche Begriffe mit direktem empirischem Bezug auch empirische oder deskriptive Begriffe. b) Indirekte Beobachtungstermini (indirect observables): Diese können nur mit Hilfe einer Kombination von Beobachtung und Schlussfolgerung angewendet werden. Die bezeichneten Tatbestände sind nicht direkt beobachtbar. Die Begriffe haben einen indirekten empirischen Bezug. Man benötigt direkt erfahrbare Indikatoren, die auf das Vorliegen oder Nichtvorliegen des durch den Begriff gemeinten Sachverhalts hindeuten. (Beispiele: „Norm“: Indikator =- Belohnung/ Bestrafung bestimmter Verhaltensweisen; „Erreichbarkeit“: Indikator =- Fußweg in Minuten oder Entfernung in km; „Sozialstatus“: Indikatoren =- Berufsprestige und/ oder Bildung und/ oder Einkommen und/ oder Ansehen des Wohngebiets und/ oder materieller Besitz etc.). c) Konstrukte (constructs): Sie werden weder aufgrund direkter noch aufgrund indirekter Beobachtungen angewendet, sind aber aufgrund von Beobachtungen BEISPIEL Theoriegehalt von-Begriffen VERTIEFUNG direkte Beobachtungstermini indirekte Beobachtungstermini Konstrukte <?page no="152"?> 153 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 153 definiert; sie „konstruieren“ eine bestimmte Sicht auf die Realität (Beispiel: „soziale Mobilität“ =-df. Ergebnis des Vergleichs des sozialen Status der gleichen Person zu verschiedenen Zeitpunkten). d) Theoretische Begriffe (theoretical terms): Sie haben „theoretischen Gehalt“, beziehen sich u. a. auf Zusammenhänge zwischen einzelnen Variablen (Beispiel: „Urbanismus“: Es wird das gleichzeitige Vorhandensein einer ganzen Reihe von Eigenschaften und Erscheinungen unterstellt, z. B. städtischer Lebensstil mit Merkmalen wie Anonymität, geringe soziale Kontrolle, Beschränkung enger sozialer Beziehungen auf einen Kern von Verwandten und Freunden, besondere Kommunikationsformen etc.; weiteres Beispiel: „soziales System“). Mit Ausnahme von a) sind für die Entscheidung über das Vorliegen der mit den Begriffen bezeichneten Tatbestände Indikatoren erforderlich. 3.5.3 Nominaldefinition 2: Eigenschaften Zurück zu den Eingangsüberlegungen zur Nominaldefinition (Abschnitt 3.5.1). Nach Auffassung der „Schule“ des Begriffsnominalismus sind Begriffe etwas dem bezeichneten Phänomen gegenüber Äußeres; der Zusammenhang von Begriff und Gegenstand ist rein konventioneller, also vereinbarungsgemäßer Art. Begriffe sind lediglich ein prinzipiell auswechselbares Etikett. Auch der Zusammenhang von Definiens und Definiendum ist veränderbar. Die nominalistische Maxime für Begriffsbestimmungen, für Definitionen lautet: Jedes Wort kann verschiedene Bedeutungen tragen (Homogramme, Homonyme), und jede Bedeutung kann durch verschiedene Wörter repräsentiert werden (Synonyme). Begriffe spielen die Rolle des „Wegweisers“ zur Wirklichkeit; sie leuchten denjenigen Teil der Wirklichkeit aus, auf den sie gerichtet sind. Diese Funktion wird umso besser erfüllt, je stärker zwei Bedingungen beachtet werden: Präzision und empirischer Bezug. Beispiele für die Nominaldefinition von „politische Partei“ (lies: Definition der Zeichenfolge „politische Partei“, die jetzt noch bedeutungsleer ist): Eine politische Partei (P) soll sein: (=-df.) eine Organisation (O) mit eingeschriebenen Mitgliedern (M) und demokratischer Binnenstruktur (dB), die an Wahlkämpfen teilnimmt (W) und sich um Regierungsbeteiligung bewirbt (R). Oder: P 1 =-df. O, M, dB, W, R. 128 128 „P 1 “, weil prinzipiell beliebig viele Definitionen möglich sind. theoretische Begriffe Nominaldefinition als Vereinbarung BEISPIEL <?page no="153"?> 154 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 154 Damit ist explizit, präzise und erschöpfend bestimmt, was als politische Partei gelten soll. Gegen diese Definition kann man höchstens einwenden, sie sei unzweckmäßig, weil sie z. B. zu viele Vereinigungen ausschließt, die aus bestimmten Gründen auch in eine Untersuchung über politische Parteien einbezogen werden sollten. Ein anderer Forscher könnte deshalb definieren: P 2 =-df. O, M, dB. Oder ein dritter: P 3 =-df.: O, M, W, R. Oder ein vierter: P 4 =-df.: O, M, R. Oder ein fünfter: P 5 =-df.: O, M, R, V. 129 Jeder dieser so definierten Begriffe verbindet mit der gleichen Zeichenkombination „politische Partei“ eine andere Gesamtheit von empirischen Phänomenen, strukturiert also den Gegenstandsbereich in anderer Weise, zieht andere Grenzen. Hieran wird die Klassifikationsfunktion von Begriffen recht deutlich: Jeder der so definierten Begriffe P 1 bis P 5 klassifiziert die Gesamtheit der „Organisationen“ in anderer Weise als Partei oder als Nicht-Partei. Aber auch: Mit der gleichen Wortkombination „politische Partei“ werden andere Bedeutungen verbunden. Nach diesen Vorüberlegungen lassen sich Nominaldefinitionen genauer bestimmen. Nominaldefinitionen sind Aussagen über die Gleichheit der extensionalen und intensionalen Bedeutung zweier oder mehrerer Begriffe. „Ein zu definierendes sprachliches Zeichen (Definiendum) wird mit einem definierenden Zeichen (Definiens) gleichgesetzt. Knüpft diese Gleichsetzung an einen vorhandenen Sprachgebrauch an, spricht man von einer deskriptiven, schafft sie erst einen neuen Sprachgebrauch, von einer stipulativen Nominaldefinition“ (Esser/ Klenovits/ Zehnpfennig 1977, Bd. 1, 79). Intension (intensionale Bedeutung) des nominalistisch definierten Begriffs heißt also im gegebenen Fall: die Menge der Eigenschaften, die herangezogen worden sind, um „politische Partei“ von anderen Organisationen abzugrenzen (im Falle der Definition P 5 sind dies: O, M, R, V; dagegen werden zur Entscheidung, ob ein Objekt eine „politische Partei“ im Sinne von P 1 ist, die Eigenschaften O, M, dB, W, R-- aber nur diese-- berücksichtigt). Um dagegen die Extension (extensionale Bedeutung) des nominalistischen Begriffs „politische Partei“ anzugeben, wäre eine Liste erforderlich, auf der die Menge aller Objekte verzeichnet ist, die als „politische Partei“ gelten sollen. 130 Im Falle der Defi- 129 „V“ soll hier heißen: verfolgt keine verfassungsfeindlichen Ziele. 130 Der Wahlzettel zu einer Bundestagswahl, auf der alle kandidierenden Parteien aufgelistet sind, wäre für eine Definition P 6 =-df.: O, M, W das extensionale Pendant zum Zeitpunkt dieser Wahl. Definition: Nominaldefinition Intension: Menge herangezogener Eigenschaften Extension: Menge aller Referenzobjekte <?page no="154"?> 155 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 155 nition P 1 wären dies alle Organisationen, die die Eigenschaften O, M, dB, W, R besitzen. Die Extension von P 1 etwa ist vermutlich geringer als die von P 4 , da P 1 sämtliche Eigenschaften von P 4 einschließt (O, M, R) und zusätzlich noch zwei weitere (dB, W) enthält; P 1 führt mehr definitorische Bedingungen ein, die eine Organisation erfüllen muss, um als „politische Partei“ zu gelten. Der Vorzug nominalistischer Definitionen ist deren Präzision. Das Definiendum bedeutet genau das, was im Definiens steht, nicht mehr und nicht weniger. Der Nachteil dieser Beliebigkeit der Begriffsbildung liegt in der mangelnden Möglichkeit des Vergleichs von Forschungsergebnissen, die aufgrund unterschiedlicher Definitionen gewonnen wurden. Aussagen, die für politische Parteien =-df. P 1 gelten, beziehen sich auf einen anderen Gegenstandsbereich als Aussagen über politische Parteien =-df. P 2 , und zwar wegen der unterschiedlichen Extension (wegen des unterschiedlichen „Begriffsumfangs“) von P 1 und P 2 . Identisch sind lediglich die verwendeten Worte. Empirische Regelmäßigkeiten, die für den Gegenstandsbereich P 1 zutreffen, müssen deshalb nicht in gleicher Weise auch für die Gegenstandsbereiche P 2 , P 3 , P 4 oder P 5 zutreffen. Eine weitere Eigenschaft von Nominaldefinitionen ist, dass eine Nominaldefinition niemals falsch sein kann; denn sie macht keine Aussagen über die Eigenschaften der Realität. Sie legt lediglich fest, welche Eigenschaften ein empirischer Gegenstand oder Sachverhalt aufweisen muss, um unter die Menge der Gegenstände oder Sachverhalte zu fallen, die mit der Definition begrifflich abgegrenzt worden sind. 131 Aus dem gleichen Grunde kann eine Nominaldefinition auch niemals „richtig“ sein. Das Beurteilungskriterium Falschheit/ Richtigkeit trifft auf Nominaldefinitionen nicht zu; stattdessen ist nach ihrer Zweckmäßigkeit zu fragen. Nominaldefinitionen sind Klassifikationsvorschriften; sie sind Anweisungen an die Beobachter: Nur Tatbestände, die die folgenden Bedingungen erfüllen, sollen mit dem Begriff (z. B. „politische Partei“) bezeichnet werden; allen anderen Tatbeständen soll dieser Begriff nicht zugeschrieben werden (=-Nicht-P). Im Extremfall könnte es so sein, dass empirisch überhaupt kein Tatbestand die im Definiens aufgeführte Eigenschaftskombination besitzt und somit der definierte Begriff überhaupt keine Entsprechung in der Realität hätte (Extension =-null: alle Objekte fallen unter die Kategorie Nicht-P). Auch damit wäre die Definition nicht „falsch“, sie wäre allerdings völlig unbrauchbar: die Klassifikationsvorschrift wäre derart, dass sich überhaupt nichts in unterschiedliche Klassen einteilen ließe. 131 Nominaldefinitionen werden deshalb verschiedentlich auch „festsetzende Definitionen“ genannt. Die „Festsetzung“ muss jedoch für eine Untersuchung nicht endgültigen Charakter haben. Gerade wenn Begriffe-- insbesondere bei deskriptiven Studien-- die Rolle eines „Wegweisers“ zur Realität erfüllen, oder „sensibilisierend“ für die Analyse wirken sollen, kann sich im Laufe des Forschungsprozesses eine gegenüber der Anfangsdefinition modifizierte Begriffsfassung als angemessener erweisen. Vorteil: Präzision Nachteil: Beliebigkeit Nominaldefinition ist niemals falsch Nominaldefinition ist niemals richtig Nominaldefinition ist Klassifikationsvorschrift <?page no="155"?> 156 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 156 Dieser Zweckmäßigkeitsgesichtspunkt sei an einem konkreten Beispiel illustriert: Das Institut für Museumskunde in Berlin erhebt jährlich durch schriftliche Befragung die Besuchszahlen in Museen. Dazu benötigt es eine für den Zweck „Erhebung“ brauchbare und operational handhabbare Definition, die eine eindeutige Entscheidung ermöglicht, an welche Einrichtungen der Fragebogen zu verschicken ist und an welche nicht. Gesucht sind also (semantische) Regeln, um museale von anderen kulturellen Einrichtungen abzugrenzen. Das Institut für Museumskunde nennt seinen Definitionsvorschlag daher „Abgrenzungsdefinition“. Damit Sie sich davon ein eigenes Bild machen können, wird der diesbezügliche Text des Instituts hier vollständig zitiert: 132 „Um eine annähernd repräsentative Erhebung vornehmen zu können, ist die Kenntnis des Umfangs und der Struktur der Gesamtheit aller musealen Einrichtungen, der ‚statistischen Grundgesamtheit‘ notwendig. Zur Bestimmung der Gesamtheit aller musealen Einrichtungen muss der Museumsbegriff festgelegt bzw. definiert werden, d. h. es muss ein Kriterienkatalog aufgestellt werden, anhand dessen eindeutig entscheidbar ist, ob eine bestimmte Institution als museale Einrichtung anzusehen und somit in die statistische Grundgesamtheit aufzunehmen ist oder nicht. Bei der hier vorgestellten Abgrenzungsdefinition fehlen allerdings wesentliche Elemente einer allgemeinen Museumsdefinition 133 wie z. B. die Beschreibung von Funktionen, Aufgabenstellungen, Einbindungen und Verknüpfungen in bzw. mit anderen Kulturorganisationen. Bei unserer Definition geht es lediglich um eine empirisch fassbare Abgrenzung gegenüber anderen Einrichtungen, die eine größtmögliche Trennschärfe aufweist. Keinesfalls bestimmt das Institut für Museumskunde damit, welche Einrichtungen als Museen anerkannt werden sollen. Dies ist allein Aufgabe der Museumsverbände und -ämter in den einzelnen Bundesländern.“ Die Kriterien der Abgrenzungsdefinition zur Auswahl von Museen und Museumseinrichtungen waren: Merkmale Abgrenzungen Vorhandensein einer Sammlung und Ausstellung von Objekten mit kultureller, historischer oder allgemein wissenschaftlicher Zielsetzung Info-Bereiche der Wirtschaft, Schlösser und Denkmäler ohne Ausstellungsgut, Bauwerke unter Denkmalschutz (Kirchen und andere Sakralbauten) Zugänglichkeit für die allgemeine Öffentlichkeit Fachmessen, Privatgalerien ohne regelmäßige Öffnungszeiten Überwiegend keine kommerzielle Aufgabenstellung Privatgalerien, Läden mit Ausstellungsflächen, Kunstgewerbemarkt klare Eingrenzung des Museumsbereiches Bildhauer-Symposien, Kunst am Bau, städtebauliche Ensembles 132 Quelle: Materialien aus dem Institut für Museumskunde, Heft 23/ 1988, Berlin, 26 f. 133 Siehe z. B. die Definition „Was ist ein Museum“ des Deutschen Museumsbundes e. V. in: Museumskunde 1978 (n. F.), Bd. 43, Heft 2 (Umschlag) BEISPIEL <?page no="156"?> 157 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 157 Zur Erläuterung: In der Spalte „Merkmale“ finden Sie diejenigen Eigenschaften aufgelistet, die der Nominaldefinition von „Museen und Museumseinrichtungen“ dienen. Der Gesichtspunkt der Zweckmäßigkeit dieser Definition für die beabsichtigte Verwendung als Abgrenzungsregel für die Erhebung von Besuchszahlen wird insbesondere am letzten Merkmal („klare Eingrenzung des Museumsbereiches“) deutlich. Damit werden beispielsweise Freilichtmuseen ohne verschließbare Umzäunung aus der Betrachtung ebenso ausgeschlossen wie etwa Kulturdenkmäler mit musealem Charakter, falls sie frei zugänglich sind. Dies geschieht nicht, um diese Einrichtungen zu diskreditieren, sondern aus der Überlegung heraus, dass in diesen Fällen Besuchszahlen nicht ermittelbar sind, also der Versand von Fragebögen überflüssig ist. In der Spalte „Abgrenzungen“ finden Sie dagegen keine Definitionsmerkmale, sondern operationale Vorschriften in Form von Negativ-Beispielen („Was gehört nicht dazu? “). Dies geschieht, weil die jeweiligen Definitionsmerkmale nicht so trennscharf sind, dass allein aufgrund ihrer Formulierung alle Zweifelsfragen ausgeschlossen werden. Dennoch muss-- und kann im gegebenen Kontext-- zusätzlich ein bestimmtes generelles Vorverständnis darüber unterstellt werden, was ein Museum „eigentlich“ ist. Andernfalls wäre es mit der vorgeschlagenen Abgrenzungsdefinition trotz der erläuternden operationalen Hinweise durchaus vereinbar, etwa wissenschaftliche Bibliotheken oder Zoologische Gärten den „musealen Einrichtungen“ zuzuschlagen. Zur Übung: Bitte prüfen Sie diese Behauptung anhand des zitierten Textes! 3.5.4 Realdefinitionen Grundsätzlich anders als die Auffassung des Begriffsnominalismus ist die Auffassung des Begriffsrealismus. Wiederum sehr verkürzt dargestellt, kann man sagen: Der Begriffsrealismus betrachtet Begriffe als unmittelbare Widerspiegelung der Erscheinung. Natürlich- - welchem Gegenstand welches sprachliche Zeichen zugeordnet wird, das ist gesellschaftliche Konvention. Aber: Es ist nicht in das Belieben des einzelnen „Definierers“ gestellt, welche Facetten des Gegenstandes mit einem Begriff hervorgehoben und welche außer Acht gelassen werden. Der Begriff strukturiert nicht den Gegenstandsbereich, sondern er zeichnet die Struktur des Gegenstandsbereichs nach. Der Begriff wird geprägt durch die Eigenschaften des Gegenstandsbereichs selbst; er bildet auf der Ebene der Sprache „das Wesen“ (weniger anspruchsvoll: das Wesentliche) des Gegenstands/ Objekts ab. Was aber an einem Sachverhalt wesentlich ist, hängt nach diesem Verständnis vom bezeichneten Sachverhalt ab und nicht von der Willkür desjenigen, der einen Begriff definiert. Begriffsrealismus <?page no="157"?> 158 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 158 Die Realdefinition ist eine Aussage über Eigenschaften eines Gegenstands oder Sachverhalts, die im Hinblick auf diesen Gegenstand/ Sachverhalt für wesentlich gehalten werden. Die Realdefinition ist also nicht-- wie bei der Nominaldefinition-- im Hinblick auf eine an den Gegenstand/ Sachverhalt herangetragene Fragestellung festgelegt. 134 Realdefinitionen sind Behauptungen über die Beschaffenheit oder über das „Wesen“ eines Phänomens und haben damit den gleichen Status wie empirische Hypothesen: sie müssen sich an der Realität des bezeichneten Phänomens bewähren, und sie können richtig oder falsch sein. Heißt jetzt das Definiendum- - das zu Definierende- - „politische Partei“, dann stehen im Definiens Eigenschaften, die das Wesentliche des Phänomens „politische Partei“ (P) zum Ausdruck bringen sollen. Das Phänomen selbst und dessen Eigenschaften sind durch die Definition zu erschließen. Es soll also nicht für die Zwecke der Kommunikation ein bestimmter Sprachgebrauch hier und jetzt lediglich vereinbart werden. Vielmehr wird vorausgesetzt, dass es den zu definierenden Begriff mit seinem gegenstandsbezogenen Vorstellungsinhalt bereits gibt. Anders ausgedrückt: Die Klassifikation in P und Nicht-P existiert bereits; in der Definition sind nun diejenigen Eigenschaften aufzulisten, die es erlauben, korrekt zwischen P und Nicht-P zu unterscheiden. Der Unterschied im sprachlogischen Status von Real- und Nominaldefinition drückt sich bereits in den Formulierungen aus, die im Zusammenhang mit den beiden Definitionstypen gewählt werden. Bei einer Nominaldefinition wird immer deutlich gemacht, dass „per Definition“ einem Definiendum bestimmte Eigenschaften zugeschrieben werden: „P 1 =- df. O, M, dB, W, R.“ Oder verbal: „Unter einer politischen Partei soll verstanden werden-…“ Oder: „Wenn im Folgenden von politischer Partei die Rede ist, dann ist damit gemeint-…“ oder: „Ich definiere für die vorliegende Untersuchung politische Partei wie folgt: -…“ Bei einer Realdefinition dagegen würde es heißen: „Eine politische Partei ist O, M, dB, W, R.“ Oder: „Als das Besondere einer politischen Partei sind die folgenden Merkmale anzusehen: -…“ Oder: „Wesentlich für politische Parteien sind die Merkmale: -…“ Solche Unterscheidungen schon bei der Schreibweise und bei der Wahl der verwendeten Wörter sind-- wie Opp (1976, 95) hervorhebt-- durchaus nicht „ein überflüssiges Produkt pedantischer Logiker“. Ohne eine klare Kennzeichnung des Definitionstyps könnten Unklarheiten darüber entstehen, ob lediglich ein Vorschlag über 134 Neben Nominal- und Realdefinitionen kann man auch noch die operationale Definition von Begriffen finden. Hierbei geschieht die Bedeutungszuweisung durch die Angabe von Mess-Operationen. Beispiel: „Härte“ (von Materialien) =-df. Material A ist härter als Material B, wenn Material B von A geritzt werden kann, aber nicht Material A von B. Diese Art von Definition darf nicht verwechselt werden mit der „Operationalisierung“, die erforderlich ist, um einen bereits definierten Begriff empirisch anwendbar zu machen (siehe Kapitel 4). Behauptung über das Wesen eines Sachverhalts Realdefinitionen beschreiben existente Unterscheidungen Kennzeichnung des Definitionstyps <?page no="158"?> 159 3.5 Begriffe und Definitionen www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 159 die präzise Verwendung eines bestimmten Ausdrucks gemacht wird (Nominaldefinition) oder ob etwas über die Realität ausgesagt werden soll. Wird bei einer Nominaldefinition von „politischer Partei“ der Beobachter mit einer Organisation konfrontiert, die zwar nach allgemeiner Überzeugung als politische Partei einzustufen wäre, die aber mindestens eines der Definitionsmerkmale nicht aufweist, dann ist die Konsequenz: Diese Organisation fällt nicht in die Menge der als politische Partei definierten Organisationen und wird nicht in die Untersuchung einbezogen. Falls diese Konsequenz als nicht sinnvoll erscheint, ist die Definition nicht etwa falsch, sondern unzweckmäßig. Handelte es sich dagegen um eine Realdefinition von politischer Partei, dann ist die Konsequenz eine andere: Die Definition ist falsch, sie muss geändert werden. Nehmen wir an, die Einschätzung werde allgemein akzeptiert: Die NPD ist eine politische Partei. Nehmen wir ferner an, es sei empirisch wahr, dass die NPD keine demokratische Binnenstruktur aufweist. Dann stimmt in der Realdefinition „P ist O, M, dB, W, R“ ein Bestandteil nicht: Wir haben eine politische Partei gefunden, die keine demokratische Binnenstruktur aufweist. „Demokratische Binnenstruktur“ ist also offenbar keine Eigenschaft, die „das Wesen“ einer politischen Partei ausmacht. Wenn man weiter davon ausgeht, dass auch eine staatliche Einheitspartei eine politische Partei ist, dann trifft für diese empirisch nicht zu, dass sie sich im Wahlkampf um Regierungsbeteiligung bewirbt; eine Wahl in einem Staat mit nur einer Einheitspartei hat eine andere Funktion als in einem Staat mit konkurrierenden politischen Parteien, nämlich: Bestimmung der Repräsentanten dieser Partei für die Regierungsorgane. Wenn dies so ist, dann ist aber auch die Eigenschaft „sich in Wahlkämpfen um Regierungsbeteiligung bewerben“ nicht ein „wesentliches“ Bestimmungsmerkmal politischer Parteien. Die Realdefinition wäre dann auch in dieser Hinsicht falsch. Und so könnte es im Prinzip jedem der anderen genannten Definitionsmerkmale ergehen. Da die Realdefinition etwas aussagt über den Gegenstand, so wie er unabhängig von dieser Definition schon existiert und nicht erst durch die Definition konstruiert und strukturiert wird, kann sie in vielfacher Hinsicht empirisch falsch sein. Realdefinitionen können aber nicht nur falsch sein, sie können praktisch auch niemals vollständig sein. Man kann unmöglich sämtliche Eigenschaften, die ein bereits bekannter Gegenstand hat, in die Definition aufnehmen. Anspruch und Ziel von Realdefinitionen ist es ja gerade, nur „das Wesentliche“ hervorzuheben. Aber das, was wirklich wesentlich ist-- nicht was vereinbarungsgemäß als wesentlich erachtet werden soll--, kann nicht mit letzter Sicherheit bestimmt werden. In unterschiedlichen historischen Epochen können jeweils andere Aspekte eines Phänomens wesentlich sein (man denke etwa an den Wandel der Bedeutung von „Familie“). Unter Realdefinition versteht man die Angabe des „Wesens“ der Sache, die mit dem zu definierenden Begriff bezeichnet wird. Das Definiendum (z. B. P) soll durch unterschiedliche Konsequenz BEISPIEL Realdefinitionen sind niemals vollständig <?page no="159"?> 160 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 160 bestimmte Eigenschaften (z. B. O, M, dB, W, R) definiert werden, weil diese „wesentliche“ Merkmale des bezeichneten Phänomens- - hier: P- - darstellen; oder anders ausgedrückt: weil diese Eigenschaften unabdingbare Kriterien darstellen, nach denen wir das gemeinte Phänomen von anderen Sachverhalten abgrenzen können. Letztlich bleibt allerdings- - wegen der Unklarheit des Begriffs „Wesen“- - die Bedeutung von „Realdefinition“ recht vage; es bleibt unbestimmt, was denn, um die gleiche Terminologie zu verwenden, „das Wesen der Realdefinition“ ausmacht. So arbeitet beispielsweise Hempel (1974, 17 ff.) drei mögliche Bedeutungen des Begriffs „Realdefinition“ heraus-- analytische Definition oder Bedeutungsanalyse, empirische Analyse, Begriffsexplikation--, die mit den Ausführungen dieses Abschnitts nur teilweise übereinstimmen. Als wichtiger Merkposten bleibt festzuhalten: Intersubjektive Überprüfbarkeit des Forschungsprozesses setzt präzise Definitionen voraus. Diese sollten üblicherweise die Form von Nominaldefinitionen haben: „Wir verstehen unter x einen Gegenstand mit den Eigenschaften E 1 bis E n .“ Die für die Nominaldefinition notwendige gedankliche Ordnung des Gegenstandsbereichs erhält man durch die dimensionale Analyse des Gegenstandsbereichs; bei theorietestenden Untersuchungen ähnelt die semantische Analyse der Bedeutungsdimensionen theoretischer Begriffe in ihrem Vorgehen dem Verfahren der Realdefinition. Allerdings wird dabei im Anschluss an die semantische Analyse deren Ergebnis in Form einer Nominaldefinition für den Geltungsbereich der Untersuchung festgeschrieben. Notwendig ist, dass am Ende eine präzise Definition der verwendeten Begriffe steht, die operationalisierbar ist (siehe das folgende Kapitel). 3.6 Annotationen aus der Perspektive qualitativinterpretativer Methoden Die Vorstellung einer „Übersetzung“ des Forschungsproblems aus der Theorie in die Empirie ist allen Formen qualitativ-interpretativen Forschens fremd. Typisch ist hier eher die Idee der Entwicklung und Konkretisierung des Forschungsproblems in einem zyklischen Prozess zwischen Vorwissen (sei es wissenschaftlich oder auch alltagspraktisch) und dem empirischen Feld, auf das sich das Forschungsinteresse richtet bzw. in dem das Forschungsproblem seinen Ausgangspunkt hat. Es ist daher für den Verlauf qualitativer Studien durchaus nicht untypisch, dass die schlussendlich durch die Untersuchung beantwortete Forschungsfrage mehr oder weniger deutlich von der Ausgangsfrage oder -problemstellung abweicht, weil sich z. B. Teilbereiche der Ausgangsproblematik als eher uninteressant erweisen oder weil im Kontakt mit dem Untersuchungsbereich Phänomene sichtbar und thematisch wurden, die ex ante nicht bekannt sein konnten. Insofern als der Bezug auf theoretisches Vorwissen in der qualitativen Forschung nicht in der Form des Tests von Ex-ante-Hypothesen erfolgt, sondern Theorie in Form „sensibilisierender Konzepte“ (Blumer 1954) fortlaufend in den Forschungspro- Realdefinition unklares Konzept präzisie Definition für intersubjektive Überprüfbarkeit <?page no="160"?> 161 3.6 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 161 zess integriert wird, spielen daher explizite dimensionale oder semantische Analysen (vgl. Kapitel 3.1) keine bedeutende Rolle in der Anlage der Untersuchung. Da der empirische Objektbereich von vornherein als immer auch sprachlich konstituiert aufgefasst wird, muss die dimensionale Analyse hier als fortwährend sowohl in der Alltagspraxis als auch in der qualitativen Analyse geleistet verstanden werden. Alles Erkennen, auch das alltägliche, erfordert Unterscheidungen. Diese beziehen sich zwar auf unsere Erfahrungen in der Welt, werden aber im Raum des Begrifflichen geleistet. Im qualitativ-empirischen Zugang auf ausgewählte Teilbereiche der Sozialwelt erfolgt der Prozess des Dimensionalisierens systematischer als im Alltag, aber- - im Unterschied zur standardisierten Sozialforschung-- als fortwährender Prozess. Deshalb stellt sich das erwähnte Problem der Irreversibilität (vgl. Kapitel 1.2.4) hier nicht. Wesentlich wichtiger für das Theorie-Empirie-Verhältnis qualitativer Studien ist die Frage der Anschlussfähigkeit theoretischer Ergebnisse der empirischen Studie an den Stand der im Fach etablierten Theoriebildung. Das Problem besteht hier darin, dass qualitativ-interpretative Theoriebildung wesentlich auf eine systematische Theoretisierung der Spezifik der untersuchten Phänomene abzielt, etwa: die Lebenswelt des Drogenmilieus im Frankfurter Bahnhofsmilieu. Die dabei entwickelte Theoriesprache könnte nun mit vorgängigen Theorien aus den Bereichen Drogensucht, Milieu- oder Devianzforschung in Konflikt geraten. Dies nicht in dem Sinne, dass neue und den alten Theorien widersprechende Befunde formuliert werden-- das wäre sinnvoller und wünschenswerter wissenschaftlicher Wettbewerb- -, sondern indem die gewählten Begriffe zwar von vorgängigen Theorien abweichen, im Wesentlichen aber Gleiches bezeichnen könnten, also statt Wissensfortschritt nur Redundanz erzeugt würde. Ziel der Wissenschaft kann es aber nicht sein, immer mehr Theorien mit im Kern identischen Inhalten zu produzieren, die sich allein durch ihre Begriffssysteme unterscheiden: Das würde der zentralen Sparsamkeitsregel wissenschaftlicher Theoriebildung widersprechen und auf die Dauer eine sinnvolle Kommunikation innerhalb der Scientific Community, aber auch über sie hinaus erschweren. Allerdings erweist sich diese Befürchtung als unbegründet. Denn eine theoretische Perspektivierung erfolgt ja bereits in der Anlage der Untersuchung (wenngleich nicht in Form definitiver theoretischer Rahmungen), so dass Theorieproblem und empirisches Problem fortgesetzt miteinander korrespondieren. Zwar geht die qualitativ-interpretative Forschung in der Begriffsbildung andere Wege als standardisierte und Hypothesen testende Verfahren. Sie tut dies, indem sie sowohl in ersten deskriptiven Zugängen als auch in den Schritten der Theoriebildung zunächst bei der Sprache des Feldes ansetzt- - weil davon ausgegangen wird, dass die dort praktizierten Redeweisen relevante Binnenperspektiven der Handelnden repräsentieren. Dabei bleibt es jedoch nicht, denn qualitative Forschung will Theorie generieren und nicht ausschließlich Beschreibungen der Realität liefern. Bei aller Variation der Sprache in den Fallanalysen wird doch mit zunehmender Abstraktion der Ergebnisse vom Einzelfall, ja oft schon bei der abstrakten Formung einzelner Fälle auch das begriffliche Vokabular der jeweiligen Fachwissenschaft oder eines ihrer Spezialgebiete bemüht und auf die untersuchungsleitende Theorieperspektive referiert. Auch wenn etwa Biografieforscher eine große Offenheit für die jeweilige Gestalt einer einzelnen Theorie als sensibilisierende Konzepte Anschlussfähigkeit an Theoriediskurse Sprache des Feldes beachten <?page no="161"?> 162 3. Die empirische „Übersetzung“ des-Forschungsproblems www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 162 erzählten Biografie haben: In die analytische Abstraktion gehen immer wieder zentrale Denkstile und Begriffe ein, die bereits in anderen Studien sukzessive entwickelt und im Fach etabliert wurden. So werden etwa im Kontext erzähltheoretisch informierter Narrationsanalysen biografische Wendepunkte identifiziert, biografische Gesamtformungen entwickelt oder Haupt- und Nebenlinien der jeweiligen Lebensgeschichten herausgearbeitet. Es ist am Ende die Verbindung von Sprache des Feldes und dem Vokabular des Faches, die sicherstellt, dass die Analysen zugleich spezifisch und vergleichbar werden und dass die Ergebnisse sich im Theorierahmen des Faches systematisch verorten lassen und insofern zu dessen Weiterentwicklung beitragen. Die Begriffswelt des untersuchten Feldes und die der jeweiligen Fachwissenschaft mischen sich auch deshalb, weil in der analytischen Einstellung der Forschenden immer auch Zusammenhänge sichtbar werden, die den Akteuren im Feld nicht zugänglich sind und auch-- meist-- nicht zugänglich sein können. Durch Mittel wie Distanz, Vergleich und Kontrastierung, aber auch auf Grund technischer Möglichkeiten (Zeitlupe bei Videoaufnahmen, Bildvergrößerungen etc.) stehen den Forschenden in der vom Handlungsdruck der Situation entlasteten Analysephase Erkenntnismittel zu Gebote, die in der Situation nicht verfügbar sein können. 3.6.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Flick, Uwe, 2007: Qualitative Forschung: Eine Einführung, Reinbek, S. 122-141 Kalthoff, Herbert; Hirschauer, Stefan; Lindemann, Gesa (Hg.), 2008: Theoretische Empirie, Frankfurt a. M. (Der Band leuchtet in verschiedenen Beiträgen das Spektrum von Theorie-Empirie-Verhältnissen in der qualitativ-interpretativen Sozialforschung aus. Dabei wird auch der gegenüber dem Kritischen Rationalismus umfassendere Theoriebegriff sichtbar.) Kelle, Udo; Kluge, Susann, 1999: Vom Einzelfall zum Typus: Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung, Leverkusen, S. 25-37 Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Qualitative Sozialforschung. Ein Arbeitsbuch, München, 4. Aufl., S. 1-10, 12-21, 28-37 Strübing, Jörg, 2013: Qualitative Sozialforschung. Eine komprimierte Einführung für Studierende, München (hier Kap. 2). Bezug zu vorgängigen Studien Distanz, Vergleich, Kontrastierung <?page no="162"?> 163 www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 163 4 Strategien der Operationalisierung und Indikatorenauswahl Bevor auf die in der Überschrift genannten Stichworte eingegangen wird, sei kurz an die Anforderungen erinnert, die an eine erfahrungswissenschaftliche Theorie bzw. an Hypothesen im erfahrungswissenschaftlichen Zusammenhang gestellt werden: 1) Erfahrungswissenschaftliche Theorien müssen empirischen Bezug haben, d. h. sie müssen empirisch überprüfbar sein und an der Erfahrung scheitern können. 2) Die benutzten Begriffe der Theorie müssen präzise definiert sein. 3) Wenn der empirische Bezug der in der Theorie (Hypothese) verwendeten Begriffe nur indirekt herstellbar ist (z. B. Gruppenkohäsion, Feindschaft), müssen Indikatoren angebbar sein, die auf das Vorhandensein der mit dem Begriff gemeinten Sachverhalte schließen lassen (Beispiel „Gruppenkohäsion“, mögliche Indikatoren: Bejahung der Gruppe, Hilfsbereitschaft innerhalb der Gruppe, Bereitschaft der Gruppenmitglieder zu gemeinsamem Handeln). Bei mehrdimensionalen Begriffen sollte jede relevante Bedeutungsdimension durch mindestens einen Indikator repräsentiert werden. 4) Die Begriffe müssen operationalisierbar sein. In vorläufiger Formulierung heißt das: Zu den Begriffen (bei direktem empirischem Bezug) bzw. zu den Indikatoren (bei Begriffen mit nicht direktem empirischem Bezug) müssen Beobachtungsoperationen angebbar sein, so dass entschieden werden kann, ob der mit dem Begriff gemeinte Tatbestand in der Realität vorliegt, bzw. in welchem Ausmaß er vorliegt. Um die Punkte 3) und 4) geht es in diesem Kapitel. 4.1 Indikatoren Wenn ein Sachverhalt, der uns interessiert und den wir für unsere Forschung messen wollen, nicht direkt beobachtbar ist, müssen wir indirekte Wege finden, um ihn messbar zu machen. Dazu dienen Indikatoren. Ein Indikator ist ein direkt beobachtbarer Sachverhalt, der durch Korrespondenzregeln mit dem nicht direkt beobachtbaren Sachverhalt verknüpft wird. Durch diese Verknüpfung wird dem direkt beobachtbaren Sachverhalt die Funktion zugewiesen, über sich selbst hinauszuweisen und dadurch zugleich den nicht direkt beobachtbaren Sachverhalt anzuzeigen. Ein Indikator ist also ein empirischer Sachverhalt, dem durch die Korrespondenzregel eine „Überschussbedeutung“ zugeschrieben wird. Anforderungen an erfahrungswissenschaftliche Theorien empirischer Bezug präzise Definitionen Indikatoren angebbar Begriffe operationalisierbar <?page no="163"?> 164 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 164 Bleiben wir zunächst bei dem in Kapitel 3.2 eingeführten Beispiel über den Zusammenhang von sozialer Herkunft und Schulsowie Berufserfolg. Die definierten Begriffe „sozialer Status“ des Elternhauses, „Bildung“ und „Berufserfolg“ der Kinder haben alle einen empirischen Bezug: Es gibt in der sozialen Realität so etwas wie eine soziale Rangordnung in der Gesellschaft, wie Bildung einer Person oder Berufserfolg. Aber alle Begriffe sind zunächst praktisch nicht direkt erfahrbar, sondern nur indirekt auf dem Umweg über die Beobachtung von Sachverhalten, die etwas mit Statuseinschätzung, mit Bildung, mit Berufserfolg zu tun haben. Wir benötigen also Indikatoren, die uns das Vorliegen der mit den Begriffen bezeichneten Sachverhalte anzeigen, „indizieren“. 135 Zum Teil wurden im Beispielsfall bei der dimensionalen Analyse (vgl. Kap. 3.3.2) die Begriffsinhalte zwar schon so weit reduziert, dass die dann definierten Bedeutungsinhalte direkt erfahrbar werden. So wurde „sozialer Status des Elternhauses“ auf Berufsprestige und formale Schulbildung des Vaters (bzw. „Familienoberhaupts“) eingeengt. Von diesen beiden Teildimensionen könnten wir formale Schulbildung im Prinzip direkt erheben: Einsichtnahme in die Abschlusszeugnisse oder in Zeugnislisten von Bildungsinstitutionen. Praktisch allerdings ist dieser Weg nicht gangbar, und man wird auf Auskünfte der Personen angewiesen sein, an denen man das soziale Problem untersuchen möchte: Im Beispielsfall wird man Antworten der Söhne auf entsprechende Fragen in einem Fragebogen als Auskunft über den eigentlich interessierenden Sachverhalt „formale Schulbildung des Vaters“ heranziehen müssen. Beim Berufsprestige ist nicht einmal im Prinzip die Ausprägung dieses Merkmals direkt erhebbar. Vielmehr ist in zwei Etappen vorzugehen: Zwar könnten die Bezeichnungen der Berufstätigkeit von Personen wiederum im Prinzip direkt erhoben werden, z. B. über die Beschäftigtenkarteien der Arbeitgeber. Praktisch jedoch ist auch dieser Weg nicht gangbar. Man benötigt wieder Antworten der Söhne auf entsprechende Fragen als Auskünfte über die tatsächliche Berufstätigkeit des Vaters. Dabei ergibt sich eine weitere Schwierigkeit: „Berufstätigkeit des Vaters“ kann sich auf die gesamte Zeit von dessen Berufstätigkeit beziehen; und falls jemand nicht immer die gleiche Berufsposition hatte, was soll dann als Indikator für die generelle Variable „Berufsposition“ erfragt werden: die letzte Berufsposition? Oder diejenige, die der Vater am längsten innegehabt hat? Oder-- dafür sprächen theoretische Überlegungen-- die Berufsposition, die der Vater zu dem Zeitpunkt innehatte, als es um die Entscheidung ging, welche Ausbildung der Sohn erhalten sollte? Oder gar-- auch dafür sprächen theoretische Überlegungen- - die Berufsposition, die der Vater gar nicht hatte, sondern anstrebte? Denn möglicherweise ist das berufliche Anspruchsniveau des Vaters die eigentliche Triebfeder für die Pläne, die er im Hinblick auf seinen Sohn verfolgt. 135 Beachten Sie bitte, dass die Argumentation sich zunächst nur auf die empirische Gegenstandsebene bezieht, nicht auf die sprachlichen Bezeichnungen durch z. B. theoretische Begriffe und Beobachtungsbegriffe. BEISPIEL <?page no="164"?> 165 4.1 Indikatoren www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 165 Unterstellt, dies sei gelöst: Dann hat man mit der Bezeichnung der Berufsposition aber noch nicht das Berufs„prestige“ erhoben. Hierzu benötigt man zusätzlich eine generalisierte Rangordnung für alle vorkommenden Berufspositionen hinsichtlich des Prestiges, des Ansehens, das diese Berufe in der Gesellschaft genießen (denn Berufsprestige war ja nicht definiert worden als Einschätzung des Ansehens der Berufstätigkeit im Bewusstsein des Inhabers der Position selbst). Blau und Duncan haben eine solche Rangordnung auf der Basis einer Reihe von Befragungen mit Hilfe von Regressionsanalysen berechnet (Befragungen, die unabhängig von der geschilderten Untersuchung durchgeführt worden waren, und statistische Auswertung der erhaltenen Daten; vgl. Kap. 8). Jetzt erst-- nach Ermittlung der jeweiligen Berufspositionen der Väter mit Hilfe einer Befragung der Söhne und nach Ermittlung einer generalisierten Rangordnung der Berufe-- können, aus der Kombination der Ergebnisse dieser beiden Vorgehensweisen, der Variablen „Berufsprestige“ konkrete Werte zugewiesen werden, d. h. Berufsprestige kann nun „gemessen“ werden. 136 Entsprechend wird hinsichtlich der Bildung und des Berufserfolgs der Söhne verfahren: Antworten auf Fragen nach ihrem höchsten Bildungsabschluss dienen als Informationen zur „Bildung“, Antworten auf Fragen nach ihrer gegenwärtigen Berufsposition gelten zusammen mit der generalisierten Rangordnung der Berufe auf einer Prestigeskala als Indikatoren für „Berufserfolg“. Die von Blau und Duncan (1967) entwickelte Berufsprestige-Skala weist Punktwerte zwischen 0 und 96 auf. 137 Hier einige Beispiele: 0-- 4 Punkte: Kohlengruben-Hilfskräfte und -arbeiter, Gepäckträger, Arbeiter in Sägemühlen usw. (…) 25-- 29 Punkte: Büroboten, Zeitungsausträger, Straßenbauarbeiter, Raffineriearbeiter usw. (…) 50-- 54 Punkte: Musiker und Musiklehrer, Angestellte in der kommunalen Verwaltung, Buchhalter, Briefträger, Vorarbeiter in der Metallindustrie usw. (…) 70-- 74 Punkte: angestellte Manager im Großhandel, Lehrer, selbständige Unternehmer im Auto- und Ersatzteilhandel usw. (…) 80-- 84 Punkte: College-Präsidenten, Professoren, Herausgeber und Chefreporter, höhere Regierungsangestellte, angestellte Manager im Dienstleistungsbereich usw. (…) 90- - 96 Punkte: Architekten, Zahnärzte, Chemie-Ingenieure, Rechtsanwälte, Richter, Physiker, Chirurgen usw. 136 Was in den Sozialwissenschaften unter „Messen“ zu verstehen ist, wird in Kapitel 5 behandelt. 137 Eine Darstellung neuerer Verfahren zur Messung von Berufsprestige findet man bei Christoph (2005). <?page no="165"?> 166 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 166 In den Sozialwissenschaften unterscheiden wir unterschiedliche Arten von Indikatoren: definitorische, korrelative und schlussfolgernde Indikatoren (Nowak 1963). Als definitorische Indikatoren gelten solche, mittels derer die zu untersuchende Merkmalsdimension selbst erst definiert wird. In unserem Standardbeispiel ist „Bildung“ als „formale Schulbildung“ definiert, und „höchster Schulabschluss“ ist ein definitorischer Indikator, falls dieser höchste Schulabschluss direkt erhoben wird. Die Antwort auf die Frage nach dem höchsten Schulabschluss dagegen ist, streng genommen, kein definitorischer, sondern ein externer korrelativer Indikator (s. u.): Wir schließen aus der Antwort, dass der erfragte Sachverhalt tatsächlich vorliegt, weil wir wissen, dass die Ausprägung der Antworten von Befragten häufig mit der Ausprägung des eigentlich zu erhebenden Sachverhalts übereinstimmt. Diese etwas spitzfindige Unterscheidung lassen wir jedoch zunächst noch außer Betracht. Es gibt aber auch Begriffe, die durch Antworten auf ein Befragungsinstrument definiert sind: z. B. „soziometrischer Status“ =-df. Anzahl der positiven Wahlen, die ein Individuum in einer Gruppe erhält; oder: „response set“ =-df. die Tendenz des Befragten, unabhängig vom erfragten Sachverhalt bestimmte Antwortalternativen vorzuziehen. Bei korrelativen Indikatoren ist der Bedeutungsgehalt der Indikatoren (im Unterschied zu definitorischen Indikatoren) nicht mehr gleich dem Bedeutungsgehalt der Begriffe, für die sie stehen. 138 Man unterscheidet hier noch zwischen internen und externen korrelativen Indikatoren. Intern korrelativ sind Indikatoren für Teilaspekte eines mehrdimensionalen Sachverhalts (einer mehrdimensionalen oder komplexen Merkmalsdimension), wenn sie mit den übrigen Komponenten des definierten Begriffs korrelieren. Als extern korrelativ gelten dagegen Indikatoren für Sachverhalte, die nicht Bestandteil der Definition eines Begriffs sind, aber dennoch mit der begrifflich bezeichneten Merkmalsdimension korrelieren. Wenn also „sozialer Status“ einer Person definiert ist als „Position der Person in der gesellschaftlichen Hierarchie, wie sie sich aufgrund ihrer Bildung, ihres Berufs und ihres Einkommens ergibt“, und wenn Bildung, Beruf und Einkommen positiv korrelieren, dann ist jedes dieser Merkmale für sich genommen ein intern korrelativer Indikator für „sozialen Status“. Nehmen wir an, es gelte zusätzlich die Beziehung: „Je höher der soziale Status einer Person, desto luxuriöser und 138 Empirisch stehen hier nebeneinander: der eigentlich gemeinte Sachverhalt und etwas „Ähnliches“, das leichter beobachtbar oder erhebbar ist.- - Dem statistischen Begriff „Korrelation“ liegt folgende Fragestellung zugrunde: Wie oft kommen gewisse Erscheinungsformen gleichzeitig oder in regelmäßiger zeitlicher Aufeinanderfolge mit gewissen anderen Erscheinungsformen vor, so dass von einem „Zusammenhang“ zweier (oder mehrerer) Variablen gesprochen werden kann? Beispielsweise würde man sagen, dass die Variablen „Bildung“ und „Einkommen“ (positiv) korrelieren, wenn gilt: Je höher die Bildung von Personen ist, desto höher ist tendenziell auch deren Einkommen. Arten von Indikatoren Definitorische Indikatoren BEISPIEL korrelative Indikatoren intern korrelative Indikatoren extern korrelative Indikatoren BEISPIEL <?page no="166"?> 167 4.1 Indikatoren www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 167 teurer ist die Ausstattung ihrer Wohnung, insbesondere die des Wohnzimmers“. In diesem Fall korreliert „Wohnzimmerausstattung“ mit „sozialer Status“, und die-- etwa von einem Interviewer eingeschätzte-- Qualität der Wohnzimmerausstattung wäre ein korrelativer Indikator für sozialen Status (aber ein externer, da nicht Bestandteil der Begriffsdefinition). 139 Lässt sich die Korrelation zwischen Indikator und indiziertem Merkmal nicht theoretisch als ein konstanter Zusammenhang begründen, sondern lediglich als bisher beobachtbare empirische Regelmäßigkeit, dann ist die „Gültigkeit“ (s. u.) eines solchen Indikators fragwürdig. So könnten sich etwa im Zeitablauf die Einrichtungsgewohnheiten ändern, und es könnte bei Personen mit hoher Bildung und hohem Berufsprestige „in“ sein, sich möglichst schlicht und einfach einzurichten („Snob-Effekt“: Wir haben es nicht nötig, unseren Status zu „dokumentieren“). Der ehemals „gültige“ externe korrelative Indikator „Wohnzimmerausstattung“ würde dann falsche Resultate liefern. Als schlussfolgernde Indikatoren schließlich bezeichnet man solche, von denen auf Merkmalsausprägungen von Variablen geschlossen werden kann, die überhaupt nicht direkt beobachtbar sind. Bei dispositionalen Eigenschaften von Personen (etwa „Entfremdung“ als dispositionale Eigenschaft) muss sich der Forscher oder die Forscherin mit der Beobachtung manifester Eigenschaften oder Verhaltensweisen der Individuen begnügen und von deren Auftreten auf die Existenz der eigentlich interessierenden Variablen schließen (etwa von Formen „entfremdeten Verhaltens“ auf die dispositionale Eigenschaft „Entfremdung“). Dazu müssen Korrespondenzregeln formuliert werden, die ihrerseits den Status von Hypothesen haben und dementsprechend falsch sein können (vgl. Kapitel 4.3). Die vorgestellte Klassifikation von Indikatoren ist wichtig, weil sie etwas über die Gültigkeit (Validität) 140 der Indikatoren aussagt. 139 Beispiel nach S. Chapin, 1951: The Measurement of Social Status, Chicago; zitiert bei Mayntz/ Holm/ Hübner (1971, 41).-- Sozialer Status und Berufsprestige sind in der soziologischen Theorie zentrale Konstrukte, und es existieren vielfältige Strategien, sie für die Forschung zu operationalisieren. Für einen Überblick siehe Wolf 1995. 140 Für die Beurteilung empirischer Untersuchungen werden von Zetterberg (1973) sechs Kriterien genannt: „1. Die Gültigkeit (logische und/ oder empirische) der operationalen Anweisungen; 2. die Zuverlässigkeit (Präzision und Objektivität) der operationalen Anweisungen; 3. die „Übereinstimmung“ zwischen dem Trend der Daten und dem von der überprüften These vorausgesagten Trend-…; 4. die Kontrolle alternativer Hypothesen; 5. die Repräsentativität der Auswahl und der Umfang der Gesamtheit; 6. das Maß, in dem die überprüfte These ein wesentlicher Teil der bereits bestehenden Theorie ist“ (a. a. O., 143).-- Die Kriterien 1, 2 und 5 werden im vorliegenden Text als „Gütekriterien“ empirischer Sozialforschung abgehandelt (Kapitel 4.3.2, Kapitel 5.6, 6.2, Kapitel 7.4.2); Kriterium 3 bezieht sich auf die Anwendung statistischer Auswertungsmodelle.-- Kreutz (1972) spricht in diesem Zusammenhang vom „Realitätsgehalt“ der erhobenen Daten bzw. der Gesamtergebnisse einer Untersuchung. Die o. g. sechs Kriterien können als Teildimensionen des allgemeineren Begriffs „Realitätsgehalt“ verstanden werden. schlussfolgernde Indikatoren BEISPIEL <?page no="167"?> 168 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 168 Gültig (oder valide) ist ein Indikator dann, wenn er tatsächlich den Sachverhalt anzeigt, der mit dem definierten Begriff bezeichnet worden ist. Bei definitorischen Indikatoren sind definitionsgemäß der Bedeutungsgehalt des definierten Begriffs und der durch die Indikatoren angezeigte Objektbereich identisch; wir haben es auf der sprachlogischen Ebene mit hundertprozentiger Gültigkeit der Indikatoren zu tun. Bei internen korrelativen Indikatoren ist zumindest teilweise Gültigkeit gesichert: Wenn ein mehrdimensionaler Begriff definiert ist und wenn als Indikator für den gesamten Vorstellungsgehalt eine der Bedeutungsdimensionen oder eine begrenzte Anzahl von Bedeutungsdimensionen beobachtbar werden, dann machen diese Indikatoren definitionsgemäß immerhin einen Teil des Bedeutungsgehaltes aus. Wählen wir den Indikator zudem noch so, dass er mit allen anderen Bestandteilen der Definition möglichst hoch korreliert, dann dürfte auch die Gültigkeit als ziemlich hoch einzuschätzen sein. Benutzen wir dagegen einen externen korrelativen Indikator, dann ist die Gültigkeit schon ungewisser: Der Indikator korreliert zwar empirisch mit dem gemeinten Sachverhalt, ist aber nicht Bestandteil der Definition des Begriffs (s. o.: „Wohnzimmerausstattung“). Lässt sich die Korrelation zwischen Indikator und indiziertem Merkmal nicht als ein konstanter Zusammenhang theoretisch begründen, können wir nie genau wissen, ob bei nächster Gelegenheit dieser empirische Zusammenhang noch bestehen wird. Noch schwieriger ist die Gültigkeit bei schlussfolgernden Indikatoren abzuschätzen (z. B. beobachtbares Verhalten als Indikator für Einstellungen oder andere dispositionale Eigenschaften). Hier ist der Zusammenhang zwischen Indikator und indiziertem Merkmal überhaupt nicht direkt empirisch überprüfbar, sondern wir sind, krass gesprochen, auf den Glauben an die Richtigkeit unserer Korrespondenzregeln, also unserer „Theorie“ über den Zusammenhang zwischen der interessierenden Eigenschaft und dem beobachtbaren Merkmal angewiesen. Betrachten wir als Beispiel 141 die Forschungspraxis, für die Ermittlung von Einstellungen in einem Fragebogen dem Befragten eine Reihe von „Einstellungsfragen“ vorzulegen. Die verbalen Reaktionen auf solche Fragen (eben die Antworten) werden nun als Indikatoren für das Vorliegen bestimmter Einstellungen gewertet und hinsichtlich vorab definierter „Einstellungsdimensionen“ interpretiert. Die Einstellung selbst wiederum gilt als eine Ursache für ein bestimmtes Verhalten in konkreten Situationen: 141 Nach Mayntz/ Holm/ Hübner 1971, 43. Gültigkeit von Indikatoren definitorische Indikatoren sind logisch gültig intern korrelative Indikatoren: teilweise logisch gültig Gültigkeit ungewiss bei extern korrelativen Indikatoren Gültigkeit bei schlussfolgernden Indikatoren unklar BEISPIEL Einstellung verbale Reaktion (Antworten) Verhalten in konkreten Situationen Abbildung 4.1: Antwortverhalten-- Einstellung-- Verhalten <?page no="168"?> 169 4.1 Indikatoren www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 169 Konstrukte sind jedoch nur dann auch theoretisch sinnvoll, wenn sich möglichst viele Klassen von beobachtbaren Eigenschaften und Verhaltensweisen daraus ableiten lassen. Die Gültigkeit des Schlusses von den als Indikatoren verwendeten Merkmalen (hier Antworten auf „Einstellungsfragen“) auf die durch den Begriff bezeichnete Disposition (hier Konstrukt „Einstellung“) lässt sich so immerhin indirekt prüfen. Als Maß dient dann die Korrelation zwischen den Indikatoren und möglichst vielen anderen beobachtbaren Merkmalen, die theoretisch als abhängig von dem Konstrukt angesehen werden. So könnte man etwa zur Ermittlung der Disposition „Autoritarismus“ eine Reihe geeignet erscheinender Fragen stellen und auf der Basis der Antworten für jeden Befragten einen Punktwert auf einer „Autoritarismus-Skala“ bestimmen. Unabhängig davon möge das Verhalten derselben Personen in bestimmten Situationen daraufhin beobachtet werden, ob und in welchem Ausmaß es „autoritär“ oder „nicht autoritär“ sei. Wenn Autoritarismus als dispositionale Eigenschaft einer Person sich a) in den Antworten auf die Fragen niederschlägt und diese Disposition der Person zugleich b) eine Ursache für beobachtbares (manifestes) „autoritäres Verhalten“ ist, dann wird gelten: Je höher der Punktwert auf der Autoritarismus-Skala, desto autoritärer ist das gezeigte Verhalten in konkreten Situationen. Diese Beziehung lässt sich statistisch prüfen. 142 Das Problem der Gültigkeit als eines von mehreren „Gütekriterien“ für die Beurteilung empirischer Untersuchungen (vgl. Fußnote-138) wird im Kapitel 4.3 nochmals aufgegriffen. Wie schon zu Beginn des Kapitels angemerkt (vgl. Fußnote-135), bezog sich die bisherige Argumentation auf die empirische, also auf die Gegenstandsebene: Begrifflich bezeichnete Sachverhalte, die nicht direkt mit unseren Sinnen wahrnehmbar oder mit geeigneten Instrumenten feststellbar sind, müssen durch „Indikatoren“ indirekt erfahrbar gemacht werden. Fassen wir abschließend zusammen: Unter Indikatoren verstehen wir solche empirischen Sachverhalte, die 1. direkt wahrnehmbar oder feststellbar sind und die 2. eindeutige Hinweise auf den nicht direkt erfahrbaren Sachverhalt liefern. Damit einem direkt beobachtbaren Sachverhalt die Indikator-Eigenschaft zugesprochen werden kann, ist eine explizite Regel anzugeben, auf welche Weise vom beobachteten auf den nicht beobachteten Sachverhalt geschlossen werden kann oder in welcher Weise das Beobachtete mit dem nicht Beobachteten „korrespondiert“. Sol- 142 Das Zentrum für Umfragen, Methoden und Analysen in Mannheim hat eine Vielzahl verschiedener in empirischen Studien verwendeter „Skalen“ zur Messung sozialwissenschaftlicher Konstrukte in einem mehrbändigen „Skalenhandbuch“ zusammengestellt (ZUMA 1988). Dieser Service ist mittlerweile zu einem ZUMA-Informationssystem (ZIS: Zusammenstellung sozialwissenschaftlicher Items und Skalen) ausgeweitet worden, das online verfügbar ist (zis.gesis.org). explizite Korrespondenzregel <?page no="169"?> 170 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 170 che Regeln nennen wir Korrespondenzregeln. Je nach der Art dieser Korrespondenzregeln kommen wir zu unterschiedlichen Arten von Indikatoren (s. o.: definitorische, korrelative, schlussfolgernde I.). Wie schon beim Vorgang der dimensionalen Analyse (Kapitel 3) kennengelernt, stehen wir auch an dieser Stelle vor dem Problem, dass wir die als Indikatoren gewählten empirischen Sachverhalte begrifflich bezeichnen müssen und dass auch diese sprachlichen Zeichen so präzise zu definieren sind, dass unzweifelhaft klar ist, welche Klasse empirischer Sachverhalte als Indikatoren gelten sollen. Wir nennen diese Begriffe „Indikator-Begriffe“; und die Zuordnung von Indikator-Begriffen zu den „theoretischen Begriffen“ können wir als „empirische Interpretation“ verstehen. Analog ist auch hinsichtlich des Gütekriteriums „Gültigkeit“ ein Unterschied möglich zwischen empirischer Gültigkeit (der beobachtete Sachverhalt zeigt korrekt den nicht beobachteten an) und semantischer Gültigkeit (die Bedeutung der Indikatorbegriffe bildet korrekt den Bedeutungsraum des theoretischen Begriffs ab). Darauf geht der Abschnitt 4.3.2 noch näher ein. 4.2 Indexbildung Eine in Kapitel 2.2 (Forschungsprozess, Punkt b) im Zusammenhang mit der dimensionalen Analyse aufgeführte Frage ist bisher noch völlig offengeblieben, nämlich: Können die als relevant angenommenen Dimensionen zusammengefasst oder müssen sie differenziert betrachtet werden? Mit anderen Worten: Müssen Teildimensionen in gesonderten Begriffen repräsentiert oder können sie zu einem Oberbegriff zusammengefasst werden? Bezogen auf unser Beispiel war bei Bildung und Berufserfolg der Söhne die Entscheidung klar. Es wurde überhaupt nur jeweils ein Aspekt in die Betrachtung einbezogen: „formale Bildung“ und „Prestige der gegenwärtigen Berufsposition“ des Sohnes. Beim sozialen Status des Elternhauses aber haben wir zwei Aspekte unterschieden: einerseits das Berufsprestige des Vaters, andererseits dessen formale Schulbildung. Hier stellt sich nun die Frage: Ist diese getrennte Abbildung zweier Teildimensionen erforderlich, oder könnte man nicht aus beiden Teildimensionen einen zusammengefassten Index „sozialer Status des Elternhauses“ konstruieren? Die Entscheidung ist zunächst einmal abhängig von unseren theoretischen Annahmen. Die forschungsleitenden Hypothesen hatten zu der formalisierten Darstellung geführt (vgl. Kapitel 3.2): Man erkennt: Nach diesen Hypothesen hat die Teildimension Berufsprestige des Vaters vermutlich andere Wirkungen auf den späteren Berufserfolg des Sohnes als die Teildimension Bildung des Vaters. Es wird angenommen, dass der Beruf des Vaters sowohl die Bildung des Sohnes als auch dessen späteren Berufserfolg beeinflusst. Dagegen wird von der Bildung des Vaters nur ein Einfluss auf die Bildung des Sohnes vermutet. Eine Zusammenfassung dieser beiden Teildimen- Indikator-Begriffe empirische Gültigkeit-- semantische Gültigkeit BEISPIEL <?page no="170"?> 171 4.2 Indexbildung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 171 sionen zu einem Gesamtindex würde diese vermuteten Unterschiede im Wirkungszusammenhang verwischen. Das untersuchungsleitende Modell schließt also in diesem Fall eine Indexbildung aus. Was die Zusammenhänge zwischen den Teildimensionen eines Sachverhalts und die Beziehungen dieser Teildimensionen zu der abhängigen Variablen betrifft, gilt generell für die Indexbildung: Eine Zusammenfassung der Teildimensionen zu einem Index ist nur dann zulässig, wenn die Korrelationen zwischen den Index-Teildimensionen (genauer: zwischen den Indikatoren für die Teildimensionen) alle ein positives Vorzeichen haben und wenn die Korrelationen der Teildimensionen (der Indikatoren) mit der abhängigen Variablen alle das gleiche Vorzeichen haben (also entweder alle positiv oder alle negativ sind). Andernfalls wird durch die Zusammenfassung zu einem Gesamtindex die Struktur der Realität nicht korrekt abgebildet; das Ergebnis wird verfälscht. Der Hauptgrund für die Verwendung von Indizes anstelle einer größeren Zahl isolierter Indikatoren, aber auch anstatt nur eines einzigen Indikators, ergibt sich aus folgender Überlegung: 143 Jeder Indikator ist für sich genommen nur eine teilweise Operationalisierung eines Begriffs. Die Verwendung mehrerer Indikatoren erhöht die Chance, Messungenauigkeiten zu verringern und so den gemeinten „wahren“ Sachverhalt eher abzubilden. Falls mehrere Indikatoren zum gleichen Begriff untereinan- 143 Dies ist die Argumentation der „herkömmlichen empirischen Sozialforschung“; sie kann als Spezialfall „eines allgemeineren Modells der Verbindung von theoretischen Konstrukten mit beobachtbaren Sachverhalten“ (Esser 1984, II, 7) verstanden werden. Zusammenhänge zwischen Variablen und Index mehrere Indikatoren zur Messgenauigkeit Berufserfolg Berufsprestige Bildung Bildung ++ + + + (0) Untersuchungsmodell Statusvererbung A A B C D + + + + + + B C D − − − + + + Zusammenhänge von Indikatoren und Index <?page no="171"?> 172 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 172 der stark korrelieren, messen sie teilweise identische Aspekte des Sachverhalts (sie sind „redundant“); ein anderer Teil repräsentiert Abweichungen von der zu messenden Dimension. Die Zusammenfassung zu einem Index beseitigt diese- - bei der Auswertung der Daten störende-- Redundanz (d. h. die Mehrfachmessung derselben Teildimensionen eines Sachverhalts), während die Abweichungen von der „eigentlich“ zu messenden Dimension sich wechselseitig aufheben. Das erläutert ausführlicher der Abschnitt 4.3.1. Auf die methodologischen Probleme sowie auf unterschiedliche Verfahren der Indexkonstruktion soll hier nicht eingegangen werden. 144 Die Logik des Vorgehens und die damit verbundene Problematik sei jedoch an zwei Beispielen zu dem einfachsten Modell-- Bildung additiver Indizes-- kurz illustriert. Index der Zufriedenheit mit der Wohnsituation In einem Interview sei folgende Frage gestellt worden: „Wenn Sie Ihre jetzige Wohnung beurteilen: Was gefällt Ihnen daran und was nicht? Ich lese Ihnen einige Merkmale vor, und Sie sagen mir bitte, ob das in Ihrer Wohnung besonders vorteilhaft oder besonders nachteilig ist.“ Antwortvorgaben: Aspekte der Wohnungsqualität: besonders vorteilhaft besonders nachteilig weder bes. vorteilhaft noch bes. nachteilig 1. Zahl der Zimmer 2. Größe der Wohnung (Wohnfläche) 3. Wohnungszuschnitt, Grundriss 4. Ausstattung (mit Bad, Heizung usw.) 5. Zustand des Wohngebäudes 6. Belüftung, Besonnung der Zimmer 7. Schallisolation (Abschirmung gegen Lärm aus Nachbarwohnungen und von der Straße) 8. Wärmeisolation (Abschirmung gegen Wärme und Kälte) 9. Höhe der Miete 10. Möglichkeit (bzw. fehlende Möglichkeit), Gäste zu empfangen und zu beherbergen 144 Einige Aspekte werden später-- Kapitel 5.4: Indexmessung-- noch aufgegriffen. Als Einführung vgl. Latcheva/ Davidov (2014). BEISPIEL 1 Abbildung 4.2: Fragebogenausschnitt Wohnqualität <?page no="172"?> 173 4.2 Indexbildung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 173 Wir haben damit zehn (Bewertungs-)Dimensionen der Wohnqualität zur Verfügung, zu denen die Befragten jeweils ihre Zufriedenheit („besonders vorteilhaft“) oder Unzufriedenheit („besonders nachteilig“) bzw. eine indifferente Beurteilung (weder/ noch) zum Ausdruck gebracht haben. Es bieten sich nun mehrere Möglichkeiten an, daraus einen (additiven) Gesamtindex „Wohnzufriedenheit“ zu konstruieren: a) Wir addieren für jeden Befragten die Anzahl der Antwortausprägungen „besonders vorteilhaft“ und erhalten eine Variable, die die Werte 0 (überhaupt nicht zufrieden) bis 10 (in jeder Hinsicht zufrieden) annehmen kann. Unter der Voraussetzung, dass alle Bewertungsdimensionen gleichgewichtig sind, haben wir einen Index erhalten, der- - wie im Kapitel 5 (Messtheorie) noch erläutert werden wird-- das Messniveau einer Ratio-Skala hat. Allerdings verwertet dieser Index nur einen Teil der erhobenen Informationen; er verzichtet auf die Berücksichtigung der Angabe, ob ein mit einem Aspekt der Wohnqualität nicht zufriedener Befragter diesen Aspekt lediglich indifferent oder aber als „besonders nachteilig“ eingeschätzt hat. b) Um diese Einseitigkeit zu beheben, können wir in gleicher Weise zusätzlich einen „Unzufriedenheitsindex“ konstruieren, indem wir die Zahl der Antwortausprägungen „besonders nachteilig“ für jeden Befragten auszählen. c) Man könnte aber auch beide Informationen in einem einzigen Index vereinigen, indem man der Antwort „besonders vorteilhaft“ den Zahlenwert + 1 und der Antwort „besonders nachteilig“ den Zahlenwert--1 zuordnet (die Kategorie „weder/ noch“ erhielte dann den Wert 0). Danach könnte man für jeden Befragten die Zahlenwerte seiner zehn Antworten addieren. Die messtheoretischen Voraussetzungen für ein solches Vorgehen wären jedoch, dass die Antwort „weder/ noch“ wirklich den Nullpunkt darstellt 145 und dass „besonders vorteilhaft“ das gleiche Gewicht im positiven Sinne hat wie „besonders nachteilig“ im negativen Sinne (dass also zwischen den Antwort-Alternativen „gleiche Abstände“ bestehen). Selbst wenn dies als näherungsweise zutreffend eingeschätzt werden sollte, bleibt ein weiterer Nachteil: Der Index ist gegenüber den Alternativen a und b schlechter interpretierbar. So kann beispielsweise ein Wert 0 bei Index c bedeuten: fünf Aspekte besonders vorteilhaft, fünf Aspekte besonders nachteilig; oder: im Hinblick auf jeden Qualitätsaspekt weder/ noch; oder: dreimal besonders vorteilhaft, dreimal besonders nachteilig, viermal weder/ noch; oder: -… Ähnliches gilt für andere Indexwerte: Lediglich die Extrempunkte--10 und + 10 sind eindeutig interpretierbar. 145 und nicht etwa Ausdruck der Unfähigkeit ist, auf der entsprechenden Teildimension die Qualität einzuschätzen (etwa: Zustand des Wohngebäudes), oder Ausdruck des Nicht-Zutreffens einer Bewertungsdimension für den Befragten (etwa bei Item 10: der Befragte erhält niemals Besuch, da er keine Bekannten hat). <?page no="173"?> 174 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 174 Index der Stadtteilbindung Für den Begriff „Stadtteilbindung“ seien die Dimensionen „Zufriedenheit mit der Wohnung“ und „soziale Kontakte im Stadtteil“ (gemessen am Anteil der Bekannten einer Person, die im Stadtteil wohnen) von entscheidender Bedeutung. In einem Interview werde nach beidem direkt gefragt. Aus der Kreuztabellierung der Variablen ergebe sich die folgende Matrix (nach Friedrichs 1977, 167): Anteil der Bekannten im Stadtteil Wohnungszufriedenheit bis 24 % (0) 25-50 % (1) 51 % u. m. 146 (2) niedrig (0) a b c mittel (1) d e f hoch (2) g h i Die Matrix stellt einen zweidimensionalen Merkmalsraum dar. Um die neun Zellen auf einen eindimensionalen Index „Stadtteilbindung“ abzubilden, muss eine ordinale Anordnung (Rangordnung) der Zellen konstruiert werden. Man kann z. B. beide Variablen als gleichgewichtig ansehen, den Antwortausprägungen (zur Kennzeichnung ihrer Rangordnung) die Zahlenwerte 0 bis 2 zuordnen, diese Zahlenwerte für beide Merkmale addieren (siehe Matrix) und das Resultat als Rangordnung der (eindimensionalen) Indexwerte interpretieren (so bei Friedrichs 1977). Man erhielte: Indexwert: Matrixzellen: 0 a 1 b, d 2 c, e, g 3 f, h 4 i Man könnte den Index aber auch nach logischen Überlegungen bilden, etwa: Die Variable „Bekannte im Stadtteil“ (B) dürfte für die Stadtteilbindung gewichtiger sein als die „Wohnungszufriedenheit“ (W) und wird deshalb zum Gerüst der Indexkonstruktion. Die Wertezuweisung könnte dann z. B. nach folgenden Regeln geschehen: 146 Zum Zwecke der Indexbildung wird folgende Umformung der Anteilswerte vorgenommen: Wenn ein Befragter angibt, dass von allen seinen Bekannten weniger als ein Viertel in seinem Stadtteil wohnen (0 bis 24%), so erhält er den Wert „0“ zugewiesen, bei einem Viertel bis höchstens der Hälfte den Wert „1“, darüber hinaus den Wert „2“. BEISPIEL 2 <?page no="174"?> 175 4.2 Indexbildung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 175 Wenn B unter 25 % u. W niedrig oder mittel, dann Bindung =-0 (a,d)* Wenn B unter 25 % u. W hoch, dann Bindung =-1 (g)* Wenn B 25-50 % u. W niedrig, dann Bindung =-1 (b)* Wenn B 25-50 % u. W mittel oder hoch, dann Bindung =-2 (e,h)* Wenn B 51 % u.m. u. W niedrig oder mittel, dann Bindung =-3 (c,f )* Wenn B 51 % u.m. und W hoch, dann Bindung =-4 (i)* * =-Matrixzellen in der Tabelle Man sieht: Die Abbildung der zweidimensionalen Verteilung auf einen eindimensionalen Index führt in den beiden Fällen zu ziemlich unterschiedlichen Resultaten. Die Bildung einer eindimensionalen Rangordnung aufgrund zweier ordinalskalierter Variablen (d. h. für beide Merkmale ist nur die Reihenfolge der Ausprägung, also ihre Rangordnung angebbar) ist problematisch. Man wird gut daran tun, den Index so zu bilden, dass jede Indexausprägung für sich eindeutig interpretierbar ist. Nach dem zweiten Vorschlag wird die Ausprägung „Bindung =- 1“ dieser Forderung nicht gerecht; sie fasst „B unter 25 % und W hoch“ mit „B 25-50 % und W niedrig“ zusammen. Beim ersten Indexvorschlag werden gleich mehrere Ausprägungen (Bindung =-1, 2 oder 3) dieser Forderung nicht gerecht. Mit den beiden kurzen Beispielen können natürlich die Probleme der Indexbildung nicht hinreichend abgehandelt werden. 147 Sie sollten aber verdeutlichen, dass bei jeder Indexkonstruktion zusätzliche Überlegungen und theoretische Absicherungen erforderlich sind, um den Realitätsgehalt der Daten (vgl. Fußnote 140) nicht infrage zu stellen. In dem Maße, in dem etwa im Beispiel 1c (oben) die in der Fußnote 145 genannten Voraussetzungen nicht erfüllt sind, spiegeln die Indexwerte nicht die Bewertungen der Befragten wider. Den Unterschieden in den Indexwerten entsprechen dann nicht gleiche Unterschiede in der subjektiven Realität der Befragten. Vielmehr sind sie in einem solchen Fall zumindest teilweise das Produkt der verwendeten Konstruktionsvorschriften. Generell spricht man bei Daten und Untersuchungsergebnissen, die nicht „realitätsadäquat“ sind, von Forschungsartefakten. Solche Daten sind keine adäquate Widerspiegelung der für die Untersuchungsfrage wichtigen Aspekte des Untersuchungsgegenstandes, sondern „Kunstprodukte“ der verwendeten Methoden. 148 147 Für einen informativen und dennoch kurz gefassten Überblick (mit hilfreichen Verweisen auf vertiefende Literatur) siehe Latcheva/ Davidov (2014) und Schnell/ Hill/ Esser (1999, Kapitel 4.4). Als Beispiel für die Vielfalt von Detailproblemen, die bei der Operationalisierung eines theoretischen Konstrukts auftreten (in diesem Fall: soziale Schicht), sei auf Suter/ Meyer- Fehr (1989) verwiesen. 148 Vgl. hierzu im Einzelnen die grundlegenden Erörterungen bei Kriz 1981, Kapitel 6 bis 11; eine kurze Darstellung findet sich bei Kriz 1994. Forschungsartefakte <?page no="175"?> 176 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 176 4.3 Operationalisierung Was für das Verständnis des Folgenden nötig ist, wurde im Wesentlichen schon angesprochen, und zwar im Zusammenhang mit dimensionaler Analyse des Gegenstandsbereichs bzw. semantischer Analyse von Begriffen sowie später im Zusammenhang mit den verschiedenen Arten von Begriffen (direkte und indirekte Beobachtungstermini, Konstrukte, theoretische Begriffe), mit Definitionen und mit Indikatorenauswahl. Zur Operationalisierung hieß es bisher sinngemäß, dies sei die Verknüpfung von sprachlichen Zeichen (=-Begriffen) mit Sachverhalten durch Korrespondenzregeln. (Zur Erinnerung: Eine Definition ist demgegenüber die Verknüpfung von unbekannten Zeichen mit bekannten Zeichen.) Einfacher formuliert: Unter der Operationalisierung eines Begriffs ist die Angabe derjenigen Vorgehensweisen, derjenigen Forschungsoperationen zu verstehen, mit deren Hilfe entscheidbar wird, ob und in welchem Ausmaß der mit dem Begriff bezeichnete Sachverhalt in der Realität vorliegt. Zur Operationalisierung gehören die Auswahl und Begründung der Indikatoren bei nicht direktem empirischem Bezug eines Begriffs sowie die Angabe der Datenerhebungsinstrumente: z. B. eine bestimmte Reihe von Fragen in einem standardisierten Interviewbogen oder eine bestimmte Zahl von Beobachtungskategorien in einem standardisierten Beobachtungsbogen. Weiter gehören dazu Angaben über die Handhabung des Messinstruments und über die Protokollierung der Messergebnisse. Die Operationalisierung ist ein für jeden Begriff notwendiger Übersetzungsvorgang in Techniken bzw. Forschungsoperationen-- gleichgültig, auf welche Art der Begriff definiert wurde; gleichgültig, ob er direkten oder indirekten empirischen Bezug aufweist. 149 Die Forderung nach Operationalisierung beschränkt sich-- das sei ausdrücklich hervorgehoben- - nicht auf Begriffe mit indirektem empirischem Bezug. Auch Begriffe mit direktem empirischem Bezug (wie z. B. Körpergröße) sind noch zu operationalisieren, d. h. sie müssen in Forschungsoperationen übersetzt werden. Die Operationalisierung von Körpergröße könnte sein: „An einer Wand ist eine Messlatte mit cm-Einteilung anzubringen; die Personen, deren Körpergrößen gemessen werden sollen, haben sich barfuß und aufrecht an die Wand vor 149 Die Gesamtheit der operationalen Vorschriften wird manchmal missverständlich auch als „operationale Definition“ eines Begriffs bezeichnet. In dem hier gebrauchten Sinn ist Operationalisierung jedoch nicht eine weitere Definitionsmöglichkeit neben der Nominal- und der Realdefinition. Sie ist also nicht eine Bedeutungszuweisung zu sprachlichen Zeichen, sondern sie ist eine Handlungsanweisung zur empirischen Anwendung von Begriffen. Bestandteile der Operationalisierung Operationalisierung aller Arten von Begriffen BEISPIEL <?page no="176"?> 177 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 177 die Messlatte zu stellen; der Versuchsleiter liest mit Hilfe eines waagerecht auf den Kopf der zu messenden Person gehaltenen Stabs die Körpergröße auf der Messlatte ab und trägt die cm-Zahl (aufbzw. abgerundet) in einen Protokollbogen hinter den Namen der gemessenen Person ein“. Das wäre eine Möglichkeit der Operationalisierung von Körpergröße; das Messergebnis hätte Rationalskalenniveau. Eine alternative Operationalisierungsmöglichkeit: „Alle Personen stellen sich in einer Reihe auf, so dass der (die) Kleinste ganz vorne steht, der (die) Zweitkleinste an zweiter Stelle usw., der (die) Größte schließlich an letzter Stelle steht. Die kleinste Person erhält im Protokollbogen hinter dem Namen die Zahl 1 vermerkt, die zweitkleinste Person die Zahl 2 usw., die größte Person schließlich die höchste Zahl in der aufsteigenden Zahlenfolge.“ Das Messergebnis hat jetzt Ordinalskalenniveau. 150 Zusammengefasst: Der Prozess der Operationalisierung bei Begriffen mit indirektem empirischem Bezug besteht maximal in folgendem „Dreischritt“: - Erstens. Auswahl und Begründung von Indikatoren, durch die der empirische Bezug hergestellt werden kann, sowie Formulierung der Korrespondenzregeln für die Indikatoren. Dieser Schritt entfällt bei Begriffen mit direktem empirischem Bezug, allerdings nur dann, wenn der Sachverhalt nicht nur prinzipiell, sondern auch faktisch der Beobachtung zugänglich ist. - Zweitens. Angabe und Begründung der Beobachtungsoperationen, mit denen das Vorliegen der Indikatoren (bzw. der direkt beobachtbaren Sachverhalte) festgestellt werden kann, sowie Angabe und Begründung des notwendigen Differenzierungsgrads der Beobachtungen und die Formulierung und Begründung der „Messvorschriften“ für die Durchführung und Protokollierung der Beobachtungen. Das Ergebnis ist ein „Messinstrument“, z. B. ein standardisierter Fragebogen oder ein inhaltsanalytisches Kategorienschema. - Drittens. Formulierung und Begründung von Vorschriften über die Zusammenfassung von Indikator-Einzelwerten zu einem Gesamtwert als „Messresultat“ für den Begriff mit indirektem empirischem Bezug. Dieser Schritt entfällt bei „eindimensionalen“ Begriffen. 4.3.1 Der Vorgang der Operationalisierung von Begriffen und-von-Aussagen Soweit es nicht lediglich um die Angabe der Messoperationen für (direkte) Beobachtungstermini geht, sondern wir es mit relativ abstrakten indirekten Beobachtungstermini zu tun haben: mit Konstrukten und theoretischen Begriffen (vgl. Abschnitt 3.4.2), sei der Vorgang der Operationalisierung hier noch einmal aus einer anderen Perspektive vertieft. 150 Der Begriff des Skalenbzw. Messniveaus wird in Kapitel 5.2.1 und in Kapitel 5.3 erläutert. Dreischritt der Operationalisierung Indikatoren und Korrespondenzregeln Beobachtungsoperationen, Messvorschriften Regeln für Zusammenfassung der Indikator- Einzelwerte <?page no="177"?> 178 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 178 Esser (1984, II, 9) unterscheidet auf dem Wege zur Operationalisierung theoretischer Konstrukte vier Einzelschritte: (1) Exploration des Vorstellungsfeldes (2) Konzeptspezifikation (3) Auswahl der Indikatoren (4) Indexbildung Mit „Exploration des Vorstellungsfeldes“ (1) ist die vorbereitende Erkundung der verschiedenen inhaltlichen Aspekte eines zunächst durch den zu operationalisierenden Begriff nur abstrakt bezeichneten Sachverhalts gemeint. Es ist zu klären, welche „inhaltlichen Dimensionen“ damit generell angesprochen sind und inwieweit dieser Begriff in relevanten Kontexten (z. B. verschiedenen Theorien) einheitlich oder unterschiedlich verwendet wird: „Das Ergebnis dieser Exploration ist die Auflistung der gefundenen unterschiedlich erscheinenden Dimensionen des Konstrukts“ (Esser 1984, II, 9). Im vorliegenden Text wurden diese Überlegungen im Zusammenhang mit der semantischen Analyse ausführlich behandelt (vgl. Kapitel 3.1 und 3.3). Unter „Konzeptspezifikation“ (2) ist ein weiterer Schritt der semantischen Analyse zu verstehen: die konkretisierende Systematisierung des Gefundenen im Hinblick auf die Perspektive der durchzuführenden empirischen Untersuchung. Die verschiedenen einzelnen Bedeutungsaspekte sind inhaltlich nach Homogenitätsgesichtspunkten zu gruppieren, so dass jede Gruppe von Teilaspekten jeweils einer semantischen Dimension des Begriffs zugeordnet werden kann. In Essers Worten: „Formal geschieht dies dadurch, dass man die verschiedenen Einzelaspekte eines Konstrukts auf die gedachten allgemeineren gemeinsamen Dimensionen bezieht. Dieses erfolgt üblicherweise über eine ,funktionale Abbildung‘: Jede Einzeldimension wird mit genau einer latenten allgemeineren Dimension des Konstrukts verbunden“ (Esser 1984, II, 10). Auch dieser Arbeitsschritt wurde weiter vorn erläutert (vgl. unter Kapitel 3.3 insbesondere das Beispiel einer semantischen Analyse des Begriffs „Führungskraft“). Im Unterschied zu den „latenten 151 allgemeineren Dimensionen“ des Begriffs sollten aber die zugeordneten Einzelaspekte so konkret sein, dass sie entweder schon Indikatorcharakter haben oder doch das semantische Feld für die Bestimmung von Indikatoren benennen (vgl. vorn im Beispiel „Führungskraft“ etwa die latente Dimension „Kompetenz“ mit den dazu angegebenen Einzelaspekten: „Übernahme von Personal- und Sachverantwortung, Recht auf Einstellung und Entlassung von Personal, Vertretung der Organisation nach außen, Generalvollmacht oder Prokura“). Aufgabe der „Konzeptspezifikation“ ist es also, die Brücke zwischen der abstrahierenden Theorieperspektive und dem Gegenstandsbereich, auf den sich die Theorie bezieht, zu schlagen. 151 „Latent“, da nicht direkt erfahrbar, sondern lediglich auf dem Wege über das Vorliegen konkreter empirischer Sachverhalte erschließbar; im Gegensatz zu den „manifesten Variablen“ auf der Indikatoren-Ebene. Schritte der Operationalisierung semantische Analyse konkretisierende Systematisierung <?page no="178"?> 179 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 179 Der nächstfolgende Schritt ist die definitive Auswahl der Indikatoren (3) und damit die ganz konkrete „Umsetzung der theoretischen Vorstellungen auf empirisch beobachtbare Äußerungen“ (Esser 1984, II, 12). Die Bezeichnung „Auswahl“ ist in diesem Zusammenhang durchaus wörtlich zu verstehen. Einige Autoren gehen von der Vorstellung aus, zu jeder latenten Dimension eines Konstrukts gebe es eine im Prinzip unendlich große Zahl manifester empirischer Entsprechungen (ein „Indikatoren-Universum“). Denn die latente Dimension bezeichnet einen Vorstellungsinhalt, der, ähnlich wie nomologische Aussagen, nicht an eine bestimmte historische Epoche und an einen bestimmten Ort gebunden ist und der sich daher in unterschiedlichen Konstellationen auf unterschiedliche Weise „manifestieren“ kann. „Auswahl“ der Indikatoren bedeutet dann für eine konkrete empirische Analyse: Erforderlich ist das Heranziehen der für die Untersuchungssituation angemessenen beobachtbaren Sachverhalte. Von zentraler Bedeutung ist diese Regel etwa für kulturvergleichende Forschungen: Ein theoretisches Konstrukt wie „sozialer Status“ äußert sich z. B. für eine entwickelte Industriegesellschaft nicht in gleicher Weise wie in einem Entwicklungsland oder in einer Kultur von Nomaden. Selbstverständlich dürfte es daher nicht durch dieselben, sondern müsste durch jeweils kulturell adäquate Indikatoren gemessen werden. 152 Natürlich kann die Auswahl von Indikatoren nicht nach dem Modell einer „Zufallsstichprobe aus dem Indikatoren-Universum“ geschehen; eher entspricht sie dem Vorgehen bei der „bewussten Auswahl typischer Fälle“ (siehe Kapitel 6). Das heißt aber, dass dieser Schritt nicht schematisch umgesetzt werden kann, sondern dass die Zuordnung von Indikatoren zu den jeweiligen Begriffsdimensionen begründet und in Form von Korrespondenzregeln nachprüfbar festgeschrieben werden muss. Der Arbeitsschritt (4)-- „Indexbildung“-- ist dann erforderlich, wenn zu einer Begriffsdimension mehrere Indikatoren ausgewählt wurden (vgl. Kapitel 4.2). Diese Strategie wird generell als methodische Regel empfohlen. Im konzeptuellen Teil der Operationalisierung wird man sich zwar bemühen, die Indikatoren so zu wählen und zu definieren, dass sie semantisch eindeutig einer latenten Dimension (und nur dieser) zuzuordnen sind. Ob das aber auch empirisch gelungen ist, wird sich erst nach der Erhebung der Daten im Zuge der Auswertung feststellen lassen. 153 Daher ist es empfehlenswert, sich nicht mit nur einem Indikator pro Dimension zu begnügen, sondern Daten zu vielleicht drei oder vier (semantisch) äquivalenten empiri- 152 Ausführlich diskutieren Rippl und Seipel (2008) die Schwierigkeiten und Fallstricke der kulturvergleichenden Sozialforschung. 153 Etwa mit Hilfe des statistischen Modells der Analyse latenter Klassen (als Überblick Bacher/ Vermunt 2010) oder durch Korrelationsrechnungen oder Faktorenanalysen (als Überblick Wolff/ Bacher 2010). Auswahl von Indikatoren Indexbildung Messung mit mehreren Indikatoren <?page no="179"?> 180 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 180 schen Sachverhalten zu erheben. In der Analysephase können dann die „besten“ 154 Indikatoren selektiert und unter Umständen noch zu einem Index zusammengefasst werden. Einerseits geschieht dies, um Redundanz zu vermeiden: Jeder Indikator zeigt ja von der Operationalisierungsabsicht her die gleiche latente Dimension an, ist also im Prinzip durch den jeweils anderen austauschbar. Andererseits hofft man, durch die Indexbildung Mess-Ungenauigkeiten auszugleichen: Dahinter steckt die Vorstellung, dass zwar keiner der Indikatoren hundertprozentig exakte Messwerte liefert, dass aber auftretende Abweichungen vom „wahren Wert“ der angezielten Dimension unsystematisch in unterschiedliche Richtungen weisen, so dass sie sich „im Durchschnitt“ ausgleichen. Mit dem Arbeitsschritt (4) endet die Spezifik der Operationalisierung theoretischer Konstrukte. Es folgt lediglich noch-- ebenso wie für direkte Beobachtungstermini-- die Festlegung der Messvorschriften (s. o., Beispiel „Körpergröße“). Die bisherigen Überlegungen beschränkten sich auf die Operationalisierung einzelner Begriffe, z. B.: Das theoretische Konstrukt A werde operationalisiert durch die Messung der Indikatoren a 1 , a 2 , a 3 ; oder das theoretische Konstrukt B durch die Indikatoren b 1 bis b 4 : Nur noch geringfügige Ergänzungen in unseren Überlegungen sind erforderlich, um zur Operationalisierung von Aussagesystemen zu kommen, dem Normalfall eines empirischen Forschungsprojekts-- sei es die Prüfung von Hypothesen oder Theorien oder sei es die Diagnose eines empirischen Gegenstandsbereichs, die auf der Basis eines durch die dimensionale Analyse gewonnenen deskriptiven Modells in Angriff genommen wird (vgl. Abschnitt 2.4.2 und 2.4.5). 154 Ein „guter“ Indikator zeigt trennscharf nur „seine“ latente Dimension an, weist auf der Datenebene also auch nur in dem Maße mit Indikatoren für andere Dimensionen eine Korrelation auf, wie die latenten Dimensionen selbst miteinander in Beziehung stehen. Falls zwei voneinander unabhängige latente Dimensionen operationalisiert worden sind, bedeutet das für die Datenebene: Die Indikatoren für jeweils eine Dimension sollten untereinander hoch korrelieren und zugleich zu den Indikatoren der anderen Dimension keine Korrelation aufweisen. Lesen Sie gegebenenfalls noch einmal das Kapitel 4.2. Operationalisierung von Aussagesystemen B A a 1 a 2 a 3 b 1 b 2 b 3 b 4 Abbildung 4.3: Operationalisierung von Konstrukten durch Indikatoren <?page no="180"?> 181 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 181 Zur Illustration sei nochmals auf die Blau/ Duncan-Fragestellung zum Zusammenhang von sozialer Herkunft mit der Bildung und dem Berufserfolg (Kapitel 3.2) zurückgegriffen. 155 Wollen wir diese „Mini-Theorie“ in Forschungsoperationen umsetzen, so haben wir es im Prozess der Operationalisierung mit drei Aussageebenen zu tun: 156 Erste Ebene-- Kerntheorie bzw. substanzielle Theorie: Sie besteht aus einer Menge theoretisch relevanter und theoretisch definierter Begriffe (Konstrukte, theoretische Begriffe), die über theoretische Postulate (Hypothesen) miteinander verbunden sind. Die Begriffe werden demnach in einem theoretischen Modell zueinander in Beziehung gesetzt; etwa: „X verursacht Y“ oder „Wenn X, dann auch Y“ oder „X führt zu Y, wenn gleichzeitig Z vorliegt“. Im obigen Beispiel lauten die theoretischen Postulate: „Die soziale Herkunft (H) beeinflusst die Bildung (B) der Söhne; diese wiederum wirkt sich auf deren späteren beruflichen Erfolg (E) aus.“ Und: „Die soziale Herkunft (H) hat darüber hinaus auch einen direkten Effekt auf den späteren beruflichen Erfolg (E) der Söhne.“ Sobald die in den theoretischen Postulaten vorkommenden Begriffe operationalisiert sind (durch Zuordnung direkt erhebbarer empirischer Sachverhalte als Indikatoren, s. o.), lassen sich analoge Aussagen für die „Beobachtungsebene“ formulieren. Dies ist die zweite Sprachebene-- die Ebene der Beobachtungsaussagen: Empirische Untersuchungen liefern zunächst nur Beschreibungen über beobachtbare Eigenschaften von Untersuchungseinheiten (UE). 157 155 Für den weiteren Vorgang der Operationalisierung dieses Aussagesystems ist es lediglich eine Frage der Perspektive, ob wir es als eine empirisch zu überprüfende „Theorie“ (=-ein System von Hypothesen) betrachten, oder ob es ein im Zuge der dimensionalen Analyse ad hoc aufgestelltes gedankliches Modell des Untersuchungsgegenstandes ist, das die gezielte Datenerhebung für eine empirische Beschreibung des interessierenden Sachverhalts ermöglichen soll. 156 Die folgende Darstellung orientiert sich an Esser 1979b sowie an Esser 1984, I. 157 Beispiel: Die erste befragte Person (UE 1 ) macht auf entsprechende Fragen die Angabe, sie stamme aus einem Vier-Personen-Haushalt in einer Stadtrand-Eigenheimsiedlung, ihr Vater sei Beamter im gehobenen Dienst, ihr höchster Schulabschluss sei das Abitur, und gegenwärtig sei sie stellvertretender Abteilungsleiter in der Gehaltsbuchhaltung eines mittelgroßen Industriebetriebs.-- Solche auf die einzelne Untersuchungseinheit bezogenen Beschreibungen (=- elementare Beobachtungssätze) sind zunächst als noch losgelöst von der „theoretischen Ebene“, als noch nicht mit dem theoretischen Modell verbunden anzusehen. BEISPIEL drei Aussageebenen 1. Ebene: substanzielle Theorie BEISPIEL 2. Ebene: Beobachtungsaussagen mit: H = „soziale Herkunft“ B = „Bildung“ E = „beru icher Erfolg“ = „...beein usst...“ oder „...wirkt sich aus auf...“ H B E Abbildung 4.4: Zusammenhang von Bildung und Berufserfolg <?page no="181"?> 182 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 182 Es sei die soziale Herkunft operationalisiert durch die Indikatoren „Berufsprestige des Vaters“ (h 1 ), „Bildung des Vaters“ (h 2 ) und „Status der elterlichen Wohngegend“ (h 3 ); die Bildung der Söhne durch die Indikatoren „Schulische Bildung vor Berufsbeginn“ (b 1 ) und „Weiterbildung nach Berufsbeginn“ (b 2 ); der berufliche Erfolg schließlich durch „Prestige der gegenwärtigen Berufsposition“ (e 1 ). Dann wären die theorie-implizierten (d. h. deduktiv aus obigen theoretischen Postulaten ableitbaren) empirischen Postulate: „h 1 , h 2 und h 3 sind positiv korreliert 158 mit b 1 und b 2 sowie mit e 1 “ sowie: „b 1 und b 2 sind positiv korreliert mit e 1 .“ Da in den theoretischen Postulaten (Hypothesen) ohne weitere Differenzierung generell eine Auswirkung der sozialen Herkunft auf z. B. die Bildung behauptet wurde und da die drei Indikatoren für soziale Herkunft sowie die zwei Indikatoren für Bildung als jeweils gleichwertige und gegeneinander austauschbare Operationalisierungen „ihrer“ Konstrukte gelten (s. o.), implizieren die Hypothesen also z. B. auch eine Korrelation des Indikators „Status der elterlichen Wohngegend“ mit den Indikatoren für Bildung (b 1 und b 2 ) sowie mit dem Indikator für den späteren Berufserfolg der Söhne (e 1 ). Gleiches gilt für den Indikator „Bildung des Vaters“. Auf der Datenebene möge sich nun herausstellen, dass dies nicht der Fall ist. So zeigen etwa die im Kapitel 3.2 referierten Befunde, dass zwar der berufliche Status des Vaters Auswirkungen auf den späteren Berufserfolg der Söhne hat („delayed effect“), nicht jedoch die Bildung des Vaters. Die Hypothese H-+→ E wird auf der Beobachtungsebene zwar durch h 1 ←+→ e 1 159 bestätigt, durch h 2- ←/ →e 1 jedoch widerlegt. Die Hypothese scheint in dieser Form zu pauschal zu sein. Man könnte daraus folgern: Die Theorie muss umformuliert werden; „soziale Herkunft“ muss schon auf der Theorie-Ebene differenzierter konzipiert werden (vgl. die Abschnitte 1.3.2 und 2.4.2). Die für die Bundesrepublik von Müller berichteten Befunde (vgl. Kapitel 3.2) deuten des weiteren darauf hin, dass der Indikator „Weiterbildung nach Berufsbeginn“ anscheinend völlig aus dem Rahmen (der obigen „Mini-Theorie“) fällt: Bei Personen, deren formale Bildung mit Eintritt in die Berufstätigkeit endgültig abgeschlossen ist, existieren relativ starke Korrelationen zwischen den Modellvariablen. Bei Personen mit zusätzlicher Weiterbildung nach Berufsbeginn finden sich dagegen nur vergleichsweise schwache Korrelationen; für diese hat jedoch die „Weiterbildung“ deutliche Konsequenzen für den späteren Berufserfolg. Folgt daraus auch eine schematische Widerlegung unserer „Mini-Theorie“? Vermutlich werden Sie vor dieser Schlussfolgerung zögern und vielleicht argumentieren, dass „Weiterbildung“ eigentlich gar nicht die „von der Theorie gemeinte“ 158 Zum statistischen Begriff der Korrelation wird auf Kapitel 8.3 verwiesen. „Positiv“ korreliert soll hier heißen: Der Korrelationskoeffizient hat ein positives Vorzeichen; bzw. für den Trend der Daten gilt: Je höher die gemessenen Werte für h 1 (bzw. h 2 , h 3 ), desto höher sind tendenziell die gemessenen Werte bei b 1 (bzw. b 2 ). 159 Der Doppelpfeil ←+→ soll symbolisieren, dass aus dem Korrelationskoeffizienten lediglich die Stärke des statistischen Zusammenhangs, nicht jedoch die Wirkungsrichtung ablesbar ist. BEISPIEL <?page no="182"?> 183 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 183 Bildung sei: In den theoretischen Postulaten gehe es schließlich insgesamt um die Rolle von Elternhaus und traditionellem Bildungssystem bei der Zuweisung von Lebenschancen. Bezogen auf diesen Zusammenhang könnten die späteren individuellen Weiterbildungsbemühungen eher als „Störfaktor“ betrachtet werden, als eine zusätzliche Wirkungsgröße, die den Einfluss von Elternhaus und Schule überlagert. Ihre Konsequenz wäre dann: Nicht die Theorie ist falsch (sie ist allenfalls unvollständig), sondern die Operationalisierung ist misslungen. „Weiterbildung nach Berufsbeginn“ ist-- so würden Sie vielleicht weiter argumentieren-- kein Indikator für das Konstrukt „Bildung“, sondern für ein anderes Konstrukt, z. B. für eine dispositionale Eigenschaft der Person, die man „Aufstiegsorientierung“ nennen könnte. Sie motiviert zu individuellen Anstrengungen, sich die für eine bessere berufliche Position erforderlichen Qualifikationen anzueignen. Die Disposition „Aufstiegsorientierung“-- so könnten Sie weiter überlegen-- ist vermutlich kein angeborenes Merkmal eines Menschen, sondern wird selbst wieder durch die Sozialisation im Elternhaus geprägt. Sie ist also ihrerseits von der sozialen Herkunft determiniert, aber möglicherweise nicht so sehr von der faktisch erreichten Position des Vaters, sondern von dessen Karrierewunsch oder/ und von der „gesellschaftlichen“ Erfolgsorientierung der Mutter („Unser Sohn soll es mal zu etwas bringen! “). Bildungsforscher sprechen in diesem Zusammenhang von „Aspirationsniveau“. Unter der Hand sind Sie im Lichte der empirisch gewonnenen neuen Informationen zur Revision Ihrer Theorie gekommen, die jetzt möglicherweise so aussieht: Kehren wir zurück zu unserer „Konfrontation der Theorie mit der Realität“. Im ersten Beispiel des Widerspruchs zwischen Daten und theorie-implizierter Beobachtungsaussage (keine Korrelation zwischen h 2 und e 1 , obwohl diese laut Hypothese H-+→ E existieren müsste) „glauben“ Sie den Daten. In diesem Fall sind Sie bereit, die betreffende Hypothese in der hier formulierten Form zurückzuweisen und sie als Konsequenz dimensional zu spezifizieren. Im zweiten Beispiel des Widerspruchs zwischen Theorieebene und Beobachtungsebene („Weiterbildung nach Berufsbeginn“ weist mit den übrigen Indikatoren ein anderes Beziehungsmuster auf als das theorie-implizierte) reagieren Sie anders: Sie weisen nicht flugs Bildung Berufseinstieg Berufskarriere Aufstiegsorientierung Weiterbildung soziale Herkunft Berufsstatus Bildungsstatus Aspirationsniveau Abbildung 4.5: Modifiziertes Theoriemodell <?page no="183"?> 184 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 184 die ganze „Mini-Theorie“ zurück, sondern vermuten, dieser Indikator messe „etwas anderes als das mit dem Konstrukt Bildung Gemeinte“, nämlich eine bisher nicht berücksichtigte theoretische Variable „Aufstiegsorientierung“. Mit anderen Worten: Sie verwerfen nicht die theoretische Hypothese, sondern bezweifeln deren Operationalisierung. 160 Damit sind wir bei der dritten Ebene der Operationalisierung theoretischer Aussagen, der Verknüpfung der Begriffe von Theorie- und Beobachtungssprache durch Korrespondenzregeln: Hypothesen und Theorien (das theoretische Modell, Ebene 1) müssen, um empirisch überprüfbar bzw. empirisch kritisierbar zu sein, mit den Beobachtungsaussagen (Indikatoren, Ebene 2) verbunden werden. Dies geschieht im Zuge der Operationalisierung eines Konstrukts durch Postulate darüber, 161 welche elementare Beobachtungsaussage 162 welchen Zustand eines empirischen Phänomens anzeigt, das im theoretischen Modell durch einen Begriff bezeichnet wird. Solche Postulate heißen Korrespondenzregeln. Sie legen fest, welcher beobachtbare Sachverhalt als Hinweis (als „Indikator“) auf den theoretisch gemeinten Sachverhalt gelten soll, oder mit anderen Worten: welcher empirische Sachverhalt mit dem theoretischen Sachverhalt „korrespondiert“. Korrespondenzregeln nehmen also die Zuordnung von Indikatoren zu Begriffen vor. Erst durch solche Herstellung der „Korrespondenz“ wird ein empirisch beobachtbarer Sachverhalt zu einem „Indikator für“ etwas begrifflich Gemeintes. Korrespondenzregeln geben somit Anweisungen für den Arbeitsschritt Datenerhebung. Als Indikator für „beruflichen Erfolg“ sollen die Antworten von Personen auf Fragen nach ihrer gegenwärtigen beruflichen Tätigkeit in Verbindung mit einer Skala des gesellschaftlichen Prestiges von Berufspositionen gelten. Zuordnungsregel: Je höher das gesellschaftliche Prestige der vom Befragten genannten Berufsposition, desto höher ist deren „beruflicher Erfolg“. 160 Das unvorhergesehene Ergebnis war aber dennoch hochwillkommen, weil „theoretisch fruchtbar“: Es veranlasste Sie, Ihre Theorie weiter auszubauen und deren Informationsgehalt zu vergrößern.- - Sie können diesen Fall als ein Illustrations-Beispiel für die Forderung des Kritischen Rationalismus sehen, Theorien im Wechselspiel von Theorie und Empirie zu prüfen und weiterzuentwickeln. 161 Solche Postulate können sowohl durch „bewährte“ Theorien als auch durch vorliegende empirische Einzelbefunde als auch durch „Alltagstheorien“ des Forschers begründet werden; sie können aber auch-- etwa im Falle definitorischer Indikatoren-- rein definitorische Festlegungen sein. In den zuerst genannten Fällen spricht man auch von „empirischer Interpretation“ theoretischer Terme (durch Interpretativsätze), im letzteren Fall von „Zuordnungsdefinitionen“ (vgl. Hempel 1974). 162 „Elementare Beobachtungssätze“ beziehen sich auf die einzelnen Untersuchungseinheiten. Die systematisierte Gesamtheit der „elementaren Beobachtungssätze“ stellt die Datenmatrix dar (vgl. Kapitel 5.3.3). Aus ihr können durch Auszählung und andere statistische Auswertungen „zusammengesetzte“ Beobachtungssätze über die Gesamtheit der Untersuchungseinheiten gewonnen werden (Anteilswerte, Durchschnitte, Trends, Korrelationen usw.). 3. Ebene: Korrespondenzregeln theoretischer Sachverhalt-- beobachtbarer Sachverhalt BEISPIEL <?page no="184"?> 185 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 185 Diese Zuordnung ist, um dies noch einmal in Erinnerung zu rufen, nicht gleichbedeutend mit einer Definition in dem Sinne, dass die Indikatoren den im theoretischen Modell verwendeten Begriff vollständig „ausmachen“. Sie ist vielmehr eine (mehr oder weniger sichere) Vermutung, dass die Indikatoren in der angegebenen Weise „wirklich“ mit dem theoretisch definierten Begriff zusammenhängen. Lediglich im Falle der Verwendung „definitorischer Indikatoren“ (vgl. Kapitel 4.1) sind Begriff und Indikatoren bedeutungsgleich. Die Korrespondenzregeln (die Hypothesen über die Korrespondenz von Indikatoren und theoretisch definiertem Begriff ) gehören damit zwingend zur Gesamttheorie. Empirisch zu interpretieren sind aber nicht nur die einzelnen Begriffe, sondern auch die theoretischen Postulate der Kerntheorie (die „Hypothesen“). Aus ihnen sind unter Verwendung der Indikatoren die theorie-implizierten Zusammenhangspostulate für die Beobachtungsebene zu deduzieren; es ist abzuleiten, welche „zusammengesetzten“ (d. h. durch Analyse der Daten gewinnbaren) Beobachtungsaussagen die empirische Untersuchung erbringen sollte, falls die theoretischen Hypothesen zutreffen. Empirisch interpretierte Theorien bestehen aus theoretisch definierten Begriffen und theoretischen Postulaten (Hypothesen über den Zusammenhang der Begriffe) und Korrespondenzregeln und Indikatoren und theorie-implizierten Beobachtungsaussagen (theoretischen Basissätzen). 4.3.2 Gültigkeit-- ein „Gütekriterium“ für die Operationalisierung Die vorstehende Darstellung verdeutlicht in besonderer Weise das Problem der Gültigkeit der operationalen Vorschriften. Operationale Vorschriften sind gültig, wenn bei Ausführung der vorgeschriebenen Forschungsoperationen das gemessen wird, was gemessen werden soll; d. h. wenn der Transfer von der theoretischen Ebene zum Gegenstandsbereich (Beobachtungsebene) gelingt. Korrespondenzregel ist Hypothese Gütekriterium: Gültigkeit (Validität) mit: h 1 = Berufsprestige des Vaters h 2 = Bildung des Vaters h 3 = Status der elterlichen Wohngegend b 1 = Bildung des Befragten vor Berufsbeginn b 2 = Weiterbildung nach Berufsbeginn e 1 = Prestige der gegenwärtigen Berufsposition Kerntheorie Korrespondenzregeln (Hilfstheorien) Indikatoren und Aussagen über empirische Zusammenhänge H B E h 2 h 1 h 3 b 2 b 1 e 1 Abbildung 4.6: Ebenen der Operationalisierung <?page no="185"?> 186 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 186 Ein Teilproblem davon ist die schon behandelte Frage der Indikatoren-Gültigkeit (Kapitel 4.1). In der einschlägigen Literatur wird eine Vielzahl von Dimensionen des Problems Gültigkeit (Validität) beschrieben. 163 Für unsere Zwecke genügt zunächst eine Unterscheidung zwischen semantischer (sprachlogischer) und empirischer Validität. Im ersten Fall-- semantische Gültigkeit-- richtet sich der Blick auf die Verknüpfung von Konstrukt und Indikatorbegriffen durch Korrespondenzregeln. Das Gültigkeitsproblem auf dieser Stufe entspricht dem in Kapitel 1.3 sowie im Abschnitt 2.4.2-- Theorietest-- bereits angesprochenen „Korrespondenzproblem“. Im zweiten Fall-- empirische Gültigkeit-- geht es darum, ob als Ergebnis der Datenerhebung genau das gemessen worden ist, was durch das Konstrukt bezeichnet wird; anders ausgedrückt: ob als Ergebnis der Datenerhebung die „wahren Werte“ über die Indikator-Sachverhalte vorliegen. 164 Das Gültigkeitsproblem auf dieser Stufe entspricht dem in Kapitel 1.3 behandelten Basissatzproblem. Die (sprach-)logische bzw. semantische Gültigkeit einer operationalen Vorschrift „betrifft die Beziehung zwischen Sätzen, die die Vorschrift beschreiben, und solchen, die die Definition angeben. (…) Der besondere Charakter einer idealen Gültigkeitsbeziehung ist sehr schwierig zu formulieren, aber im Wesentlichen bedeutet die vollkommene Gültigkeit einer operationalen Definition, dass die operationale Definition [gemeint ist: empirische Interpretation durch Indikator-Begriffe; H. K.] denselben Inhaltsbereich hat wie die nominelle Definition“ (Zetterberg 1973, 119). Die Frage ist also: Wird die Begriffsdefinition korrekt in operationale Vorschriften „übersetzt“? Haben die gewählten Indikatoren den gleichen Bedeutungsgehalt, d. h. sind sie semantisch äquivalent? Auf den ersten Blick scheint es nicht problematisch zu sein, die semantische (sprachlogische) Gültigkeit sicherzustellen. Wollen wir etwas über die Arbeitszufriedenheit der Beschäftigten in der Montan-Industrie erfahren, dann stellen wir den dort Beschäftigten Fragen nach ihrer Arbeitszufriedenheit. Wollen wir wissen, wie Personen in Stresssituationen reagieren, dann beobachten wir Personen in Stresssituationen. Die Überlegungen in Kapitel 4.1 (Indikatoren) haben aber schon gezeigt, dass es nicht immer einfach ist, die bestmöglichen Indikatoren für einen begrifflich bezeichneten Sachverhalt zu finden. Die Überprüfung der semantischen Gültigkeit operationaler Vorschriften kann zu fünf möglichen Ergebnissen führen (nach Zetterberg 1973, 120 f.): 1) Gegeben sei eine Nominaldefinition von „Arbeitszufriedenheit“ (für unsere Überlegungen ist es gleichgültig, wie diese lauten möge). Die dazugehörige Ope- 163 Vgl. etwa Falter 1977; Hülst 1975, 32 ff. 164 Man geht also davon aus, dass die untersuchten Objekte eine unabhängig von der Messung existierende „wahre“ Eigenschaftsausprägung auf der mit dem Konstrukt bezeichneten Dimension aufweisen, so dass es bei der Messung lediglich darum geht, diesen „wahren Wert“ richtig abzubilden. semantische-- empirische Gültigkeit semantische Gültigkeit: Korrespondenzproblem empirische Gültigkeit: Erhebungsergebnis semantische Gültigkeit mögliche Ergebnisse der Prüfung <?page no="186"?> 187 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 187 rationalisierung soll aus Fragen zur Arbeitszufriedenheit bestehen, und zwar wird zu jeder Bedeutungsdimension des definierten Begriffs eine präzise Frage gestellt. In diesem Fall ergibt eine logische Prüfung des Bedeutungsumfangs von nominal definiertem Begriff und operationaler Vorschrift, dass der Inhaltsbereich von beiden identisch ist. Aus semantischer Sicht ist in diesem Fall vollständige Validität gegeben. 2) Gegeben sei wieder die Nominaldefinition von „Arbeitszufriedenheit“ sowie eine Operationalisierung, die sich diesmal lediglich mit einer Reaktion „Ich bin zufrieden mit der Lüftung am Arbeitsplatz“ begnügt. Ein Vergleich mit der Nominaldefinition dürfte in einem solchen Falle sicher zeigen, dass der Begriff „Arbeitszufriedenheit“ mehr umfasst als nur Zufriedenheit mit der Lüftung, bzw. dass die Operationalisierung zu eng ist. Anders ausgedrückt: Der Bedeutungsumfang der Nominaldefinition ist weiter als der der Operationalisierung; die Definition umfasst zwar (u. a.) die o. g. operationale Vorschrift, aber darüber hinaus noch weitere Aspekte. 3) Diesmal sei als Operationalisierung die Aussage gegeben (zu der die Befragten Stellung nehmen sollen): „Ich fühle mich wohl.“ Ein semantischer Vergleich mit der Nominaldefinition von „Arbeitszufriedenheit“ zeigt in diesem Fall, dass die Operationalisierung zu weit ist; hier wird offensichtlich mehr angesprochen als nur der Aspekt „Arbeitszufriedenheit“. Also: Diesmal umfasst der Bedeutungsumfang der operationalen Vorschrift zum einen die Nominaldefinition, aber darüber hinaus noch weitere Aspekte: 4) Nun sei als Operationalisierung die Aussage gegeben: „Ich schätze meine Freunde und Bekannten hier in X-Stadt.“ Natürlich sind damit auch die Arbeitskollegen angesprochen; insofern ist der Bereich „Arbeitszufriedenheit“ berührt. Aber zusätzlich bezieht sich die Aussage auf Freunde und andere Bekannte, die für die vollständige Validität Operationalisierung zu eng Operationalisierung zu weit De nition Operationalisierungsregel Abbildung 4.7: Semantische Gültigkeit: zu enge Operationalisierung De nition Operationalisierungsregel Abbildung 4.8: Semantische Gültigkeit: zu weite Operationalisierung <?page no="187"?> 188 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 188 Herausbildung von „Arbeitszufriedenheit“ keine Rolle spielen. Mit anderen Worten: Die Operationalisierung ist nicht trennscharf; sie vermischt Aspekte allgemeiner Lebenszufriedenheit mit solchen der Arbeitszufriedenheit. Der Bedeutungsumfang der operationalen Vorschrift umfasst die Nominaldefinition teilweise (und umgekehrt): 5) Schließlich kann zumindest hypothetisch noch der Fall auftreten, dass der Bedeutungsumfang der Nominaldefinition und der der operationalen Vorschrift überhaupt keine Schnittmenge aufweist. In diesem Fall besteht gar keine semantische Gültigkeit. Beispielsweise könnte es passieren, dass bei der Übersetzung eines schriftlichen Fragebogens in die Heimatsprachen ausländischer Arbeitnehmer Worte gewählt werden, die zwar lexikalisch „richtig“ zu sein scheinen, bei den zu befragenden Arbeitnehmern im Kontext ihrer Lebenswelt jedoch völlig andere Bedeutungsassoziationen hervorrufen. Um solche Fehler zu vermeiden, müssen in eine Fremdsprache übersetzte Fragebögen einer ausgesprochen sorgfältigen semantischen Kontrolle unterzogen werden, beispielsweise indem sie von einem Angehörigen der Zielkultur ins Deutsche zurückübersetzt werden. Unterstellt, der erste Schritt der Validitätsprüfung habe ergeben, dass die semantische (sprachlogische) Validität gewährleistet ist. Wie aber steht es- - zweiter Schritt der Validitätsprüfung- - mit der empirischen Gültigkeit? Wird auch durch die Erhebung genau das gemessen, was durch das Konstrukt bezeichnet worden ist? Ideal wären Erhebungsstrategien, die den jeweiligen Indikator-Sachverhalt völlig unverfälscht abbilden und ihn zugleich durch den Messvorgang vollkommen unverändert lassen. In diesem (idealtypischen) Fall beschränkte sich das Gültigkeitsproblem allein auf die Angemessenheit der Korrespondenzregeln für die Zuordnung der Indikatoren (semantische Gültigkeit). Diese Situation wäre z. B. gegeben, wenn für die Feststellung des Berufsstatus von Personen die Personalakten beim Arbeitgeber eingesehen werden könnten oder wenn die auf Video vorliegende Aufzeichnung einer öffentlichen Diskussionsveranstaltung zu kodieren oder die Häufigkeit des Auf- Operationalisierung nicht trennscharf keine semantische Gültigkeit empirische Gültigkeit ideale Opera tionalisierung De nition Operationalisierungsregel Abbildung 4.9: Semantische Gültigkeit: nicht trennscharfe Operationalisierung De nition Operationalisierungsregel Abbildung 4.10: Keine semantische Gültigkeit <?page no="188"?> 189 4.3 Operationalisierung www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 189 tretens bestimmter Schlüsselwörter in literarischen Schriften zu zählen wäre. Meist ist es jedoch entweder gar nicht möglich oder aber zu mühsam, nach solchen „idealen“ operationalen Vorschriften vorzugehen. Wenn wir an der Feststellung interessiert sind, in welchem Ausmaß Studenten Bücher aus der Bibliothek entleihen, wäre die Auswertung der Bibliotheksaufzeichnungen eine ideale operationale Vorschrift. Falls das nicht möglich ist (Datenschutz), wäre es ein praktikabler Ausweg, die Studierenden selbst zu fragen, wie viele Bücher sie während einer bestimmten Periode ausgeliehen haben. Das ist relativ leicht machbar. Ist aber ein solches Vorgehen empirisch gültig (d. h. stimmen die Antworten auf die Frage nach der Ausleihhäufigkeit mit der Zahl der tatsächlich ausgeliehenen Bücher überein)? Die sprachlogische (semantische) Gültigkeit dürfte gegeben sein, wenn wir Ausleihhäufigkeit nominal als Anzahl entliehener Bücher in einer bestimmten Periode definieren und als Operationalisierung die Antwort auf die Frage nach der Anzahl der entliehenen Bücher in dieser Periode vorsehen. Die empirische Gültigkeit ist natürlich nur empirisch zu überprüfen. Wir machen also, um sicherzugehen, eine Stichprobe an Ort und Stelle; an dieser wollen wir feststellen, ob unser operationales Vorgehen (hier: Protokollierung der Antworten auf die Frage nach der Zahl entliehener Bücher) dieselben Ergebnisse bringt wie die ideale operationale Vorschrift (nämlich Auswertung der Bibliotheksaufzeichnungen für diejenigen Studierenden, die wir befragt haben). Dabei werden wir dann unter Umständen feststellen, dass sieben von acht befragten Studentinnen und Studenten die Zahl der von ihnen entliehenen Bücher überschätzen und dass die „besten“ Studierenden am wenigsten, die „schwächsten“ am meisten übertreiben. 165 Das operationale Vorgehen hat also (obwohl sprachlogisch gültig) nur eine geringe empirische Gültigkeit, und zwar besonders in Bezug auf die „schwachen“ Studentinnen und Studenten. Der Regelfall wird also sein, dass wir nicht mit „idealen“ Operationalisierungen arbeiten können, sondern mit Hilfe mehr oder weniger indirekt messender Verfahren unsere Informationen sammeln müssen. Dabei können zwei Typen von Ursachen für Informationsverzerrungen 166 wirksam werden: einerseits solche, die im Instrument selbst liegen, andererseits solche, die in der Erhebungssituation auftreten. 165 So das Ergebnis eines entsprechenden empirischen Vergleichs von Stocke und Lehmann (vgl. Zetterberg 1973, 121). In einer anderen Untersuchung wurden bei einem Vergleich der Angaben von Personen, die bei Autounfällen verletzt wurden, mit offiziellen Unterlagen und Dokumenten je nach erfragtem Merkmal Übereinstimmungen zwischen nur 23,8 (! ) und 99,6 Prozent festgestellt (nach Scheuch 1973, 140; dort findet man weitere Beispiele). 166 Von einer Beeinträchtigung der Gültigkeit wird man aus der hier eingenommenen Perspektive der Operationalisierung genau genommen nur dann sprechen, wenn „systematische“ Abweichungen zwischen den „wahren“ Eigenschaftsausprägungen und den Messwerten auftreten, wenn somit das Bild der Realität bei Zusammenfassung einer größeren Zahl von Fällen „verzerrt“ wiedergegeben wird. Unsystematische Schwankungen der Messwerte um den „wahren“ Wert werden dann unter dem Stichwort „Zuverlässigkeit“ als ein spezifisches Güte- BEISPIEL zwei Typen von Verzerrungen <?page no="189"?> 190 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 190 Vom Messinstrument verursachte systematische Fehler sind zum einen jene, die ihre Wurzel in mangelnder semantischer Gültigkeit haben. Ist ein Indikator gewählt worden, der nicht trennscharf die eigentlich anvisierte Dimension trifft, dann setzt sich dieser Fehler in der Datenerhebung fort: Das Instrument bildet in den Messwerten systematisch nicht (nur) die theoretisch gemeinte Dimension ab, sondern (auch) etwas anderes. Beispiele hierfür wären die Operationalisierungen (3) und (4) für „Arbeitszufriedenheit“ bei der obigen Abhandlung der sprachlogischen (semantischen) Gültigkeit. Als weiteres Beispiel sei auf den Indikator „Weiterbildung nach Berufsbeginn“ als teilweiser Operationalisierung des Begriffs „Bildung“ im Abschnitt 4.3.1 verwiesen. Daneben kann aber das Messinstrument, selbst bei semantischer Gültigkeit der Indikatoren, Auslöser von systematischen Verzerrungen sein; bei Fragebögen z. B. durch Benutzung von (nur bestimmten Personengruppen geläufigen) Fremdwörtern oder Fachausdrücken, durch schwer verständliche oder gar durch suggestive Frageformulierungen, durch die Reihenfolge der Fragen und der angeschnittenen Themen und durch manches mehr (ausführlicher dazu Kapitel 7.3 und 7.4). Von der Erhebungssituation ausgehende systematische Fehler resultieren aus der Spezifik der Forschungskontaktsituation: So sind bei teilnehmender Beobachtung die Beobachter abhängig von der realen Definition der Situation, in die sie sich als unerkannte Beobachter einpassen müssen und die ihnen nur bedingt unbeeinflusste Beobachtungen ermöglicht, die sie zudem durch ihre eigene Anwesenheit im Feld mehr oder weniger stark verändern (die Daten können dann niemals vollständig das widerspiegeln, was „wirklich“ gewesen wäre, wenn kein Beobachter eine Rolle im Untersuchungsfeld eingenommen hätte). Im Falle des mündlichen Interviews können systematische Verzerrungen durch das Interviewer-Verhalten sowie durch den Kontext, in dem das Interview steht, initiiert werden; etwa wenn die Interviewerin/ der Interviewer die vorgesehenen Fragen nicht bei jeder befragten Person in gleicher Weise stellt oder wenn während des Interviews andere Personen hinzukommen. Verzerrungen können auch in spezifischen Reaktionsweisen der befragten Person begründet sein; etwa wenn jemand bei ihm unklaren Fragen lieber mit „ja“ als mit „weiß ich nicht“ antwortet, oder wenn jemand sich dem Interviewer/ der Interviewerin gegenüber in besonders positivem Licht darstellen möchte. 167 Eine weitere Illustration für diesen Typ von Gültigkeits-Beeinträchtigung ist das vorn skizzierte Beikriterium der Messung gesondert behandelt (vgl. Kapitel 5.6; ausführlicher Esser 1984, II, 31 ff.). Natürlich ist die Zuverlässigkeit der Messung für das übergreifende Kriterium der Gültigkeit der Operationalisierung eine notwendige, aber keine hinreichende Bedingung. 167 So haben Auswertungen von Bevölkerungsumfragen gezeigt, dass männliche Berufstätige ihr Einkommen um durchschnittlich rund 250 Euro nach oben „aufbesserten“, wenn sie von Interviewerinnen befragt wurden (im Vergleich zur Forschungskontaktsituation: männlicher Befragter und männlicher Interviewer). vom Messinstrument verursachte Fehler BEISPIELE von der Erhebungssituation ausgehende Fehler <?page no="190"?> 191 4.4 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 191 spiel der Erhebung der Ausleihhäufigkeit in der Universitätsbibliothek. (Auch diese Thematik wird in den Kapiteln 7.3 und 7.4 ausführlicher behandelt.) Ist die Beurteilung der semantischen Validität durch Vergleich der Definition des zu operationalisierenden Begriffs mit den im Zuge der Operationalisierung verwendeten Korrespondenzregeln noch relativ leicht möglich (semantische Analyse des theoretischen Begriffs und der Indikatorbegriffe), so gilt dies nicht mehr für die Prüfung der empirischen Validität. Entsprechend den für die Beurteilung gewählten Strategien unterscheidet man üblicherweise zwischen Inhalts-, Kriteriums- und Konstruktvalidität (Zeller/ Carmines 1980, 78 ff.). Bei der Inhaltsvalidität beschränkt sich die Prüfungsfrage im Wesentlichen darauf, ob die Untersuchungsergebnisse plausibel erscheinen; insbesondere ob alle untersuchungsrelevanten Dimensionen in der Operationalisierung berücksichtigt wurden und ob die gewählten Vorgehensweisen (und Resultate! ) mit dem bisherigen „State of the Art“ sowie mit dem bisher akzeptierten Wissen kompatibel sind.-- Der Anspruch der Kriteriumsvalidität ist insofern höher, als für deren Test der Vergleich mit einem unabhängigen Vergleichswert vorzunehmen ist. Man benötigt also einen zweiten Satz empirischer Daten über einen Sachverhalt, der inhaltlich mit dem operationalisierten Begriff hinreichend stark zusammenhängt und der deshalb als externes Prüfkriterium verwendet werden kann. Die Kriteriumsvalidität gilt dann als hoch, wenn die Kriteriumsdaten mit den eigentlich interessierenden Daten hoch korrelieren.-- Das Konzept der Konstruktvalidität schließlich geht von der Überlegung aus, dass der zu operationalisierende theoretische Begriff („Konstrukt“) in mehreren empirisch prüfbaren Zusammenhangshypothesen verwendet werden kann, anders ausgedrückt: dass er als „Wenn-Komponente“ in Hypothesen mit unterschiedlicher „Dann-Komponente“ erscheinen kann (siehe H-O-Schema, Kapitel 2.4.1). Falls sich empirisch nachweisen lässt, dass die gemessenen abhängigen Variablen (die „Dann-Komponenten“) hinreichend hoch korrelieren, kann dies als Hinweis auf eine valide Messung des Konstrukts gewertet werden (vgl. das Beispiel zum Begriff „Einstellung“ in Kapitel 4.1, S. 167). 4.4 Annotationen aus der Perspektive qualitativinterpretativer Methoden Operationalisierung und Indikatorenauswahl im engeren Sinne finden in der qualitativ-interpretativen Forschung nicht statt, daher erübrigen sich umfangreichere Ausführungen dazu. Hinzuweisen ist an dieser Stelle aber auf die im Kontext qualitativer Verfahren immer wieder geführte und in den Annotationen zu den vorangegangenen Kapiteln bereits erwähnte Diskussion um den Stellenwert theoretischen Vorwissens, also darum, woher die Begriffe und Aussagen stammen, die als Ergebnis qualitativer Forschung präsentiert werden. Die Grundproblematik besteht darin, dass eine rein induktive empirische Forschung erkenntnislogisch unmöglich ist, weil allein die Erfassung und Benennung empirischer Phänomene immer schon theoriehaltiger Symbolsysteme bedarf. Umgekehrt zielt aber qualitativ-interpretative Forschung explizit und in kritischer Abgrenzung von hypothetiko-deduktiven Verfahren Inhaltsvalidität Kriteriumsvalidität Konstruktvalidität <?page no="191"?> 192 4. Strategien der Operationalisierung und Indikatorenauswahl www.claudia-wild.de: Kromrey__Sozialforschung__1-4__[Druck-PDF]/ 06.09.2016/ Seite 192 gerade darauf, in theoretisierender Absicht Aussagen über empirische Phänomene zu treffen, die nicht schon durch theoretisches Vorwissen präformiert oder- - wie es mitunter etwas weniger freundlich heißt- - ‚kontaminiert‘ sind. Herbert Blumer (1954) hat dazu schon früh den Vorschlag unterbreitet, theoretisches Vorwissen nicht per se zu diskreditieren, sondern genauer darauf zu achten, welcher Stellenwert diesen Konzepten im Forschungsprozess zugewiesen wird. Blumer unterscheidet zwischen „definitiven“ und „sensibilisierenden“ Konzepten. Als definitiv bezeichnet er Theoriebezüge, für deren Konzepte eine feststehende Relation zu einer gegebenen Wirklichkeit vorausgesetzt wird und die den Gang der weiteren Forschung mitbestimmen, weil sie das Wahrnehmungsraster der empirischen Erforschung bilden. „Sensibilisierende“ Konzepte sind solche, die die Forschung nicht strukturieren, sondern offene Fragen oder ergänzende Untersuchungsperspektiven enthalten. Es geht Blumer also um einen anderen Modus des Theoriebezugs. Er war damit wegweisend für ein differenziertes Theorie-Empirie-Verhältnis in der qualitativen Sozialforschung, in der die letztgenannte, sensibilisierende Verwendungsweise theoretischen Vorwissens inzwischen die Regel ist. Vielfach wird also schon vor der empirischen Studie relevantes Wissen über das Feld akquiriert, dieses dann jedoch eher zur Stimulation von Neugier und zur Erschließung zusätzlicher Dimensionen der Forschungsfrage-- und nicht als potenzielle Antwort auf sie-- genutzt. Mitunter ist auch in der qualitativ-interpretativen Forschung von Indikatoren den Rede (etwa in der Grounded Theory; vgl. Kapitel 9.1). Allerdings ist damit ein dynamisches Interdependenzverhältnis zwischen empirischen Instanzen (Fällen, Ereignissen) und ihren theoretischen Referenten gemeint, kein Set von empirischen Prüfsteinen theoretischer Hypothesen. 4.4.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Bohnsack, Ralf, 2014: Rekonstruktive Sozialforschung. Einführung in qualitative Methoden. Opladen, Kap. 2 u. 11, S. 15-32 u. 191-204. (Kap. 2 ist eine kritische Auseinandersetzung mit dem forschungslogischen Paradigma standardisierter, Hypothesen testender Sozialforschung, die hier mit der Perspektive der Rekonstruktion konfrontiert wird; Kap 11 ist eine etwas voraussetzungsvolle, aber auch sehr lehrreiche Diskussion über Vorwissen, implizites Wissen und Wege der Integration von Vorwissen und Empirie.) Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Forschungsdesigns für die qualitative Sozialforschung, in: Baur, N.; Blasius, J. (Hg.): Handbuch Methoden der empirischen Sozialforschung, Wiesbaden, 117-133. Strübing, Jörg, 2014: Grounded Theory. Zur sozialtheoretischen und epistemologischen Fundierung des Verfahrens der empirisch begründeten Theoriebildung. Wiesbaden, Kap. 4, S. 51-64. (In der Grounded Theory gab es zwischen Vertretern unterschiedlicher Richtungen heftige Diskussionen zur Frage des Vorwissens. In diesem Buchabschnitt wird die Problematik für die Grounded Theory erörtert.) definitive vs. sensibilisierende Konzepte <?page no="192"?> 193 www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 193 5 Messung und Datenerhebung in-den-Sozialwissenschaften 5.1 Die Informationsgewinnung im Prozess der-empirischen-Forschung Ging es bisher um die Strukturierung und schrittweise Präzisierung einer Forschungsfragestellung, so widmen sich die folgenden Kapitel den weiteren Konkretisierungen mit dem Ziel der kontrollierten Gewinnung empirischer Informationen. Konnte die Darstellung der Methodologie sich bisher idealtypisch am Modell des Forschungsprozesses mit voneinander abgrenzbaren und zeitlich aufeinander folgenden Arbeitsschritten 168 orientieren, so ist diese Perspektive bei den nächsten Punkten-- Messen, Auswahlverfahren, Erhebungsinstrumente-- nicht mehr aufrechtzuerhalten. Die Entscheidungen über geeignete Instrumente, über den anzustrebenden Differenzierungsgrad der Daten, über das geeignete Verfahren der Auswahl von Untersuchungs-„Objekten“ können weder sukzessive noch unabhängig voneinander getroffen werden. So ist z. B. die Festlegung auf das Verfahren der empirischen Inhaltsanalyse von Zeitungsberichten (etwa mit dem Ziel, die Informationspolitik verschiedener Verlage zu vergleichen) zugleich eine Festlegung auf eine spezifische Art von Untersuchungsobjekten (etwa „Zeitungsartikel“). Die Entscheidung für das Instrument Befragung (bei gleicher Fragestellung der Untersuchung) wäre dementsprechend zugleich eine Entscheidung für eine andere Art von Untersuchungsobjekten (etwa „Redakteure“). Die Festlegung auf eine bestimmte Art von Untersuchungsobjekten wiederum kann Konsequenzen dafür haben, wie präzise die interessierenden Merkmale gemessen werden können. Beispielsweise kann der Forscher für Interviews mit Redakteuren in seinem Fragebogen selbst festlegen, wie differenziert er bestimmte Informationen abfragen will. Bei der Auswertung von Zeitungsberichten dagegen ist er an die dort vorgegebene Tiefe oder Oberflächlichkeit der Argumentation gebunden; möglicherweise wird er-- um überhaupt die Vergleichbarkeit verschiedener Berichte zu gewährleisten-- seine Informationen nur sehr grob erheben können. Zum Verständnis der weiteren Arbeitsschritte in einem empirischen Forschungsprojekt muss daher jetzt die Perspektive des prozessualen Ablaufs einer Untersuchung verlassen werden. Stattdessen knüpfen wir an das im Abschnitt 2.4.5 vorgestellte „Strukturmodell“ für nichtexperimentelle Forschungsprojekte an, das die sachlogischen Zusammenhänge zwischen den einzelnen Arbeitsschritten aufzeigt. 168 Vgl. Kapitel 2.2 verbundene Entscheidungen im Forschungsprozess BEISPIEL <?page no="193"?> 194 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 194 www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 195 In den vorhergehenden Kapiteln sind bisher behandelt worden: die gedankliche Strukturierung des Objektbereichs (dimensionale Analyse, Entwicklung eines Untersuchungsmodells), die abbildende Beschreibung des Objektbereichs mit Hilfe sprachlicher Zeichen (semantische Analyse, Begriffe, Definitionen) sowie die Möglichkeiten der Herstellung der Beobachtbarkeit dieser begrifflich bezeichneten Sachverhalte (Auswahl und Begründung von Indikatoren). Darauf aufbauend ist nun ein weiterer wichtiger Konkretisierungsschritt zu leisten. Diese Konkretisierung bezieht sich zum einen auf den Grad der Differenzierung, mit dem die als Indikatoren benutzten empirischen Sachverhalte gemessen werden sollen. Der Differenzierungsgrad kann von der bloßen Feststellung des Vorhandenseins oder Nicht-Vorhandenseins eines Tatbestands bis zur präzisen Erfassung des Ausmaßes seines Vorhandenseins reichen. Durch die Angabe des Differenzierungs- oder Variabilitätsgrades, der bei der Datenerhebung berücksichtigt werden soll, werden die begrifflich bezeichneten Indikatoren zu „Variablen“. Die Konkretisierung bezieht sich zum anderen auf die Regeln zur Feststellung der zu messenden Sachverhalte an den zu untersuchenden Objekten, d. h. auf die Messvorschriften. Die interessierenden Sachverhalte sollen nicht länger als abstrakte gedankliche Konzepte betrachtet werden, sondern als Merkmale von (konkreten) Untersuchungsobjekten. So kann etwa der mit dem Begriff „Einwohnerzahl“ bezeichnete Sachverhalt nicht als solcher, sondern nur als Merkmal konkreter Dörfer oder Städte oder Länder oder Staaten gemessen werden. Ebenso ist „sozialer Status“ nicht als abstraktes, begrifflich definierbares Phänomen empirisch feststellbar, wohl aber als Merkmal von Personen. Messvorschriften sind also Regeln, nach denen abstrakte gedankliche Konzepte (wie Körpergröße, Gewicht, Geschwindigkeit, Farbe, Geschlecht, Alter, Einkommen, Bildung, Lernerfolg, Zufriedenheit) an konkreten empirischen Objekten festgestellt werden sollen. Mit anderen Worten: Die Messvorschriften geben an, auf welche Weise der Forscher seine gedanklichen Konzepte mit der Realität zu verknüpfen beabsichtigt. Hier-- bei der Strategie der Informationsgewinnung- - zeigt sich einer der grundlegenden methodologischen Unterschiede der standardisiert verfahrenden zur qualitativ-interpretativen Sozialforschung. Standardisierter Forschung geht es darum, Informationen in Form von „Daten“ zu gewinnen. Unter Daten werden Merkmalsmesswerte verstanden, anhand derer die untersuchten Objekte unmittelbar- - ohne weitere Interpretationsschritte − verglichen und z. B. statistisch ausgewertet werden können. Konkretisierung: Grad der Differenzierung Messvorschriften Definition: Daten <?page no="194"?> 195 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 195 So hat beispielsweise Lisa Meyer viele Eigenschaften, aber als Daten halten wir konkret fest: Alter 34 Jahre, Beruf Finanzbuchhalterin, Nettoeinkommen 2.600 €. Bei Hermann Müller halten wir die vergleichbaren Daten fest: Alter 27 Jahre, Beruf Handelsvertreter, Nettoeinkommen 2.400 €). Diese „Daten“ sind so zu erheben, dass sie für jedes Untersuchungsobjekt (im Beispiel: Personen) die interessierenden Merkmale (im Beispiel: Alter, Beruf, Nettoeinkommen) durch die individuell zutreffenden Ausprägungen abbilden (im Beispiel: Lisa Meyer =- 34 Jahre, Finanzbuchhalterin, 2.600 €; Hermann Müller =- 27 Jahre, Handelsvertreter, 2.400 €). Damit dies „objektiv“ (im Sinne von: ausschließlich vom zu messenden Objekt abhängig) geschieht, muss man das ganze Verfahren standardisieren. Das heißt, es ist für jeden Fall und in jeder Erhebungssituation in identischer Weise vorzugehen (vgl. Abschnitt 1.2.4). Qualitative Forschung verfolgt bei der Informationsgewinnung eine deutlich andere Strategie: nicht selektive Erhebung vorab definierter Merkmale, sondern breite Informationssammlung aus möglichst vielfältigen Perspektiven; nicht Objektivierung durch Standardisierung, sondern situationsflexible, offene Erhebung. Die Konsequenz ist, dass die untersuchten Fälle nicht unmittelbar anhand von „Daten“ für präzise definierte Merkmale verglichen werden können, sondern dass in der Auswertungsphase zunächst die (qualitativen) Informationstexte pro Fall semantisch zu interpretieren sind. Das muss jedoch an dieser Stelle noch nicht weiter vertieft werden; Interessierte werden auf die Annotationen in Kapitel 5.8 und auf Kapitel 9 verwiesen. 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen 5.2.1 Statistik als Modelldenken Wie schon angesprochen, sollen die standardisiert erhobenen Daten in der Auswertungsphase statistisch analysiert werden. Vielleicht kennen Sie die (nicht so ernst gemeinte) Steigerungsform des Begriffs „Lüge“: Lüge-- unverschämte Lüge-- Statistik. Wahrscheinlich aber haben Sie schon einmal den (ernster gemeinten) Ausspruch gehört, mit Statistik könne man alles beweisen-- auch das Gegenteil. Der Kern an Wahrheit, der in solchen Aussagen steckt, ist die leider nicht selten zu beobachtende falsche Anwendung statistischer Modelle bei Fragestellungen, für die diese Modelle nicht entworfen worden sind. Man kann eben nicht mit ungültigen Verfahren-- mit unangemessenen Modellen-- gültige Ergebnisse erzielen. Wenn hier von „falscher Modellanwendung“ die Rede ist, dann sind damit nicht fehlerhafte Berechnungen, also die fehlerhafte Handhabung statistisch-mathematischer Methoden oder Verfahren, gemeint. Vielmehr wird zwischen statistisch-mathe- BEISPIEL Daten: Ausprägungen von-Merkmalen VERTIEFUNG Vergleich mit qualitativer Forschung <?page no="195"?> 196 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 196 matischen Methoden oder Verfahren einerseits und statistischen Modellen andererseits bewusst unterschieden (vgl. Kriz 1973, Kapitel 1). Eine Methode oder ein Verfahren benutzt man, um von einem genau definierten Anfangszustand zu einem definierten Endzustand zu gelangen. So gibt es verschiedene Methoden, um aus 12 Zahlen etwa das arithmetische Mittel zu berechnen (z. B. alle 12 Zahlen addieren, dann durch 12 dividieren; oder jede Zahl zunächst durch 12 dividieren, dann die Ergebnisse addieren). Entscheidend ist, dass unterschiedliche Methoden, auf identische Ausgangsdaten angewandt, zu genau demselben Ziel führen: Der Endzustand ist methodenunabhängig. Bei einem Modell dagegen handelt es sich um ein Abbild einer definierten Ausgangsstruktur unter bestimmten Gesichtspunkten. Als Beispiel möge der Stadtplan als Modell einer Stadt gelten. Man kann ein solches Modell unter verschiedenen Gesichtspunkten erstellen: als maßstabsgetreue Straßenkarte; als Touristenkarte mit Hervorhebung der Sehenswürdigkeiten; als Straßenkarte, in der die Hauptverbindungsstrecken hervorgehoben, andere Straßen allenfalls angedeutet sind. Man kann auch ein dreidimensionales maßstabsgetreues Modell der Stadt erstellen. Jedes dieser Modelle ist für andere Zwecke brauchbar. Modelle werden demnach jeweils für ganz bestimmte Frage- oder Problemstellungen entworfen, sie werden durch die zugrunde liegende Fragestellung (also durch die Anforderungen an das Modell) entscheidend geprägt. Verschiedene Modelle des gleichen Sachverhalts sind daher, wie das Beispiel „Stadt“ zeigt, nur selten direkt miteinander vergleichbar. Modelle können lediglich dahingehend beurteilt werden, ob sie der jeweiligen Frage- oder Problemstellung angemessen sind. Will man die Auswirkungen des geplanten Baus eines neuen Hochhauses auf das Stadtbild am Modell überprüfen, dann ist beispielsweise eine Straßenkarte dafür nicht geeignet. Verschiedene Modelle derselben Ausgangsstruktur verarbeiten und betonen unterschiedliche Informationen, beantworten verschiedene Fragen. Das Ergebnis ist modellabhängig. In der Statistik gibt es unterschiedliche Modelltypen. Es gibt Modelle für Schlüsse von Stichproben auf Grundgesamtheiten; es gibt Modelle, die Beziehungen zwischen Variablen repräsentieren, sowie andere Modelle, die eine Reduktion der vielfältigen Informationen von Daten auf einige wenige besonders „relevante“ Größen bezwecken. Zu den letzteren gehört beispielsweise das arithmetische Mittel: Mit dem arithmetischen Mittel wird die Zahlenvielfalt einer ganzen Reihe einzelner Ausprägungen einer metrischen Variablen auf eine einzige Zahl reduziert (diese Aussage wird später noch zu präzisieren sein). Wendet man nun dieses Modell auf nicht metrische Daten an, dann ist das Ergebnis der Berechnung eines arithmetischen Mittels sinnlos. Man stelle sich vor, man habe in einem Fragebogen die Ja-Antworten auf eine Frage mit der Zahl „1“, die Nein-Antworten mit „0“, Antwortverweigerungen oder ungültige Antworten mit „9“ vercodet. Als „durchschnittliche Antwort“ erhalte man nun über alle Befragten einen Wert von 1,67. Dieser Wert ist natürlich völlig unsinnig, und zwar nicht etwa, weil falsch gerechnet worden wäre, sondern weil ein unangemessenes statistisches Modell (arithmetisches Mittel) angewendet wurde. Methode Modell: Abbild unter bestimmten Gesichtspunkten Entwurf von Modellen für bestimmte Ziele Modelltypen BEISPIEL <?page no="196"?> 197 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 197 In diesem Beispiel ist die Unsinnigkeit unmittelbar einsichtig. In anderen Fällen ist es durchaus nicht immer so offensichtlich, wann Modelle angemessen sind und wann nicht. So führte eine Pressemitteilung des Instituts für Museumskunde, Berlin, wonach im Jahre 1988 über 66 Millionen Museumsbesuche 169 in den Museen der (damaligen) Bundesrepublik und West-Berlins gezählt worden waren, im Kulturteil einer überregionalen Tageszeitung zu der Schlussfolgerung: „Jeder Deutsche ist 1988 mindestens einmal ins Museum gegangen.“ Das ist- - bei Zugrundelegen von über 60 Millionen Einwohnern in der (alten) BRD- - zwar mathematisch richtig gerechnet; alles andere an dieser Schlussfolgerung aber ist falsch: - Erstens wurde dabei die Zahl von 66 Mio. Besuchen auf alle Einwohnerinnen und Einwohner der BRD bezogen, auch auf solche, die keinesfalls „museumsbesuchsfähig“ sind (Säuglinge, ständig Bettlägerige, Inhaftierte etc.). - Zweitens wurde jeder Einwohner der BRD als „Deutscher“ eingestuft (bekanntlich wohnen hier aber auch nicht wenige Ausländer). - Drittens werden (bzw. wurden) Museen in der Bundesrepublik und in Berlin (im damaligen West-Berlin) nicht nur von Einwohnern der (alten) BRD besucht; bei überregional bedeutsamen Ausstellungen dürfte der Anteil von Besuchern aus dem Ausland sogar recht hoch sein. - Viertens schließlich machte sich der Kulturredakteur offenbar keinerlei Gedanken über das „Messobjekt“ und übersah daher völlig, dass es sich bei der Zahl von über 66 Millionen um „Museumsbesuche“ (um Besuchsfälle), nicht um „Besucher“ (um verschiedene Personen) handelte. Diese Oberflächlichkeit führte ihn prompt zu dem-- nun noch unsinnigeren-- weitergehenden Argument, die Zahl belege, dass die öffentlichen Ausgaben für Museen entgegen den Vorhaltungen mancher Kritiker nicht einer Minderheit, sondern allen zugutekämen. Gerade das aber kann diese Zahl nicht belegen; denn selbstverständlich kann eine hohe Zahl von Besuchen dadurch zustande kommen, dass eine geringe Zahl von Personen sehr häufig in Museen gehen. 170 Die Antwort auf die Frage, ob statistische Modelle und auf ihrer Basis berechnete Werte in angemessener Weise benutzt werden, kann niemals die Statistik allein liefern, sondern sie ist in den Eigenschaften des gemessenen Sachverhalts zu suchen. Vor der Entscheidung für ein bestimmtes Modell ist also stets zu prüfen, ob in der Realität die Bedingungen erfüllt sind, die für dessen Anwendung vorausgesetzt werden, bzw.-- falls die Bedingungen nicht in idealer Weise erfüllt sind-- ob gegebene 169 Genauer: 66.377.219; Quelle: Staatliche Museen Preußischer Kulturbesitz (Hg.), 1989: Materialien aus dem Institut für Museumskunde, Heft 28, Berlin, Tab. 19; ausführlicher: Treinen/ Kromrey (1992). 170 Ein anderes Beispiel für eigentlich „sinnlose“ Statistik (vgl. Kapitel 5.4.4) ist die Praxis, das arithmetische Mittel der Abiturnoten für die Entscheidung über die Vergabe von Studienplätzen in Numerus-clausus-Fächern heranzuziehen.-- Für weitere Beispiele vgl. Krämer 1991 (So lügt man mit Statistik) und Beck-Bornholdt/ Dubben 1998 (Der Hund, der Eier legt). Prüfung der Angemessenheit eines Modells <?page no="197"?> 198 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 198 Abweichungen von den Modellannahmen für die jeweilige Fragestellung relativ unerheblich sind, also noch in Kauf genommen werden können. 5.2.2 Ist Soziales „quantifizierbar“? Neben den inhaltlichen Anforderungen im Zusammenhang mit der Auswahl geeigneter statistischer Modelle (Übereinstimmung der Modellstruktur mit der Struktur der Realität) müssen sozialwissenschaftliche Daten gewissen formalen Voraussetzungen genügen, damit statistisch-mathematische Verfahren/ Methoden eingesetzt werden können. So ist häufig zu hören oder zu lesen, Merkmale, auf die sich das statistische Urteil beziehen soll, müssten quantifizierbar sein; Merkmale, die sich nicht quantifizieren ließen, könnten auch nicht statistisch bearbeitet werden. Gibt es denn überhaupt solche Merkmale? Dazu ist zunächst auf begrifflicher Ebene eine Vorklärung nötig. Die empirische Sozialwissenschaft arbeitet-- wie jede Wissenschaft-- mit Begriffen, die bestimmte Sachverhalte oder Objekte sowie Beziehungen zwischen Sachverhalten/ Objekten sprachlich repräsentieren sollen (vgl. Kap. 3.5). Präziser ausgedrückt: Begriffe sind linguistische (sprachliche, schriftliche) Zeichen und zugehörige semantische Regeln (Deutungsregeln; Bedeutungs-Zuordnungsregeln). Diese semantischen Regeln sind entweder implizit (man hat durch Teilhabe an einer Sprachgemeinschaft, an einer gemeinsamen Kultur gelernt, was ein Begriff bedeutet), oder sie werden explizit präzisiert (Begriffsexplikationen, semantische Analyse, Definitionen). Deutungsregeln können von extensionaler Art sein: Die Objekte, die unter den Begriff fallen sollen, werden aufgezählt (z. B. politische Partei =- CDU, SPD, CSU, Bündnis 90/ Die Grünen, Die Linke, FDP, Piraten,-…). Und sie können von intensionaler Art sein: Die Eigenschaften, die den mit dem Begriff zu bezeichnenden Objekten gemeinsam sein sollen, werden angegeben (z. B. politische Partei =-df. jede Organisation mit den Eigenschaften M, dB, W, R; vgl. Kapitel 3.5.3). Klassifikatorische Begriffe Führen wir uns die Extension eines Begriffs wie „politische Partei“ vor Augen, so wird erkennbar, dass der gewählte Begriff eine Einteilung des prinzipiell infrage kommenden Objektbereichs (hier: Organisationen) in solche Objekte erlaubt, die als „politische Partei“ gekennzeichnet sind, und in solche, bei denen dies nicht der Fall ist. Der Begriff führt mit anderen Worten zu einer Zerlegung des Objektbereichs in Teilklassen, die erstens exhaustiv (jedes Objekt gehört in mindestens eine Klasse: nämlich P oder Nicht-P) und zweitens paarweise exklusiv sind (jedes Objekt gehört in höchstens eine Klasse; d. h.- - 1. und 2. zusammengenommen- - in genau eine Klasse). Solche Begriffe, die beobachtbare Objektmengen (lediglich) in Teilmengen zerlegen oder Gibt es nicht quantifizierbare Merkmale? extensionale / intensionale Definition Begriff als Zerlegung des Objektbereichs <?page no="198"?> 199 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 199 anders ausgedrückt in Klassen „gleichartiger“ Objekte einteilen, nennt man klassifikatorische Begriffe. 171 x ist eine politische Partei (oder: nicht politische Partei); x ist autoritär (oder: nicht autoritär); x ist schwarz (oder: nicht schwarz); x interagiert mit y (oder: interagiert nicht); x konkurriert mit y um z (oder: konkurriert nicht). 172 Komparative Begriffe Erlauben Begriffe nicht nur eine Klassifikation der Objektmenge in sich ausschließende Teilklassen (s. o.), sondern implizieren sie zusätzlich noch eine Rangordnung der Teilklassen, also einen Vergleich der Elemente hinsichtlich der Stärke oder Intensität eines Merkmals, dann handelt es sich um komparative Begriffe (oder Ordnungsbegriffe). Schicht: x gehört zur Oberschicht (oder Mittel- oder Unterschicht), x gehört zu einer höheren Schicht als y; Bildung: x hat niedrige Bildung (oder durchschnittliche Bildung oder hohe Bildung), x hat niedrigere Bildung als y; Wärme: x ist warm (oder kalt oder heiß), x ist wärmer als y. Metrische Begriffe Stehen schließlich die Objekte (genauer: die Objektklassen), die von einem Begriff bezeichnet werden, nicht nur in einer eindeutigen Rangordnung, sondern sind zusätzlich noch die Abstände hinsichtlich eines Merkmals angebbar, spricht man von einem metrischen Begriff. Zusätzlich zur Identifizierbarkeit einer Reihenfolge zwischen den Objekten muss also noch eine Maßeinheit verfügbar sein. Länge: x ist soundsoviel km (oder Meilen oder Meter oder inches) lang, x ist um soundsoviel km (Meilen, Meter, inches) länger als y; Einkommen: x hat ein Monatseinkommen von soundsoviel € (oder Dollar oder Rubel), x hat ein um soundsoviel € (Dollar, Rubel) höheres Monatseinkommen als y. Häufig wird nun Quantifizierbarkeit mit der zuletzt genannten Bedingung (Angabe eines Vergleichs-Maßstabs, einer Maßeinheit für ein Merkmal) gleichgesetzt; und daraus wird dann gefolgert, für die Sozialwissenschaften seien quantitative Methoden-- wie sie die Statistik bereitstellt-- nicht angebracht, da es die Sozialwissenschaften selten mit in diesem Sinne quantifizierbaren Merkmalen zu tun hätten. Stattdessen sei „qualitativen Methoden“ der Vorzug zu geben. Diese Auffassung von Quantifizierbarkeit als Voraussetzung für die Anwendung statistisch-mathematischer Verfahren ist jedoch kurzschlüssig; denn so wie es statistische Modelle für metrische Merkmale gibt, so existieren auch solche, die auf komparative oder auf 171 Mit den Funktionen von Begriffen befasste sich der Kapitel 3.5.2. 172 Lies: Das Objekt x (z. B. Egon Müller) konkurriert mit dem Objekt y (z. B. Frieda Meyer) um das Objekt z (z. B. die Abteilungsleitung in der Firma, in der die beiden berufstätig sind). BEISPIELE komparative Begriffe: Rangordnung BEISPIELE anggebbare Abstände: metrische Begriffe BEISPIELE statistische Modelle für verschiedene Merkmale <?page no="199"?> 200 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 200 klassifikatorische Merkmale zugeschnitten sind. Es gibt also „quantitative Verfahren“ für „qualitative Merkmale“. Die Scheinalternative quantitativ versus qualitativ reduziert sich hier auf die Wahl des angemessenen statistischen Modells. Um Missverständnissen vorzubeugen: Diese Argumentation bezieht sich auf die Einsetzbarkeit quantifizierender Auswertungsverfahren als eine sinnvolle Auswertungsmöglichkeit. Davon zu unterscheiden ist die Diskussion um „standardisierte“ versus „qualitative“ Verfahren bei der Informationserhebung und die Debatte zwischen kritisch-rationaler Perspektive (die meist mit standardisierten Instrumenten arbeitet) und der interpretativen Perspektive (die mit unstandardisierten, qualitativen Datenerhebungen arbeitet). 173 Voraussetzung für den Einsatz der Statistik ist jedoch-- statt Quantifizierbarkeit im obigen Sinne-- die Messbarkeit der Merkmale. Es muss natürlich ein für die Sozialwissenschaften geeignetes Messsystem existieren, das es uns ermöglicht, z. B. auch klassifikatorische Merkmale zu „messen“, und das heißt: die durch den Begriff bezeichnete und strukturierte Objektmenge so in eine Menge von Symbolen (im Allgemeinen: Zahlen) abzubilden, dass die Struktur der empirischen Objekte in der Menge der zugeordneten Symbole (Zahlen) erhalten bleibt (Dieses Konzept wird als strukturtreues Messen bzw. Messen als strukturtreue Abbildung bezeichnet; auf den Messbegriff wird in Kapitel 5.3.1 eingegangen; zur Messtheorie siehe Kapitel 5.4). 5.2.3 Statistik und Individualität Manchmal werden gegen die Verwendung statistischer Modelle in den Sozialwissenschaften Argumente vorgebracht wie: a) die Statistik betrachte Menschen oder soziale Organisationen lediglich hinsichtlich einzelner, isolierter Merkmale und zerreiße damit den für das Soziale wesentlichen „ganzheitlichen“ Zusammenhang; und sie rühre b) aus einer Vielzahl von Individuen mit je unterschiedlichen Lebenszusammenhängen einen „Einheitsbrei“ zusammen, in dem der Einzelne in seiner Besonderheit untergehe, so dass das individuell Spezifische verloren gehe. In beiden Argumenten steckt wieder ein wahrer Kern, wenn auch dagegen eingewendet werden kann, dass es a) statistische Modelle gibt, die nicht auf die Analyse isolierter einzelner Variablen beschränkt bleiben, sondern eine größere Zahl von Merkmalen und Zusammenhängen simultan berücksichtigen (multivariate Verfahren, vgl. Kap. 8.4), und dass es b) auch sozialwissenschaftliche Untersuchungsansätze gibt, die die Individualität, das Besondere des einzelnen Falles im Blick behalten (z. B. Einzelfallstudien). Dennoch kann natürlich niemals eine wie auch immer verstandene „Ganzheit“ analysiert werden, sondern jede empirische Untersuchung muss sich auf 173 Vergleiche dazu ausführlicher Kapitel 1.2 und Kapitel 9 sowie die Annotationen zu den einzelnen Kapiteln dieses Buches. strukturtreues Messen multivariate Verfahren: Modell komplexer Einflussbeziehungen <?page no="200"?> 201 5.2 Exkurs: Die Rolle der Statistik bei empirischen Untersuchungen www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 201 eine begrenzte Zahl von Aspekten der Realität beschränken (vgl. Kapitel 3). Falls durch diese Beschränkung Relevantes oder Wesentliches ausgeblendet wird, ist dafür jedoch nicht die Statistik verantwortlich, sondern dann liegt dies an der Art der Formulierung und Präzisierung der Untersuchungsfragestellung und an deren „Übersetzung“ in ein Forschungsdesign. Statistik ist, ebenso wie andere Möglichkeiten der Informationsgewinnung, an bestimmte Anwendungsvoraussetzungen gebunden, die im Wesentlichen bereits genannt wurden: - Statistische Modelle implizieren im Vergleich zur abgebildeten Realität erhebliche Vereinfachungen und Formalisierungen. Wenn man das Ziel hat, die unübersichtliche Vielfalt der in einer Datenbasis enthaltenen Informationen zu verdichten, Komplexität zu reduzieren, dann geht das eben nur, indem man wesentliche von unwesentlichen Informationen trennt und die wesentlichen Informationen hervorhebt. Was allerdings im gegebenen Zusammenhang „wesentlich“ oder „unwesentlich“ sein soll, lässt sich nur von der Fragestellung der Untersuchung her entscheiden. - Statistische Modelle sind nur auf zähl- und messbare Tatbestände anwendbar. Da aber „Messbarkeit“ nicht mit „Quantifizierbarkeit“ identisch ist (siehe Kapitel 5.2.2), wird es im Wesentlichen eine Frage der Operationalisierung sein, ob und inwieweit damit Einschränkungen ihrer Anwendbarkeit auf soziale Sachverhalte verbunden sind. - Statistische Modelle beziehen sich niemals auf den Einzelfall, sondern immer auf Klassen vergleichbarer Fälle, auf eine irgendwie abgegrenzte „Objektmenge“. „Unter einer Menge verstehen wir eine Gesamtheit gleichartiger Individuen (oder Objekte oder Ereignisse), an denen ein Merkmal oder mehrere Merkmale beobachtet werden. Jedes Individuum heißt Element der Menge“ (Clauss/ Ebner 1975, 15). So könnten z. B. die Schüler der Grundschule in X eine „Menge“ sein. Die Schüler wären dann die Gesamtheit gleichartiger Individuen (gleichartig hinsichtlich der Eigenschaft „Schüler in X“); die Zugehörigkeit zu einer bestimmten Schulklasse, die Körpergröße, die Note im Fach Deutsch usw. wären „beobachtbare Merkmale“; und jeder Schüler wäre „Element“ der definierten Menge. Als „Menge“ können aber auch z. B. Äußerungen oder Handlungen einer einzigen Person (oder Organisation) in einem bestimmten Zeitraum gelten (Einzelfallstudie). Jetzt würde sich die Fragestellung auf beobachtbare (erfahrbare) Merkmale der Menge „Äußerungen der Person P“ oder der Menge „Handlungen der Person P“ beziehen. Besonders zu betonen ist, dass es nur dann sinnvoll und möglich ist, Einzelfälle-- die sich in ihrer spezifischen Kombination von Merkmalsausprägungen jeweils unterscheiden mögen-- zu einer Gesamtheit oder Menge zusammenzufassen, wenn sie nur Anwendungsvoraussetzungen für Statistik angemessene Vereinfachung Messbarkeit Aussagen über Objektmengen Definition: Menge BEISPIEL nur für ausgesuchte Merkmale betrachtet <?page no="201"?> 202 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 202 im Hinblick auf eine begrenzte Zahl von Merkmalen beobachtet werden und alle anderen Merkmale im betrachteten Zusammenhang unberücksichtigt bleiben. Wenn Firmen z. B. nur hinsichtlich ihres Merkmals Beschäftigtenzahl oder Jahresumsatz oder einer Kombination beider Merkmale verglichen werden und alle anderen Merkmale im gegebenen Zusammenhang unberücksichtigt bleiben (etwa Art der produzierten Güter, Standort, Betriebsklima, Rechtsstellung als privatwirtschaftliches oder öffentliches Unternehmen, Mitwirkungsmöglichkeit der Arbeitnehmer an der Unternehmensleitung usw.), dann setzt das voraus, dass Beschäftigtenzahl und Jahresumsatz die für die Untersuchungsfragestellung tatsächlich relevanten Merkmale sind (Frage- oder Problemstellung; vgl. Kapitel 3: Präzisierung des Forschungsproblems und Dimensionsanalyse). Die Statistik selbst ist lediglich Handwerkszeug der Sozialforschung, nicht mehr und nicht weniger; ihre Ergebnisse können niemals besser sein als die Daten, auf die die Statistik angewendet wird. 5.3 Variablenbildung-- Messen-- Datenmatrix 5.3.1 Grundlagen: Messen als strukturtreue Abbildung und Messniveaus Oben wurde bereits der Ausdruck „Messen als strukturtreue Abbildung“ benutzt. Dies ist allerdings nicht die einzige Bedeutung, in der man den Begriff Messen verwendet. So ist in der Alltagssprache damit im Allgemeinen die Vorstellung der Anwendung irgendwelcher Messgeräte oder Messinstrumente verbunden: Zeitmessung durch die Stoppuhr, Gewichtsmessung durch die Waage, Längenmessung mit dem Meterstab, Volumenmessung mit dem Litermaß usw. Messen heißt hier im Wesentlichen: Unbekanntes wird mit normiertem Bekanntem verglichen-- das unbekannte Gewicht eines Gegenstands mit dem bekannten Gewicht eines anderen Gegenstands (etwa Eichgewicht in kg) oder mit der bekannten Ausdehnungsfähigkeit einer Feder (Federwaage). Das Ergebnis solcher Messungen sind Zahlen, die die Ausprägung der gemessenen Eigenschaft symbolisieren (x Sekunden für das Durchlaufen der 100-m-Strecke; x-cm Körpergröße einer Schülerin). Zugleich werden die Verhältnisse zwischen den gemessenen Eigenschaften durch Abstände bzw. Verhältnisse zwischen den Zahlen symbolisiert (etwa die 100-m-Laufzeiten verschiedener Wettkampfteilnehmer, die Körpergrößen verschiedener Schülerinnen). Durchaus ähnlich sind Definitionen für Messen in den Naturwissenschaften. Etwa: Bei der Messung erhalten Zahlen oder allgemeiner Ziffern „die Aufgabe-…, Eigenschaften zu bedeuten“ (Campbell 1952, 110). In solcher Analogie zur Naturwissenschaft wird von einigen Autoren der Begriff „Messen“ auch für die Sozialwissenschaften verwendet, häufig mit der (schon BEISPIEL Messen: Unbekanntes mit Bekanntem vergleichen <?page no="202"?> 203 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 203 erwähnten) ausdrücklichen Feststellung, messbar seien nur solche Eigenschaften, bei denen sich Größenunterschiede oder Unterschiede in der Stärke oder Intensität usw. exakt bestimmen ließen; alles andere seien nicht messbare, nicht quantitative, sondern qualitative Eigenschaften (vgl. Abschn. 5.2.2). Ein solches Verständnis liegt dem hier vertretenen Messbegriff nicht zugrunde. Vielmehr wird Messen in etwa so definiert, wie es der Psychologe Stevens vorgeschlagen hat. Danach geht es beim Messen um „die Zuweisung von Ziffern zu Objekten oder Ereignissen nach Regeln-… Und die Tatsache, dass Ziffern nach unterschiedlichen Regeln zugeordnet werden können, führt zu verschiedenen Arten von Skalen und verschiedenen Messungsarten“ (Stevens 1951, 1). Um Missverständnissen vorzubeugen: Gemessen werden natürlich nicht die „Objekte“, sondern Merkmale (Eigenschaften) von Objekten. Genauer-- und umständlicher-- formuliert müsste es daher heißen: Messen ist „die Zuweisung von Ziffern zu Objekten entsprechend den Ausprägungen der an diesen Objekten betrachteten Merkmale“. Das Messergebnis ist dann die (strukturtreue) symbolische Abbildung der empirischen Merkmalsausprägung. Solche Zuordnungs- oder Abbildungsregeln werden in der axiomatischen Messtheorie entwickelt. Zur Konstruktion einer Theorie des Messens in den Sozialwissenschaften formuliert man zunächst Axiome (=-Sätze, die innerhalb der gleichen Theorie nicht auf andere Sätze zurückführbar sind). Aus diesen Axiomen werden dann die Einzelanforderungen abgeleitet, die zu berücksichtigen sind, um Phänomene der sozialen Realität in einem System von Symbolen strukturtreu abbilden zu können (siehe Kapitel 5.4). Wählt man nun wie üblich für die Symbolisierung einer empirischen Objektmenge eine Teilmenge der reellen Zahlen 174 , dann heißt strukturtreue Abbildung in erster Annäherung nichts weiter, als dass im Falle klassifikatorischer Eigenschaften (vgl. Kapitel 5.2.2) durch die zugeordneten Zahlen lediglich die Gleichheit bzw. Ungleichheit der Objekte hinsichtlich des gemessenen Merkmals repräsentiert wird und sonst nichts, dass bei komparativen Merkmalen nur die Gleichheit/ Ungleichheit sowie die Rangordnung der Objekte durch die zugeordneten Zahlen repräsentiert wird usw. Zwar gelten für die Menge der Zahlen noch zusätzliche Relationen, doch dürfen diese nicht empirisch gedeutet werden. Im Zitat von Stevens (s. o.) wurde bereits angesprochen, dass unterschiedliche Abbildungsvorschriften zu unterschiedlichen „Messskalen“ führen, dass die Messung also, je nach den anwendbaren Zuordnungsregeln, auf unterschiedlichem 174 Damit sind in der Mathematik gemeint: alle rationalen Zahlen (ganze Zahlen und Brüche), ergänzt um die irrationalen Zahlen (Wurzel 2, Wurzel 5 etc., Kreiszahl pi, Eulersche Zahl e). Messen nicht nur-metrische Abbildung Definition: Messen axiomatische Messtheorie Messen als strukturtreue Abbildung <?page no="203"?> 204 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 204 „Niveau“ erfolgen kann. 175 Die eindeutige Bestimmung des realisierten Messniveaus (oder Skalenniveaus) ist wichtig für die Entscheidung, welche statistischen Modelle (vgl. Kapitel 5.2.1) bei gegebenen Daten eingesetzt werden können. Das Messniveau-Konzept wird im Folgenden in erster Annäherung anhand von Beispielen illustriert; eine genauere Herleitung auf der Basis der axiomatischen Messtheorie findet sich in Kapitel 5.4. Von einer Nominalskala (bzw. von nominalem Messniveau) spricht man, wenn von den Beziehungen (Relationen) zwischen den Ziffern der Messskala nur die Gleichheit/ Ungleichheit empirisch interpretiert werden darf. Die Ziffern haben also lediglich die Funktion von Kurzbezeichnungen („Namen“) für die systematisch zu protokollierenden Merkmalsausprägungen. Anstelle von Ziffern könnten daher auch beliebige andere Symbole benutzt werden. Empirischer Objektbereich: Messsystem: a) Klassifikatorisches Merkmal „Konfessionszugehörigkeit“ mit den Ausprägungen römisch-katholisch, evangelisch, jüdisch, übrige Konfessionen, konfessionslos, keine Angabe. Die Merkmalsausprägungen (siehe Kapitel 5.3.2) im empirischen Objektbereich werden durch Ziffern „abgebildet“, wobei lediglich sicherzustellen ist, dass gleichen Merkmalsausprägungen gleiche Ziffern und unterschiedlichen Merkmalsausprägungen unterschiedliche Ziffern zugeordnet werden; z. B. 1, 2, 3, 4, 0, 9. b) Metrisches Merkmal „Alter“, bei dem jedoch lediglich folgende Ausprägungen unterschieden werden: erwerbsfähiges Alter, nicht erwerbsfähiges Alter, keine Angabe. Alter wurde also auf „klassifikatorischer Ebene“ operationalisiert. Abbildung z. B. durch die Ziffern: 1, 0, 9 (oder beliebige andere Ziffern). Im empirischen Objektbereich ist also aufgrund des verwendeten Beschreibungsmerkmals (Fall a) bzw. als Ergebnis der Operationalisierung (Fall b) lediglich die Unterscheidung gleich/ ungleich möglich. Dementsprechend ist auch eine empirische Deutung der Relationen zwischen den Ziffern der Skala, die darüber hinausginge (etwa Rangordnung oder Abstände) auf diesem Messniveau nicht zulässig. Sie hätte mit der „gemessenen“ (d. h. in Ziffern abgebildeten) Realität nichts zu tun, sondern käme nur aufgrund der Überschussbedeutung des verwendeten Symbolsystems zustande. 175 In dem hier benutzten Begriff „Skala“ sind drei Aspekte angesprochen: (1) eine durch die Ausprägungen des interessierenden Merkmals geordnete empirische Menge von Objekten (Merkmalsträger, „empirisches Relativ“), (2) ein für die Abbildung der empirischen Ausprägungen geeignetes System von Symbolen (üblicherweise Zahlen, „numerisches Relativ“), (3) eine Regel, wie diese Abbildung zu erfolgen hat („Zuordnungsvorschrift“). Bestimmung des Messniveaus Nominalskala BEISPIELE <?page no="204"?> 205 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 205 Mag dieses besonders einfache Verfahren des „Messens“ durch (lediglich) Klassifikation der Objekte auf den ersten Blick als besonders unproblematisch erscheinen, so darf doch selbst hierbei ein generelles Problem jeder Überführung empirischer Informationen in Messwerte („Daten“) nicht übersehen werden: Die Daten können eine Eindeutigkeit und Präzision suggerieren, die in der empirischen Realität so nicht existieren. Das gilt nicht nur für Versuche, soziale Sachverhalte metrisch zu messen (siehe das Beispiel der Berufsprestigeskala von Blau/ Duncan in Kap. 4.1). Auch am Beispiel b) in obiger Tabelle ist leicht erkennbar: Die Zuordnung zur Ausprägung „erwerbsfähiges Alter“ ist empirisch alles andere als eindeutig. Falls etwa der Beginn dieser Altersphase mit „Abschluss der schulischen Ausbildung“ definiert würde, begänne sie offenbar für Gymnasiasten später als für Realschüler und für Studierende nochmals später. Ähnliches gilt für jede Definition des Endpunkts dieser Lebensphase. Den späteren „Messwerten“ jedoch sieht man diese Unbestimmtheit der Grenzziehung nicht mehr an. Eine Ordinalskala (ordinales Messniveau) liegt vor, wenn von den Beziehungen zwischen den Zahlen der Messskala neben der Gleichheit/ Ungleichheit auch die Rangordnung (größer/ kleiner) empirisch interpretiert werden darf. Empirischer Objektbereich: Messsystem: a) Komparatives Merkmal „formale Bildungsqualifikation“ (=-höchster Schulabschluss) mit Ausprägungen: Hauptschulabschluss (oder vergleichbar), Hauptschule plus Berufsausbildung, Mittlere Reife (oder vergleichbar), Abitur, Fachhochschulabschluss (oder vergleichbar), Universitätsabschluss; kein Abschluss (trotz beendeter Schulzeit); noch in Schulausbildung, keine Angabe. Für die Abbildung der empirischen Merkmalsausprägungen durch Zahlen muss gelten: Gleiche Merkmalsausprägungen erhalten gleiche Zahlen, geringere Merkmalsausprägungen erhalten niedrigere und höhere Merkmalsausprägungen erhalten höhere Zahlenwerte zugeordnet; z. B. 1, 2, 3, 4, 5, 6; 0; 8, 9. Die beiden Fälle, in denen zum höchsten Schulabschluss keine Information vorhanden ist, werden gesondert gekennzeichnet (hier mit den außerhalb des bisherigen Wertebereichs liegenden Ziffern 8 und 9); entsprechend müssen sie auch bei der Datenanalyse gesondert behandelt werden. 176 b) Metrisches Merkmal „Alter“, bei dem jedoch lediglich folgende Ausprägungen unterschieden werden: bis 6 Jahre, über 6 bis 14 Jahre, über 14 bis 20 Jahre, über 20 bis 35 Jahre, über 35 bis 50 Jahre, über 50 bis 65 Jahre, über 65 Jahre. Abbildung z. B. durch die Zahlen: 1, 2, 3, 4, 5, 6, 7 (oder andere Zahlen, sofern die Rangordnung gewahrt bleibt). 176 Sie stellen für die interessierende Merkmalsdimension keine (ordinalskalierten) Messwerte dar, sondern sind lediglich Angaben darüber, warum hier kein Messergebnis vorliegt (vgl. Kapitel 5.3.3). Ordinalskala BEISPIELE <?page no="205"?> 206 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 206 Im empirischen Objektbereich sind aufgrund des verwendeten Beschreibungsmerkmals (a) bzw. als Ergebnis der Operationalisierung (b) die gemessenen „Objekte“ nur hinsichtlich ihrer Gleichheit/ Ungleichheit sowie hinsichtlich ihrer Rangordnung zueinander einschätzbar (etwa: A hat höhere Bildung als B, oder: A ist jünger als B). Dementsprechend darf auch die empirische Deutung der Relationen zwischen den Zahlen der Skala nicht darüber hinausgehen. Eine Intervallskala ist gegeben, wenn von den Beziehungen zwischen den Zahlen der Messskala auch die Abstände empirisch interpretierbar sind. Empirischer Objektbereich: Messsystem: Metrisches Merkmal „Temperatur“, betrachtet in Bezug auf die Fixpunkte: Gefrierpunkt und Siedepunkt des Wassers; der damit abgegrenzte Temperaturbereich wird eingeteilt in 100 gleichgroße Abschnitte. Zuordnung von Zahlen mit Hilfe des Messinstruments Thermometer, eingeteilt in Celsius-Grade: --273,16 (°C) bis-+… (°C). Von einer Ratioskala (Verhältnisskala) schließlich spricht man, wenn zusätzlich noch der Nullpunkt der Messskala eine empirische Bedeutung hat und wenn dementsprechend auch die Größenverhältnisse zwischen den Zahlen (engl.: ratio) als Verhältnisse zwischen den Merkmalsausprägungen interpretiert werden dürfen. Zum Beispiel bedeuten dann doppelt so hohe Zahlenwerte der Skala eine doppelt so hohe (intensive, starke) Merkmalsausprägung. Der Nullpunkt der Skala hat dann „empirische Bedeutung“, wenn gilt: Dem Skalenwert 0 entspricht in der Realität der gemessenen Merkmalsdimension der Zustand „nicht mehr existent“. Ein Messwert „0 €“ für das Merkmal Einkommen heißt also: „überhaupt kein Einkommen“. Im Falle der Temperaturmessung auf der Celsius-Skala (siehe Beispiel zur Intervallskala) bedeutet dagegen ein Messwert „0 Grad Celsius“ nicht: „überhaupt keine Temperatur“. Auch Werten im negativen Celsius-Skalen-Bereich entsprechen ja noch „Temperaturen“. Der Nullpunkt hat hier keine „empirische Bedeutung“; vielmehr ist mit den Bezugspunkten 0 und 100 der Celsius-Skala lediglich unter pragmatischen Gesichtspunkten ein relativ willkürlicher Ausschnitt aus dem gesamten Temperaturbereich gewählt worden. Die Celsius-Skala misst also nicht auf Ratioskalen-Niveau. Dagegen gilt bei Geldbeträgen, dass 0 € wirklich kein einziges Geldstück ist, Geld also nicht vorhanden ist. Intervallskala BEISPIEL <?page no="206"?> 207 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 207 Empirischer Objektbereich: Messsystem: a) Metrisches Merkmal „Nettomonatseinkommen“. 0 bis-… (Angabe in €, Dollar, Schweizer Franken, Rubel etc.) b) Metrisches Merkmal „Temperatur“, betrachtet mit Bezug auf einen Punkt, an dem das Konstrukt Temperatur aufhört zu existieren (s. u.). 0 bis-… (Zuordnung von Zahlen mit Hilfe eines Temperaturmessgeräts und Angabe in Grad Kelvin). Erst im Falle der Ratioskala ist also-- s. o.-- die Zahl Null der Messskala interpretierbar als: „eine (positive oder negative) Ausprägung des Merkmals ist nicht vorhanden“. Die Kelvin-Skala fußt im Unterschied zur Celsius-Skala auf einer physikalischen Definition des Begriffs „Temperatur“ 177 und setzt als Skalen-Nullpunkt den physikalischen Zustand fest, an dem „keine Temperatur“ (=- keine Bewegungsenergie) mehr feststellbar ist (=-„absoluter Nullpunkt“). „Messen“-- im hier gemeinten Sinn als strukturtreue Abbildung-- ist also die Zuordnung von Symbolen zu Sachverhalten, wobei den zu berücksichtigenden Unterschieden in den Sachverhalten auch Unterschiede in den Symbolen entsprechen müssen und wobei den Beziehungen zwischen Sachverhalten auch Beziehungen zwischen den Symbolen entsprechen müssen. Damit sind drei Festlegungen erforderlich und zu begründen: - Welche Unterschiede in den Sachverhalten sollen berücksichtigt werden? Dieser Punkt wird im nächsten Abschnitt („Variablenkonstruktion“) behandelt. - Welches ist die Maßeinheit? Oder, was meist dasselbe bedeutet, mit welchem Instrument wird gemessen? Hiermit werden sich insbesondere die Kapitel zu den empirischen Erhebungsinstrumenten befassen. Aber auch Probleme der Skalen- und Indexbildung sind angesprochen. - Nach welchen Regeln werden welche Symbole den Eigenschaften zugeordnet? Zu diesem Punkt gehört praktisch alles, was unter das Stichwort „Operationalisierung“ fällt (etwa Indikatorenfestlegung, aber auch Protokollierung der Beobachtungsdaten); gemeint sind damit aber auch die Regeln der angewendeten Messtheorie (Kapitel 5.4). Alles in allem dürfte sichtbar geworden sein, dass ein soziologischer Messbegriff nicht losgelöst vom gesamten sozialwissenschaftlichen Forschungsprozess gebildet werden kann; praktisch ist (bei standardisiert verfahrender Forschung) die ganze empirische Untersuchung als das sozialwissenschaftliche Messinstrument anzusehen. Insbesondere ist-- sofern man diese Perspektive wählt-- zu bedenken, dass bei einer auf theoretische Begriffe bezogenen Messung immer eine doppelte Abbildung vorgenommen werden 177 Laut dtv-Lexikon: „Maß für den Wärmezustand eines Körpers, proportional der mittleren Bewegungsenergie eines völlig ungeordnet bewegten Gasatoms“. BEISPIELE Unterschiede in-Sachverhalten entsprechen Unterschieden in-Symbolen erforderliche Festlegungen Messen als doppelte Abbildung <?page no="207"?> 208 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 208 muss: Auf der ersten Stufe sind zur empirischen Interpretation des theoretischen Begriffs Indikatoren zu bestimmen und durch Korrespondenzregeln mit dem theoretischen Begriff zu verknüpfen (vgl. Kapitel 4.3). Auf der zweiten Stufe-- der Messung im engeren Sinne-- ist das Verfahren anzugeben, durch das die beobachteten Ausprägungen der Indikatoren in das Zahlensystem abgebildet werden. Bei der Beurteilung, welche Relationen zwischen den Zahlenwerten der Skala empirisch interpretierbar sind- - welche statistischen Maßzahlen z. B. auf die theoretische Ebene „rückübersetzt“ werden dürfen--, ist die Berücksichtigung beider Stufen der Operationalisierung obligatorisch (für Beispiele vgl. Kriz 1981, 120 ff.). Eine illustrative Veranschaulichung der bei Messvorgängen zu beachtenden Zusammenhänge zwischen Objekt- und Symbolbereich sowie zwischen Mess- und Interpretationsebene leistet die folgende Darstellung (entnommen aus Wolf 1989, 168; siehe auch Wolf 1994): 5.3.2 Variablenkonstruktion Der Begriff Variable ist schon mehrfach vorgekommen; er ist allerdings- - in der Hoffnung, dass das alltagssprachliche Verständnis zunächst ausreicht-- bisher undefiniert geblieben. Für die folgenden Ausführungen ist jedoch eine semantische Klärung erforderlich, da der Terminus in unterschiedlichen Zusammenhängen in erheblich verschiedener Bedeutung verwendet wird. So ist beispielsweise „Variable“ in der Logik ein Zeichen (eine Leerstelle), für das andere Zeichen (Begriffe, Namen) eingesetzt werden dürfen. Und im Zusammen- 1. Abbildung: Indikatoren und Korrespondenzregeln 2. Abbildung: Messverfahren Messebene Messinstrumente liefern a) unmittelbar b) mittelbar (Kodierung) Welche dieser Interpretationen haben im Objektbereich eine empirische Bedeutung? Objektbereich Objekte Variablen Ausprä gungen Zahlenbereich Messwerte (= Zahlen) Interpretationsebene Zahlen lassen sich im Sinne von - Gleichheit - Ordnung - Vielfachheit interpretieren Quelle: nach Wolf 1989, 168. Abbildung 5.1: Messvorgang im-Überblick <?page no="208"?> 209 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 209 hang mit sozialwissenschaftlichen Theorien sind mit „Variablen“ häufig die in Hypothesen verwendeten allgemeinen, theoretischen Begriffe gemeint, im Unterschied etwa zu Indikatoren. So ist „Alter einer Person“ in diesem Sinne keine (soziologische) Variable, sondern allenfalls ein Indikator z. B. für die theoretisch interessierende Eigenschaft „Lebenserfahrung“ (die Variable wäre in diesem Falle „Lebenserfahrung“, ein möglicher Indikator dafür wäre „Lebensalter“). In der Statistik dagegen wird der Begriff rein formal als Merkmal verwendet, das im Unterschied zur Konstanten mehrere Ausprägungen (mehrere unterscheidbare Zustände hinsichtlich der interessierenden Eigenschaft) annehmen kann, das also Variation aufweist. Wenn in diesem Text bisher von „Variable“ die Rede war, dann (entweder) aus methodologischer Perspektive: Unter einer Variablen wird das Resultat der Operationalisierung eines präzise definierten Begriffs verstanden. Oder (wie in der Statistik): Variablen sind begrifflich definierte Merkmale (Eigenschaften) von Objekten, die mehrere Ausprägungen annehmen können. Erinnert sei auch an die Argumentation im Zusammenhang mit der „dimensionalen Analyse“: Untersuchungsobjekte können niemals in ihrer Gesamtheit empirisch erfasst werden; sie lassen sich immer nur im Hinblick auf bestimmte, für die Fragestellung relevante Eigenschaften beschreiben (bei Personen etwa Nationalität, Alter, Schulbildung, Beruf, Einkommen). Solche Eigenschaften sind nun nicht etwas Punktuelles, sondern sie bezeichnen-- wie wir es genannt haben-- Dimensionen. Mit „Alter“ ist allgemein nicht eine bestimmte Zahl von Jahren, Monaten und Tagen gemeint, sondern die Gesamtheit aller möglichen Alterszustände, unabhängig zunächst davon, ob wir Altersunterschiede in Jahren oder in Monaten oder in Tagen feststellen möchten. Die Zwischenstation unserer Überlegungen ist also jetzt: eine Reihe von Untersuchungsobjekten und eine Reihe von (mit Begriffen bezeichneten) Eigenschafts- oder Merkmalsdimensionen, die wir „messen“ wollen. Damit sind wir aber noch nicht bei „Variablen“ im statistischen Sinne. Was wir bei den Untersuchungseinheiten-- z. B. Personen-- messen, d. h. beobachten oder sonst wie feststellen können, ist nämlich nicht „die Eigenschaftsdimension“, sondern eine einzige, eine ganz spezifische „Ausprägung“ dieser Eigenschaft je Person (je Untersuchungseinheit). So möge z. B. ein Befragter die Merkmalsausprägungen „Italiener“ auf der Dimension Nationalität, „24 Jahre alt“ auf der Dimension Alter, „Hochschulreife“ auf der Dimension Schulbildung, „Facharbeiter“ auf der Dimension Beruf, „2800 €“ auf der Dimension Nettomonatseinkommen aufweisen. Die Ausprägung ist also die konkrete Eigenschaft eines Objektes auf einer Dimension. Die feststellbaren „Ausprägungen“ können die unterschiedlichen Auftretenszustände der interessierenden Eigenschaftsdimensionen je nach begrifflicher Strukturierung und Operationalisierung differenzierter oder gröber nachzeichnen: Die Dimension Nationalität könnte etwa nur hinsichtlich der beiden Ausprägungen „Deutscher“ und „Ausländer“ interessieren, die Dimension Alter könnte differenzierter (etwa in Jahren und Monaten) oder weniger differenziert (etwa: unter 18 J., 18 bis unter 35 J., 35 bis unter 50 J., 50 bis unter 65 J., 65 J. und älter) festgehalten werden. unterschiedliche Verständnisse von-„Variable“ Dimensionen: Gesamtheit möglicher Zustände Ausprägungen <?page no="209"?> 210 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 210 Kommen wir nach diesen Vorüberlegungen zurück zum Begriff der Variablen, der jetzt für unsere Zwecke wie folgt definiert werden kann: Eine Variable ist eine Merkmalsbzw. Eigenschaftsdimension, die mit einem Begriff bezeichnet wird und mehrere Ausprägungen annehmen kann, soll Variable heißen. Oder kürzer: Variable =-Begriff + (mindestens zwei) Ausprägungen. Begriffe mit nur einer einzigen möglichen Ausprägung sind dementsprechend Konstanten (sie haben keine Variation). Variablen können im Prinzip eine Vielzahl möglicher Werte annehmen. Die Anzahl der möglichen Werte (Ausprägungen) hängt dabei nicht in erster Linie von dem Objekt ab, das mit der Variablen beschrieben werden soll, sondern vor allem von der Differenziertheit der begrifflichen Strukturierung und von der Methode der Datengewinnung. Häufig wird zwischen quantitativen und qualitativen Variablen unterschieden: quantitativ, wenn die Variable mathematisch interpretierbare Zahlenwerte annimmt; qualitativ, wenn die Variable als Ausprägung entweder verbale Bezeichnungen oder Buchstaben aufweist, bzw. wenn bei zugeordneten Zahlen nicht deren mathematische Relationen interpretiert werden dürfen. Obwohl diese Unterscheidung auf den ersten Blick einleuchtend scheint, sagt sie- - anders als die Unterscheidung zwischen klassifikatorischen, komparativen und metrischen Begriffen- - kaum etwas über Unterschiedlichkeiten der empirischen Objekte und der Merkmalsdimensionen aus. Vielmehr ist sie hauptsächlich eine Funktion der begrifflichen Strukturierung und Operationalisierung sowie der Qualität der angewendeten Messverfahren: z. B. Alter in Jahren =- quantitativ; Alter in den Ausprägungen jugendlich-erwachsen-alt =-qualitativ. Oder: Haarfarbe in den Ausprägungen blond-braun-schwarz-rot usw. =-qualitativ; Haarfarbe gemessen über die Wellenlänge des reflektierten Lichts =-quantitativ (vgl. Kapitel 5.3.1). Welche Ausprägungen unterschieden, wie differenziert Merkmalsunterschiede beschrieben werden sollen, hängt außer von der zu beschreibenden Merkmalsdimension und von der Art des zur Verfügung stehenden Messinstruments auch von der Differenziertheit der Fragestellung ab, die der Untersuchung zugrunde liegt. Wir haben es hier mit einer weiteren wichtigen Entscheidung im Forschungsprozess zu tun: Wie differenziert sollen Unterschiede im zu untersuchenden Gegenstandsbereich durch Messungen abgebildet werden? Genügt für die symbolische Repräsentation etwa des Begriffs „soziale Schicht“ eine Variable, die lediglich zwischen Ober-, Mittel- und Unterschicht unterscheidet? Reicht eine Variable „Temperatur“, die nur die Ausprägungen heiß, lauwarm und kalt aufweist? Die Beantwortung solcher Fragen hat entscheidende Konsequenzen für die zu erzielenden Forschungsergebnisse; und: Solche Fragen sind nicht ohne Bezug zur Problemstellung der Untersuchung zu entscheiden. Soll etwa das Verhalten von Wasser in Abhängigkeit von der Temperatur untersucht werden, dann wird eine Temperatureinteilung in heiß, lauwarm und kalt überhaupt nichts nützen; denn die für die Definition: Variable mögliche Ausprägungen als Festlegung qualitative und quantitative Variablen Ergebnis des Messverfahrens gemessene Ausprägung ist Entscheidung im Forschungsprozess folgenreiche Entscheidung <?page no="210"?> 211 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 211 Untersuchungsfrage wichtigen Temperaturpunkte 0 Grad Celsius (Gefrierpunkt, Übergang in die Zustandsform Eis) und 100 Grad Celsius (Siedepunkt, Übergang in die Zustandsform Dampf ) können von dieser Skala nicht dargestellt werden: Temperaturen unterhalb sowie oberhalb des Gefrierpunkts sind „kalt“, Temperaturen unterhalb und oberhalb des Siedepunkts sind „heiß“. Eine Variable „Temperatur“ mit den Ausprägungen kalt-- lauwarm-- heiß würde verhindern, dass wir die interessierende Fragestellung überhaupt untersuchen können. Als eine Gefahr bei der Variablenkonstruktion bleibt also festzuhalten: Die Variable ist möglicherweise nicht differenziert genug, um wichtige Unterschiede des Untersuchungsgegenstands abzubilden. Eine andere Gefahr bei der Variablenkonstruktion kann in der entgegengesetzten Tendenz liegen, dass mit der Variablen möglicherweise nur scheinbare Unterschiede des Untersuchungsgegenstandes abgebildet werden, Unterschiede, die lediglich ein Produkt des Messverfahrens sind, aber keine Entsprechung in der Realität haben (=-Messartefakte). Als Beispiel hierfür sei auf die Berufsprestige-Skala von Blau und Duncan (1967) zurückverwiesen (vgl. Kapitel 4.1). Aufgrund von Regressionsanalysen aus Daten verschiedener Befragungen konstruierten die Autoren einen Prestige-Index, der Werte von 0 bis 96 Punkte annehmen kann und ganz unten z. B. Hilfskräfte und Arbeiter in Kohlengruben, ganz oben z. B. Architekten, Richter, Chirurgen einordnet. Mit diesem Messinstrument wird eine Präzision und Widerspruchslosigkeit der Ordnung von Berufen auf einer Prestige-Skala sowie eine Genauigkeit der Unterscheidbarkeit von gesellschaftlichem Prestige aller Berufe suggeriert, die in dieser Form kaum eine Entsprechung im empirischen Gegenstandsbereich (im Bewusstsein der Befragten) haben dürfte. Die scheinbar präzise Unterscheidbarkeit des gesellschaftlichen Prestiges von Berufen ist nichts anderes als ein Produkt der Anwendung des statistischen Modells Regressionsanalyse, das im Rahmen der Modellvoraussetzungen, d. h. unter der Voraussetzung der Gültigkeit der Modellannahmen, eben immer rechnerisch eindeutige und präzise Resultate liefert (siehe dazu in Kapitel 5.3.1/ Nominalskala die Anmerkung zum Beispiel „erwerbsfähiges Alter“). 5.3.3 Die Datenmatrix; Prinzipien der Datensammlung Um sozialwissenschaftliche Hypothesen unter Verwendung statistischer Modelle überprüfen oder um einen Gegenstandsbereich in übersichtlicher Weise mit Hilfe statistischer Kennziffern beschreiben zu können, benötigt man „Daten“ über den empirischen Gegenstandsbereich (=- standardisiert erhobene Messwerte). Für die elektronische Datenverarbeitung müssen diese nach einem bestimmten Schema geordnet werden („Datenmatrix“). Bis zur Gewinnung von Daten sind, ausgehend von der Forschungsfragestellung, eine Reihe von Schritten zu durchlaufen: a) Bereits behandelt wurden die Aufgaben: Präzisierung des Forschungsproblems, gedankliche Strukturierung des Gegenstandsbereichs (dimensionale Analyse, semantische Analyse, Begriffsbildung); Operationalisierung der definierten Be- Gefahr der Variablenkonstruktion: zu geringe Differenzierung Gefahr der Variablenkonstruktion: zu starke Differenzierung Daten: standardisiert erhobene Messwerte Rückblick: Schritte zur Datengewinnung Präzisierung und Operationalisierung <?page no="211"?> 212 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 212 griffe (Festlegung der Forschungs- und Messoperationen, Entscheidung über die Differenziertheit der zu sammelnden Informationen =-Variablenkonstruktion). b) Die Objekte, an denen die Untersuchung vorgenommen werden soll, sind zu definieren („Untersuchungseinheiten“, z. B. Personen oder Haushalte oder Gemeinden oder Organisationen oder Wahlbezirke oder Zeitungsartikel oder Beobachtungssituationen) und auszuwählen (siehe dazu Kapitel 6: Auswahlverfahren). c) Für die ausgewählten Untersuchungseinheiten sind die gewünschten Informationen empirisch zu ermitteln („Feldarbeit“; z. B. sind die ausgewählten Personen oder Haushalte anhand eines standardisierten Interviewbogens zu befragen). Jeder dieser Schritte impliziert (das sei noch einmal ins Gedächtnis gerufen) theoretische Annahmen über den zu untersuchenden Gegenstandsbereich, die ihrerseits in der Untersuchung nicht geprüft werden können. So sind theoretische Annahmen über den Untersuchungsgegenstand notwendig, um a) die „relevanten“ Dimensionen zu bestimmen, die „richtigen“ Indikatoren auszuwählen, den Grad an Differenziertheit für die zu beobachtenden Merkmalsunterschiede „in geeigneter Weise“ festzulegen (Variablenkonstruktion), um b) die Untersuchungseinheiten zutreffend zu definieren und auszuwählen, um c) die „geeigneten“ Datenerhebungsinstrumente zu entwickeln und anzuwenden. Daten über die (soziale) Wirklichkeit kommen also immer nur unter Zuhilfenahme von Theorien verschiedenster Art zustande. Was ist nun präzise mit Daten gemeint? Die bisherige Argumentation war bis zu den Problemen der Variablenkonstruktion vorgedrungen (als „Variable“ wurde eine mit einem präzise definierten Begriff bezeichnete Eigenschaftsdimension von Untersuchungsobjekten verstanden, für die zusätzlich die möglichen Ausprägungen festgelegt worden sind). Mit der definitorischen Konstruktion von Variablen hat man jedoch noch keine Daten. Auch die Antworten von Befragten auf Fragen in einem Interview oder die akustischen oder visuellen Wahrnehmungen eines Beobachters in einer Beobachtungssituation sind noch keine Daten. Daten sind vielmehr erst die vom Interviewer protokollierten Antworten bzw. die Eintragungen des Beobachters im Beobachtungsbogen. „Die auf der Grundlage begrifflicher Strukturierungen gemachten Beobachtungen von manifesten Eigenschaften werden zu Daten über ein Untersuchungsobjekt erst dadurch, dass sie in standardisierter Form registriert werden“ (Mayntz/ Holm/ Hübner 1971, 34). Daten sind also die in geeigneter Form festgehaltene und abrufbare symbolische Repräsentation der bei den Untersuchungseinheiten beobachteten Merkmale. Obwohl der empirische Sozialforscher es entsprechend der Unterschiedlichkeit möglicher Forschungsfragestellungen mit den unterschiedlichsten Arten von Daten zu tun haben kann, besitzen diese eine vergleichbare formale Struktur (Galtung 1967, 9 ff.): a) Die erhobenen Daten beziehen sich auf Untersuchungseinheiten (UE). Die Untersuchungseinheiten sind diejenigen „Objekte“ (im weitesten Sinne), auf die sich Auswahl Informationssammlung (Feldarbeit) Definition: Daten formale Struktur von Daten Untersuchungseinheiten <?page no="212"?> 213 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 213 die untersuchungsleitenden oder zu prüfenden Hypothesen richten. Anders ausgedrückt: Untersuchungseinheiten sind diejenigen Objekte, für die die Messwerte gelten sollen. b) Die Daten beschreiben die Untersuchungseinheiten nicht in ihrer gesamten Komplexität, in ihrer „Ganzheit“, sondern lediglich im Hinblick auf ausgewählte Merkmale bzw. genauer: auf Variablen (X). c) Beobachtet werden auf den interessierenden Merkmalsdimensionen die jeweiligen „Ausprägungen“ für die Untersuchungseinheiten, also die Variablenwerte oder Variablenausprägungen (x). Durch die spezifischen Ausprägungen (c) je Untersuchungseinheit auf allen interessierenden Eigenschafts- oder Merkmalsdimensionen (b) wird die Untersuchungseinheit (a) „datenmäßig“ charakterisiert. Man kann sich jede Untersuchungseinheit als Punkt in einem m-dimensionalen Koordinatensystem vorstellen (man spricht in diesem Zusammenhang von Merkmalsraum): Variablen Variablenausprägungen Die Punkte repräsentieren Untersuchungseinheiten; beispielsweise ist die mit 1) gekennzeichnete Untersuchungseinheit charakterisiert durch die Merkmalskombination: Alter 45 Jahre, Einkommen 2000 €). 1) 2500 2000 1500 500 1000 Einkommen (€) Alter (Jahre) 60 45 30 15 75 0 Abbildung 5.2: Beispiel eines 2-dimensionalen Merkmalsraums (Alter und Einkommen). Eigene Abbildung. Die Untersuchungseinheit UE 1 wird charakterisiert durch die Merkmalskombination: Alter 45 Jahre -A 1 -, Einkommen 2000 € -E 1 - und Bildung Mittlere Reife -B 1 -) UE 1 (E 1 , B 1 , A 1 ) St. Ab MR HS 2000 E 1 2500 1500 500 1000 Bildung B 1 E 1 A 1 B 1 A 1 Alter (Jahre) 60 45 30 15 75 0 Einkommen (€) Abbildung 5.3: Beispiel eines 3-dimensionalen Merkmalsraums (Alter, Einkommen, Bildung). Eigene Abbildung. <?page no="213"?> 214 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 214 Schon bei nur vier Merkmalsdimensionen lässt sich der Ort der einzelnen Untersuchungseinheiten im (vierdimensionalen) Merkmalsraum grafisch nicht mehr veranschaulichen. Für die symbolische Darstellung wird deshalb die Form einer Datenmatrix gewählt. Diese erhält man dadurch, dass a) die protokollierten Variablenwerte (Messwerte) für jede Untersuchungseinheit in einer festgelegten Reihenfolge in einer Zeile notiert werden (=-Datenvektor) und b) jede Untersuchungseinheit durch einen solchen Datenvektor repräsentiert wird. Beispiel einer Datenmatrix (formale Struktur): X 1 X 2 ……… X j ……… X m (Variablenliste) UE 1 UE 2 . . . . UE i . . . . UE n x 11 x 21 . . . . x i1 . . . . x n1 x 12 x 22 . . . . x i2 . . . . x n2 ……… ……… . . . . ……… . . . . ……… x 1j x 2j . . . . x ij . . . . x nj ……… ……… . . . . ……… . . . . ……… x 1m x 2m . . . . x im . . . . x nm (Variablenwerte, Daten) In diesem Schema ist x ij z. B. die in standardisierter Form protokollierte Antwort des Befragten Nr. i auf die Frage Nr. j; allgemeiner: x ij =-der Wert für Untersuchungseinheit i auf der Variablen j. Die Struktur der Datenmatrix ist identisch mit einer großen Tabelle: Jeder Untersuchungseinheit entspricht eine Zeile in der Tabelle, und jedem Variablenwert entspricht ein fester Platz innerhalb dieser Zeile (z. B. Identifikations-Nr. =- Spalte 1; Nationalität =-Spalte 2; Alter =-Spalte 3; -…; Einkommen der/ des Befragten =-Spalte 9 usw.). Datenmatrix BEISPIEL Struktur der Datenmatrix <?page no="214"?> 215 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 215 Beispiel: Auszug aus einer so strukturierten, mit empirischen Daten gefüllten Matrix (z. B. ist die Datentabelle in einem Tabellenkalkulationsprogramm so aufgebaut): IdNr Nation Alter Geschl FamStd Bildung BerufB BerufP EinkB EinkHh 1710 6 20 2 1 1 1 88 850 850 1711 3 27 1 2 2 98 9 0 3200 1712 1 36 2 2 4 5 4 1600 2900 1713 1 18 2 1 5 2 88 1300 1300 1714 5 42 1 3 3 4 88 1300 1450 1715 2 24 2 1 2 1 88 890 890 1716 1 60 1 2 2 98 12 0 7600 1717 4 28 2 1 3 11 88 2600 2600 1718 1 62 2 2 6 12 98 12800 12800 1719 1 27 1 1 4 8 88 2400 2400 1720 6 48 2 2 2 1 1 940 1820 1721 3 32 1 2 2 1 2 910 2450 1722 1 54 2 3 7 6 88 2700 2700 1723 1 33 2 2 2 4 7 1600 3300 1724 5 99 1 2 2 1 2 720 1890 1725 2 27 1 1 2 11 88 2330 2330 1726 1 64 2 2 5 3 98 2800 2800 1727 4 41 2 2 9 10 8 4100 6600 1728 1 19 1 1 2 4 88 1200 1200 1729 1 18 2 1 5 2 88 1300 1300 1730 5 42 1 3 3 4 88 1300 1450 1731 1 54 2 3 7 6 8 2700 2700 1732 1 62 2 2 6 12 98 12800 12800 1733 4 28 2 1 3 11 5 2600 2600 1734 7 56 2 2 3 99 99 99999 99999 1735 6 48 2 2 2 1 1 940 1820 1736 3 32 1 2 2 1 2 910 2450 1737 1 33 2 2 2 4 7 1600 3300 1738 5 99 1 2 2 1 2 720 1890 <?page no="215"?> 216 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 216 Codeplan (zur Datenmatrix auf der vorigen Seite) Variablenkurzbezeichnung Bedeutung Variablenausprägungen vorgesehene Spalten-Nr. IDNr Identifikationsnummer der/ des Befragten lfd. Nr. 1 Nation Nationalität der/ des Befragten 1-- Deutsche 2-- Griechen 3-- Italiener 4-- Schweizer 5-- Spanier 6-- Türken 7-- Sonstige 9-- keine Angabe 2 Alter Alter der/ des Befragten Jahre (aufbzw. abgerundet) 98-- Alter 98 u. mehr Jahre 99-- keine Angabe 3 Geschl Geschlecht 1-- weiblich 2-- männlich 9-- keine Angabe 4 FamStd Familienstand 1-- ledig 2-- verheiratet 3-- verwitwet, geschieden 9-- keine Angabe 5 Bildung Schulabschluss der/ des Befragten 1-- kein Abschluss 2-- Pflichtschule 3-- weiterführende Schule 4-- Hochschulreife 5-- Berufsschule 6-- Fachbzw. Fachhochschule 7-- Universität 9-- keine Angabe 6 BerufB Berufsposition der/ des Befragten 1-- un- oder angelernter Arbeiter 2-- Facharbeiter 3-- Meister 4-- unterer Angestellter 5-- mittlerer Angestellter 6-- leitender Angestellter 7-- Beamter (einf./ mittl. Dienst) 8-- Beamter (gehobener Dienst) 9-- Beamter (höherer Dienst) 10-- Freiberufler 11-- Selbstständiger (Kleinbetrieb) 12-- Selbstständiger (Mittel- oder Großbetrieb) 13-- Landwirt 98-- nicht berufstätig 99-- keine Angabe 7 BerufP Berufsposition des Lebenspartners wie bei BerufB, außerdem: 88-- entfällt, da allein lebend 8 EinkB Netto-Monatseinkommen der/ des Befragten €-Beträge 99999-- keine Angabe 9 EinkHh Netto-Haushaltseinkommen wie bei EinkB 10 <?page no="216"?> 217 5.3 Variablenbildung-- Messen-- Datenmatrix www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 217 Aus einer anderen Perspektive präsentiert sich die Datenmatrix als die Menge möglicher Kombinationen (UE i , X j ) mit der zusätzlichen Bedingung, dass für die Variable X j aus der Anzahl ihrer möglichen Ausprägungen jeweils nur der für die Untersuchungseinheit UE i zutreffende Wert eingesetzt wird. Mit anderen Worten: Die einfache Idee ist, dass für jede Kombination (UE i , X j ) genau ein Wert gefunden werden soll. Aus dieser Definition und aus der Struktur der Datenmatrix lassen sich drei wichtige Prinzipien der Datensammlung herauslesen (Galtung 1967, 11 ff.): 1. das Prinzip der Vergleichbarkeit (principle of comparability), 2. das Prinzip der Klassifizierbarkeit (principle of classification), 3. das Prinzip der Vollständigkeit (principle of completeness). Das Prinzip der Vergleichbarkeit besagt erstens, dass die Untersuchungsbedingungen für alle UE i gleich sein müssen (z. B. sind allen Befragten die gleichen Fragen in der gleichen Reihenfolge zu stellen; oder beim Experiment: alle Untersuchungsobjekte sind den gleichen experimentellen Stimuli auszusetzen; oder bei der Inhaltsanalyse von Texten: für die Vercodung der Inhalte ist bei allen Texteinheiten das gleiche Kategorienschema nach den gleichen Regeln anzuwenden). Es besagt zweitens, dass alle Kombinationen (UE i , X j ) empirisch sinnvoll sein müssen, d. h. dass die Eigenschaftsdimensionen X j in der Datenmatrix auch tatsächlich Eigenschaftsdimensionen der Untersuchungseinheiten sind (wenn Untersuchungseinheiten etwa Wahlbezirke sind, dann ist „Beruf“ keine empirisch sinnvolle Eigenschaftsdimension der Untersuchungseinheiten, wohl aber z. B. Arbeiteranteil oder Anteil der Freiberufler). Es besagt schließlich drittens, dass die UE i immer nur sinnvoll hinsichtlich einer einzigen Merkmalsdimension miteinander verglichen werden können (sinnlos wäre etwa eine vergleichende Aussage: UE 1 hat ein Monatseinkommen von 2000 €, wogegen UE 2 als höchsten Schulabschluss Abitur aufweist). Will man Untersuchungseinheiten hinsichtlich mehrerer Merkmale gleichzeitig in Beziehung setzen, dann ist zuvor aus diesen Merkmalsdimensionen eine neue eindimensionale Variable- - ein Index-- zu bilden (etwa aus den Variablen Beruf, Einkommen und Bildung der Index „sozialer Status“ oder aus den Variablen Wohnzufriedenheit und Anteil Bekannter im Stadtteil der Index „Stadtteilbindung“; vgl. Kapitel 4.2). Das Prinzip der Klassifizierbarkeit bedeutet, dass für jedes Paar (UE i , X j ) genau ein Wert existieren muss. Präziser: Jeder Untersuchungseinheit muss erstens eine Variablenausprägung zugewiesen werden können (es darf also nicht der Fall auftreten, dass von den vorgesehenen möglichen Werten überhaupt keiner für die Untersuchungseinheit zutrifft), und zugleich darf zweitens keiner UE i mehr als eine Ausprägung auf jeder Variablen zugewiesen werden können (d. h. es muss für alle Fälle eindeutig entscheidbar sein, welcher Wert zutrifft; diese Forderung ist etwa bei den Verfahren Textanalyse und Beobachtung nicht leicht zu erfüllen). Formal ist das Prinzip der Klassifizierbarkeit immer erfüllbar durch Prinzipien der Datensammlung Prinzip der Vergleichbarkeit gleiche Untersuchungsbedingungen Kombinationen empirisch sinnvoll Vergleiche hinsichtlich einer Merkmalsdimension Prinzip der Klassifizierbarkeit <?page no="217"?> 218 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 218 Aufnahme der Kategorien „Sonstiges“ und „nicht entscheidbar“ in die Liste der möglichen Variablenausprägungen. Das Prinzip der Vollständigkeit heißt zunächst einmal ganz einfach: Es dürfen in der Datenmatrix keine Zellen x ij leer bleiben. Da aber die Daten das Resultat empirischer Erhebung sein sollen, ist die Forderung zu erweitern: Keine Zellen der Matrix dürfen leer bleiben, und: Alle Werte müssen empirisch bestimmt werden. In dieser Formulierung ist allerdings die Forderung in der Praxis fast nie erfüllbar. In der Feldarbeit (bei der Datenerhebung) werden fast immer Fälle auftreten, in denen Angaben fehlen, weil etwa der Befragte auf eine Frage die Antwort verweigert oder der Interviewer es im Eifer des Gefechts versäumt, die Antwort zu protokollieren. Weitere Formen fehlender Angaben sind, dass der Befragte die Antwort nicht weiß, oder dass eine Frage für seine Person nicht zutrifft. Solche fehlenden Werte (engl.: missing values, missing data) beeinträchtigen-- sofern sie häufig vorkommen-- die Gültigkeit der Auswertung der erhobenen Daten. 178 Das Prinzip der Vollständigkeit muss deshalb für die Forschungspraxis weniger eng gefasst werden: Keine Zelle der Matrix darf leer bleiben, und: In den Fällen, in denen auf einer Merkmalsdimension ein Wert nicht empirisch ermittelt werden konnte, ist der Grund kenntlich zu machen (vgl. Beispiele in 5.3.1). Das aber bedeutet wiederum nichts anderes, als dass dieses Prinzip lediglich formal erfüllt wird, nämlich durch Formulierung zusätzlicher Variablenausprägungen wie „weiß nicht“, „keine Antwort“, „trifft nicht zu“, „nicht entscheidbar“. Dabei muss man wissen (und dies bei der Datenauswertung berücksichtigen), dass solche Variablenwerte keine Messwerte sind; sie sind nicht Aussagen über die Untersuchungseinheiten auf den interessierenden Eigenschaftsdimensionen, sondern Informationen darüber, warum kein Messwert vorliegt (z. B.: „Die Frage konnte nicht beantwortet werden“ oder: „Ein beobachtetes Ereignis war nicht eindeutig einer Beobachtungskategorie zuzuordnen“). 178 Bei bivariater oder multivariater Auswertung (vgl. Kapitel 8.3) sind Fälle mit fehlenden Angaben entweder aus der Analyse auszuschließen, oder die fehlenden Werte sind unter Einführung zusätzlicher Annahmen und auf der Basis anderer, vorliegender Angaben zu schätzen. Für Hinweise auf diesbezügliche statistische Techniken siehe zum Beispiel als Überblick Lück/ Landrock 2014, Spieß 2010. Details zu diesem großen Thema gibt es bei Allison 2002, Messingschlager 2008, Rubin 2004 und Schnell 1985. Prinzip der Vollständigkeit fehlende Angaben <?page no="218"?> 219 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 219 5.4 Vertiefung: Die axiomatische Messtheorie 5.4.1 Grundbegriffe 179 In Kapitel 5.3.1 haben wir Messen folgendermaßen definiert: Messen ist die systematische, d. h. nach bestimmten Regeln, Vorschriften, Verfahren erfolgende Zuordnung einer Menge von Zahlen oder Symbolen zu den Ausprägungen einer Variablen (mithin auch zu den Objekten), und zwar so, dass die Relationen unter den Zahlenwerten den Relationen unter den Objekten entsprechen. Aus diesem Verständnis heraus spricht man von Messen als strukturtreuer Abbildung eines empirischen relationalen Systems in ein numerisches relationales System. 180 Dieses Konzept soll im Folgenden über die bisherige Illustration an Beispielen hinaus auch formal konkretisiert werden. Dazu zunächst ein paar „Vokabeln“: Als Relation bezeichnet man generell die Beziehung zwischen Elementen von Mengen. Im speziellen Zusammenhang soll „Relation“ eine Vorschrift sein, durch die ein Element x einem Element y zugeordnet wird (abgekürzte Schreibweise: xRy =-Relation R zwischen den Elementen x und y). x hat den gleichen Beruf wie y (zweistellige Relation); Ort x ist vom Ort y genauso weit entfernt wie Ort w vom Ort z (vierstellige Relation); Beruf a hat ein höheres Prestige als Beruf b (zweistellige Relation). Relationen kann man hinsichtlich ihrer Eigenschaften genauer kennzeichnen. Eine Relation heißt symmetrisch, wenn sie mit ihrer Umkehrrelation übereinstimmt, d. h. die Elemente können vertauscht werden, ohne dass die Aussage falsch wird: xRy ↔ yRx. x ist verwandt mit y; a hat den gleichen Beruf wie b; Peter ist genauso alt wie Karin. 179 Für den eiligen Leser sind die in den Kapiteln 5.4.1 bis 5.4.3 skizzierten formalen Grundlagen der axiomatischen Messtheorie entbehrlich. Wer es im Gegenteil ausführlicher und grundlegender möchte, sei verwiesen auf Saint-Mont 2011, Kapitel 2: Messtheorie. 180 Ein numerisches relationales System (kürzer: „numerisches Relativ“), also ein Zahlensystem, ist „eine abstrakte Theorie, ein uninterpretiertes axiomatisches System ohne empirischen Bezug“ (Hülst 1975, 33). Diese „abstrakte Theorie“ erhält erst dadurch empirische Bedeutung, dass sie durch explizite Abbildungsvorschriften mit einem empirischen relationalen System (kürzer: „empirisches Relativ“) in Beziehung gesetzt wird. Man sagt, die abstrakte Theorie wird „empirisch interpretiert“. Beispiele dafür folgen auf den nächsten Seiten. Messen: strukturtreue Abbildung Definition: Relation BEISPIELE symmetrische Relation BEISPIELE <?page no="219"?> 220 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 220 Zwei Elemente, die durch eine asymmetrische Relation miteinander verknüpft sind, kann man dagegen nicht umkehren, ohne dass die Aussage falsch würde: xRy ←/ → yRx. x ist stärker als y; der Montblanc ist höher als der Kahle Asten; Maria ist die Ehefrau von Otto. Eine Relation heißt reflexiv, wenn sie aus zwei gleichen Komponenten bestehen kann, ohne falsch zu sein: xRx. Identität: x ist identisch mit x (trivial; jedes Ding ist identisch mit sich selbst); „mögen“: x mag x (nicht trivial, kann empirisch falsch sein: „ich mag mich selbst“ gilt nur bei positiver Selbsteinschätzung). Die Relation heißt irreflexiv, wenn xRx nicht gilt. … ist verheiratet mit-…; -… ist größer als-…; -… hat Schulden bei-…; -… ist Kind von-… Eine Relation wird transitiv genannt, wenn aus xRy und yRz auch xRz folgt: xRy ∧ yRz → xRz. a ist älter als b, und b ist älter als c; dann ist a auch älter als c. Dagegen kann die folgende Aussage empirisch falsch sein: Peter ist befreundet mit Paul, Paul ist befreundet mit Karl; dann ist Peter auch befreundet mit Karl. Die Freundschafts-Relation ist nur dann transitiv, wenn die Norm gilt: Deine Freunde sind auch meine Freunde. Dementsprechend ist eine Relation intransitiv, wenn aus xRy und yRz nicht folgt: xRz. Aus ‚a ist Vater von b‘ und ‚b ist Vater von c‘ folgt nicht ‚a ist Vater von c‘, sondern ‚a ist Großvater von c‘. Eine zugleich symmetrische, reflexive und transitive Relation heißt Äquivalenzrelation (äquivalent =-gleichwertig, von gleicher Geltung). x hat das gleiche Elternpaar wie y; a hat den gleichen sozialen Status wie b; der Beruf w wird genauso gut bezahlt wie der Beruf z. Als Zeichen für die empirische Äquivalenzrelation wird ≈ benutzt; das Zeichen für die mathematische Äquivalenzrelation ist =. Ist eine Relation zugleich irreflexiv, asymmetrisch und transitiv, dann handelt es sich um eine Ordnungsrelation. asymmetrische Relation BEISPIELE reflexive Relation BEISPIELE irreflexive Relation BEISPIELE transitive Relation BEISPIELE intransitive Relation BEISPIEL Äquivalenzrelation BEISPIELE Ordnungsrelation <?page no="220"?> 221 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 221 x ist kleiner (größer) als y; Beruf w hat ein höheres (niedrigeres) Prestige als Beruf z. Als Zeichen für die empirische Ordnungsrelation werden -und- benutzt; die entsprechenden Zeichen für die mathematische Ordnungsrelation >-und-<. Ist über einer Menge von Objekten eine Relation definiert, dann sagt man, ihr sei eine Struktur aufgeprägt. Personen in einem Betrieb mit der Relation „… ist Untergebener von-…“ (die Struktur heißt „Betriebshierarchie“); Berufe mit der Relation „… hat das gleiche Prestige wie-…“ (wir erhalten eine Berufsklassifikation nach dem Merkmal Prestige). „Objekte“ können auch Symbole sein, etwa die natürlichen Zahlen mit der Relation „… ist größer als-…“ (y > x); die Zahlen weisen eine Ordnungsstruktur auf. Strukturierte Mengen können aufeinander (ineinander) abgebildet werden. Die Abbildung muss mit der Struktur beider Mengen verträglich sein. Solche strukturverträglichen Abbildungen (f ) nennt man Morphismen. w, x, y, z seien Berufe, für deren Prestige gelte: w x y z; die Menge der Berufe und die zwischen ihnen definierten Relationen stellen unser empirisches relationales System dar; allgemein A =- (A, R). Diese strukturierte Menge empirischer Elemente kann strukturtreu in eine Teilmenge der natürlichen Zahlen abgebildet werden, z. B. 1, 2, 3, 4 mit den Relationen 4->-3->-2->-1. Wir sprechen in diesem Zusammenhang vom numerischen relationalen System; allgemein: N =-(N, S). Zur Abbildung des empirischen Relativs auf das numerische Relativ benötigen wir eine Vorschrift (eine Abbildungsregel f ). Diese kann etwa lauten: Dem Beruf mit dem niedrigsten Prestige ist die niedrigste Zahl aus der Teilmenge der natürlichen Zahlen zuzuordnen, dem Beruf mit dem zweitniedrigsten Prestige die zweitniedrigste Zahl usw., also: f(w) =-1, f(x) =-2, f(y) =-3, f(z) =-4. Die Vorschrift könnte aber auch lauten: Die Berufe sind entsprechend ihrem Prestige in eine Rangordnung zu bringen; einem hohen Prestige entspricht eine niedrige Rangziffer, einem niedrigen Prestige eine hohe Rangziffer, also: f(z) =-1, f(y) =-2, f(x) =-3, f(w) =-4. Kurzschreibweise für strukturverträgliche Abbildungen: f =-A → N. BEISPIELE Struktur BEISPIELE strukturierte Mengen Morphismen BEISPIEL Abbildungsregel <?page no="221"?> 222 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 222 Eine umkehrbar eindeutige (d. h. für beide Richtungen geltende) Abbildung heißt Isomorphismus: w 4 bzw. f(w) =-4 x 3 bzw. f(x) =-3 y 2 bzw. f(y) =-2 z 1 bzw. f(z) =-1 Eine nur in einer Richtung eindeutige (also nicht umkehrbar eindeutige) Abbildung heißt Homomorphismus w 4 bzw. f(w) =-4 x 3 bzw. f(x) =-3 y 2 bzw. f(y) =-2 (so gelte z. B. im empirischen Relativ zusätzlich: zwei Berufe z 1 und z 2 seien im Hinblick auf ihr Prestige äquivalent: z 1 ≈ z 2 ): 181 z 1 1 bzw. f(z 1 ) =-1 z 2 und f(z 2 ) =-1 Das Konzept „strukturtreue Abbildung“ ist also von der Vorstellung geleitet, dass als Ergebnis der Messung ein numerischer Wert steht, der nicht willkürlich festgelegt wurde, sondern der auf der empirischen Realität basiert und deren existierende Strukturen respektiert. Anders formuliert: Die Messwerte repräsentieren die realen Verhältnisse. Man spricht deshalb auch von der „repräsentationalen Theorie des Messens“ (Saint-Mont 2011, 23). 5.4.2 Die Messskala Eine Skala ist definiert als das geordnete Tripel aus einem empirischen relationalen System A, dem numerischen relationalen System N und dem Morphismus f: A → N, also durch (A, N, f ). Ausführlicher geschrieben: Skala =-[(A; R 1 ,-…, R n ), (N; S 1 ,-…, S n ), f ]. Hierbei sind A eine Menge empirischer Objekte, für die die Relationen R i gelten, N eine Teilmenge der reellen Zahlen mit den Relationen S i und f die Abbildungsvorschrift (der Morphismus). Inwieweit die Relationen R i im empirischen Relativ gelten, ist vor allem eine empirische Frage (es sei erinnert an die Relation „… ist befreundet mit-…“, die nur dann eine Zerlegung in Äquivalenzklassen erlaubt, wenn empirisch für alle Untersuchungseinheiten gilt: „Deine Freunde sind auch meine Freunde“). Bei den S i im numerischen Relativ handelt es sich um mathematische Relationen, von denen insbesondere =-und > bzw. < von Bedeutung sind. Strukturtreu ist die Abbildung eines empirischen relationalen Systems in ein numerisches relationales System dann, wenn die empirischen Relationen R i zwischen der Objektmenge A durch mathematische Relationen S i zwischen der Teilmenge N der Zahlen korrekt wiedergegeben werden können. 181 Hier ist zwar die Abbildung vom empirischen in das numerische Relativ eindeutig, aber vom zugeordneten „Messwert“ kann nicht mehr rückgeschlossen werden, ob die Ziffer 1 für den Beruf z 1 oder für den Beruf z 2 steht. BEISPIEL Definition: Skala strukturtreue bei-einander entsprechenden Relationen <?page no="222"?> 223 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 223 Aus der Definition von „Skala“ folgt, dass vor dem Messvorgang drei Probleme zu lösen sind (Kreppner 1975, 107 ff.; Orth 1974, 21 ff.): 1) Klärung, ob die Relationsaxiome einer Skala im empirischen Relativ erfüllt sind; 2) Rechtfertigung für die Zuweisung von Zahlen zu Objekten (Repräsentationsproblem); 3) Bestimmung des Grades, bis zu dem diese Zuweisung eindeutig ist (Eindeutigkeitsproblem). zu 1): Die Relationsaxiome der Skala müssen im empirischen relationalen System (A; R 1 ,…, R n ) erfüllt sein. Ob dies der Fall ist, hängt von der Art und Weise ab, wie die zu messende Eigenschaft operationalisiert worden ist. „Temperatur“ etwa kann so operationalisiert werden, dass das Messergebnis Ratioskalenniveau erreicht (Kelvin- Skala) oder dass es Intervallskalenniveau erreicht (Celsius-Skala) oder gar dass die Messung Ordinalskalenniveau nicht übersteigt 182 (etwa wenn durch die-- nicht zu empfehlende-- Operation „Hand ins Wasser halten“ die Wassertemperatur daraufhin überprüft wird, ob sie den Eigenschaftsausprägungen „kalt“ oder „lauwarm“ oder „warm“ oder „heiß“ entspricht). Erst unter Berücksichtigung der Operationalisierung kann entschieden werden, welche der für ein bestimmtes Messniveau nötigen Relationen unter den empirischen Objekten bestehen und welche davon aus empirischen Gründen gelten oder schon aufgrund der Operationalisierung erfüllt sind. Werden etwa bei einem klassifikatorischen Begriff alle Merkmalsausprägungen unabhängig voneinander definiert, dann muss es sich erst empirisch erweisen, ob z. B. die definierten Merkmalsausprägungen sich gegenseitig ausschließen; etwa: „Geschlecht“ mit den Ausprägungen „männlich“ sowie Angabe einer Reihe sekundärer Geschlechtsmerkmale und „weiblich“ sowie Angaben einer weiteren Reihe sekundärer Geschlechtsmerkmale. Empirisch könnten nun Fälle auftreten, die Geschlechtsmerkmale beider Ausprägungen aufweisen („Hermaphrodit“). Die Axiome der Skala wären bei gegebener Operationalisierung empirisch nicht erfüllt. Werden dagegen nur n-1 der möglichen Ausprägungen unabhängig definiert und die Ausprägung n ist dadurch gekennzeichnet, dass die übrigen Ausprägungen nicht vorliegen, dann ergibt sich die Erfülltheit der Relationsaxiome schon aus der Operationalisierung (etwa: „Geschlecht“ mit den Ausprägungen „männlich“, wenn sekundäre Merkmale m und nicht w; „weiblich“, wenn sekundäre Merkmale w und nicht m; „Sonstige“). zu 2): Das Repräsentationsproblem gilt als das zentrale Problem der Messtheorie und bezieht sich auf die Frage, ob zu einem gegebenen empirischen relationalen System (A, R i ) ein numerisches relationales System (N, S i ) und ein Morphismus f: A → N existiert. Zwar bestehen in den Sozialwissenschaften im Allgemeinen keine spezifischen Schwierigkeiten. Doch können Probleme bei mehrdimensionalen Ordnungsstruk- 182 Zum Skalen- oder Messniveau vgl. Kapitel 5.3.1 und 5.4.3. Relationsaxiome Relationen empirisch oder logisch Repräsentationsproblem <?page no="223"?> 224 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 224 turen entstehen. So sei z. B. eine Präferenzstruktur von Personen im Hinblick auf bestimmte Filmtypen gegeben. Person P ziehe etwa amerikanische Filme italienischen Filmen vor: F a F i , diese wiederum französischen Filmen: F i F f . Andererseits ziehe die Person P in jedem Fall einen Krimi einem Musical vor: F k F m . Gegeben seien jetzt als Film 1 ein amerikanisches Musical (F am ), als Film 2 ein italienisches Melodrama (F id ) und als Film 3 ein französischer Krimi (F fk ). Hinsichtlich der Herkunft der Filme gilt nun: aus F a- F i und F i F f folgt auch F a F f . Aus F am F id und F id F fk jedoch folgt nicht F am F fk , da in jedem Fall ein Krimi einem Musical vorgezogen wird. Ein numerisches Relativ und eine Abbildungsvorschrift, die diese mehrdimensionale Ordnungsstruktur wiedergeben können, existieren offensichtlich nicht-- ein Problem, mit dem man es bei der Indexbildung immer wieder zu tun hat. Eine „Notlösung“ für die Formulierung des Morphismus kann in solchen Fällen darin bestehen, dass bestimmte-- im Hinblick auf die Untersuchungsfrage „weniger relevante“-- empirische Relationen unberücksichtigt bleiben. zu 3): Selbst wenn es gelungen ist, das Repräsentationsproblem zu lösen, also die Existenz einer Skala zur strukturtreuen Abbildung nachzuweisen, haben wir damit noch nicht die Einheit der Messung definiert; denn diese ist nicht im empirischen relationalen System angelegt. Wir können die Länge einer Strecke in Meter oder Kilometer oder in Meilen, die Temperatur in Celsius- oder Kelvin-Graden messen; wir können das Einkommen in Euro oder Dollar oder Schweizer Franken angeben. Ob wir nun die Länge in m oder km, die Körpergröße in m oder cm protokollieren, ändert bekanntlich nichts an der Strukturtreue der Abbildung. Je nach Art der Relationen im empirischen relationalen System können bestimmte mathematische Transformationen am numerischen relationalen System vorgenommen werden (in obigen Beispielen Multiplikation und Division), ohne dass die Strukturtreue der Abbildung darunter leidet. Genau um diese Frage geht es beim Eindeutigkeitsproblem: Wie viele verschiedene Morphismen f: A → N existieren, so dass (A,-N,-f ) eine Skala-- im oben definierten Sinn-- ist. Das numerische relationale System als Abbildung der Berufsprestigeordnung (4,-3, 2, 1) kann überführt werden: - durch Addition einer Konstanten +2 in (6, 5, 4, 3), - durch Multiplikation mit einer Konstanten +3 in (12, 9, 6, 3), - durch Quadrieren der Skalenwerte in (16, 9, 4, 1), ohne dass die Rangordnung geändert würde. Die Abbildung ist weiterhin hinsichtlich der Rangordnung strukturtreu; die neue Teilmenge von Zahlen ist also wiederum ein Morphismus. Transformationen, die einen Morphismus in einen anderen Morphismus überführen, nennt man zulässige Transformationen. Gegenüber zulässigen Transformationen ist die jeweilige Skala invariant. Die Entscheidung, welche Transformationen zulässig sind und welche nicht, hängt von den Eigenschaften des empirischen relationalen Einheit der Messung strukturtreue mathematische Transformationen BEISPIEL zulässige Transformation <?page no="224"?> 225 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 225 Systems ab. Dementsprechend wird das Messniveau einer Skala durch die Relationen definiert, die zwischen den empirischen Objekten bestehen. Man kann aber auch umgekehrt das Messniveau einer Skala mit Hilfe der Angabe der zulässigen Transformationen definieren und daraus ableiten, welche Relationen auf der Menge empirischer Objekte gelten müssen, damit diese Skala angewandt werden kann. Mit diesen „Vokabeln“ ausgerüstet, können wir uns nun erneut und diesmal etwas formaler den in Kapitel 5.3.1 bereits kurz behandelten Skalentypen zuwenden. 5.4.3 Messniveaus/ Skalentypen Nominalskala: Die einfachste Skala ist die Nominalskala; sie definiert sich durch das geordnete Tripel (A, ≈; N, =; f ). (A, ≈) ist ein empirisches relationales System, dessen Objektmenge eine Äquivalenzstruktur „aufgeprägt“ ist; d. h. die Äquivalenzrelation zerlegt die Objektmenge vollständig in sich ausschließende und damit sich nicht überschneidende Klassen. Stehen zwei Objekte zueinander in einer Äquivalenzrelation (x-≈-y), dann gehören sie der gleichen Klasse an und erhalten den gleichen Skalenwert im numerischen Relativ (N, =), wobei die Skalenwerte sozusagen nur Namen für die Eigenschaftsausprägungen sind (daher: Nominalskala; vgl. die Beispiele in Kapitel 5.3.1). Die Relationsaxiome der Nominalskala besagen, dass für alle empirischen Objekte a, b, c gelten muss: 1) a ≈ a (Reflexivität) 2) aus a ≈ b folgt b ≈ a (Symmetrie) 3) aus a ≈ b und b ≈ c folgt a ≈ c (Transitivität). Die Abbildungsvorschrift ist: f(a) =-f(b) ↔ a ≈ b bzw. f(a) ≠ f(b) ↔ a ≉ b. Die Nominalskala ist invariant gegenüber allen umkehrbar eindeutigen (=- eineindeutigen) Transformationen. Ordinalskala: War bei nominalem Messniveau eine Abbildung der Objektmenge in eine Menge von Zahlen an und für sich nicht erforderlich-- die Eigenschaftsausprägungen können auch durch Zeichen der natürlichen Sprache repräsentiert werden (bei der Eigenschaftsdimension ‚Nationalität‘ etwa durch ‚Deutscher‘, ‚Spanier‘, ‚Italiener‘ usw.)--, so erweist sich die numerische Form der Abbildung als notwendig, sobald alle empirischen Objekte hinsichtlich der Stärke oder der Intensität der Ausprägung auf einer Merkmalsdimension verglichen werden sollen. Eine Skala, die Informationen über die Rangordnung von Objekten im Hinblick auf das gemessene Merkmal gibt, nennt man Ordinalskala. Sie ist definiert durch das Nominalskala Ordinalskala <?page no="225"?> 226 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 226 Tripel (A, ≈, ; N, =, >; f ). Über der empirischen Objektmenge A ist neben der Äquivalenzrelation ≈ noch eine Ordnungsrelation definiert. Die Relationsaxiome der Ordinalskala fordern also für die Menge empirischer Objekte A: 1) Auf A muss eine Äquivalenzrelation ≈ gegeben sein (wie bei der Nominalskala). 2) Weiter muss für eine Relation gelten: (a) entweder a ≈ b oder a b oder b a für alle a, b aus A (Gesetz der Trichotomie), (b) aus a b und b c folgt a c für alle a, b, c aus A (Transitivität). Die Abbildungsvorschrift (Morphismus) lautet jetzt: 1) f(a) =-f(b) ↔ a ≈ b 2) f(a) > f(b) ↔ a b Die gegenüber der Nominalskala neu hinzugekommenen Axiome 2(a) und 2(b) erlauben eine informationsreichere Realitätsbeschreibung; sie setzen aber auch eine feinere Strukturierung der Wirklichkeit voraus. Welche der fünf Relationshypothesen als empirische Hypothesen aufzufassen sind und welche „definitionsgemäß“ erfüllt sind, lässt sich erst aufgrund der Operationalisierung des zu messenden Merkmals entscheiden (s. o.). Was kann geschehen, wenn nun bei einer bestimmten Operationalisierung und einer bestimmten empirischen Interpretation der Relationen (etwa: ≈ „… ist befreundet mit-…“; „… hat ein höheres Prestige als-…“) eines der fünf Axiome sich als empirisch nicht erfüllt erweist? Man kann 1. die Interpretation von ≈ und abändern (im Filmbeispiel etwa könnte die Präferenzrelation ohne Berücksichtigung der Art des Films- - Musical, Krimi- - definiert werden) oder eine neue Operationalisierung suchen, 2. auf die Verwendung dieses Begriffs (jedenfalls auf diesem Messniveau) verzichten oder 3. das fragliche Axiom als Idealisierung der Wirklichkeit ansehen und kleinere Abweichungen als für die Fragestellung der Untersuchung unerheblich betrachten. Die Ordinalskala ist invariant gegenüber allen sogenannten streng monotonen Transformationen (neben der Addition, Multiplikation und dem Quadrieren auch Logarithmieren und Wurzelziehen). Intervallskala: Noch genauere Informationen über die Ausprägungen einer Eigenschaft bei den Untersuchungseinheiten (im Vergleich zur Ordinalskala) ermöglicht die Messung mit Hilfe einer Intervallskala. Sie bringt nicht nur zum Ausdruck, dass etwa bei einem Objekt b ein Merkmal x in stärkerem Maße vorhanden ist als beim Objekt a, sondern zusätzlich, um wie viel stärker das Merkmal x ausgeprägt ist, ausgedrückt in Einheiten einer Vergleichsgröße. mögliche Reaktionen auf Abweichung Intervallskala <?page no="226"?> 227 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 227 Das bedeutet, dass zur Konstruktion von Intervallskalen zusätzlich zu den Relationen ≈ und zwischen den Objekten im empirischen Relativ noch Aussagen über Differenzen der Merkmalsausprägungen zwischen Objektpaaren empirisch sinnvoll sind. Es muss also angebbar sein, ob Differenzen zwischen den geordneten Objekten gleich groß oder größer/ kleiner sind. Auf die formale Definition der Intervallskala (etwa durch Angabe aller Relationsaxiome) wird hier verzichtet. Die Abbildungsvorschriften lauten jetzt: 1) f(a) =-f(b) ↔ a ≈ b 2) f(a) > f(b) ↔ a b 3) [f(a)-f(b)] =-[f(c)-f(d)] ↔ ab ≈ cd 4) [f(a)-f(b)] > [f(c)-f(d)] ↔ ab cd Dadurch, dass Differenzen zwischen den Messwerten empirisch sinnvoll als Differenzen zwischen Merkmalsausprägungen bei den Objekten interpretiert werden können, sind jetzt elementare Rechenoperationen mit den Messwerten zulässig: bei den Messwerten sind Addition und Subtraktion, bei Messwert-Differenzen sind darüber hinaus Multiplikation, Division etc. erlaubt. Intervallskalen unterscheiden sich von höherrangigen Messniveaus dadurch, dass sie keinen empirisch eindeutig festgelegten (keinen „empirisch sinnvollen“) Nullpunkt haben. Somit sind Intervallskalen bis auf die Maßeinheit und die Wahl des Skalenursprungs (Nullpunkts) eindeutig bestimmt. Anders ausgedrückt: Intervallskalen sind invariant gegenüber sogenannten affinen Transformationen der Form: x′=-α · X + β (für alle α > 0), bzw. auf die Messwerte bezogen: f(x) =-a · x + b. Ratioskala (Verhältnisskala): Dieser Skalentyp hat zusätzlich zu den Merkmalen der Intervallskala noch einen „absoluten Nullpunkt“, d. h. einen empirisch sinnvollen oder empirisch eindeutig festgelegten Nullpunkt. Dadurch wird auch für die einzelnen Messwerte (und nicht erst für die Messwert-Differenzen) die Anwendung sämtlicher mathematischer Rechenoperationen empirisch sinnvoll und somit zulässig. Längenmessung in m, cm, Zoll, Meilen etc.; Altersangaben in Jahren, Monaten, Jahrzehnten usw.; Einkommensangaben in €, Dollar, Franken usw.; Temperaturmessung in Grad Kelvin (vgl. Kapitel 5.3.1). Die Ratioskala ist also, wie die Beispiele zeigen, bis auf die Wahl der Maßeinheit eindeutig bestimmt; sie ist somit invariant nur noch gegenüber sogenannten Ähnlichkeitstransformationen (=-linearen Transformationen) der Form: x′=-α · X (für α >- 0), bzw. auf die Messwerte bezogen: f(x) =- a · x. Im Gegensatz zu den anderen Skalen niedrigerer Ordnung sind keine Nullpunkttransformationen zulässig (nimmt man an einer Ratioskala eine Nullpunkttransformation vor, erhält man eine Intervallskala). Zusätzlich zu den Aussagen über die Äquivalenz von Objekten (Nominalskala), über die Rangordnung der Objekte (Ordinalskala) und über Differenzen Nullpunkt und Maßeinheit nicht bestimmt Ratioskala BEISPIELE <?page no="227"?> 228 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 228 zwischen Objektpaaren (Intervallskala) sind hier auch Aussagen über die Verhältnisse (Quotienten) bzw. über das Vielfache von Messwerten empirisch sinnvoll. Der Vergleich der für die einzelnen Skalentypen zulässigen Transformationen zeigt im Übrigen, dass mit zunehmendem Skalenniveau (Messniveau) die Zahl der zulässigen Transformationen abnimmt. Das liegt daran, dass mit zunehmendem Skalenniveau immer mehr der im numerischen Relativ geltenden Relationen auch einen empirischen Sinn haben. Absolutskala In dem Grenzfall, dass überhaupt keine Transformationen der Skalenwerte mehr zulässig sind, haben wir es mit einer absoluten Skala zu tun. Hier sind nicht nur sämtliche Relationen sowie der Nullpunkt empirisch sinnvoll, sondern auch die Maßeinheit ist empirisch vorgegeben. Alle Skalen, die auf Abzählen basieren, sind absolute Skalen (Anzahl, Anteile; z. B. Geburts- oder Todesraten). 5.4.4 Skalentypen und zulässige Aussagen; empirisch sinnvolle/ sinnlose Statistik Folgende Arten numerischer Aussagen wurden bisher unterschieden: 1) Äquivalenzaussage-: f(x) =-f(y) 2) Ordnungsaussage: f(x) > f(y) 3) Distanzaussage-: f(x)-f(y) ≥ f(w)-f(z) 4) Verhältnisaussage: f(x) =-a · f(y) Danach, ob solche Aussagen über Relationen zwischen Skalenwerten zulässig (empirisch sinnvoll) sind oder nicht, lassen sich die Skalentypen folgendermaßen darstellen: (‚+‘ bedeutet „empirisch sinnvoll“, ‚-‘ bedeutet „empirisch sinnlos“): Typ der Aussage: Skalentyp: Äquivalenz-A. Ordnungs-A. Distanz-A. Verhältnis-A. Nominalskala + - - - Ordinalskala + + - - Intervallskala + + + - Ratiou. Absolut-Skala + + + + Was bedeutet nun im Einzelnen „empirisch sinnlose“ und damit „nicht zulässige“ Aussage aufgrund der Skalen-Messwerte? Allgemein gilt: Nur diejenigen Aussagen über Relationen zwischen Skalenwerten sind zulässig (d. h. sind auch empirisch sinnvoll), deren Wahrheitswert sich nicht gegenüber legitimen Skalentransformationen verändert. Überführt also eine zulässige Transformation einer Skala eine wahre Aussage in eine falsche Aussage und umgekehrt, dann ist diese Art statistischer Aussage empirisch sinnlos. Absolutskala empirisch sinnvolle Aussagen empirisch sinnlose Aussagen <?page no="228"?> 229 5.4 Vertiefung: Die axiomatische Messtheorie www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 229 Werden Personen nach ihrem Geschlecht auf einer Nominalskala mit den Werten 1 =-weiblich und 2 =-männlich abgebildet, dann wäre eine empirisch sinnlose Interpretation der Skalenwerte etwa die: „Person a hat die Eigenschaft ‚Geschlecht‘ in einem doppelt so hohen Ausmaß wie Person b, denn ihr Skalenwert f(a) =-2 ist doppelt so hoch wie der Skalenwert von b: f(b)- =- 1“. Eine für Nominalskalen zulässige Transformation ist die eindeutige Zuordnung beliebiger anderer Werte, etwa: weiblich =- 1, männlich =- 0. Vergleichen Sie nun die obige- - nicht zulässige-- Interpretation. Werden Berufe nach ihrem Prestige in eine Rangordnung gebracht (s. o.) und auf einer Ordinalskala abgebildet mit f(w) =-4, f(x) =-3, f(y) =-2, f(z) =-1, dann wäre die folgende Aussage empirisch nicht sinnvoll: „Der Prestigeunterschied zwischen w und y ist größer als der zwischen y und z, denn die Differenz zwischen den Skalenwerten für w und y ist größer als die zwischen y und z: f(w)-f(y) > f(y)-f(z) bzw. (4-2) > (2-1).“ Eine Transformation, der gegenüber Ordinalskalen invariant sind, ist zum Beispiel die eindeutige Zuordnung anderer Skalenwerte, solange die bisherige Rangordnung erhalten bleibt: etwa f(w) =-10, f(x) =-8, f(y) =-6, f(z) =-2. Dies könnte z. B. sinnvoll sein, weil noch weitere Berufe existieren, deren Prestige zwischen den genannten liegt. Vergleichen Sie nun die obige Interpretation. In beiden Fällen wurde aus einer logisch wahren Aussage über Relationen zwischen den Skalenwerten durch eine für die gewählte Skala zulässige (legitime) Transformation eine logisch falsche Aussage über Relationen zwischen den (transformierten) Skalenwerten. Was hier für die Zulässigkeit der Interpretation von Einzelmesswerten in Abhängigkeit vom Messniveau der Skala gesagt wurde, gilt analog für statistische Aussagen, also für Aussagen, die durch Anwendung statistischer Modelle auf die Messwerte gewonnen werden. Auch hier ist zu prüfen, ob Aussagen über Aggregate von Messwerten (z. B. arithmetisches Mittel, Varianz) durch zulässige Transformationen der Einzelmesswerte verändert werden oder nicht. Nur solche Aussagen über Beziehungen zwischen statistischen Maßzahlen sind zulässig und empirisch sinnvoll, deren Wahrheitswert nicht durch legitime Transformationen der Skalenwerte verändert wird. Die Ordnungsaussage x 1 > x 2 (das arithmetische Mittel der Stichprobe 1 ist größer als das arithmetische Mittel der Stichprobe 2) ist nur dann zulässig, wenn die Einzelmesswerte x i mindestens intervallskaliert sind. Das Gleiche gilt für eine Äquivalenzaussage x 1 =-x 2. x 1 sei der Durchschnitt der Abiturnoten von Person 1: (2+2+2+3+3)/ 5 =- 2,4; x 2 - sei der Durchschnitt der Abiturnoten von Person 2: (1+1+1+4+4)/ 5 =- 2,2. Danach würde gelten: Das arithmetische Mittel der Noten von Person 1 ist höher („schlechter“) als das von Person 2. Da Schulnoten nach übereinstimmender Auffassung- - allenfalls- - ordinalskalierte Werte sind, ist die Transformation des Quadrierens der Skalenwerte zulässig (die Rangordnung wird dadurch nicht verändert), also x 1 =-(4+4+4+9+9)/ 5 =-6,0 und x 2 =-(1+1+1+16+16)/ 5 =-7,0. Jetzt ist BEISPIELE sinnvolle statistische Modelle BEISPIEL <?page no="229"?> 230 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 230 das arithmetische Mittel von Person 1 (berechnet aufgrund der legitim transformierten Skalenwerte) niedriger („besser“) als das von Person 2. Durch eine legitime Transformation der Messwerte ist der Wahrheitswert der Ordnungsaussage über die Mittelwerte verändert worden: Der Vergleich von Abiturnoten durch Berechnung eines arithmetischen Mittels ist eine empirisch sinnlose statistische Aussage, auch wenn dies, z. B. bei der Zuteilung von Studienplätzen in Numerus- Clausus-Fächern, gängige Praxis geworden ist. 5.5 Messen durch Indizes (Indexmessung) Neben der Unterscheidung von Messungen nach dem Skalenniveau ist eine Charakterisierung auch nach der Art der Messverfahren sinnvoll. Die Arten des Messens unterscheiden sich in ihren Zuordnungsregeln. Bei der bisher dargestellten Strategie des Messens als strukturtreuer Abbildung können aus den Relationen zwischen den zugeordneten Skalenwerten testbare Hypothesen über die Relationen zwischen den Objekten abgeleitet werden und umgekehrt. 183 Die Zuordnung von Messwerten zu Eigenschaftsausprägungen geschieht also nicht willkürlich, sondern nach Regeln, die ihre Begründung in der Struktur des empirischen Gegenstandsbereichs finden. Weiter differenzieren lässt sich diese Strategie noch einmal in „fundamentales“ und „abgeleitetes“ Messen. Beim fundamentalen (oder direkten) Messen geschieht die Zuweisung von Zahlen zu Objekten nach Regeln, die sich direkt aus den Eigenschaften des Objekts ergeben (etwa Ablesen der Körpergröße einer Person am Zentimeterstab). Beim abgeleiteten (oder indirekten) Messen wird eine theoretisch definierte Zuordnungsregel angewandt, um aus direkt gemessenen Eigenschaften den interessierenden Merkmalswert zu bestimmen (z. B. Berechnung der Geschwindigkeit aus zurückgelegter Strecke und dafür benötigter Zeit). Im weiteren Sinn kann auch das grundlegende und intuitiv einfach erscheinende Messen durch Abzählen (measurement by counting) hierzu gerechnet werden. Voraussetzung für die Anwendbarkeit dieses Verfahrens-- Zählen der Häufigkeit des Auftretens gleichartiger „Objekte“ in einem bestimmten Zeitabschnitt und einem bestimmten Raum (etwa bei der Datenerhebung per Beobachtung)-- ist eine theoretische Definition, die die Bildung als homogen anzusehender Klassen von Ereignissen erlaubt. In den Sozialwissenschaften gibt es jedoch auch eine Reihe von Messverfahren, deren Begründung nicht in der Art der Abbildung der empirischen Merkmale, sondern in der Messvorschrift selbst besteht, d. h. in der Definition des Verfahrens, nach dem den einzelnen Objekten Zahlen zugeordnet werden. 184 Beispiele hierfür sind 183 Vgl. vorn: die Relationsaxiome der Skala müssen im empirischen relationalen System gelten. 184 Messkonzepte dieser Art werden daher oft als „willkürliches Messen“ bezeichnet oder als „measurement by fiat“ oder auch, freundlicher formuliert, als „Messen durch zweckmäßiges Definieren und Vereinbaren einer Zuordnungsregel“ (Engel u. a. 2001, 20). fundamentales Messen abgeleitetes Messen <?page no="230"?> 231 5.5 Messen durch Indizes (Indexmessung) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 231 sogenannte Rangordnungsverfahren 185 , semantische oder Eindrucksdifferentiale 186 und die meisten Indexkonstruktionen, 187 wie sie in Kapitel 4.2 kurz vorgestellt wurden. Bei der Messung durch Indizes ist nicht empirisch prüfbar, ob zwischen zwei Untersuchungseinheiten mit demselben Skalenwert auch hinsichtlich der „gemessenen“ Eigenschaftsdimension eine Äquivalenz besteht oder ob die Gleichheit sich auf die Identität der Skalenwerte beschränkt. Das Gleiche gilt für eine Rangordnung, die sich aus den Skalenwerten herauslesen lässt. Eine Unterscheidung verschiedener Messniveaus ist damit im bisherigen Sinne nicht möglich, da sich ja das Messniveau aus den im empirischen Relativ geltenden Relationen herleitet. Es existiert somit auch kein Kriterium für eine Trennung von legitimen (zulässigen, da strukturerhaltenden) und nicht legitimen (da strukturzerstörenden) Transformationen der Skalenwerte, weil die zu der Skala gehörende empirische Struktur unbekannt ist. 188 Das bedeutet jedoch nicht, dass aus messtheoretischen Gründen auf die genannten Verfahren der Skalierung und Indexbildung insgesamt verzichtet werden müsste (oder könnte). Während aber beim Messen als strukturtreuer Abbildung gewisse Regelmäßigkeiten im empirischen relationalen System unterstellt werden und dementsprechend die Gültigkeit des Vorgehens im Prinzip empirisch überprüft werden kann, ist dies bei der Indexbildung nicht der Fall. Ihre Rechtfertigung muss theoretisch begründet werden; d. h. die durch den Index „gemessene“ Variable muss sich in einer Vielzahl von Hypothesen, in denen Zusammenhänge mit anderen Merkmalen von Untersuchungsobjekten behauptet werden, konsistent verwenden lassen. Da ein vom Messvorgang unabhängiger Vergleich mit der empirischen Realität bei vielen durch Indexmessung operationalisierten theoretischen Konstrukten (wie ‚Zufriedenheit‘ oder ‚subjektiver Grad der Belästigung durch Lärm-Emissionen‘ oder ‚Bewertung der Qualität der Lehre durch die Studierenden‘) nicht möglich ist, sind zusätzlich besonders hohe Anforderungen an die Ausgestaltung und den Pre-Test der Datenerhebungsinstrumente zu stellen. 189 Sieht man von den Besonderheiten der für jeweils spezielle sozialwissenschaftliche Fragestellungen entwickelten Index- und Skalierungsverfahren ab, so können wir allgemein festhalten: 185 Bei Rangordnungsverfahren legt man beispielsweise in der Marktforschung den Befragten mögliche Gründe für die Entscheidung zum Kauf eines Produkts vor und bittet sie, diese nach der Wichtigkeit in eine Rangreihenfolge zu bringen 186 Vgl. Döring/ Bortz 2016, Kap. 8.6; Bergler 1975; Borg/ Staufenbiel 1989; Gerich 2010a, 2010b; Hennig, in: Friedrich/ Hennig 1975; Scheuch/ Zehnpfennig 1974; Schnell/ Hill/ Esser 1999, Kapitel 4.4.2; Sixtl 1976 und 1982. 187 Die Begriffe „Index“ und „Skala“ werden häufig uneinheitlich verwendet. Näherungsweise kann „Index“ als der allgemeinere Begriff verstanden werden, während „Skala“ für Spezialfälle steht, in denen für die Konstruktion ein bereits eingeführtes, methodisch getestetes und in der wissenschaftlichen Literatur dokumentiertes Verfahren existiert. 188 Für Einzelheiten wird auf die Übersicht bei Besozzi/ Zehnpfennig (1976) verwiesen. 189 Probleme, die in diesem Zusammenhang methodisch kontrolliert zu lösen sind, werden in vorbildlicher Weise von Rohrmann (1978) dargestellt. Obwohl der Erscheinungstermin schon recht lange zurückliegt, kann dieser Artikel immer noch jedem mit Umfragen arbeitenden Sozialwissenschaftler empfohlen werden. nicht empirisch prüfbare Struktur Indexbildung theoretisch begründet <?page no="231"?> 232 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 232 Indexmessung ist die Zuordnung von Zahlen zu Ausprägungen einer Eigenschaft von Objekten derart, dass der Skalenwert sich als Funktionswert von k Indikatorvariablen errechnet. Mathematisch ausgedrückt bedeutet das: I(a) =-i[f 1 (a),-…, f k (a)]. Hierbei bezeichnet a ein Objekt, I(a) seinen Index-Skalenwert, f j (a) seinen Messwert auf dem Indikator j (der gemessenen Variablen j); mit „i“ sei die Funktionsvorschrift bezeichnet, anhand derer aus den Indikatorwerten der Indexwert bestimmt wird. In den meisten Fällen von Indexmessung haben wir es mit additiven Indizes zu tun, so dass „i“ eine additive, gewichtete Kombination der Indikatoren bezeichnet. Es gibt aber auch multiplikative Modelle der Indexkonstruktion. Das Modell der additiven Indexkonstruktion unterstellt, dass sich die Werte auf den als Indikatoren herangezogenen Variablen gegenseitig kompensieren, dass also ein niedriger Wert auf Indikator 1 durch einen hohen Wert auf Indikator 2 ausgeglichen werden kann. Diese Annahme erweist sich aber nur dann als richtig, wenn die k Indikatoren sämtlich unabhängig voneinander auf die durch den Index zu messende Eigenschaft einwirken. Die arithmetische Operation „Addition“ stellt weiter an das Messniveau der Indikatorvariablen die Anforderung, dass sämtliche Indikatoren mindestens auf Intervallskalen-Niveau gemessen worden sind. Die Gewichtung der Indikatoren kann willkürlich oder unter Rückgriff auf Theorien/ Hypothesen geschehen. Im Zuge der Gewichtung muss in jedem Fall eine Vereinheitlichung der Maßeinheit erfolgen; man kann nicht z. B. für einen Index „soziale Schicht“ Monatseinkommen in Euro mit Bildung in Schuljahren und Berufsprestige in Punkten einer Prestigeskala addieren. Die Gewichtung kann aber auch unter Benutzung komplexer statistischer Modelle wie der multiplen linearen Regressionsrechnung vorgenommen werden (Vereinheitlichung der Maßeinheit über die Merkmalsvariation). Allerdings benötigt man dann zur Berechnung der Gewichte im Regressionsmodell zusätzlich zu den k Indikatorvariablen noch eine „Kriteriumsvariable“, auf die die Indikatorvariablen zurückgeführt werden können, d. h. eine Variable, die stellvertretend für die durch den Index zu messende Eigenschaft stehen soll. Dies wirft die Frage auf, warum die Indikatoren überhaupt gemessen werden und ein Index konstruiert wird, wenn das fragliche Merkmal (die durch den Index zu messende Eigenschaft) schon über die Kriteriumsvariable erfassbar ist. 190 190 Beispiel für eine sinnvolle Anwendung dieses Verfahrens: Die „eigentlich“ zu messende Eigenschaft ist nur mit sehr großem Erhebungsaufwand erfassbar; es existieren jedoch leicht erhebbare Indikatoren für Teildimensionen der interessierenden Eigenschaft. Ausgehend von den bei einer kleinen Stichprobe gewonnenen Daten (Indikatoren und Kriteriumsvariable) wird deshalb die Konstruktionsvorschrift für einen Index gewonnen, der in umfangreicheren Untersuchungen die Kriteriumsvariable ersetzt. Definition: Indexmessung additive Indexkonstruktion Messung mindestens intervallskaliert Gewichtung der Indikatoren Indexbildung durch Regression <?page no="232"?> 233 5.5 Messen durch Indizes (Indexmessung) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 233 Dieses Problem taucht bei einem anderen statistischen Modell, das ebenfalls zur Indexgewichtung und zur Berechnung von Indexwerten benutzt werden kann, nicht auf: der Faktorenanalyse. Bei diesem Verfahren werden die Indikatoren auf die „hinter den gemessenen Variablen“ stehenden „latenten Dimensionen“ zurückgeführt. Das heißt: An die Stelle einer empirisch messbaren Kriteriumsvariablen tritt ein nicht direkt messbares Konstrukt (Faktor genannt), von dem angenommen wird, dass es die Ausprägungen der Indikatorvariablen bewirkt (Kriterium der Variablenbündelung zu Dimensionen ist die Korrelation zwischen den Indikatorvariablen). Die für die ermittelten „Dimensionen“ (Faktoren) auf der Basis eines additiven Modells berechenbaren Ausprägungen je Untersuchungseinheit gelten dann als Indexwert der Untersuchungseinheiten: I(a). 191 Die Unterschiede des „Messens durch Indexbildung“ zum „strukturtreuen Messen“ seien noch einmal an einem ausführlicheren Beispiel verdeutlicht. Der Ausgangspunkt für die strukturtreue Abbildung ist ein eindimensionales empirisches Merkmal (z. B. Körpergröße), das in der Realität an einem Objekt (z. B. Person als Merkmalsträger) beobachtet werden kann. Dieses Merkmal wird durch einen präzise definierten Begriff sprachlich bezeichnet und durch geeignete Messvorschriften operationalisiert (Überführung in eine „Variable“ durch Festlegung der abzubildenden „Ausprägungen“, Angabe des zu verwendenden Messinstruments einschließlich der Protokollierungsvorschriften). Die Messwerte (Daten) kommen dadurch zustande, dass eine Person das Messinstrument in standardisierter Weise auf die „Messobjekte“ anwendet: 192 Vergegenwärtigen Sie sich also: Beim „strukturtreuen Messen“ werden die empirischen Eigenschaften von Objekten sowie die (unabhängig von der Messung vorhandene) Klassifikation dieser Objekte strukturerhaltend in Daten überführt. 191 Das Modell der Regressiongsrechnung wird in Kapitel 8.3 dargestellt. Zur Einführung in die Faktorenanalyse vgl. Kapitel 8.4.1, Wolff und Bacher (2010) sowie das psychologische Standardwerk von Pawlik (1967 etc.), zur Validität von Faktorenanalysen siehe Holz-Ebeling (1995). 192 Die messenden Personen können Feld- oder Laborforscher sein, die die Resultate der Anwendung spezifischer Instrumente (etwa für die Zeit-, Größen- oder Intensitätsmessung) in Protokollbögen notieren; oder Beobachter, die eingetretene Ereignisse auf standardisierte Weise festhalten; oder Interviewer, die die Reaktionen von Befragten in standardisierten Fragebögen ankreuzen. Im Falle von Befragungen können aber auch die Befragten selbst die messenden Personen sein, die als Informanten Auskünfte über die Ausprägung interessierender Merkmale geben (etwa Wohnungsgröße, Haushaltseinkommen, Häufigkeit von Nachbarschaftskontakten etc.) oder sie gegebenenfalls (bei schriftlichen Befragungen) sogar selbst in die Erhebungsbögen eintragen. Indexbildung durch Faktorenanalyse <?page no="233"?> 234 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 234 In den Fällen, in denen durch Indizes gemessen wird, existiert jedoch eine solche (in Messwerte abzubildende) eindimensionale empirische Struktur nicht. Vielmehr wird durch einen mehrdimensionalen Begriff eine theoretische Struktur definiert, in welche die Objekte anhand ihrer Ausprägung auf mehreren Merkmalen einzuordnen sind; anders ausgedrückt: Erst die Messung konstruiert die empirische Struktur. Anders ausgedrückt: Beim Konzept „Messen als strukturtreue Abbildung“ wird eine existierende empirische Struktur durch die Messwerte abgebildet. Beim Messen durch Indexbildung dagegen wird zunächst eine theoretisch begründete Struktur definiert, in die dann im Zuge der „Messung“ die empirischen Objekte anhand ihrer Merkmalsausprägungen eingeordnet werden. Bei der seinerzeit umstrittenen Volkszählung 1987 interessierte die Frage, in welchem Maße die bei der Erhebung eingesetzten Zähler diese Aufgabe freiwillig wahrnahmen oder lediglich „zwangsverpflichtet“ in die zu befragenden Haushalte gingen. Ein Hintergrund für dieses Interesse war die Befürchtung, dass „zwangsverpflichtete“ Zähler qualitativ schlechtere Arbeit leisten könnten: mehr Verweigerungen, unvollständig ausgefüllte Bögen etc. theoretische Struktur für Index entwerfen BEISPIEL Abbildung 5.4: Schematischer Ablauf des Messens Messinstrument u. Messvorschrift Variable Begri MESSUNG durch messende Person Daten Objekt / „Merkmalsträger“ zu messendes Merkmal M e r k m a l e <?page no="234"?> 235 5.5 Messen durch Indizes (Indexmessung) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 235 In einer im Anschluss an die Volkszählung durchgeführten schriftlichen Stichprobenerhebung bei eingesetzten Zählern lautete dementsprechend eine zentrale Frage: „Wie kam es dazu, dass Sie Zähler wurden? “ Die Antworten auf diese Frage können als Indikator für die dispositionale Eigenschaft „Freiwilligkeit“ gewertet werden. 193 Zusätzlich wurde gegen Ende des Fragebogens nach dem vermutlichen künftigen Verhalten gefragt: „Wenn Sie in Zukunft wieder vor die Frage gestellt würden, sich als Zähler an einer Volkszählung zu beteiligen: Wie würden Sie sich verhalten? “ 194 Auch die Antworten hierauf können als (weiterer) Indikator für die interessierende Disposition gewertet werden. Beide Indikatoren nähern sich dem Konstrukt jedoch aus unterschiedlicher Perspektive: Erhoben wird auf der einen Seite ein manifestes Verhalten in der aktuellen Situation, auf der anderen Seite eine unverbindliche Absichtserklärung mit Bezug auf eine extrem hypothetische künftige Situation. Theoretisch könnte argumentiert werden, dass die Disposition zur Übernahme staatsbürgerlicher Pflichten sich in manifestem Verhalten wie in hypothetischen Antworten jeweils „teilweise“ zu erkennen gibt und dass eine Kombination beider Aspekte die „bessere“ Annäherung an das Konstrukt sein dürfte. Damit wäre eine Antwort auf die bei jeder Indexkonstruktion zu beantwortende Frage gegeben: Welche Dimensionen soll der Index repräsentieren? (Hier: manifestes Verhalten und hypothetische Bereitschaft). Kombiniert man die Antworten auf beide Fragen in einer Kreuztabelle, so ergibt sich die folgende Verteilung (gerundete Werte): Zähler bei jetziger VZ Zähler bei evtl. zukünftiger VZ? Gesamt freiwillig nur bei Zwang dagegen wehren freiwillig 1400 160 40 1600 freiwillig nach Appellen 480 100 20 600 zu Teilnahme gedrängt 60 150 10 220 zwangsverpflichtet 60 240 30 330 2000 650 100 2750 Quelle: -H.-Kromrey,-H.-Treinen: Begleitforschung zur Volkszählung 1987. Zusatzuntersuchung: Erhebungsstellenund- Zählerbefragung, Bochum 1988 (im Auftrag des Statistischen Bundesamts, Wiesbaden); Häufigkeiten leicht gerundet. 193 Antwortvorgaben: 1. Ich habe mich aus eigener Initiative freiwillig gemeldet; 2. Ich habe mich nach Appellen zur Mitwirkung freiwillig gemeldet; 3. Ich bin mehr oder weniger zur Mitwirkung gedrängt worden; 4. Ich bin zwangsverpflichtet worden. 194 Antwortvorgaben: 1. Ich würde mich freiwillig als Zähler beteiligen; 2. Ich würde nur mitmachen, wenn ich als Zähler zwangsweise verpflichtet wurde; 3. Ich würde nicht wieder mitmachen und mich notfalls gegen eine zwangsweise Verpflichtung wehren. <?page no="235"?> 236 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 236 Die zweite zu beantwortende Frage der Indexkonstruktion lautet: Wie werden die repräsentierten Dimensionen kombiniert? Die Antwort ist im Idealfall theoretisch herleitbar, häufig jedoch nur nach Plausibilitätsgesichtspunkten zu begründen. Problemlos ist im obigen Beispiel lediglich die Zuordnung des höchsten Indexwertes bei den 1400 Befragten, die auf beide Fragen „freiwillig“ geantwortet haben. Für das andere Ende der Skala liegt es nahe, diejenigen 270 Personen, die bei der aktuellen VZ als zwangsverpflichtete Zähler mitwirkten und auch künftig allenfalls unter Zwang teilnehmen oder sich gar widersetzen würden, unter der Ausprägung „gar nicht freiwillig“ zusammenzufassen (niedrigster Indexwert). Für die restlichen 1080 Befragten drängt sich die Anordnung auf einer Dimension „Freiwilligkeit“ zumindest nicht auf. Im Falle der hier angesprochenen Untersuchung gab die Überlegung den Ausschlag, ob sich im Vollzug der Zählertätigkeit die Bereitschaft zur Teilnahme entweder im Positiven oder im Negativen verändert hatte. So finden sich in der linken Tabellenspalte 600 Personen, die künftig uneingeschränkt freiwillig eine solche Aufgabe übernehmen würden, obwohl sie sich diesmal allenfalls hatten überreden lassen oder gar zwangsverpflichtet werden mussten (Indexausprägung: positiver gewordene Bereitschaft). Übrig bleiben 480 Zähler, die diesmal mehr oder weniger freiwillig mitgewirkt haben, dies aber für die Zukunft ausdrücklich ausschließen (geringer gewordene Bereitschaft). Nach diesen Überlegungen ergäbe sich somit folgender Index „Freiwilligkeit“: Indexwert Beschreibung Zahl der Fälle 0 gar nicht freiwillig 270 1 geringer gewordene Bereitschaft 480 2 positiver gewordene Bereitschaft 600 3 konstant freiwillig 1400 Bei genauerem Hinsehen weist der Index aber noch eine für Zwecke der Datenauswertung wenig wünschenswerte Eigenschaft auf: mehr als der Hälfte der Personen musste die gleiche Ausprägung zugewiesen werden (3 =-konstant freiwillig). Der Informationswert fiele höher aus, wenn diese große Gruppe noch weiter untergliedert werden könnte. In der Tat bietet der Fragebogen die Möglichkeit dazu anhand der Antworten auf die Frage: „Falls Sie sich freiwillig gemeldet haben: War die Aussicht, mit der Tätigkeit als Zähler ein wenig Geld zu verdienen, ein wichtiger Grund für Ihre Entscheidung? “ 195 Korrespondenzhypothese: Bei Zählern, die aus innerer Überzeugung mitwirken, ist die dispositionale Eigenschaft „Freiwilligkeit“ stärker ausgeprägt als bei Personen, für die finanzielle Motive im Vordergrund standen. 195 Antwortvorgaben: 1. Das war für mich der Hauptgrund; 2. Das war für mich auch ein Grund, aber nicht der wichtigste; 3. Das hatte für meine Entscheidung keine Bedeutung. <?page no="236"?> 237 5.5 Messen durch Indizes (Indexmessung) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 237 Nach dieser Differenzierung erhalten wir jetzt die folgende Verteilung: Indexwert Beschreibung Zahl der Fälle 0 gar nicht freiwillig 270 1 geringer gewordene Bereitschaft 480 2 positiver gewordene Bereitschaft 600 3 freiwillig mit finanzieller Motivation 730 4 uneingeschränkt freiwillig 670 Zurück zum Vergleich mit dem Konzept „strukturtreues Messen“: Die Richtung der Zuordnung von Symbolen zu Messobjekten ist hier- - das soll das obige Beispiel illustrieren-- entgegengesetzt. Es wird nicht ein (unabhängig vom Forschungsinteresse gegebenes) empirisches relationales System in ein numerisches relationales System abgebildet, sondern es wird ein (theoretisch zu begründendes) numerisches relationales System konstruiert, dem im Zuge des „Indexmessens“ die Messobjekte zugeordnet werden (im obigen Beispiel etwa: wenn Person i bei einer künftigen VZ sich freiwillig als Zähler melden würde und diese Person i bei der jetzigen VZ freiwillig teilgenommen hat und für diese Person i finanzielle Motive im Vordergrund standen, dann gehört die Person zur Gruppe 3). 196 Alltagssprachlich formuliert: Die befragten Zähler werden während der Datenaufbereitung in „theoretische Schubladen“ einsortiert. Über die „Gültigkeit“ (Kapitel 4.3.2) dieser Operationalisierung kann bei diesem Messkonzept nicht mehr empirisch, sondern muss anhand der Überzeugungskraft der zu Grunde gelegten theoretischen Prämissen entschieden werden; denn die Struktur im empirischen Gegenstandsbereich existiert nicht unabhängig von der Messung, sondern wird durch die Messung konstruiert. Analoges gilt für das „Messniveau“, das ebenfalls nicht aus dem empirischen relationalen System herleitbar ist. Im obigen Beispiel ist natürlich das Nominalskalenniveau gesichert, denn jeder Befragte kann anhand der Klassifikationsvorschriften eindeutig genau einer Indexausprägung zugeordnet werden. Zweifelhaft ist dagegen schon, ob auch eine Rangordnung nach dem Grad der Freiwilligkeit hergestellt wurde. Voraussetzung für die Annahme eines Ordinalskalenniveaus wäre hier, dass man zum einen die Korrespondenzhypothese für die Differenzierung in finanziell Motivierte und uneingeschränkt Freiwillige akzeptiert sowie zum anderen der Überlegung zustimmt, eine Veränderung in Richtung höherer (niedrigerer) Teilnahmebe- 196 Gerade die weitere Ausdifferenzierung der ursprünglichen Kategorie „konstant freiwillig“ illustriert, dass bei der Indexkonstruktion weniger die Funktion „abbildende Messung eines Merkmals“ im Vordergrund steht als das Ziel, die untersuchten Personen differenziert und damit informationsreich zu klassifizieren. Anders ausgedrückt: Es wird nicht das Merkmal (hier: Freiwilligkeit) skaliert, sondern es werden die Objekte (hier: Zähler) klassifiziert. Indexmessung als Entwurf des-relationalen Systems Messniveau theoretisch festgelegt <?page no="237"?> 238 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 238 reitschaft korrespondiere mit stärkerer (geringerer) Ausprägung der Disposition „Freiwilligkeit“. Das hier dargestellte Beispiel für die Strategie Messen durch Indizes ist durchaus typisch für die Konstruktion von Daten in der empirischen Sozialforschung (siehe in ähnlicher Weise die Skizze für eine Indexmessung von „sozialer Schicht“ bei Schnell/ Hill/ Esser 1999, Kap. 4.4.1). Die Bildung solcher „Ad-hoc-Indices“ hat für die Datenanalyse insbesondere bei anwendungsorientierten Forschungsprojekten den unbestreitbaren Vorzug, dass die Befunde für die spezifischen Fragestellungen und Erkenntnisinteressen des jeweiligen Projekts passgenau aufbereitet sowie in anschaulicher und auch für Nichtstatistiker nachvollziehbarer Weise übersichtlich präsentiert werden können. Für sozialwissenschaftliche Forschung ist diese Praxis allerdings aus zweierlei Gründen problematisch: 197 - Zum einen werden solche ad hoc vorgenommenen Indexkonstruktionen selten auf ihre methodologischen Gütekriterien (Gültigkeit, Zuverlässigkeit) getestet und oft auch nicht so präzise dokumentiert, dass sich ihre messtheoretische Qualität nachprüfen ließe. - Zum anderen wird die Repräsentations- und die Kommunikationsfunktion der in empirischen Studien verwendeten sozialwissenschaftlichen Begriffe (siehe Kapitel 3.5) durch die prinzipielle Beliebigkeit solcher Operationalisierungen beeinträchtigt. Wenn Aussagen verschiedener Studien nicht mehr ohne Weiteres miteinander vergleichbar sind, wenn einander widersprechende Befunde zum gleichen Gegenstandsbereich auch aus unterschiedlichen Operationalisierungen resultieren können, dann leidet darunter das generelle Ziel empirischer Wissenschaft, nämlich Erkenntnisfortschritt (siehe Kapitel 1.3). 198 Für viele theoretische Konzepte der Sozialwissenschaft existieren mittlerweile methodologisch entwickelte und getestete Indizes und Skalen, die wissenschaftlichen Ansprüchen genügen. Sie stehen als „Zusammenstellung sozialwissenschaftlicher Items und Skalen (ZIS)“ im Internetangebot der Gesellschaft Sozialwissenschaftlicher Infrastruktureinrichtungen GESIS (http: / / zis.gesis.org) für interessierte Forscherinnen und Forscher zur Verfügung. Umfassend dokumentiert und erläutert werden hier über 200 in der Forschungspraxis erprobte Operationalisierungen aus vielfältigen Untersuchungsfeldern (Arbeit und Beruf, Gesundheit, Individuum/ 197 Ausführlich und mit vielen methodenkritischen Hinweisen wird die Problematik bei Wienold 2000 (Kap. 8: Wie religiös sind die Kölner? Zur Skalierung „christlicher Religiosität“) abgehandelt-- eine Pflichtlektüre für jeden, der sich selbst an die Operationalisierung eines theoretischen Konstrukts durch Indizes heranwagen möchte! 198 Allerdings ist die Bestätigung von Befunden mit unterschiedlichen Operationalisierungen, also beispielsweise unterschiedlichen Indizes, ein Vorteil, denn so sind wir uns sicher, dass die Ergebnisse nicht allein durch eine (möglicherweise falsche) Operationalisierung zustande gekommen sind (Roose 2013). Allerdings sollte man nicht den zweiten Schritt vor dem ersten machen. Entsprechend ist die Nutzung von etablierten Indizes zu bevorzugen, gerade für weniger erfahrene Sozialforscherinnen und Sozialforscher. Ad-hoc-Indices verfügbare, getestete Indizes <?page no="238"?> 239 5.5 Messen durch Indizes (Indexmessung) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 239 Persönlichkeit, Kultur/ Religion/ Bildung, politische Einstellungen und Verhalten, soziale Gruppen, soziale Netzwerke, soziale Probleme, Sozialisation und Familie, Umwelteinstellungen und Umweltverhalten). Sie bieten Anwendungsbeispiele für die in den Sozialwissenschaften gängigen Strategien der Konstruktion von Skalen zur Messung theoretischer Konstrukte, mehrdimensionaler Beurteilungen, latenter Persönlichkeitsmerkmale, Einstellungen etc. So enthält z. B. der Bereich „Individuum/ Persönlichkeit“ Skalen, die sich am Konzept „alienation“ von Seeman (siehe das Beispiel zur semantischen Analyse im Kapitel 3.3) orientieren. Für die Konstruktion von Skalen existieren unterschiedliche Strategien, von denen insbesondere die Ansätze des Ingenieurs und Psychologen Louis L. Thurstone (Methode der gleicherscheinenden Intervalle), des Organisationspsychologen Rensis Likert (Methode der summierten Einschätzungen) und des Sozialwissenschaftlers Louis Guttman (Skalogrammanalyse) für die Forschung einflussreich geworden sind. Die Likert-Skala ist die gegenwärtig wohl am häufigsten verwendete Strategie der Messung von Meinungen, Einschätzungen und Beurteilungen. Den Befragten werden zu einem Thema mehrere Aussagen vorgelegt, zu denen sie auf einer fünfstufigen Ratingskala angeben sollen, in welchem Ausmaß sie zustimmen (z. B. „stimme überhaupt nicht zu [1]“ bis „stimme voll und ganz zu“ [5] bei Meinungsbefragungen). In einer anderen Variante sollen die Befragten angeben, inwieweit ein behaupteter Sachverhalt zutrifft (z. B. „trifft überhaupt nicht zu“ [1] bis „trifft voll und ganz zu“ [5] bei der Erhebung von Bewertungen). Der Messwert der Likert-Skala ergibt sich aus der Addition der Werte der Einzel-Items (daher die Bezeichnung: Methode der summierten Einschätzungen) oder als deren Durchschnitt. Zu beachten ist, dass sich alle vorgelegten Aussagen auf die gleiche Dimension des zu messenden Konstrukts beziehen müssen. Bei mehrdimensionalen Konstrukten sind entsprechend mehrere Teilskalen zu konstruieren. Die Berechnungsstrategie für den Likert-Skalenwert (Addition und Mittelwertbildung) setzt metrisches Messniveau der einzelnen Ratings voraus. Damit wird unterstellt, dass die Befragten in der Lage sind, ihre Einstellung (a) in einen abgestuften Grad der Zustimmung zur vorgelegten Aussage (ihr subjektives relationales System) zu übersetzen und diesen dann (b) „korrekt“ in die Werte von 1 bis 5 (das numerische Relativ) abzubilden. Sofern diese Annahme berechtigt ist, erreichen die Likert-Messwerte Intervallskalenniveau. Angesichts dieser angestrebten hohen Messqualität muss eine neu zu entwickelnde Likert-Skala einen fest definierten Konstruktionsprozess durchlaufen. Dabei gilt es, zunächst rund 100 mögliche Aussagen zu sammeln. Diese gehen in einen Pretest ein, werden also in einer Vorstudie Personen zur Beantwortung vorgelegt. Die Ergebnisse werden statistisch analysiert, um herauszufinden, welche Items das Konstrukt besser abbilden als andere. Auf der Basis dieser Ergebnisse werden 10 bis 20 Aussagen für die endgültige Skala ausgewählt (ausführlich siehe Döring/ Bortz 2016, 269 f.). Auch bei der Guttman-Skala zur Messung eines Konstrukts (z. B. einer latenten Variable wie Bereitschaft zu politischer Beteiligung) liegen den Befragten eine Reihe von Aussagen vor, die jedoch jeweils nur mit ja oder nein zu beantworten sind, bei denen es also nicht um den Grad der Zustimmung geht. Stattdessen wird die „Stärke“ Konstruktion von-Skalen Likert-Skala Konstruktion der-Likert-Skala Guttman-Skala <?page no="239"?> 240 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 240 der Ausprägung des zu messenden Konstrukts, ob es also ein wenig oder sehr stark bei einer befragten Person vorliegt, durch die verschiedenen Aussagen selbst ausgedrückt. Sie sind so formuliert und dann sortiert, dass sie schrittweise eine immer stärkere Ausprägung repräsentieren. Für die Messung der „Bereitschaft zu politischer Beteiligung“ könnten z. B. die Items vorgegeben sein: (1) Ich werde zur Wahl gehen [ja/ nein]- - (2) Ich werde Geld für den Wahlkampf einer Partei spenden [ja/ nein]-- (3) Ich werde im Wahlkampf aktiv für eine Partei werben [ja/ nein]-- (4) Ich werde selbst für ein Mandat kandidieren [ja/ nein]. Der Skalenwert ergibt sich aus der jeweils höchsten noch befürworteten Aussage. Die Schwierigkeit der Konstruktion einer solchen Skala besteht darin, eine Anordnung von Aussagen zu finden, die für alle Befragten eine schrittweise Steigerung bedeuten (Döring/ Bortz 2016, 272 f.). Auch die Thurstone-Skala ist eine Sammlung von teils positiv, teils negativ formulierten Aussagen, die sich auf dasselbe Konstrukt beziehen und die von den Befragten befürwortet oder abgelehnt werden können. Während aber die Items der Guttman-Skala so formuliert sind, dass sie unmittelbar die Intensität des Merkmals zum Ausdruck bringen sollen, erfolgt bei der Konstruktion des Thurstone-Instruments die Intensitätsgewichtung durch Experten auf einer 11-stufigen Ratingskala (z. B. von -5 bis +5). Bei der Anwendung der Skala erhalten die Befragten die Items „unsortiert“ vorgelegt. Ihr Skalenwert ergibt sich aus der Addition der Gewichte der von ihnen bejahten Aussagen. (Döring/ Bortz 2016, 274 f.). 5.6 Der sozialwissenschaftliche Spezialfall: Messen durch Befragung Der standardisierte Fragebogen (siehe Kapitel 7.3) gilt als eines der typischen Messinstrumente der empirischen Sozialforschung. Man kann ihn-- im Vergleich zu spezifischen und spezialisierten Messwerkzeugen wie Meterstab für die Längenmessung, Waage zur Gewichtsfeststellung oder Uhr zur Zeitmessung- - als ein generalisiertes Messinstrument der Sozialforschung charakterisieren: Prinzipiell alle Sachverhalte können Gegenstand standardisierter Datenerhebung (=-„Messung“) sein. Das Instrument Fragebogen impliziert auch keine Beschränkungen dahingehend, welches Messmodell (Messen als strukturtreue Abbildung oder Messen durch Indizes) realisiert werden soll. Zu differenzieren ist allerdings nach der Funktion, die Befragter und Interviewer in der Messsituation ausüben. Man unterscheidet: 1) direktes Messen von Merkmalen am Befragten als Untersuchungsobjekt (der Befragte reagiert auf „verbale Stimuli“; Interviewer als „messende Person“, siehe Abbildung 5.4 in Kap. 5.5, S. 234): 2) indirektes Messen durch den Befragten (Befragter gibt standardisierte Auskünfte und ist somit zugleich die „messende Person“). BEISPIEL Thurstone-Skala Fragebogen: generalisiertes Messinstrument direktes Messen durch Befragung indirektes Messen durch Befragung <?page no="240"?> 241 5.6 Der sozialwissenschaftliche Spezialfall: Messen durch Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 241 zu 1): Konstruiert man die Befragungssituation, wie in der Demoskopie üblich, im Sinne eines „Reaktions-Experiments“ (Noelle-Neumann/ Petersen 1998; ausführlich dargestellt im Kapitel 7.3.1), gelten die Befragten als Versuchspersonen, deren Antworten auf die „Testfragen“ als Indikatoren für die an ihnen zu messenden Merkmale durch die Interviewerin bzw. den Interviewer anhand des entsprechend konstruierten Befragungsinstruments beobachtet und protokolliert werden. Realisiert wird in diesem Fall für die einzelnen Indikatoren das Messmodell „strukturtreue Abbildung“. Berechnet man anschließend (im Kontext des Analyseprozesses) aus den Daten mehrerer Indikator-Variablen zusammenfassende Indexwerte, um damit theoretische Konstrukte abzubilden, haben wir es mit dem Konzept „Messen durch Indizes“ zu tun. zu 2): Werden die Befragten dagegen in der Rolle von „Informanten“ angesprochen (Meulemann 1993), gelten die Antworten als Auskünfte über die Merkmale der interessierenden Objekte. Das jeweils „interessierende Objekt“ kann die befragte Person selbst sein (Selbstauskünfte über persönliche Merkmale wie Alter, Bildung, Einkommen, Parteipräferenz etc.), oder es kann ihr engerer Lebenskontext sein (Anzahl der Mitglieder des Haushalts, Alter und Beruf des Ehepartners, Größe der Wohnung etc.). Der Befragte kann aber auch gebeten werden, Informationen oder Beurteilungen über Sachverhalte zu geben, für die er in unterschiedlicher Weise als „Experte“ gilt: - als Bewohner eines Stadtgebietes ist er „Experte“ für die Beschreibung und Beurteilung der Ausstattung mit Infrastruktur, - als Autofahrer ist er „Experte“ für die Haltbarkeit der benutzten Pkw-Reifen, - als Studierender ist er „Experte“ für Angaben zur Vollständigkeit des Lehrangebots im besuchten Studiengang sowie zur Qualität der Lehre etc. In allen diesen Fällen ist nicht der Interviewer/ die Interviewerin die „messende Person“, sondern diese Funktion übernimmt der/ die Befragte. Er/ sie reagiert nicht auf einen Test-Stimulus, sondern teilt mit, welche „Messwerte“ für die interessierenden Merkmale bei den interessierenden Objekten zutreffen bzw. durch ihn/ durch sie zugewiesen werden. Damit diese Wertezuweisung durch die befragte Person als Messung gelten kann, muss streng genommen eine Reihe formaler Voraussetzungen erfüllt sein: - Der „Gegenstand“ (das Objekt) der Beurteilung ist eindeutig definiert. - Das zu messende „Merkmal“ (Variable) ist eindeutig definiert und operationalisiert. - Eine „Messskala“ (Vergleichsmaßstab) existiert und ist eindeutig definiert (einschließlich eindeutiger Skalen-Endpunkte sowie unterscheidbarer Abstufungen zwischen den Skalen-Endpunkten). - Die Befragten sind in der Lage, den „Gegenstand“ intersubjektiv übereinstimmend zu identifizieren, das zu messende „Merkmal“ intersubjektiv übereinstimmend zu erkennen und die „Messskala“ in intersubjektiv übereinstimmender Weise anzuwenden. Antworten als Indikatoren Antworten als Auskünfte Wertzuweisung durch Befragte Voraussetzungen für Wertzuweisung durch Befragte <?page no="241"?> 242 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 242 Es dürfte leicht nachzuvollziehen sein, dass diese Bedingungen schwer erfüllbar sind. Dies erklärt die hohe Bedeutung, die der Methodologie der Befragung für eine standardisiert verfahrende Sozialforschung zukommt (dazu ausführlicher Kap. 7.3). Noch anspruchsvoller sind die Voraussetzungen, wenn durch Befragung „evaluiert“, wenn „Qualität gemessen“ werden soll (siehe oben: Befragter als „Experte“; zum Evaluationsdesign siehe Kapitel 2.4.4). Über die genannten formalen Voraussetzungen hinaus, die bei jeder „Messung durch Befragung“ erfüllt sein müssen, ist zusätzlich Folgendes sicherzustellen: - Das „Kriterium” der Beurteilung („Qualitäts-Merkmal”) ist eindeutig definiert (Unter welchem Gesichtspunkt soll der zu evaluierende Gegenstand eingeschätzt werden? ). - Ergänzend ist ein (Vergleichs-)„Standard” vorgegeben (Wann ist etwas „gut”, wann „schlecht”, wann „mittelmäßig”? etc.). - „Kriterium“ und „Standard” werden von allen Evaluierenden in gleicher Weise interpretiert und in intersubjektiv übereinstimmender Weise angewandt. 5.7 Zuverlässigkeit (Reliabilität) der Messung Als ein Gütekriterium empirischer Sozialforschung haben wir bereits die Gültigkeit (Validität) der Operationalisierung genannt. An dieser Stelle führen wir nun die Zuverlässigkeit (Reliabilität) der Messung als ein weiteres Gütekriterium ein. Zur Erinnerung: Fasst man als „Messinstrument“ der empirischen Forschung die gesamte empirische Untersuchung auf (dies gilt insbesondere im Falle von Messung durch Befragung), dann sind deren Ergebnisse in dem Maße gültig, wie im Zuge der Messoperationen (im weitesten Sinne) genau das erfasst wird, worauf die verwendeten und definierten Begriffe in ihrem Bedeutungsgehalt verweisen. Beziehen sich die Begriffe auf nicht direkt erfassbare Sachverhalte, dann ist das Problem der Gültigkeit zweistufig: Zunächst stellt sich die Frage, ob die für die empirische Erfassung des gemeinten Phänomens benutzten Indikatoren (die direkt beobachtbaren Sachverhalte) das Vorliegen des interessierenden Merkmals auch tatsächlich eindeutig anzeigen (d. h. ob sie als Indikatoren gültig sind; vgl. Kapitel 4.1). Zweitens ist die Gültigkeit der Operationalisierung der gewählten Indikatoren zu klären (vgl. Kapitel 4.3.2). Im Unterschied zur übergreifenden und insbesondere semantisch zu prüfenden Frage der Gültigkeit geht es bei der Zuverlässigkeit um ein eher „technisches“ Problem, nämlich in welchem Maße die zur Messung verwendeten Instrumente „fehlerfrei“ arbeiten, also den „wahren Wert“ der Indikatorvariablen korrekt anzeigen. Esser illustriert die mit dem Konzept „Zuverlässigkeit“ angesprochene Fragestellung an einem sehr anschaulichen Beispiel: anspruchsvolle Voraussetzungen Güterkriterium: Zuverlässigkeit (Reliabilität) Gültigkeit Zuverlässigkeit <?page no="242"?> 243 5.7 Zuverlässigkeit (Reliabilität) der Messung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 243 „Es sei ein Gewehr auf einem Schießstand fest montiert und auf eine Scheibe ausgerichtet. Das Gewehr sei das ‚Messinstrument‘ und die Scheibe die ‚angezielte‘ Dimension. Wenn man nun eine Anzahl von Schüssen abfeuert, dann streuen diese- - wegen verschiedener Zufallseinflüsse- - unsystematisch. Diese Streuung entspräche der (Un-)Zuverlässigkeit. Zuverlässigkeit ist-… die Abwesenheit von unsystematischen Messfehlern. Trotz der Streuung konzentrieren sich jedoch relativ viele Einschüsse um einen bestimmten Punkt. Wenn dieser Punkt tatsächlich der angezielte Punkt auf der Scheibe war, dann wird das richtige ‚Ziel‘ getroffen. Dies entspräche der (Un-) Gültigkeit. Gültigkeit ist-… die Abwesenheit von systematischen Messfehlern. 199 Man sieht auch, dass u. U. alle Schüsse auf einen Punkt-- und gleichzeitig (sehr präzise und ohne Streuung) das falsche Ziel treffen können: Zuverlässigkeit ist auch bei Ungültigkeit möglich. Andererseits wird ein unzuverlässiges Instrument nur ausnahmsweise auch genau ‚ins Schwarze‘ treffen- - also gültig sein.“ (Esser 1984, II, 31) Eine umfassende Definition findet sich bei Esser/ Klenovits/ Zehnpfennig (1977, Bd. 1, 93): Zuverlässigkeit ist „die intertemporale, intersubjektive und interinstrumentelle Stabilität erhaltener Messwerte“ (Esser/ Klenovits/ Zehnpfennig 1977, Bd. 1, 93). Sehen wir uns die Formen der Zuverlässigkeit näher an. Intertemporale Stabilität der Messwerte bedeutet, dass bei wiederholter Messung desselben Phänomens das Messinstrument die gleichen Ergebnisse hervorbringt. Die Überprüfung der intertemporalen Stabilität ist allerdings problematisch. Es müsste nämlich eine Möglichkeit gegeben sein, unabhängig vom verwendeten Messinstrument zu kontrollieren, ob das zu messende Phänomen sich zwischen dem Zeitpunkt der ersten Messung und dem Zeitpunkt der Messwiederholung nicht 199 Zur Erläuterung: Esser formuliert hier aus der Perspektive der Operationalisierung. Aus diesem Blickwinkel manifestiert sich „Ungültigkeit“ als systematische Abweichung vom „wahren Wert“ des zu operationalisierenden Konstrukts, „Unzuverlässigkeit“ des Messinstruments dagegen als unsystematische Messwerte-Streuung um den Erwartungswert der Indikatorvariablen. Aus der Perspektive der gemessenen Daten ist dagegen jede Abweichung eines (einzelnen) Messwerts auch eine Beeinträchtigung der Gültigkeit. Während aus der ersten Perspektive analytisch eindeutig zwei verschiedene Gütekriterien (Gültigkeit und Zuverlässigkeit) abgrenzbar sind, ist aus der Sicht der gemessenen Daten die Zuverlässigkeit ein Teilaspekt der (allgemeineren) Gültigkeit. BEISPIEL Definition: Zuverlässigkeit intertemporale Zuverlässigkeit Problem der Prüfung intertemporaler Zuverlässigkeit <?page no="243"?> 244 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 244 verändert hat, ob also die Situation in t 2 hinsichtlich der interessierenden Eigenschaft identisch ist mit der Situation in t 1 . Auch große Differenzen zwischen den Messergebnissen zu verschiedenen Zeitpunkten müssen noch kein Beweis für mangelnde intertemporale Stabilität des Messinstruments sein. So könnten etwa geäußerte Meinungen von Befragten in einer zweiten Befragung sich von den in der ersten Befragung geäußerten Meinungen aufgrund tatsächlich vollzogener Meinungsänderungen unterscheiden. Diese Meinungsänderung kann sogar dadurch eingetreten sein, dass die erste Befragung Anlass war, „sich die Sache nochmals durch den Kopf gehen zu lassen“; damit hätte das Messinstrument selbst die Veränderung der Situation hervorgerufen. Die Identität der Situation zu verschiedenen Messzeitpunkten unterstellt, hängt die intertemporale Stabilität eines Messinstruments von seiner Genauigkeit, (seiner Präzision) ab: Vage formulierte Fragen können einmal so, ein anderes Mal ganz anders beantwortet werden (oder auch: Sie können von dem einen Befragten so, von dem anderen Befragten ganz anders verstanden werden, vgl. Rohrmann 1978); eine ungenau gearbeitete mechanische Zeigerwaage kann trotz gleicher Masse eines Gegenstandes bei verschiedenen Messungen unterschiedliche Gewichte anzeigen. Intersubjektive Stabilität der Messwerte heißt: Wenn verschiedene Personen dasselbe Phänomen mit Hilfe desselben Instruments messen, dann erzielen sie die gleichen Ergebnisse. Auch die Überprüfung dieser zweiten Zuverlässigkeitsdimension ist bei sozialwissenschaftlichen Messinstrumenten (etwa Befragung) problematisch, weil in den wenigsten Fällen verschiedene Personen denselben Sachverhalt messen können, ohne dass die im vorigen Abschnitt (intertemporale Stabilität) genannten Schwierigkeiten auftauchen. Wo allerdings parallele Anwendungen desselben Instruments auf dieselben Sachverhalte durch verschiedene Personen möglich sind (bei bestimmten Formen der Beobachtung, bei der Inhaltsanalyse), kann die Zuverlässigkeit des Instruments getestet und verbessert werden. Die intersubjektive Stabilität wird manchmal auch als „Objektivität des Messinstruments“ bezeichnet. Damit wird betont, dass die erzielten Ergebnisse von dem das Instrument benutzenden Forscher (von der Person des Messenden) unabhängig sein sollen. Der dritte Aspekt, die „interinstrumentelle Stabilität der Messwerte“, verweist darauf, dass die gleiche Merkmalsdimension durchaus mit Hilfe unterschiedlicher Instrumente gemessen werden kann. Präzision als Bedingung intertemporaler Stabilität intersubjektive Stabilität Problem der Prüfung interpersonaler Zuverlässigkeit Objektivität des Messinstruments interinstrumentelle Stabilität <?page no="244"?> 245 5.7 Zuverlässigkeit (Reliabilität) der Messung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 245 Das Alter von Personen lässt sich durch Befragung oder durch Auswertung geeigneter Akten ermitteln; eine bestimmte Ereignisfolge in der Öffentlichkeit kann mit Hilfe eines standardisierten Beobachtungsbogens an Ort und Stelle erfasst oder auf Videorecorder aufgezeichnet und später ausgewertet werden. Diese dritte Dimension von Zuverlässigkeit ist allerdings kaum von der Frage der Gültigkeit der Operationalisierung zu trennen. In den Sozialwissenschaften verwendete unterschiedliche Messinstrumente bilden im Allgemeinen nicht genau den gleichen Ausschnitt der Realität ab, sondern erfassen mehr oder weniger unterschiedliche Aspekte desselben Sachverhalts: Die Beobachtung von Verhalten bringt andere Informationen-- nämlich Informationen über andere Ausschnitte aus dem Komplex „Verhalten“- - als die Frage nach demselben Verhalten. Schon aus diesem Grunde können und werden die Ergebnisse differieren und im Hinblick auf den gemeinten Sachverhalt mehr oder weniger „gültig“ sein. Was den Vergleich der Zuverlässigkeit mehrerer Messverfahren angeht, so besteht das Problem u. a. darin, einwandfreie „Vergleichsgrößen“ zu finden. Es werden sich kaum Testsituationen konstruieren lassen, in denen man entscheiden könnte, welches Instrument „zuverlässiger“ ist-- wie dies etwa bei dem Vergleich der Messergebnisse zweier Waagen anhand von Eich-Gewichten möglich ist. Wie steht es nun mit den Beziehungen zwischen den beiden Gütekriterien Gültigkeit und Zuverlässigkeit? Wenn man sagt, dass durch „gültige“ Operationen genau das in der Realität erfasst wird, was mit den in der Forschung verwendeten Begriffen gemeint ist, dann kann die Gültigkeit niemals höher sein als die Zuverlässigkeit des verwendeten Messinstruments. Denn in dem Maße, wie unterschiedliche Messwerte nicht Unterschiede des gemessenen Merkmals zum Ausdruck bringen, sondern Resultat mangelnder Stabilität der Messergebnisse sind, sind auch die Forschungsergebnisse insgesamt nicht „gültig“. Zuverlässigkeit ist somit eine notwendige Bedingung für Gültigkeit; sie ist aber keine hinreichende Bedingung. Messwerte können in noch so hohem Maße intertemporale, intersubjektive und interinstrumentelle Stabilität aufweisen, also „zuverlässig“ sein: Sobald unangemessene („falsche“) Indikatoren ausgewählt und gemessen werden, sind die Resultate nicht gültig in Bezug auf das, was mit den theoretischen Begriffen gemeint war. Das Messinstrument misst dann „zuverlässig“ falsch: Es misst etwas anderes, als es messen soll. BEISPIEL Problem der Prüfung interinstrumenteller Zuverlässigkeit Vergleich fehlt Vergleichsgröße Beziehung Gültigkeit und Zuverläsigkeit Gültigkeit nie höher als Zuverlässigkeit Zuverlässigkeit notwendige Bedingung für Gültigkeit <?page no="245"?> 246 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 246 5.8 Annotationen aus der Perspektive qualitativinterpretativer Methoden Bei aller Wichtigkeit von Daten für die empirische Sozialforschung sollte nicht in Vergessenheit geraten, dass das analytische Bemühen qualitativ-interpretativer Sozialforscher sich auf das Untersuchungsfeld selbst bezieht: auf soziale Situationen, Prozesse, Institutionen etc. ‚Daten‘ als Aufzeichnungen aus diesen Untersuchungsfeldern erlauben es den Forschenden, sich vom Handlungsdruck der untersuchten Situationen zu entlasten, um räumlich-zeitlich unabhängig davon analytisch werden und die „Kunst der Interpretation“ (Bude 2000) zur Entfaltung bringen zu können. Das macht es erforderlich, analytisch relevante Ausschnitte der zu untersuchenden ‚flüchtigen‘ Situation in eine dauerhafte Form zu überführen: Bandmitschnitte, Videoaufzeichnungen, Transkripte, ethnografische Protokolle etc.-- das also, was wir gemeinhin ‚Daten‘ nennen. Auch die in der Literatur zu standardisierten Methoden dominierende Sichtweise, dass ‚Daten‘ Informationen sind, die einer universell existierenden Realität unter Einsatz geeigneter Instrumente im Sinne eines Messvorgangs abzugewinnen sind, wird in der qualitativ-interpretativen Sozialforschung überwiegend abgelehnt. Die Kritik speist sich aus den erkenntnis- und wissenschaftstheoretischen Grundsätzen qualitativ-interpretativer Methodologien (vgl. Kap. 2.5: Annotationen) und bezieht sich zunächst auf den Status dessen, was wir als ‚Daten‘ bezeichnen, sowie auf die Rolle der Forschungssubjekte im Prozess der Datengenese. Wenn wir Realität nicht im Sinne einer universellen, für alle Handelnden identischen Gegebenheit auffassen, sondern die Beobachterperspektive als integralen Bestandteil der Wirklichkeitskonstitution ansehen, dann ergibt sich schlüssig, dass dies auch für die wissenschaftliche Beobachtung gelten muss: Auch Forscher-- so wäre hier das Argument- - sind in die Konstitution ihrer Realität permanent involviert. Die Datenerhebungstechniken der standardisierten Sozialforschung ignorieren das Argument der Involviertheit zwar nicht, sie gehen aber anders damit um: Subjektivität der Forschenden wird dort nicht als notwendiger und-- reflektiert eingesetzt-- auch nützlicher Bestandteil des Forschungsprozesses verstanden, sondern als potenzielle Störung des Messvorgangs. In dieser Perspektive sind Messtechniken und Messinstrumente Mittel zur Ausschaltung oder Minimierung dieser Störgröße im Prozess der Datenerhebung. 200 Das Gütekriterium der Objektivität spiegelt diese Intention wieder, denn im Sinne der axiomatischen Messtheorie (siehe Kapitel 5.4) ist eine Messung dann objektiv, wenn das Ergebnis bei ansonsten gleicher Messsituation trotz wechselnder Beobachter gleich bleibt. Qualitativ-interpretative Forscher verstehen den Prozess der Datengewinnung hingegen eher als einen Dialog mit der Empirie, d. h. mit dem ‚Feld‘ bzw. mit den Informanten. Instrumente und Techniken werden dazu nicht primär in der Perspektive vergleichbarer Messergebnisse entwickelt, sondern mit Blick auf eine möglichst intensive, die Spezifität, Kontextualität und Tiefgründigkeit des Falles erfassende 200 Vgl. kritisch dazu Cicourel (1974) und Devereux (1984). Datenmaterial als-Handlungsentlastung Beteiligung der Forschenden an-Wirklichkeitskonstitution <?page no="246"?> 247 5.8 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 247 Situation des Informationsgewinns. Wichtigstes Mittel qualitativ-interpretativer Forschung sind die Forschenden selbst: Ihre Fähigkeit, eine intensive und vertrauensvolle Situation mit Informantinnen und Informanten herzustellen und sich in die befragten oder beobachteten Personen hineinzuversetzen (Empathie), ohne deren Perspektive unreflektiert zu übernehmen, sind zentrale Leistungsmerkmale dieser Form der Datengewinnung. 201 Sie setzen die persönliche Präsenz der Forschenden im Feld voraus-- anders als in der standardisierten Forschung, in der Datengewinnung und Analyse sehr häufig organisatorisch und personell deutlich voneinander getrennt sind und viele Forschende ihr Feld nicht aus eigener Anschauung kennen. Ein weiterer zentraler Aspekt der Datengewinnung in der qualitativ-interpretativen Sozialforschung betrifft die Verschränkung von Genese und Analyse des Datenmaterials. Der Prozess der Datengewinnung wird nicht damit als abgeschlossen betrachtet, dass ein Interview durchgeführt und verschriftlicht oder ein Protokoll einer Beobachtung oder eines Feldforschungsaufenthaltes geschrieben ist. Transkripte oder Protokolle sind vielmehr nur ein-- wichtiger-- Zwischenschritt, eine Etappe auf dem Weg der allmählichen Verfertigung des Datenmaterials. Denn im fortschreitenden analytischen Prozess wird dieses Material weiter zugerichtet, indem die Forschenden Teile davon unter Bezug auf ihre Forschungsfragen auswählen, um sie genauer zu interpretieren und zu analysieren. 202 Mit der Auswahl als zu analysierendes Materialstück ist immer eine Bedeutungszuweisung, also eine Abstraktion verbunden, die sich aus der Orientierung an einer Forschungsfrage speist. Ein Grundgedanke standardisierter Methoden besteht darin, einzelne Informationseinheiten dadurch miteinander vergleichbar zu machen, dass sie unter (idealtypisch) identischen Kontextbedingungen erhoben wurden: Die identisch formulierte Frage in einem Fragebogen, die allen Befragten vorgelegt wird, oder die immer wieder identisch reproduzierte Form eines Experiments mit einer größeren Zahl von Teilnehmenden. All dies zielt auf Daten, deren mögliche Varianz eben nicht auf differente Untersuchungssituationen zurückzuführen sein soll (dann wäre es ein Forschungsartefakt), sondern auf systematische Unterschiede im untersuchten Realitätsausschnitt verweisen soll. Diese Idee von Vergleichbarkeit spielt in der qualitativ-interpretativen Sozialforschung eine untergeordnete Rolle. Zwar wird auch hier systematisch Datenmaterial produziert und verglichen, aber im Vordergrund der Datengewinnung steht die Erarbeitung eines möglichst umfassenden und detaillierten Fallverständnisses, auf dessen Basis dann erst fallvergleichende Typisierungen und Generalisierungen ansetzen. So 201 Weil in diesem Sinne die Daten nicht einfach in der Realität gesammelt, sondern interaktiv hervorgebracht oder ‚gewonnen‘ werden, ist hier der Begriff der „Datengewinnung“ angemessener als der der „Datenerhebung“. Auch der Begriff „Daten“ selbst ist durchaus problematisch, weil er eher auf partikularisierte und dekontextualisierte Informations“stücke“ zielt. Als ein Kompromiss zwischen begrifflicher Genauigkeit und Anschlussfähigkeit wird daher hier vorwiegend der Begriff „Datenmaterial“ verwendet 202 Mead schreibt dazu: “But facts are not there to be picked out. They have to be dissected out, and the data are the most difficult of abstractions in any field. More particularly, their very form is dependent upon the problem within which they lie” (Mead 1938, 98). persönliche Präsenz der Forschenden im-Feld Daten als Prozess detailliertes Fallverständnis statt Vergleichbarkeit <?page no="247"?> 248 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 248 ist es in vielen Forschungsdesigns qualitativer Provenienz durchaus üblich, den Leitfaden eines qualitativen Interviews im Verlauf des Forschungsprozesses weiter zu entwickeln und etwa neu entdeckte Themenbereiche mit einzubeziehen oder Themen nicht mehr abzufragen, die sich nach den Erfahrungen mit ersten Interviews als weniger zielführend erwiesen haben. Auch werden Fragen im Interview oder Beobachtungsperspektiven in der Ethnografie fallweise so variiert, dass sie eine möglichst gute Chance für eine umfassende und tiefgründige Erforschung des einzelnen Falles bieten. Mit anderen Worten: Es werden nicht lauter gleiche Interviews mit verschiedenen Menschen geführt, sondern die Interviews oder auch die Beobachtungperspektiven passen sich der Unterschiedlichkeit der einzelnen Fälle und der sich weiter entwickelnden Forschungsfrage der Untersuchung an. Auch wenn in den letzten Jahren audiovisuelle Medien eine stärkerer Rolle in der Datengewinnung einer qualitativ-interpretativen Sozialforschung spielen: der gebräuchlichste Datentyp ist hier- - aus methodologischen wie aus pragmatischen Gründen-- weiterhin der Text. Denn das analytische und interpretative Bemühen qualitativ-interpretativer Ansätze richtet sich durch die produzierten Daten hindurch vorrangig auf die semantische Struktur des Untersuchungsfeldes. Und auch dort wo, etwa in ethnografischen, praxeologischen Forschungen, die Handlungspragmatik des Feldes im Vordergrund steht, erfordert die systematischen Analyse in der Regel Formen der Verschriftlichung der flüchtigen sozialen Prozesse in Form von Protokolltexten. Die im Datenmaterial manifestierte Bedeutungsaufschichtung gilt es, mit interpretativen und analytischen Mitteln herauszuarbeiten. Dazu eignet sich die Textform besonders gut, weil Sprache die uns am besten verfügbare Repräsentationsform von Bedeutungen und Wissen ist. Zwar wird mit dem Text gegenüber der ursprünglichen Interaktionssituation (z. B. der Interview- oder der Beobachtungssituation) eine bedeutende Reduktion der situativ möglichen Sinneserfahrungen allein auf verbale Äußerungen vorgenommen, doch angesichts der zentralen Rolle sprachlicher Kommunikation nimmt man dies in der Regel in Kauf. Die produzierten und verarbeiteten Textsorten unterscheiden sich jedoch teilweise erheblich voneinander: Eine sehr grundlegende Form ist die Abschrift (Transkription) von Interviews, die auf Band (bzw. heute üblicher: in digitalen Dateien) aufgezeichnet wurden. Aber auch verbale Interaktionen, in die die Forschenden nicht einbezogen sind, werden teilweise aufgezeichnet und verschriftlicht (etwa Gespräche bei Tisch; vgl. Keppler 1994). Diese verbreitete Form der Aufzeichnung verbaler Daten geht allerdings mit einer wesentlichen Einschränkung einher: Es werden auf diese Weise eben ausschließlich die verbalisierten Bestandteile von Handlungen, Interaktionen und Bewusstseinsinhalten in die analytische Situation der qualitativ-interpretativen Datenanalyse transportiert. Dabei darf allerdings nicht in Vergessenheit geraten, dass die im Transkript nicht erfassten nicht sprachlichen Bestandteile von Interaktionssituationen oft wesentlich zu deren Gelingen oder Misslingen (bzw. in analytischer Perspektive: zu deren Aufklärung) beitragen: Körperhaltungen, Blicke, Gerüche, räumliche Arrangements entgehen der Aufmerksamkeit einer nur vermeintlich exakten und vollständigen Aufzeichnung. Datenmaterial ‚Text‘ Rolle von Transkriptionen <?page no="248"?> 249 5.8 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 249 Davon zu unterscheiden sind die Protokolle, die in der qualitativen Beobachtung und Ethnografie von den Forschenden verfasst und später analytisch weiter bearbeitet werden; denn hier handelt es sich nicht einfach um Abschriften stattgehabter verbaler Interaktionen, sondern um Beschreibungen und damit immer schon um Interpretationsleistungen der Forschenden, die ihr Erleben der beobachteten Situation zu Papier bringen. Der Übergang vom Protokollieren beobachteter Ereignisse zur sozialwissenschaftlichen Interpretation und Analyse ist bei diesem Datentyp fließend. Die Verschriftlichung des Beobachteten in der Ethnografie ist-- gerade unter dem Einfluss konstruktivistischer Ansätze-- zum Gegenstand wichtiger Debatten in der qualitativen Sozialforschung geworden. Mit der „Krise der Repräsentation“ stellt sich die Frage nach dem Wert einer sich als Repräsentation verstehenden Be-Schreibung von Realität ebenso wie die nach der Rolle der schreibenden Ethnografen: Wenn Realität im fortwährenden Handeln entsteht und an dieses perspektivisch gebunden ist: Welche Bedeutung kommt dann einer Beschreibung zu, die diese Realität dokumentieren will? Reichertz etwa betont, dass ethnografische Berichte als „Deutung der zurückliegenden Deutungs- und Forschungspraxis“ verstanden werden müssen und daher sowohl die Praxis des Schreibens als auch die Wissenschaftlichkeitsstandards, die an sie anzulegen sind, besonderer Beachtung bedürfen (Reichertz 1992, 342). In etwas anderer Perspektive fragt Stefan Hirschauer, ob nicht das ethnografische Schreiben etwas leistet, das alle anderen Formen textorientierter Sozialforschung nicht zu leisten vermögen, nämlich die Verschriftlichung des Vor- und Außersprachlichen, und ob diese Art des Schreibens sich dann nicht auch offensiv als ein analytisches Schreiben definieren und an diesem Anspruch bemessen lassen muss (Hirschauer 2001). Auch er stellt damit den rein dokumentarischen Charakter ethnografischer Berichte in Abrede und betont die Rolle des ethnografischen Beobachters als ein Drittes zwischen Ereignis und Repräsentation. Einen dritten textuellen Datentypus schließlich stellen Dokumente dar, die im untersuchten Feld gesammelt werden, seien es Selbstdarstellungen von Unternehmen, Familienchroniken, Organigramme, Liebesbriefe, oder E-Mail-Archive. Diese Texte zeichnet aus, dass sie nicht erst im Kontext der Forschung produziert wurden, sondern der Forschung bereits vorangingen, in diesem Sinne also ‚Verhaltensspuren‘ darstellen. In der qualitativen Forschung liegt ihre Bedeutung allerdings nicht in ihrer-- sieht man vom Prozess der Auswahl einmal ab-- Unabhängigkeit vom Forschungsprozess, sondern darin, dass sie Vergegenständlichungen (Objektivationen) von Kulturen, Politiken, Einstellungen und Interaktionsbeziehungen, von sozialer Praxis also darstellen. Ihre Analyse kann uns daher Aufschluss über eben diese Praktiken geben. Gerade mit der Zunahme computervermittelter Interaktionen (etwa über verschiedene Internetdienste) nimmt sowohl die Verfügbarkeit als auch die Bedeutung von Dokumentendaten in der qualitativen Sozialforschung zu (Bergmann/ Meier 2000). Neben textuellen Daten gewinnt audiovisuelles Datenmaterial an Bedeutung. Mit den ersten Tonbandaufzeichnungen von Interviews entwickelte sich auch die Idee einer fast naturalistischen Konservierung und Dokumentation sozialen Geschehens. Die Verfügbarkeit und Präzision der Aufzeichnung zunächst auditiver und Beobachtungsprotokolle als Interpretationsleistung Krise der Repräsentation Dokumente als Datenmaterial audiovisuelles Datenmaterial <?page no="249"?> 250 5. Messung und Datenerhebung in-den-Sozialwissenschaften www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 250 später-- mit der Verbreitung der Video-Technologie-- auch visueller Daten brachte nicht nur neue analytische Möglichkeiten in die Sozialforschung, sie warf auch methodologische Fragen mit neuer Schärfe auf: Handelt es sich bei diesen zum Teil auch als „natürliche“ Daten bezeichneten Materialien (Bergmann 1985) nun um Abbilder der Realität, und liegen diese gewissermaßen vor dem interpretatorischen Eingriff des Forschers? Bei aller Genauigkeit der Aufzeichnungstechnik zeigt sich aber auch bei diesen Materialien schnell ein konstruierendes Moment: Der Interviewmitschnitt versucht Hintergrundgeräusche auszublenden, und gelegentlich wird die Aufzeichnung auch, z. B. für vertrauliche Informationen, unterbrochen; Videokameras werden auf bestimmte Geschehnisse, auf Zitate von Situationen gerichtet, wobei die Auswahl der Perspektiven und Detaillierungen den Eingriffen der Forschenden unterliegt. Auch hier also stellt sich die Repräsentationsfrage: Wenn Forscher/ innen Tonbandprotokolle und Videodateien bzw. deren Transkriptionen bearbeiten, analysieren sie dann Ton-, Bild- oder Textdokumente oder die Situationen, in denen sie entstanden sind? Die Rolle audiovisueller Medien wird insbesondere in der Ethnografie kontrovers diskutiert: Während etwa Knoblauch (2001, 2002) für eine den Feldaufenthalt der Ethnografen ergänzende videografische Datenproduktion eintritt, die die Selektivität ihres Zugriffs aus dem ‚fokussierten‘ Erkenntnisinteresse der mit dem Feld bereits vertrauten Forscher legitimiert, kritisieren Breidenstein und Hirschauer (2002) den partiellen Ersatz des Ethnografen durch die Kamera als reduktionistisch (vgl. dazu auch die Annotationen zur qualitativen Datengewinnung: Kapitel 7.5). Allerdings sind Video und Fotografie gerade in ethnografischen Studien zunehmend genutzte Medien (Breckner 2003, Tuma/ Schnettler/ Knoblauch 2013), die die ethnografische Beobachtung nicht ersetzen, sondern um neue Zugänge erweitern. Der Etabliertheit und Dominanz textueller Datentypen entsprechend, aber auch ihrer Unterschiedlichkeit Rechnung tragend, ist das analytische Repertoire der qualitativ-interpretativen Sozialforschung hier besonders ausdifferenziert und vielfältig. Einige Verfahren setzen eine spezialisierte Datengewinnung voraus, wie etwa die Narrationsanalyse, deren analytischer Ansatz das Zustandekommen einer ausführlichen lebensgeschichtlichen Stegreiferzählung voraussetzt, wie sie das narrative Interview erbringt (Schütze 1983, Küsters 2006, Fischer-Rosenthal/ Rosenthal 1997). Die Konversationsanalyse (Bergmann 1994, Eberle 1997) wiederum benötigt ‚natürlichsprachliche‘ Interaktionsprotokolle, also von aktiven Rekonstruktionsleistungen der Forschenden weitestgehend freie Mitschnitte verbaler Interaktionen (z. B. Telefonmitschnitte von Service-Hotlines) von besonders hoher Genauigkeit, die dann-- lautgetreu transkribiert-- eine wesentlich detailreichere und technischere Textform ergeben als etwa die Abschrift eines Experteninterviews. Dies ist erforderlich, weil die Konversationsanalyse auf die formalen Regeln der Herstellung und Aufrechterhaltung von Alltagskommunikation abzielt und diese Regelhaftigkeit im Vollzug sich nur in der minutiösen Analyse noch der kleinsten Elemente von Interaktionssequenzen rekonstruieren lässt. Ein sehr viel weniger spezialisiertes Verständnis zulässiger Daten vertritt dagegen die Grounded Theory, die ihren Ursprung in der soziologischen Ethnografie Aufzeichnung auch konstruiert Diskussion über Verwendung audiovisueller Medien Vielfalt von Verfahren der Datengewinnung <?page no="250"?> 251 5.8 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 251 hat und daher ebenso wie diese eher permissiv bei der Auswahl und Nutzung von Material vorgeht. 5.8.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Die Frage, was „Daten“ aus der Perspektive qualitativ-interpretativer Methoden sind, ist in der Methodenliteratur kaum explizit behandelt worden, so dass spezielle Literaturhinweise für diesen Abschnitt wenig sinnvoll erscheinen. Auch für die Darstellung von Pendants zum Konzept des Messens lassen sich weniger geschlossene Texte als vielmehr verstreute Hinweise in stärker integrierten Texten finden. Die Diversität der Datenbegriffe und der Verständnisse des Zusammenhangs von Untersuchungsfeld, Daten, Analyse und Theorie haben dazu geführt, dass entweder spezialisierte Darstellungen der methodologischen und analytischen Perspektive einzelner Ansätze publiziert werden oder aber Überblicksdarstellungen, die vor allem damit befasst sind, die Vielfalt der Ansätze und Methoden in geordneter Form zu präsentieren. Einige wenige Hinweise müssen hier genügen: Bergmann, Jörg, 1985: Flüchtigkeit und methodische Fixierung sozialer Wirklichkeit. Aufzeichnungen als Daten der interpretativen Soziologie, in: Bonß, W./ Hartmann, H. (Hg.), Entzauberte Wissenschaft. Zur Relativität und Geltung soziologischer Forschung, Göttingen, 299-320. (Bergmann diskutiert hier besonders vor dem Hintergrund der von ihm vertretenen Konversationsanalyse den Stellenwert technischer Aufzeichnungen zur Fixierung „natürlicher“ Daten zum Zweck einer detaillierten, sozusagen mikroskopischen Analyse) Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Qualitative Sozialforschung. Ein Arbeitsbuch, München, 4. Aufl. (hier Kap. 3, S. 39-175, zur Gewinnung qualitativen Datenmaterials) Strübing, Jörg, 2013: Qualitative Sozialforschung. Eine komprimierte Einführung für Studierende, München (hier Kap. 3 und 4, S. 53-107 zur Gewinnung qualitativen Datenmaterials) Strübing, Jörg, 2008: Pragmatismus als epistemische Praxis. Der Beitrag der Grounded Theory zur Empirie-Theorie-Frage, in: Kalthoff, H., Hirschauer, S., Lindemann, G. (Hg.), Theoretische Empirie, Frankfurt/ M., 279-311. (Der Text befasst sich mit dem Daten- und dem Theoriebegriff einer pragmatistischen Fassung des Forschungsstils der Grounded Theory.) <?page no="251"?> www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 252 <?page no="252"?> 253 www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 253 6 Auswahlverfahren Im vorigen Kapitel ging es um die Konkretisierung der Vorstellungen über die zu erhebenden Daten durch die Angabe des Differenzierungsgrades, in dem die interessierenden Eigenschaften beschrieben werden sollen, sowie durch Formulierung der Vorschriften für die Messung der Merkmalsausprägungen. Der nun noch ausstehende weitere Konkretisierungsschritt besteht in der Angabe der Untersuchungseinheiten, für die die interessierenden Merkmale tatsächlich festgestellt werden sollen (Merkmalsträger). Die kognitiven Vorstellungen des Forschers über untersuchungsrelevante Merkmale (z. B. Körpergröße) und geeignete Messverfahren (z. B. Ablesen der Körpergröße an einer in cm eingeteilten Messlatte) sowie über die in Betracht kommenden Untersuchungseinheiten (z. B. Schüler der vierten Grundschulklasse) werden dann im eigentlichen Messvorgang (Anwenden der Messvorschriften auf z. B. den Schüler Peter Krause) zusammengebracht und ergeben das konkrete „Datum“ (Eintragung im Erhebungsbogen hinter dem Namen Peter Krause: 147 cm). Allerdings stellt sich in dieser Phase des Projekts nicht nur die Frage, für welche Art von Objekten Daten erhoben, wie also die Untersuchungseinheiten zu definieren sind. Weiter ist festzulegen, über welche Grundgesamtheit 203 von Objekten die Untersuchung Aussagen liefern soll und ob man zweckmäßigerweise die Datenerhebung für die Gesamtheit aller Fälle vornimmt oder ob man sich auf eine Teilmenge der Grundgesamtheit (eine „Auswahl“) beschränken kann. Erstreckt sich die Datenerhebung auf sämtliche Elemente der Grundgesamtheit, führt man eine Vollerhebung oder Totalerhebung durch; werden nur für eine Teilmenge der möglichen Fälle Daten gesammelt, dann ist dies eine Teilerhebung. Der Grenzfall, dass nur ein einziges Objekt Untersuchungsgegenstand ist, heißt Einzelfallstudie. Werden für die Teilerhebung die Untersuchungsobjekte nach vorher festgelegten Regeln aus der Grundgesamtheit ausgewählt, dann spricht man von einer Auswahl oder-- häufig synonym-- von einer Stichprobe (engl.: sample). Ziel der Durchführung einer systematischen Teilerhebung ist es, über die aktuellen Untersuchungsfälle hinaus Aussagen über die Gesamtheit der interessierenden Fälle zu erhalten. „Auswahlverfahren ermöglichen-… die Lösung eines alten Problems: bei der Beschränkung der Untersuchung auf das intensive Studium einer relativ kleinen Zahl von Fällen dennoch zu gesicherten Verallgemeinerungen zu kommen“ (Scheuch 1974, 1 f.). Die 203 Statt von Grundgesamtheit sprechen Statistiker häufig vom „Universum“ der Fälle. In der aktuellen Fassung der erstmals 1963 erschienenen „Umfragen in der Massengesellschaft“ von Elisabeth Noelle-Neumann (jetzt Noelle-Neumann/ Petersen 2000) findet sich synonym die Bezeichnung „Urmenge“. Eine Grundgesamtheit von Personen wird auch „Population“ genannt. Untersuchungseinheit Grundgesamtheit VERTIEFUNG Vollerhebung/ Teilerhebung Stichprobe <?page no="253"?> 254 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 254 Verknüpfung von Stichprobendaten mit Aussagen über die Grundgesamtheit ist in unterschiedlicher Absicht und in zweierlei Richtung möglich: 1) Man kann anhand der Ergebnisse der Teilerhebung Verallgemeinerungen von der Stichprobe auf die Grundgesamtheit vornehmen, also beispielsweise von den empirischen Stichprobendaten ausgehend generelle Hypothesen entwickeln oder deskriptive Aussagen für die Grundgesamtheit formulieren. Man nennt dies den Repräsentationsschluss. 2) Der Ausgangspunkt kann aber auch- - umgekehrt - eine vorhandene generelle Theorie oder Hypothese sein, die getestet werden soll, und zwar anhand der Resultate einer Stichprobe. Hier wird von vermuteten (in manchen Fällen auch: bekannten) Merkmalsverteilungen und/ oder -zusamenhängen in der Grundgesamtheit auf zu erwartende Werte in der Stichprobe geschlossen. Diese Argumentationsrichtung nennt man den Inklusionsschluss. 204 Vollerhebungen sind eigentlich nur dann sinnvoll, wenn die Zahl der Einheiten der Gesamtheit relativ klein ist. Die Vorteile von Stichproben gegenüber Vollerhebungen sind: - Kosten (Zeit, Geld, Arbeitsaufwand) werden gesenkt; die Wirtschaftlichkeit steigt überproportional mit der Größe der Grundgesamtheit. - Ergebnisse liegen wesentlich schneller vor; beispielsweise kann es bei Großerhebungen wie den (eigentlich) alle zehn Jahre stattfindenden Volkszählungen 205 bis zu drei Jahre dauern, bis die Ergebnisse vorliegen-- die dann nicht mehr besonders aktuell sind. Der Mikrozensus des Statistischen Bundesamts (eine jährlich durchgeführte Stichprobenerhebung auf der Basis von 1 % der Bevölkerung) 206 liefert demgegenüber wesentlich aktuellere und damit für viele Zwecke nützlichere Informationen. 204 Ein dritter Typ von Schlussfolgerungen ergibt sich aus den beiden vorgenannten: Werden mehrere Stichproben aus derselben Grundgesamtheit gezogen, so ist auch der Schluss von bekannten Werten einer Stichprobe auf zu erwartende Werte weiterer Stichproben möglich. Die weniger bekannte Bezeichnung dafür lautet: „statistischer Transponierungsschluss“ (Noelle-Neumann/ Petersen 2000, 231). Häufiger wird diese Schlussfolgerungslogik eingesetzt, wenn es um die Frage geht, ob zwei verschiedene Stichproben aus derselben Grundgesamtheit stammen können. Es seien beispielsweise zwei repräsentative Umfragen bei Wahlberechtigten in Schleswig-Holstein und in Sachsen durchgeführt worden: Erlauben die-- voneinander abweichenden-- Ergebnisse zur Parteienpräferenz noch die Annahme, es handele sich bei den Wahlberechtigten in diesen beiden Ländern der Bundesrepublik Deutschland um Teile derselben Grundgesamtheit? Oder sind die Unterschiede so groß, dass man von zwei verschiedenen Grundgesamtheiten ausgehen muss? 205 Die letzte Volks-, Gebäude- und Wohnungszählung als Vollerhebung wurde in der (alten) Bundesrepublik 1987, in der ehemaligen DDR 1981 durchgeführt. Eine Wiederholung wird es voraussichtlich nicht geben. Stattdessen hat sich Deutschland an einem „Zensus“ beteiligt, der in allen Mitgliedstaaten der Europäischen Union 2011 durchgeführt wurde. Dieser beruhte auf einer Stichprobe, wenn auch einer sehr großen. Details zum Zensus 2011 finden sich online: www.zensus2011.de. 206 Vgl. Statistisches Bundesamt 1997; www.destatis.de/ DE/ ZahlenFakten/ GesellschaftStaat/ Bevoelkerung/ Mikrozensus.html; www.forschungsdatenzentrum.de/ bestand/ mikrozensus/ Repräsentationsschluss Inklusionsschluss Vergleich Stichprobe / Vollerhebung <?page no="254"?> 255 6.1 Zentrale Begriffe www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 255 - Im Allgemeinen ist auch die Genauigkeit der Stichprobenergebnisse im Vergleich zur Vollerhebung bei großer Grundgesamtheit höher: wegen besserer Möglichkeiten der Kontrolle, präziserer Datenerhebung, intensiverer Auswertung (ausführlicher siehe Kish/ Verma 1986). - In manchen Fällen ist eine Vollerhebung grundsätzlich nicht möglich, weil sie den Untersuchungsgegenstand entscheidend verändern oder sogar zerstören würde (z. B. Qualitätskontrolle in der Industrieproduktion). 6.1 Zentrale Begriffe: Grundgesamtheit, Auswahl-, Erhebungs- und Untersuchungseinheiten Wie die anderen Entscheidungen im Forschungsprozess, so können auch die für die Stichprobenkonstruktion erforderlichen Festlegungen nicht isoliert vorgenommen werden, sondern müssen im Zusammenhang mit der zu untersuchenden Fragestellung, den verwendeten Datenerhebungs- und den beabsichtigten Auswertungsverfahren gesehen werden. Die Klärung der im Folgenden einzuführenden Begriffe soll deshalb anhand eines hypothetischen Untersuchungsproblems geschehen. Nehmen wir an, wir wollten die „Effektivität der politischen Bildung“ in einem Land der Bundesrepublik untersuchen. Bei der Präzisierung der Problemstellung habe man sich entschieden, dass mit „Effektivität der politischen Bildung“ in irgendeiner Weise die Ergebnisse des politischen Bildungsprozesses gemeint sein sollen, wie sie sich bei den „Bildungs-Objekten“-- bei den „politisch gebildeten“ (oder auch nicht gebildeten) Personen-- zeigen. Damit scheiden solche Gesichtspunkte wie Effizienz der Bildungsorganisation oder „Nützlichkeit“ von Bildungsinhalten im Hinblick auf bestimmte politische Werte (etwa Werte der „freiheitlich-demokratischen Grundordnung“) aus. Mit dieser Festlegung ist aber bisher nur gesagt, dass die Untersuchungsobjekte „Personen“ sein sollen, mehr nicht. Welcher Personenkreis aber soll als „Grundgesamtheit“ infrage kommen? Und: Auf welche Gesamtheit von Personen sollen sich die zu formulierenden Untersuchungsergebnisse („Repräsentationsschlüsse“) beziehen: - auf alle Einwohner des Bundeslandes? - nur auf diejenigen Einwohner, die mindestens am Abschluss der Schulbildung stehen? 207 - nur auf diejenigen Einwohner, die genau am Abschluss der Schulbildung stehen? 208 207 Begründung: Andere Personen haben keine nennenswerte politische Bildung genossen. 208 Begründung: Bei noch mitten in der Schulbildung stehenden Personen ist die „politische Bildung“ noch nicht beendet. Bei bereits von der Schule abgegangenen Personen andererseits sind neben der formalen politischen Bildung auch andere Einflüsse wirksam geworden; außerdem haben ältere Einwohner evtl. eine ganz andere politische Bildung erfahren, so dass eine Vermengung das Ergebnis verfälschen könnte. Entscheidungen im Zusammenhang BEISPIEL <?page no="255"?> 256 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 256 - oder nur auf die Schüler der letzten Klasse einer ganz bestimmten Schulart? 209 Eine Antwort lässt sich in jedem Fall nur aufgrund des explizit gemachten Erkenntnisinteresses finden. Vor einer Entscheidung ist aber noch weiter zu klären, wie denn (d. h. mit welchen Mitteln) die „Effektivität der politischen Bildung“ erfasst werden soll: - etwa durch Beobachtung der Schüler der letzten Schulklassen hinsichtlich ihres politischen Verhaltens (Mitgliedschaft in Organisationen, Mitarbeit bei der Schülerselbstverwaltung usw.)? - oder durch Befragung der Schüler oder der Lehrer oder der Eltern? Je nach der getroffenen Entscheidung wird die Grundgesamtheit, über die wir mit den zu erhebenden Daten Aussagen machen können, eine andere sein: „alle Einwohner des Bundeslandes-…“ bis hin zu: „alle Schüler des Schultyps-… in Abschlussklassen“. Dies führt uns zur ersten Definition: Unter Grundgesamtheit ist diejenige Menge von Individuen, Fällen, Ereignissen zu verstehen, auf die sich die Aussagen der Untersuchung beziehen sollen und die im Hinblick auf die Fragestellung und die Operationalisierung vorher eindeutig abgegrenzt werden muss. Genau genommen handelt es sich hierbei um die angestrebte Grundgesamtheit. Um diese Differenzierung klarer zu machen, sei das begonnene Beispiel fortgeführt. Nehmen wir an, die Effektivität der politischen Bildung solle durch die Untersuchung politischer Einstellungen, Aktivitäten und Kenntnisse von Schülern sowie durch deren Beurteilung des politischen Unterrichts ermittelt werden. Und zwar habe man sich dafür entschieden, die aufgeführten Merkmale mit Hilfe einer standardisierten mündlichen Befragung zu erheben. Nehmen wir weiter an, man habe sich entschlossen, die Schüler der letzten Schulklassen zu befragen; und zwar sei der Kreis der insgesamt infrage kommenden Personen weiter auf die Schüler der letzten Oberstufenklassen von Gymnasien und Gesamtschulen eingegrenzt worden. Begründung: Die zu behandelnde Problemstellung sei sehr komplex, es seien u. a. sehr schwierige Fragen zu stellen, so dass bei einer anderen Personengruppe das Instrument der standardisierten Befragung vermutlich nicht hinreichend gültige Resultate liefere. 209 Begründung: In den einzelnen Schularten wird politische Bildung in unterschiedlicher Intensität betrieben. Grundgesamtheit BEISPIEL <?page no="256"?> 257 6.1 Zentrale Begriffe www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 257 Sie sehen an dieser Begründung, dass die obige Definition von Grundgesamtheit-- aus pragmatischen Gründen-- relativ stark eingeschränkt wurde. Nicht mehr pauschal von derjenigen „Menge von Individuen- …“ ist die Rede, „auf die sich die Aussagen der Untersuchung beziehen sollen“, sondern stattdessen von derjenigen Menge von Individuen, die für die Fragestellung der Untersuchung am ehesten gültige Aussagen liefern kann. Noch deutlicher würde diese aus pragmatischen Gründen vorgenommene Verschiebung, wenn wir uns entschieden hätten, statt der Schüler deren Eltern oder Lehrer als Informanten über die Schüler zu befragen (Begründung: Gefahr subjektiver Verzerrungen bei Selbstbeurteilungen). In diesem Fall hätten wir eine Grundgesamtheit von Informanten definiert. Solche pragmatischen Überlegungen sind im Übrigen nicht der seltene Ausnahmefall, will man zu einer für die Forschungsfrage möglichst angemessenen Abgrenzung der Grundgesamtheit kommen, aus der die Stichprobe gezogen werden soll. 210 Anders formuliert: Es gibt nicht die Grundgesamtheit per se, sondern sie wird erst durch und für die jeweiligen Untersuchungsfragen konkretisiert und operational abgegrenzt. Die angestrebte Grundgesamtheit „umreißt den Raum der möglichen Generalisierbarkeit von Untersuchungsbefunden, [sie] schließt ihn für die Zwecke einer bestimmten Untersuchung ab“ (Wienold 2000, 131). Damit ist nun der Kreis der „Objekte“, für die die Aussagen der Untersuchung gelten sollen, aufgrund theoretischer und pragmatischer Überlegungen abgegrenzt worden. Was die Datenerhebung angeht, scheint der Fall auf den ersten Blick unproblematisch zu sein: Die Grundgesamtheit ist die Menge aller Oberstufenschüler in dem betreffenden Bundesland im Jahr der Untersuchung. Bei einer Vollerhebung wären demnach alle so gekennzeichneten „Elemente“ dieser Menge zu befragen, bei einer Teilerhebung dementsprechend eine Stichprobe von ihnen. Auf den zweiten Blick jedoch stößt man bereits auf ein schwerwiegendes Problem: Um bei einer Totalerhebung kontrollieren zu können, ob alle Elemente erfasst worden sind, oder um bei einer Stichprobe die Auswahl systematisch vornehmen zu können, müsste im Idealfall die Grundgesamtheit vollzählig physisch anwesend sein. Bei kleinen Grundgesamtheiten mag das eventuell noch gehen, etwa bei Belegschaften von Betrieben oder Schülern einer Schule; aber auch hier werden zu jedem Zeitpunkt zumindest einige Belegschaftsmitglieder oder Schüler wegen Krankheit oder 210 Unter der Überschrift „Warum man manchmal die falschen Leute befragen muss“ widmen Noelle-Neumann/ Petersen (2000, 233 ff.) diesem Thema einen eigenen Abschnitt ihres Buches. Ihr Beispiel: Wenn ein Hersteller von Fotoapparaten wissen möchte, „warum viele Menschen nicht fotografieren, und was man tun müsste, um diese Leute als Kunden zu gewinnen“, dann seien dafür nicht diejenigen Personen die besten Informanten, die nicht fotografieren, sondern diejenigen, die bereits einen Fotoapparat besitzen (a. a. O., 233 f.). Ähnliches gelte im Hinblick auf alle Fragen, die künftiges Verhalten betreffen. Ihre Regel lautet, „dass man bei Untersuchungen über zukünftiges Verhalten, zukünftige Entscheidungen, oft sozusagen die ‚Falschen‘ befragen muss, nicht diejenigen, die sich in der nächsten Zukunft entscheiden werden, sondern diejenigen, die sich vor Kurzem bereits entschieden haben. Von ihnen erfährt man in bester, wirklichkeitsgetreuer Annäherung, was die zukünftigen Käufer tun werden“ (a. a. O., 234). pragmatische Entscheidungen Problem: Zugang zur Grundgesamtheit <?page no="257"?> 258 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 258 Urlaub fehlen. Bei großen Grundgesamtheiten jedoch ist dies im Allgemeinen überhaupt nicht realisierbar. Statt vollzähliger physischer Anwesenheit fordert man also sinnvollerweise, dass als Auswahlgrundlage (engl.: frame) die Grundgesamtheit zumindest symbolisch repräsentiert sein muss, z. B. durch eine Kartei oder durch eine Liste, auf der die Adressen der infrage kommenden Personen verzeichnet sind. Aber auch solche Karteien oder Listen haben-- sofern sie überhaupt existieren-- Nachteile: Sie sind nicht immer vollständig und/ oder nicht mehr aktuell und/ oder fehlerhaft. So können einige Elemente der Grundgesamtheit (noch) fehlen, andere sind möglicherweise noch in der Kartei enthalten, obwohl sie nicht mehr zur Grundgesamtheit gehören. Auch können Fälle doppelt oder mit fehlerhaften Angaben in der Kartei oder Liste enthalten sein. Fehlerhafte Auswahlgrundlagen können also zu einer Überund/ oder Untererfassung (over-/ undercoverage) der angestrebten Grundgesamtheit führen. Einwohnermeldedatei: Zwischen dem Zuzug einer Person oder eines Haushalts in einem Ort und dessen Anmeldung vergeht im Allgemeinen einige Zeit; zwischen Anmeldung im Amt und Aufnahme in die Datei liegt wiederum einige Zeit. Konsequenz: Nicht alle Einwohner des Ortes zum Zeitpunkt t 1 sind zu diesem Zeitpunkt in der Datei erfasst. Gleiches gilt für den Fall des Wegzugs einer Person oder eines Haushaltes: Nicht alle Personen, die zum Zeitpunkt t 1 in der Meldedatei als Einwohner geführt werden, sind tatsächlich (noch) „Einwohner“. Zusammengefasst: Die angestrebte Grundgesamtheit (engl.: target population)-- d. h. die Menge der Fälle, für die die Aussagen der Untersuchung gelten sollen 211 -- ist für die Erhebung kaum vollständig und korrekt erfassbar. Dies gilt sowohl für den Fall, dass Auswahl und Erhebung der Daten unmittelbar auf die Untersuchungseinheiten gerichtet sind (z. B. bei „Einwohnern einer Stadt“; prinzipiell erreichbar sind die tatsächlichen Einwohner abzüglich der im Erhebungszeitraum verreisten oder aus sonstigen Gründen nicht anwesenden Personen zuzüglich der in der Gemeinde anwesenden Personen, die nicht „Einwohner“ sind). Dies gilt aber auch für den Fall einer symbolischen Repräsentation der angestrebten Grundgesamtheit, wie das Beispiel „Einwohnermeldekartei“ zeigt. Wir können damit eine weitere Definition einführen: Von der angestrebten Grundgesamtheit zu unterscheiden ist die Erhebungs-Grundgesamtheit (Auswahl-Grundgesamtheit; frame population). Darunter versteht man diejenige Gesamtheit von Fällen, aus der faktisch die Stichprobe gezogen wird. 211 Oder: die Menge der Fälle, die für die Untersuchung als potenzielle Informanten infrage kommen (siehe Fußnote 210). symbolisch repräsentierte Grundgesamtheit BEISPIEL angestrebte Grundgesamtheit kaum vollständig Erhebungs- Grundgesamtheit <?page no="258"?> 259 6.1 Zentrale Begriffe www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 259 Erhebungs-Grundgesamtheit (Auswahl-Grundgesamtheit) ist entweder a) die im Zeitraum des Auswahlverfahrens prinzipiell erreichbare Gesamtheit der Untersuchungsbzw. Erhebungseinheiten, falls das Auswahlverfahren direkt auf die Untersuchungseinheiten gerichtet ist, oder b) die tatsächlich repräsentierte Grundgesamtheit, falls das Auswahlverfahren sich auf eine symbolische Repräsentation der angestrebten Grundgesamtheit stützt. Zur Veranschaulichung weiterer begrifflicher Differenzierungen führen wir zunächst das oben eingeführte Untersuchungsbeispiel fort: In dem betreffenden Bundesland möge es zum Zeitpunkt der Untersuchung 11.000 Oberstufenschüler geben; an Zeit, Geld und Personal jedoch stehe lediglich eine Kapazität zur Verfügung, um 1000 Schüler zu befragen. Konsequenz: Es sind 1000 Schüler so auszuwählen, dass die gewonnenen Ergebnisse nicht nur für diese 1000, sondern auch für die 10.000 nicht Befragten gelten, also auf alle 11.000 Fälle verallgemeinerbar sind. Mit anderen Worten: Die Ergebnisse der Stichprobe (n =-1000) sollen repräsentativ 212 sein für die Grundgesamtheit (N =-11.000). In diesem Zusammenhang ist die eingeführte Unterscheidung zwischen angestrebter Grundgesamtheit und Erhebungs-Grundgesamtheit bedeutsam: Beide können unter Umständen erheblich voneinander abweichen; und je größer diese Abweichungen sind, umso schwerer wiegen die Konsequenzen für die Repräsentativität der Untersuchungsergebnisse. Auch ein noch so korrektes Auswahlverfahren kann schließlich zu einer repräsentativen Stichprobe lediglich im Hinblick auf diejenige Gesamtheit von Fällen führen, auf die das Stichprobenverfahren angewendet wurde (Erhebungs- Grundgesamtheit), nicht jedoch im Hinblick auf die theoretisch definierte, auf die angestrebte Grundgesamtheit. Zu unterscheiden ist aber nicht nur zwischen angestrebter Grundgesamtheit und (tatsächlicher) Erhebungs-Grundgesamtheit (sowie deren Elementen, z. B. Oberstufenschüler), sondern auch zwischen Erhebungseinheiten und Auswahleinheiten: - Auswahleinheiten sind diejenigen Einheiten, auf die sich der Auswahlplan konkret bezieht. - Erhebungseinheiten sind diejenigen Einheiten, bei denen Informationen erhoben werden; diese sollen in der Stichprobe repräsentativ vertreten sein. Mit anderen Worten: Die Anweisungen des Auswahlplans müssen sich auf genau definierbare und im Auswahlverfahren „zugreifbare“ Einheiten beziehen (etwa Unternehmen, Stimmbezirke, Personen, Dateieinträge in der Mitgliederdatei einer Gewerkschaft). 212 „Repräsentativität“ ist neben Gültigkeit und Zuverlässigkeit ein weiteres Gütekriterium empirischer Forschung; es wird im Kapitel 6.2 behandelt. BEISPIEL Repräsentativität Auswahleinheiten Erhebungseineiten <?page no="259"?> 260 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 260 Eine Auswahlanweisung könnte lauten: „Beginne mit dem dritten Eintrag in der Datei und wähle dann jeden zehnten weiteren Eintrag aus“. Die Gesamtheit aller Einheiten, aus denen ausgewählt wird, sind die für die Auswahl zur Verfügung stehenden Einheiten: die Auswahleinheiten-- nicht zu verwechseln mit den ausgewählten (d. h. in die Stichprobe aufgenommenen) Einheiten, die erst feststehen, nachdem der Auswahlplan auf die zur Verfügung stehende Gesamtheit der Auswahleinheiten angewendet wurde. Im Unterschied dazu bezieht sich der Begriff Erhebungseinheit nicht auf den Vorgang des Auswählens (z. B. Auswahl von Adresseinträgen), sondern auf das Ziel des Auswahlverfahrens (z. B. die Personen, die unter den ausgewählten Adressen erreichbar sein sollen): Man will auf kontrollierbare Weise erreichen, dass „am Schluss“ bei präzise definierbaren Einheiten Informationen erhoben werden können und dass diese Einheiten eine repräsentative Abbildung der angestrebten Grundgesamtheit sind. Zurück zu unserem Beispiel: Es ist nicht möglich, die 11.000 Schüler der Oberstufenklassen des betreffenden Bundeslandes zu einem Zeitpunkt an einem Ort zu versammeln (physische Anwesenheit der Grundgesamtheit), wie dies bei „Einwohnern einer Stadt“ oder „Belegschaft eines Betriebes“ immerhin denkbar wäre. Also ist eine symbolische Repräsentation in Form einer Schülerkartei oder Schülerliste als Auswahlgrundlage erforderlich. Eine solche existiert jedoch nicht zentral an einem Ort, sondern es gibt lediglich je Schule und Klasse solche Listen. Also wird man sich die Adressen der Gymnasien und Gesamtschulen heraussuchen. Dann schreibt man die Schulen an und bittet um Zusendung der Schülerlisten der infrage kommenden Klassen. Anhand der so erhaltenen Angaben erstellt man eine Kartei der Schüler als symbolische Repräsentation der Grundgesamtheit. Wird nun die Auswahl der zu befragenden Schüler aufgrund dieser Kartei vorgenommen, dann sind Auswahleinheiten alle Einträge in dieser Kartei und potenzielle Erhebungseinheiten die Personen, die durch diese Einträge bezeichnet werden. Betrachtet man das skizzierte Vorgehen nicht formal, sondern inhaltlich, dann sind in diesem Fall Auswahl- und Erhebungseinheiten identisch: Der Auswahlplan wird auf die Schüler (repräsentiert durch je einen Kartei-Eintrag) angewendet, und die entsprechenden Schüler der Stichprobe (als zu befragende Personen) sollen auch eine repräsentative Teilmenge der Grundgesamtheit sein. Aus verschiedenen Gründen wäre jedoch ein solches Vorgehen (vollständige Kartei der Grundgesamtheit erstellen) nicht sehr zweckmäßig: erstens ist es ein sehr aufwändiges Verfahren, zweitens sind erhebliche Abweichungen zwischen Erhebungs- Grundgesamtheit (Schülerkartei) und angestrebter Grundgesamtheit zu befürchten. So werden z. B. mit Sicherheit nicht alle Schulen bereit sein, ihre Schülerlisten herauszugeben. Man wird sich deshalb vermutlich dafür entscheiden, mehrstufig vorzugehen. Aufgrund der recherchierten Informationen über die existierenden Gymnasien könnte man zunächst eine Liste aller Oberstufen erstellen und nach einem Auswahlplan eine Teilmenge dieser Klassen auswählen (erste Stufe). Dann könnten Interviewer die Auswahleinheiten/ ausgewählte Einheiten BEISPIEL mehrstufige Auswahl <?page no="260"?> 261 6.1 Zentrale Begriffe www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 261 Schulen aufsuchen, von denen Klassen in der Stichprobe enthalten sind und dort an Ort und Stelle die Schülerlisten dieser Klassen erbitten (durch den persönlichen Kontakt werden wahrscheinlich die „Ausfälle“ vermindert). Aufgrund dieser Listen erstellt man eine Kartei der so „in die engere Wahl“ gekommenen Schüler und zieht aus dieser Kartei eine Stichprobe der zu befragenden Schüler (zweite Stufe). Auf der ersten Stufe sind nun Auswahleinheiten und Erhebungseinheiten nicht nur formal verschieden. Der Auswahlplan wird auf Schulklassen angewendet (Auswahleinheiten), repräsentativ in der endgültigen Stichprobe sollen aber Oberstufenschüler vertreten sein (Erhebungseinheiten). Um diese Repräsentativität nicht zu gefährden, wird man in den Auswahlplan eventuell Gewichtungsfaktoren (Klassengrößen) einführen müssen. Auf der zweiten Stufe sind dann wieder Auswahl- und Erhebungseinheiten (inhaltlich) identisch. Dass Auswahl- und Erhebungseinheiten nicht identisch sind, kommt jedoch nicht nur bei mehrstufigen Auswahlen vor. Häufig tritt etwa der Fall auf, dass Einzelpersonen befragt werden und auch repräsentativ in der Stichprobe vertreten sein sollen, als symbolische Repräsentation der Grundgesamtheit „Bevölkerung“ aber lediglich eine Haushaltskartei zur Verfügung steht. Der Auswahlplan kann dann nur auf die Haushalte (Auswahleinheiten) angewendet werden, d. h. auf eine je unterschiedliche Zahl von Einzelpersonen; Repräsentativität dagegen wünschen wir für die Einzelpersonen, deshalb wird man wieder mit Gewichtungsfaktoren im Auswahlplan arbeiten müssen. Oder nehmen wir unseren Fall einer Schülerkartei. Angenommen, es besteht die Absicht, zusätzlich zu den Schülern auch deren Eltern zu befragen: Auswahleinheiten sind dann auf der letzten Auswahlstufe weiterhin die Schüler, Erhebungseinheiten aber sind jetzt auch die Eltern. Um die Repräsentativität der Stichprobe im Hinblick auf die Grundgesamtheit „Eltern von Schülern in der Oberstufe“ zu gewährleisten, müssen wir vor der Auswahl sicherstellen, dass Eltern nicht mehrfach in der Schülerkartei repräsentiert sind (falls nämlich zum Zeitpunkt der Untersuchung mehrere Kinder Oberstufenschüler sind), d. h. wir müssen die Kartei „bereinigen“. Beispiele für Nichtidentität von Auswahl- und Erhebungseinheiten: Auswahleinheit: Erhebungseinheit: Personen Haushalte, Familien, Freundschaftsnetze Haushalte Einzelpersonen, Wahlberechtigte, Hausfrauen, Familienfeste Betriebe Mitarbeiter, Produktionsprozesse, Betriebshierarchie Gemeinden Einwohner, Wohnblocks, homogene Wohngebiete Stadtteile Kaufhäuser, Verkehrsströme, Kulturdenkmäler Straßenkreuzungen Verkehrsunfälle, Verstöße gegen die Straßenverkehrsordnung möglicher Unterschied: Auswahl- und Erhebungseinheit BEISPIEL <?page no="261"?> 262 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 262 Friedrichs (1982, 126 ff.) führt noch eine weitere Unterscheidung ein, die für das Verständnis der Anwendung von Datenerhebungsinstrumenten (also Inhaltsanalyse, Befragung, Beobachtung etc.) bedeutsam ist. Wenn als Erhebungseinheiten diejenigen Einheiten verstanden werden, die man durch die Stichprobe repräsentativ abbilden will und bei denen die Informationen erhoben werden, so können in manchen Fällen davon die Untersuchungseinheiten unterschieden werden, über die die Ergebnisse einer Studie Aussagen machen sollen, also für die die Messwerte gelten sollen (siehe Kapitel 5.3.3: Datenmatrix). Anders formuliert: Erhebungseinheit =-die Einheit, auf die sich die Auswahl bezieht; Untersuchungseinheit =-die Einheit, auf die sich die Untersuchung bezieht (Friedrichs 1982, 126). 213 Stellen wir uns vor, wir wollten eine Hypothese testen: „Frauen in Haushalten mit Kleinkindern sind stärker in ihrem Verhalten und ihren Bedürfnissen auf die Wohnung bezogen als Frauen in Haushalten mit größeren Kindern; letztere wiederum sind stärker auf die Wohnung bezogen als Frauen in kinderlosen Haushalten.“-- Für die Konstruktion der Stichprobe würde sich daraus die Konsequenz ergeben, dass Erhebungseinheiten die Haushalte sein müssten: Haushalte mit ihren unterschiedlichen Bedingungskonstellationen für die „Hausfrauen“ sollen in der Stichprobe repräsentativ vertreten sein; mit anderen Worten: Die Studie soll „situationsrepräsentativ“ sein; die Struktur aller Haushalte (in z. B. der Bundesrepublik) soll sich in der Stichprobe unverzerrt widerspiegeln. Untersuchungseinheiten-- also die Einheiten, für die Daten ausgewertet werden sollen-- wären dagegen „Hausfrauen“. Die jeweiligen Haushaltssituationen würden in diesem Fall als „Kontextmerkmale“ für die dort lebenden Hausfrauen aufgefasst. Natürlich wären auch Daten über diese Kontexte zu erheben, aber nicht als Selbstzweck, sondern als Information über die jeweilige Lebensumwelt der „Untersuchungseinheit Hausfrau“. Man kann diese Überlegungen mit den Worten von Friedrichs auch so formulieren: Die Erhebungseinheit ist das Stichprobenkriterium, die Untersuchungseinheit ist das Kriterium der Hypothesenprüfung. In vielen Fällen werden Erhebungseinheit und Untersuchungseinheit identisch sein; gerade bei komplexeren Fragestellungen jedoch ist dies oft nicht der Fall. 213 Friedrichs differenziert zwar noch weiter zwischen Untersuchungs- und Aussageeinheit. Darauf wird hier aber verzichtet. Untersuchungseinheiten BEISPIEL <?page no="262"?> 263 6.2 Anforderungen an die Stichprobenkonstruktion www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 263 Da die Differenzierung der verschiedenen Typen von „Einheiten“ anfangs manchen Studierenden schwerfällt, hier noch ein weiterer Versuch der Klärung: Auf die Auswahleinheiten wird nach pragmatischen Gesichtspunkten der Auswahlplan angewandt mit dem Ziel, eine repräsentative Stichprobe von „Objekten“ zusammenzustellen, bei denen untersuchungsrelevante Informationen erhoben werden können (Erhebungseinheiten). Die erhobenen Informationen wiederum sollen sich auf diejenigen „Objekte“ beziehen, die Gegenstand der empirischen Untersuchung sind (Untersuchungseinheiten). Falls die „Informanten“ über sich selbst Auskunft geben, sind sie natürlich zugleich die Untersuchungseinheiten. 6.2 Anforderungen an die Stichprobenkonstruktion Friedrichs (1982, 125) formuliert vier Voraussetzungen, die erfüllt sein müssen, damit Teilerhebungen auf die Grundgesamtheit verallgemeinert werden dürfen: „1. Die Stichprobe muss ein verkleinertes Abbild der Grundgesamtheit hinsichtlich der Heterogenität der Elemente und hinsichtlich der Repräsentativität der für die Hypothesenprüfung relevanten Variablen sein. 2. Die Einheiten oder Elemente der Stichprobe müssen definiert sein. 3. Die Grundgesamtheit sollte angebbar und empirisch definierbar sein. 4. Das Auswahlverfahren muss angebbar sein und Forderung (1) erfüllen.“ Mit anderen Worten: Die Grundgesamtheit muss eindeutig empirisch abgegrenzt sein (=-3.). Probleme ergeben sich bei „unendlichen Grundgesamtheiten“, z. B. der zu einer nomologischen Hypothese gehörigen Grundgesamtheit von Fällen. Für den Test einer solchen Hypothese müssen wir die „hypothetische“ Grundgesamtheit auf eine empirisch angebbare, d. h. räumlich und zeitlich abgegrenzte Zahl von Fällen reduzieren (die Verifikation der Hypothese wäre natürlich anhand von Daten über eine in dieser Weise zeitlich und räumlich konkretisierte Grundgesamtheit nicht möglich; für das Falsifizierbarkeits-Postulat treten dadurch jedoch keine Probleme auf; siehe Kapitel 1.3.2). Diese konkretisierte Grundgesamtheit sollte aber nicht nur empirisch definiert sein, sondern ihr sollte auch eine Erhebungs-Grundgesamtheit (Auswahl-Grundgesamtheit) zugeordnet werden können, die möglichst weitgehend mit ihr übereinstimmt (siehe Kapitel 6.1). Nur so kann ein Auswahlplan für eine repräsentative Stichprobe erstellt werden. Weiter müssen die Stichproben-Elemente definiert sein (=- 2.), d. h. man muss eindeutig festlegen, ob ein Element der Grundgesamtheit zur Stichprobe gehört oder nicht. 214 Schließlich muss intersubjektiv nachvollziehbar sein, auf welche Weise 214 Dies kann etwa durch eindeutige Kennzeichnung einer Person mit Namen und Adresse geschehen. Es darf nicht vorkommen, dass in der Grundgesamtheit mehrere Fälle mit gleicher Kennzeichnung existieren, so dass nicht einwandfrei entscheidbar wäre, welche Person zur Stichprobe gehört und welche nicht. Voraussetzungen der Verallgemeinerbarkeit Grundgesamtheit eindeutig empirisch abgegrenzt Definition der Stichproben-Elemente <?page no="263"?> 264 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 264 (nach welchem Verfahren) eine Stichprobe zustande gekommen ist (=-4.), und die Stichprobe muss repräsentativ sein (=-1.). Bei den in den folgenden Abschnitten darzustellenden Auswahlverfahren wird zu prüfen sein, ob und in welchem Ausmaß die verschiedenen Verfahren den genannten Anforderungen gerecht werden. Zunächst aber bleibt zu klären, was das mehrfach genannte Gütekriterium „Repräsentativität“ im Einzelnen bedeutet. Auf die Notwendigkeit der präzisen definitorischen Abgrenzung der Grundgesamtheit wurde bereits hingewiesen, und zwar zusammen mit der (impliziten) These: Nur wenn genau angebbar ist, durch welche Merkmale die Elemente der Grundgesamtheit gekennzeichnet sind (intensionale Definition) und wer alles zur Grundgesamtheit gehört (extensionale Definition), kann ein Auswahlplan entworfen werden, der eine repräsentative Stichprobe gewährleistet. Repräsentativität heißt in diesem Zusammenhang: Es besteht Kongruenz zwischen theoretisch definierter („angestrebter“) Gesamtheit und tatsächlich durch die Stichprobe repräsentierter Gesamtheit; oder: Die Stichprobe ist ein „verkleinertes Abbild“ einer angebbaren Grundgesamtheit. 215 Aus dieser Definition folgt, dass es kein Sample (keine Stichprobe) geben kann, das „überhaupt nichts abbildet“, das also für überhaupt keine Gesamtheit repräsentativ wäre. Jede beliebige Teilmenge von Fällen ist ein repräsentatives Abbild für irgendeine Gesamtheit von Fällen; die Frage ist: für welche Gesamtheit? Die Fragestellung im Zusammenhang mit dem „Gütekriterium Repräsentativität“ darf daher nicht lauten, ob ein Sample eine Grundgesamtheit abbildet, sondern welche Grundgesamtheit es abbildet. Ohne präzise Angabe der angestrebten Grundgesamtheit kann somit über die Repräsentativität einer Stichprobe nicht entschieden werden. Erst durch die Orientierung an einer definierten angestrebten Grundgesamtheit (Zielpopulation, target population) lässt sich die Frage nach der Repräsentativität einer Stichprobe bejahen oder verneinen. Bei empirischen Untersuchungen, in denen nicht sichtbar wird, für welche Grundgesamtheit ihre Aussagen gelten sollen, kann somit nicht entschieden werden, ob die Ergebnisse als repräsentativ gelten können oder nicht. Will man trotzdem deren Repräsentativität abschätzen, wird man versuchen, die Zielgesamtheit aus 215 Dies ist eine vereinfachte, jedoch häufig verwendete Formulierung des Repräsentativitätskonzepts (detaillierter siehe Kromrey 1987), unter operationalen Gesichtspunkten allerdings eher eine Leerformel. So kritisiert Quatember (1996, 236), in der Öffentlichkeit sei Repräsentativität „ein viel verwendeter statistischer Fachausdruck, dessen Suggestion in keinem Verhältnis zu seiner tatsächlichen inhaltlichen Leere“ stehe, und hebt hervor, keine Stichprobe könne für die Objekte einer Grundgesamtheit schlechthin repräsentativ sein, sondern ausschließlich hinsichtlich bestimmter Merkmale. Sein Definitionsvorschlag: „Eine Stichprobe heißt hinsichtlich-… eines Merkmals exakt repräsentativ, wenn-… das Merkmal in ihr exakt wiedergegeben wird“. Sie heißt „repräsentativ nach Erwartungswert, wenn- … das Merkmal aus ihr erwartungstreu geschätzt werden kann“ (Quatember 1996, 237). präzise definitorische Abgrenzung notwendig Repräsentativität Passung repräsentative Stichprobe mit Grundgesamtheit unklare Repräsentativität <?page no="264"?> 265 6.3 Typen von Auswahlverfahren (Überblick) www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 265 anderen verfügbaren Informationen über die Studie zu rekonstruieren: Vom Erkenntnisinteresse der Untersuchung (Problemformulierung), von der Operationalisierung, von den verwendeten Datenerhebungsinstrumenten und den Ergebnis-Interpretationen ausgehend, lässt sich oft erschließen, welches die angestrebte Grundgesamtheit sein soll. Bitte beachten Sie: Die bisherige Argumentation bezog sich ausschließlich auf die geplante Stichprobe. Doch selbst wenn der Auswahlplan keine die Repräsentativität gefährdenden Mängel aufweist, garantiert er noch nicht, dass die realisierte Stichprobe tatsächlich repräsentativ ist: Bei der Feldarbeit (insbesondere bei Befragungen) treten immer Fälle auf, in denen angegebene Anschriften nicht auffindbar oder zu Befragende nicht erreichbar sind oder in denen die Zielperson das Interview verweigert. Ob die schließlich erzielten Ergebnisse einer Studie tatsächlich als repräsentativ für die angestrebte Grundgesamtheit gelten können, ist also eigentlich erst anhand der verarbeiteten Datenmatrix abschätzbar. Bei Schnell/ Hill/ Esser findet sich als Pendant zu der mit Daten dokumentierten Stichprobe ein Konzept der Inferenzpopulation als „diejenige Grundgesamtheit, über die auf der Basis der vorliegenden Stichprobe tatsächlich Aussagen gemacht werden können“ (1999, 254). Mit anderen Worten: Repräsentativ ist jede Stichprobe für „ihre“ Inferenzpopulation. Sie ist jedoch unbekannt, da über die „Ausfälle“ definitionsgemäß detaillierte Informationen fehlen,. Man kann allenfalls durch Vergleich von Stichprobendaten mit einigen bekannten Grundgesamtheitsverteilungen versuchen, die Inferenzpopulation und damit die empirische Reichweite der Untersuchungsbefunde zu rekonstruieren. 6.3 Typen von Auswahlverfahren (Überblick) Ganz grob ist zunächst zu unterscheiden zwischen a) nicht zufallsgesteuerten Auswahlen und b) zufallsgesteuerten Auswahlverfahren. Bei nicht zufallsgesteuerten Auswahlen wird Repräsentativität (im Sinne von: Stichprobe =-verkleinertes Abbild der Grundgesamtheit) dadurch angestrebt, dass bestimmte Merkmale der Erhebungseinheiten und eventuell ihre Verteilung in der Grundgesamtheit als Auswahlkriterien benutzt werden (Auswahl „typischer Fälle“, Quotierung). Bei zufallsgesteuerten Auswahlen wird die Entscheidung darüber, ob ein Element der Grundgesamtheit auch Element der Stichprobe wird, der Entscheidung des Forschers/ der Forscherin entzogen und durch einen kontrollierten „Zufallsprozess“ ersetzt. Während die Stichprobe aufgrund eines nicht zufallsgesteuerten Auswahlverfahrens Repräsentativität lediglich hinsichtlich der Merkmale bzw. der Merkmalskombinationen beanspruchen kann, die als Auswahlkriterien benutzt wurden, sind zufallsgesteuerte Auswahlen (kontrollierte Zufallsauswahlen) tendenziell repräsentativ im Hinblick auf sämtliche Merkmale und sämtliche Merkmalskombinationen der Erhebungseinheiten, und zwar im Rahmen angebbarer (Zufalls-)Fehlergrenzen und Fehlerwahrscheinlichkeiten. Differenz: geplante und realisierte Stichprobe VERTIEFUNG Inferenzpopulation zufallsgesteuerte/ nicht-zufallsgesteuerte Auswahlen <?page no="265"?> 266 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 266 Von den existierenden Verfahren der Stichprobenkonstruktion werden die folgenden Typen in den Kapiteln 6.4 und 6.5 erläutert. 6.4 Nicht zufallsgesteuerte Auswahlverfahren 6.4.1 Willkürliche Auswahl Im Alltagsverständnis wird häufig „Zufallsauswahl“ mit dem Auswahl-“Verfahren“ gleichgesetzt, das hier die Bezeichnung willkürlicher Auswahl oder Auswahl aufs Geratewohl (manchmal auch Gelegenheitsauswahl) trägt. Die Willkürauswahl ist eine Auswahl, die auf einer willkürlichen, d. h. durch keinen Auswahlplan kontrollierte, Entscheidung der Person, die die Auswahl vornimmt. „Schneeball-Verfahren“ willkürliche Auswahl (Auswahl aufs Geratewohl, Gelegenheitsauswahl) bewusste Auswahl (gezielte Auswahl, Auswahl nach Gutdünken) Quoten-Auswahlverfahren (geschichtete willkürliche Auswahl) Auswahl „typischer Fälle“ Auswahl nach dem „Konzentrationsprinzip“ Abbildung 6.1: Nicht zufallsgesteuerte Auswahlverfahren (Kapitel 6.4) Abbildung 6.2: Zufallsgesteuerte Auswahlverfahren (Kapitel 6.5) komplexe Wahrscheinlichkeitsauswahl Klumpenauswahl (cluster sample) geschichtete Auswahl mehrstu ge Auswahl proportional geschichtet disproportional geschichtet reine Zufallsauswahl systematische Zufallsauswahl einfache Wahrscheinlichkeitsauswahl Gebietsauswahl Karteiauswahl reine Zufallsauswahl systematische Zufallsauswahl reine Zufallsauswahl systematische Zufallsauswahl <?page no="266"?> 267 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 267 Es entscheidet also gerade nicht ein „kontrollierter Zufallsprozess“ darüber, ob ein Element der Grundgesamtheit in die Stichprobe kommt oder nicht. Der Interviewer oder Beobachter greift sich nach Belieben (aufs Geratewohl) an einem beliebigen Ort und zu einem beliebigen Zeitpunkt Personen oder Ereignisse heraus, die er befragt bzw. beobachtet. So kann eine Interviewerin sich etwa an einer belebten Straßenkreuzung aufstellen und die bei roter Ampel wartenden Passanten ansprechen. Oder sie kann Haltestellen öffentlicher Verkehrsmittel aufsuchen und dort „die Gelegenheit nutzen“, die auf den nächsten Bus oder die nächste Bahn wartenden Fahrgäste anzusprechen. Der Interviewer kann sich auch zum Hauptbahnhof begeben, oder er geht in eine Kneipe oder in ein Warenhaus-… Um solche willkürlichen Auswahlen handelt es sich in der Regel, wenn im Fernsehen kurze Statements „des Mannes auf der Straße“ zu aktuellen Ereignissen eingeblendet werden. Prüfen wir, ob die in Kapitel 6.2 geforderten vier Voraussetzungen einer Stichprobe erfüllt sind, so stellen wir fest, dass die willkürliche Auswahl keiner einzigen der genannten Anforderungen gerecht wird. Die Stichprobe kann schon deshalb kein verkleinertes Abbild einer definierten Grundgesamtheit sein, weil weder die Grundgesamtheit angebbar ist noch die Stichprobenelemente genau definiert sind: Handelt es sich um die Grundgesamtheit aller Fußgänger, aller Straßenbahnfahrer, aller Eisenbahnfahrer, aller Kaufhausbesucher, aller Kneipengäste? Da die Stichprobenelemente von der interviewenden bzw. beobachtenden Person willkürlich, also ohne vorher festgelegten Plan bestimmt werden, ist auch das Auswahlverfahren nicht angebbar. Konsequenz: Willkürliche Auswahlen sind für statistisch kontrollierte wissenschaftliche Aussagen wertlos. Varianten der willkürlichen Auswahl sind die Selbstrekrutierung und die Auswahl nach Zugänglichkeit (das sogenannte „convenience sample“). Bei der Selbstrekrutierung wird beispielsweise für eine Befragung breit geworben und es nimmt teil, wer immer Lust dazu hat. Bei der Auswahl nach Zugänglichkeit stehen praktische Fragen der (einfachen) Erreichbarkeit der zu befragenden Personen im Vordergrund. In beiden Fällen gibt es kein systematisch durchdachtes Verfahren, wie eine repräsentative Auswahl gefunden werden kann. Liegt dieser Auswahl Bequemlichkeit zugrunde, etwa wenn eigene Freundinnen und Freunde befragt werden, weil das am wenigsten Mühe bereitet, dann wird dadurch die Studie weitgehend entwertet. Dominiert die Auswahl nach Zugänglichkeit, weil der Zugang ausgesprochen schwierig ist und sonst keine Möglichkeiten bestehen, überhaupt eine Studie zu realisieren, dann kann es sich um eine legitime „Notlösung“ handeln. Die Verallgemeinerbarkeit der Befunde ist gleichwohl hoch problematisch. willkürliche Auswahl willkürliche Auswahlen sind ungeeignet Auswahl nach Zugänglichkeit <?page no="267"?> 268 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 268 6.4.2 Bewusste Auswahlen Bei der bewussten Auswahl wird die Auswahl planvoll, aufgrund vorheriger Überlegungen nach angebbaren und intersubjektiv nachvollziehbaren Kriterien gezielt vorgenommen. Man spricht deshalb auch von gezielter Auswahl oder Auswahl nach Gutdünken, d. h. nach Kriterien, die dem Forscher für bestimmte Zwecke sinnvoll erscheinen. Ob ein Element der Grundgesamtheit ausgewählt wird, hängt nicht mehr von der willkürlichen Entscheidung der Interviewerin oder des Beobachters ab, sondern vom Zutreffen vorher festgelegter Kriterien. Solche Kriterien können sein: Es werden nur „Expert/ innen“ zu einem bestimmten Thema befragt (Expertengespräche); es kommen nur „durchschnittliche Fälle“ (z. B. 4-Personen-Haushalte mittleren Einkommens) oder in anderer Weise „typische Fälle“ in die Auswahl; es werden nur Extremgruppen (Extremfälle) untersucht, etwa Personen mit besonders niedrigem und solche mit besonders hohem Einkommen oder Quartiersbewohner mit besonders langer und solche mit besonders kurzer Wohndauer oder Familien mit besonders autoritärem oder besonders liberalem Erziehungsstil etc. Das Merkmal zur Bestimmung der „Extrem“-Fälle kann nicht ohne Rückgriff auf bestimmte Hypothesen festgelegt werden. Der Grad der Differenziertheit der Kriterien für die gezielte Auswahl kann sich bis zur Entwicklung eines theoretisch begründeten repräsentativen Modells der Gesamtheit erstrecken (z. B. Modell typischer Stimmbezirke für die Hochrechnung von Wahlergebnissen). Je nach der spezifischen Ausgestaltung bewusster Auswahlen sind die in Kapitel 6.2 formulierten Anforderungen mehr oder weniger vollständig erfüllt. So muss z. B. die (angestrebte) Grundgesamtheit angebbar sein, um überhaupt die Kriterien für eine gezielte Auswahl entwickeln zu können; die Erhebungs-Grundgesamtheit dagegen bleibt weitgehend unbestimmt. Damit ein Element der Grundgesamtheit in die Stichprobe aufgenommen werden kann, muss es bestimmte Merkmale oder Merkmalskombinationen aufweisen; damit scheidet die vollständige Willkür durch Interviewer oder Beobachter aus. Das Auswahlverfahren selbst ist angebbar; es erfüllt allerdings die Forderung, ein verkleinertes Abbild der Grundgesamtheit zu konstruieren, nur insofern, als lediglich einige wenige vorher festgelegte Merkmale oder Merkmalskombinationen in der Stichprobe repräsentiert werden. Die Festlegung dieser Merkmale richtet sich nach der Relevanz für die Fragestellungen der Untersuchung. Bewusste Auswahlen eignen sich insbesondere bei hypothesen-/ theorietestenden Untersuchungen (z. B. Auswahl solcher Fälle, die für die zu prüfende Hypothese als besonders harter Test gelten können). Im Falle deskriptiver Forschung bieten sie sich vor allem für Analysen mit eng eingegrenzten Fragestellungen an sowie für Vorklärungen in Problembereichen, in denen noch relativ wenig Basiskenntnisse vorhanden gezielte Auswahl nach Kriterien BEISPIEL Eignung abhängig von den Kriterien Eignung der bewussten Auswahl <?page no="268"?> 269 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 269 sind: Durch die Analyse „typischer Fälle“ wird die Entwicklung eines endgültigen Forschungsdesigns erleichtert. Von den bewussten Auswahlen stellt die typische Auswahl (bzw. die Auswahl typischer Fälle) vom Prinzip her die einfachste Variante dar; zugleich ist sie aber auch die problematischste aller Formen von bewussten Auswahlen. Die Grundüberlegung besteht darin, dass die Analyse auf relativ wenige Elemente der Grundgesamtheit beschränkt werden soll, die als besonders charakteristisch, als besonders „typisch“ für die Grundgesamtheit angesehen werden. Die Hypothese lautet: Wenn Untersuchungseinheiten hinsichtlich bestimmter zentraler Merkmale für eine größere Gesamtheit von Fällen „typisch“ sind, dann sind auch ihre Reaktionen (z. B. Antworten in einem Interview) für die größere Gesamtheit von Fällen typisch. 216 Das erste Problem bei diesem Vorgehen wurde oben bereits genannt: Es ist zunächst anzugeben, hinsichtlich welcher Kriterien die Elemente „typisch“ sein sollen; denn „typische Elemente an sich“ gibt es nicht. Diese Kriterien können nur vom Untersuchungsziel, d. h. von den angestrebten Erkenntnissen her definiert werden. Damit definiert aber das Untersuchungsziel bereits in einem nicht abzuschätzenden Ausmaß die Untersuchungsergebnisse; nämlich indem per Auswahl „typischer“ Untersuchungsfälle möglicherweise zugleich die Erhebung „untypischer“, also abweichender Informationen weniger wahrscheinlich wird. 217 Das zweite Problem besteht darin, dass eine typische Auswahl immer schon entsprechende Vorkenntnisse über die Grundgesamtheit voraussetzt. Man muss vorher wissen, wie die relevanten Merkmale, nach denen die typischen Fälle definiert werden, in der Grundgesamtheit verteilt sind. Das schränkt die Anwendbarkeit dieses Verfahrens für „explorative“ Studien im Rahmen der Logik standardisierter Forschung, also für Voruntersuchungen zur Konzipierung eines endgültigen Designs, ein. 218 Meist werden die erforderlichen Vorkenntnisse über die Verteilung der (theoretisch) eigentlich angemessenen Merkmale in der Grundgesamtheit entweder nicht vorhanden sein, oder die relevanten Merkmale sind-- selbst bei Kenntnis ihrer Ver- 216 Das gedankliche Konzept der „Repräsentativität“ wird hier in seiner extremsten Form angewandt: Jeder einzelne ausgewählte Fall soll eine große Zahl „gleichartiger“ Fälle repräsentieren. Um Verwechselungen mit dem für die gesamte Stichprobe geltenden Gütekriterium Repräsentativität zu vermeiden, wurde hier der Begriff „Auswahl typischer Fälle“ (statt: „Auswahl repräsentativer Fälle“) gewählt. 217 Beim sogenannten „theoretical sampling“ im Rahmen des von Glaser und Strauss entwickelten Forschungsansatzes zur Entwicklung einer „gegenstandsbezogenen Theorie“ (grounded theory; Glaser/ Strauss 1979, Strauss 1984, Strauss/ Corbin 1996) handelt es sich um eine methodisch fundierte Variante von bewusster Auswahl, die diese Gefahr minimiert: Die Kriterien dafür, welche Merkmale die weiteren auszuwählenden Fälle aufweisen sollen, ergeben sich im Zuge der fortlaufenden Analyse aufgrund des sich dabei konkretisierenden Informationsbedarfs (siehe die Annotationen aus der Perspektive qualitativ-interpretativer Methoden in Kapitel 6.7). 218 Auch dieses Defizit gilt nicht für die Strategie des „theoretical sampling“ im Rahmen qualitativer Exploration. Auswahl typischer Fälle Probleme der Auswahl typischer Fälle abhängig von Qualität der Kriterien Vorkenntnisse erforderlich <?page no="269"?> 270 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 270 teilungen-- nicht ohne Weiteres feststellbar und können deshalb nicht als Bestimmungsgrößen für eine gezielte Auswahl herangezogen werden. 219 Daraus entsteht als drittes Problem, dass sich die Auswahl nicht an den eigentlich interessierenden Merkmalen ausrichten kann, sondern zur Bestimmung „typischer“ Fälle Ersatzmerkmale heranzuziehen sind. Über solche Ersatzmerkmale müssen a) ausreichende Kenntnisse vorhanden sein, sie müssen b) zugleich leicht für den Auswählenden erkennbar sein und man muss c) wissen, dass sie mit den eigentlich interessierenden Merkmalen so hoch korrelieren, dass die Annahme gerechtfertigt ist: Die anhand der Ersatzmerkmale ausgewählten typischen Fälle sind auch hinsichtlich der eigentlich interessierenden Merkmale typisch für die Grundgesamtheit (vgl. Kops 1977, 179 f.). Eine andere Form der bewussten Auswahl, die mit der Auswahl typischer Fälle gewisse Ähnlichkeiten aufweist, ist die Auswahl nach dem Konzentrationsprinzip. Hierbei beschränkt man die Erhebung auf die für den Untersuchungsgegenstand besonders „ins Gewicht fallenden“ Fälle. 220 Auch hier sind vorab Informationen über die Auswahleinheiten notwendig, insbesondere über deren Bedeutsamkeit, gemessen an den jeweils im Vordergrund stehenden Untersuchungsmerkmalen. Hohen Stellenwert gewinnt die Auswahl nach dem Konzentrationsprinzip dann, wenn ein relativ kleiner Teil der Grundgesamtheit einen großen Einfluss auf die untersuchten Merkmale ausübt. „Großer Einfluss“ oder „Bedeutsamkeit“ ist also das Kriterium, nach dem für diese Fälle zu bestimmen ist, ob sie in die Auswahl kommen. „Bedeutsamkeit“ kann nun heißen: bedeutsam im Hinblick auf zu untersuchende Wirkungen bestimmter Einheiten auf andere Einheiten (etwa: „die Machtelite“ übt großen politischen Einfluss aus, oder: bestimmte Publikationen spielen eine führende Rolle, sind z. B. Meinungsführer). „Bedeutsamkeit“ kann aber auch heißen: weite Verbreitung (z. B. Auflagenstärke bei Zeitungen) oder großer Anteil an der Gesamtausprägung des Merkmals (z. B. Beschäftigtenzahl von Unternehmen). Das „Konzentrationsprinzip“ wird in der amtlichen Statistik häufig angewendet. Will man die Umsätze in der Bauwirtschaft sowie die Entwicklung der Auftragseingänge in dieser Branche untersuchen, kann man sich getrost auf die Erhebung von Daten bei Betrieben mit 20 oder mehr Beschäftigten beschränken. Diese machen 9,5 % aller Unternehmen im Bauhauptgewerbe aus; sie vereinigen 219 Beispiel: Man wolle die Anpassungsbereitschaft von Jugendlichen an gesellschaftliche Normen und deren politische Partizipation in Abhängigkeit von den Erziehungsstilen im Elternhaus untersuchen: Die inhaltlich (theoretisch) angemessenen Merkmale für eine typische Auswahl wären Haushalte mit je spezifischen, klar abgrenzbaren Erziehungsstilen. Um diese für die Auswahl relevanten Informationen zu erhalten, müsste man praktisch die Grundgesamtheit zunächst auf ihre Erziehungsstile untersuchen und könnte erst dann eine typische Auswahl vornehmen. 220 Zum statistischen Modell der „Konzentrationsmessung“ vgl. Abschnitt 8.2.5. Orientierung an Ersatzmerkmalen Auswahl nach dem Konzentrationsprinzip Kriterium: Bedeutsamkeit BEISPIEL <?page no="270"?> 271 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 271 jedoch 66,5 % aller Umsätze der Branche auf sich. 221 Indem man also die Untersuchung auf nur knapp 10 % aller Elemente der Grundgesamtheit konzentriert, erfasst man dennoch zwei Drittel des gesamten Umsatzvolumens und kann z. B. zuverlässige Prognosen über den Konjunkturverlauf in der Bauwirtschaft abgeben. 6.4.3 Quoten-Auswahl (quota-sample) Ein in der kommerziellen Forschung oft benutztes Auswahlverfahren ist das Quoten-Sample. Es handelt sich hier um eine Zwischenform von bewusster und willkürlicher Auswahl. „Bewusst“ bzw. gezielt werden den Interviewenden Quoten von Merkmalen vorgegeben, die die befragten Personen aufweisen müssen; etwa Alter, Geschlecht, Wohnlage. Im Rahmen dieser Quoten allerdings hat die Interviewerin/ der Interviewer freie Hand, wen sie/ er befragt. Die Auswahl ist also im Hinblick auf ihre Planung partiell „gezielt“ (Vorgabe von Quoten für einige Merkmale der auszuwählenden Einheiten), sie ist darüber hinaus im Zuge ihrer Realisierung partiell „willkürlich“: Beim Quotenverfahren beruht „die Bestimmung der in eine Erhebung einzubeziehenden Einheiten letztlich auf Ermessen. Kennzeichnend ist, dass hierbei diese Ermessensentscheidungen im Stadium der Feldarbeit von den Erhebungssubjekten (meist Interviewern) selbst getroffen werden“ (Scheuch 1974, 15). Da die Quotierung dem Verfahren der Schichtung bei der geschichteten Zufallsauswahl (vgl. Kapitel 6.5) entspricht, kann man die Quoten-Stichprobe auch als eine „geschichtete willkürliche Auswahl“ bezeichnen. Die Festlegung der Quoten geschieht anhand der bekannten Verteilung der relevanten Merkmale (Quotierungsmerkmale) in der Grundgesamtheit; es werden also wiederum Kenntnisse über die Grundgesamtheit vorausgesetzt. An unserem Beispiel der aus der Grundgesamtheit von 11.000 Oberstufenschülern zu ziehenden Stichprobe vom Umfang n =-1000 (siehe Kapitel 6.1) sei das Vorgehen erläutert. Nehmen wir an, der Forscher sieht sich aufgrund vorliegender Kenntnisse zu der Annahme berechtigt, dass für die Problemstellung „politische Bildung“ die Merkmale Schichtzugehörigkeit und Geschlecht der Schüler besonders relevant sind. Aus einer Statistik des Kultusministeriums möge außerdem hervorgehen, dass an den Oberstufen des Landes die Arbeiterkinder mit 20 %, Mittelschichtkinder mit 50 % und Oberschichtkinder mit 30 % vertreten sind und dass 35 % der Oberstufenschüler weiblichen, 65 % männlichen Geschlechts sind. Auf die Stichprobe übertragen bedeutet dies: Es sind 200 Arbeiterkinder, 500 Mittelschichtkinder und 300 Oberschichtkinder zu befragen; und: Unter den 1000 Befragten müssen 350 Mädchen und 650 Jungen sein. Hätten die Interviewer jeweils 10 Befragungen durchzuführen, dann könnte ein Quotenplan so aussehen: 221 Statistisches Bundesamt 2009: Fachserie 4, Reihe 5.1: Tätige Personen und Umsatz der Betriebe im Baugewerbe 2008, Wiesbaden Quoten-Auswahl partiell bewusst, partiell willkürlich geschichtete willkürliche Auswahl BEISPIEL <?page no="271"?> 272 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 272 Beispiel: Quotenplan Interviewer Interviews gesamt Schichtzugehörigkeit G e s c h l e c h t Arbeiter Mittel- schicht Oberschicht weiblich männlich 01 10 2 5 3 4 6 02 10 1 6 3 3 7 03 10 3 5 2 2 8 04 10 3 4 3 5 5 100 10 2 5 3 3 7 Gesamt 1000 200 500 300 350 650 In diesem Quotenplan hat nicht jeder Interviewer die gleichen Quoten, etwa Schichten-Schlüssel je Interviewer 2 : 5 : 3. Dies entspricht der häufig formulierten Empfehlung, dass im Rahmen der für die gesamte Stichprobe zu realisierenden Anteile die Vergabe der Quotenanweisungen an die einzelnen Interviewer nach einem Zufallsschlüssel vorzunehmen sei (vgl. Kaplitza 1975, 161): Die 200 zu befragenden Arbeiterkinder, die 500 Mittelschicht-Kinder usw. sind „zufällig“ auf die 100 Interviewer zu verteilen. Im Rahmen der vorgegebenen Quoten können diese sich nun beliebig ihre Interviewpartner aussuchen. Um Doppelbefragungen derselben Schüler zu vermeiden, wird man allenfalls das „Revier“ der verschiedenen Interviewer räumlich gegeneinander abgrenzen. Im Falle genauer Festlegung des Erhebungs-„Reviers“ ist zugleich eine kontrollierte Schichtung nach raumstrukturellen Gesichtspunkten möglich, z. B. nach „städtisch/ ländlich“. An dem Beispiel lässt sich ein zentrales Problem der Quotenauswahl ablesen: Die Quoten für die Quotierungsmerkmale werden meist unabhängig voneinander vorgegeben. In der Grundgesamtheit kommen jedoch diese Merkmale kombiniert vor; so könnte unter den Arbeiterkindern in der Oberstufe der Anteil der Mädchen drastisch geringer als 35 % sein, während er in der Oberschicht höher liegt. In „verfeinerten“ Quotenplänen wird daher die Quotenanweisung anhand von Merkmalskombinationen formuliert. Allerdings sind solchen Verfeinerungsstrategien sehr enge Grenzen gesetzt. Zum einen sind über die Verteilung untersuchungsrelevanter Merkmalskombinationen in der Grundgesamtheit selten Kenntnisse vorhanden. Außerdem-- selbst wenn entsprechende Kenntnisse existierten-- würde eine differenzierte Berücksichtigung von Merkmalskombinationen für die Quotierung den Auswahlplan komplizieren und es den Interviewern erheblich erschweren, die Quotenvorgaben zu erfüllen. Im obigen Quotenplanbeispiel könnte Interviewer 02 sämtliche drei weiblichen Befragten aus der Oberschicht wählen und müsste nicht etwa je eine Oberstufenschülerin aus einem Arbeiterhaushalt, einem Mittelschichtsowie einem Oberschichthaushalt suchen. Quotenplan nach Merkmalskombinationen <?page no="272"?> 273 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 273 Einen verfeinerten Quotenplan mit Berücksichtigung von Merkmalskombinationen benutzt das folgende Institut für Demoskopie Allensbach (Noelle-Neumann/ Petersen 2000, 257, Abb. 44). Quotenanweisung des Instituts für Demoskopie Allensbach Name des Interviewers: L. Mahler Wohnort: Berlin Insgesamt: 5 Interviews Im Wohnort/ in: Berlin Umfrage 1767 Fragebogen Nr.: 51-55 Gemeindegröße: Gemeinden unter 2000 Einwohner∗ 1 2 3 4 5 6 7 8 9 10 2000-- unter 5000 Einwohner∗ 1 2 3 4 5 6 7 8 9 10 5000-- unter 20000 Einwohner∗ 1 2 3 4 5 6 7 8 9 10 20000-- unter 100000 Einwohner∗ 1 2 3 4 5 6 7 8 9 10 100000-- unter 500000 Einwohner∗ 1 2 3 4 5 6 7 8 9 10 500000 und mehr Einwohner∗ 1 2 3 4 5 • 7 8 9 10 Alter: 2 männlich 3 weiblich 16-- 29 Jahre 1 2 3 4 5 1 • 3 4 5 30-- 44 Jahre 1 • 3 4 5 1 2 3 4 5 45-- 59 Jahre 1 2 3 4 5 1 • 3 4 5 60 Jahre und älter 1 • 3 4 5 1 • 3 4 5 Berufstätige: Landwirte und mithelfende Familienangehörige in der Land- und Forstwirtschaft (auch Gartenbau und Tierhaltung) 1 2 3 4 5 1 2 3 4 5 Arbeiter (auch Landarbeiter, Facharbeiter, nicht selbständige Handwerker und Auszubildende) 1 2 3 4 5 1 • 3 4 5 Angestellte und Beamte (auch Auszubildende und Soldaten) 1 • 3 4 5 1 2 3 4 5 Selbständige und mithelfende Familienangehörige in Handel und Gewerbe (auch freie Berufe) 1 • 3 4 5 1 2 3 4 5 Nichtberufstätige (auch Arbeitslose): (Bei Rentnern [-innen] frühere Berufsstellung, bei Arbeitslosen letzte Berufsstellung, bei Hausfrauen, Schülern [-innen], Studenten [-innen] usw. Berufsstellung des-Ernährers) Landwirte (auch Gartenbau, Tierhaltung) 1 2 3 4 5 1 2 3 4 5 Arbeiter (auch Landarbeiter, Facharbeiter usw.) 1 2 3 4 5 1 2 3 4 5 Angestellte und Beamte 1 2 3 4 5 1 • 3 4 5 Selbständige in Handel und Gewerbe (auch freie Berufe) 1 2 3 4 5 1 • 3 4 5 Anmerkung: Gültig sind die Zahlen vor jedem Punkt. Wäre zum Beispiel in der Zeile „Arbeiter, weiblich“ die Zahl 3 gestempelt, so wären in diesem Falle zwei Arbeiterinnen zu interviewen. Im Übrigen streichen Sie bitte die zutreffenden Angaben der Statistik nach jedem Interview ab, damit Sie gleich übersehen können, wie viel Interviews in der betreffenden Kategorie noch weiterhin durchzuführen sind. ∗ Maßgebend ist die Einwohnerzahl der gesamten Gemeinde, nicht die Größe von Ortsteilen oder eingemeindeten Vororten. BEISPIEL <?page no="273"?> 274 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 274 Die in diesem Plan vorgenommene Quotierung sichert eine repräsentative Abbildung der Merkmalskombinationen Gemeindegrößen mit Geschlecht und Alter sowie mit Geschlecht und Berufstätigkeit der Befragten. Die Schichtung nach Gemeindegrößenklassen geschieht institutskontrolliert dadurch, dass jeder Interviewerin/ jedem Interviewer ein genau definiertes Erhebungsgebiet zugeteilt wird. Die Realisierung der Kombination Geschlecht/ Alter und Geschlecht/ Berufstätigkeit erfolgt zwar durch die jeweilige Interviewerin bzw. den jeweiligen Interviewer. Deren Gestaltungsspielraum (also die „willkürliche“ Auswahlkomponente) wird jedoch dadurch eingeschränkt, dass ihnen je Merkmalskombination nur genau ein zu realisierendes Interview vorgegeben wird. So haben die Interviewer (anders als im obigen Schülerbeispiel) keine Möglichkeit, „leichte“ Merkmalskombinationen zu kumulieren. Mit einer den Interviewern vorgegebenen jeweils zweidimensionalen Merkmalsquoten-Kombination dürfte allerdings der zumutbare Rahmen an Differenzierung ausgeschöpft sein. Andernfalls, d. h. bei faktisch nicht umsetzbaren Vorgaben, sähen sich die Interviewer gezwungen, ihr Soll lediglich durch „passende“ Eintragungen auf dem Papier (statt real) zu erfüllen. 222 Darüber hinausgehende Schichtungen sind allenfalls durch differenziertere Zuteilung von Erhebungsgebieten an den Interviewerstab zu erreichen (im zitierten Allensbach-Beispiel: nach Gemeindegrößenklassen; im Falle von Unternehmensuntersuchungen könnten dies Betriebsgrößen, bei freizeitbezogenen Fragestellungen auch „Situationen“ wie zu Hause, Park, Freibad, Ausflugsziel, Theater etc. sein). Die in das Verfahren gesetzte Hoffnung ist herkömmlicherweise, dass sich bei einer Vielzahl eingesetzter Interviewer trotz getrennter Vorgabe von Quoten für einzelne Merkmale auch die Merkmalskombinationen auf die Werte in der Grundgesamtheit einpendeln. 223 Die gleiche Hoffnung gilt im Hinblick auf den Ausgleich des Aspekts der willkürlichen Auswahl von Zielpersonen: Wenn die Zahl der Interviewer relativ groß und die Zahl der Interviews je Interviewer relativ klein ist, dann hat der einzelne Interviewer nur sehr geringen Einfluss auf die Zusammensetzung der Gesamtstichprobe. Vorlieben und Abneigungen der Interviewer, die sich auf die Wahl der Zielpersonen auswirken können, werden sich dann-- so die Annahme-- insgesamt ausgleichen. Soll durch die Quotierung die Repräsentativität der Stichprobe insgesamt gesichert werden, gelten für die Festlegung der Quotierungsmerkmale durch den Forscher die gleichen Überlegungen wie für die Bestimmung von „Ersatzmerkmalen“ bei der Auswahl typischer Fälle: 222 Darauf weisen auch Noelle-Neumann/ Petersen hin: „Der Bogen [der Quotierungsanweisungen, H. K.] sollte aber nicht überspannt werden. Durch gar zu komplizierte Vorschriften kann man die Interviewer leicht zum Fälschen erziehen, indem sie auf den Gedanken verfallen, die statistischen Daten ihrer Befragten kurzerhand der Quote ‚anzupassen‘“ (2000, 260). 223 Diese optimistische Hoffnung kann sich allerdings- - wie Quatember (1997) nachweist- - schon aus mathematisch-logischen Gründen nicht erfüllen. realisierbare Merkmalskombinationen beschränkt Einsatz vieler Interviewerinnen und Interviewer Probleme bei Festlegung der Quotierungsmerkmale <?page no="274"?> 275 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 275 a) die Verteilung der Quotierungsmerkmale in der Grundgesamtheit muss bekannt sein; b) die Merkmale müssen mit den Untersuchungsmerkmalen ausreichend hoch korrelieren, damit aus der Repräsentativität im Hinblick auf die Quotierungsmerkmale auch auf Repräsentativität hinsichtlich der eigentlich interessierenden Variablen geschlossen werden kann; c) die Quotierungsmerkmale müssen relativ leicht erfassbar sein. Daraus resultieren als Nachteile für das Verfahren: Um bei großen Sample-Umfängen den Auswahlplan nicht unrealistisch kompliziert werden zu lassen und um das Zustandekommen der Auswahl nicht zu sehr zu verteuern, muss man sich bei den Quotierungsvorgaben auf eine begrenzte Zahl von zudem leicht erkennbaren oder erfragbaren Merkmalen beschränken. Leicht erkennbar oder erfragbar sind bei Personen z. B. demografische Merkmale wie Alter und Geschlecht sowie Familienstand und vielleicht noch Beruf. Bei kommerziellen Umfragen werden zudem in einem Interviewbogen gleichzeitig mehrere Themen behandelt („Omnibus“-Befragungen), so dass die Quotierungsmerkmale gleichzeitig mit einer Vielzahl „eigentlich interessierender“ Untersuchungsvariablen hoch korrelieren müssen. Außerdem kann auch die Zuteilung kombinierter Quoten systematische Stichprobenverzerrungen dann nicht ausschließen, wenn den Interviewern ansonsten freie Hand bei der Auswahl ihrer Zielpersonen gelassen wird. Befragen sie beispielsweise ausschließlich Personen aus ihrem eigenen Bekanntenkreis, dann reduziert sich die Erhebungsgrundgesamtheit auf eine Population „Bekannte von Interviewern“, die selbstverständlich nicht repräsentativ sein kann für eine angestrebte Grundgesamtheit „Bevölkerung der Bundesrepublik“. Und schließlich sind aus der amtlichen Statistik nur für relativ wenige Personenmerkmale Informationen über die Verteilung in der Grundgesamtheit verfügbar, und diese sind meist schon ziemlich alt (etwa wenn als Informationsquelle Daten einer veralteten Volkszählung zur Verfügung stehen) oder nicht mehr zuverlässig (wenn sich die Daten aus Fortschreibungen ergeben). Die hier vorgetragene Argumentation wird vom Institut für Demoskopie Allensbach, das weitgehend die Quotenmethode zur Sicherung der Repräsentativität von Stichproben einsetzt, ausdrücklich nicht geteilt. Nach Noelle-Neumann/ Petersen dient die Festlegung von Quoten für einige Schlüsselmerkmale nicht unmittelbar, sondern nur indirekt dem Ziel, die Repräsentativität der Stichprobe zu sichern. Die Quotenanweisungen erfolgen nicht in erster Linie zu dem Zweck, die Stichprobe für untersuchungsrelevante Merkmale zu „schichten“, sondern sie sollen vor allem das generelle Interviewerverhalten steuern. Der Sinn der Quotenanweisungen ist es, „den Interviewer zu einer Zufallsauswahl [zu] veranlassen, bei der jedes Mitglied der Grundgesamtheit praktisch die gleiche Chance hat, in die Stichprobe zu gelangen“ (2000, 258). Wie kann man sich dies vorstellen? Ähnlich wie bei dem später (Abschnitt 6.5.3) zu schildernden „Random-Route“-Verfahren soll es die spezifische Art der Quo- Nachteile der Quotenauswahl begrenzte Quotierungsvorgaben schwierig bei Mehrthemenumfragen Einfluss der Willkürauswahl Information zur Grundgesamtheit begrenzt VERTIEFUNG <?page no="275"?> 276 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 276 tierung den Interviewerinnen und Interviewern unmöglich machen, „willkürlich“, also nach ihren Vorlieben, Personen für Interviews auszuwählen (etwa nach dem Kriterium leichter Erreichbarkeit oder der Zugehörigkeit zum eigenen sozialen Kontext). Die Interviewer müssen-- so Noelle-Neumann/ Petersen-- durch die zu realisierenden Quoten „gezwungen werden, aus [ihrer] eigenen sozialen Schicht oder Alters- oder Geschlechtsgruppe herauszugehen sowie Personen zu befragen, die seltener zu Hause sind, wie beispielsweise Berufstätige, insbesondere jüngere Menschen“ (2000, 256 f.). Darüber hinaus ist die gesamte Konstellation der durchzuführenden Studie so anzulegen, dass für die Interviewer nur eine „neutrale Auswahl“ infrage kommt. Dazu gehört neben dem „richtigen Schwierigkeitsgrad“ der Quote („Weder zu leicht noch zu schwer“) auch ein insgesamt thematisch neutraler Fragebogen: „Die Fragebogen müssen eine Themenmischung enthalten; denn die Interviewer haben-… eine unbewusste Tendenz, bei Befragungen, die sich auf nur ein Thema konzentrieren, Personen auszuwählen, die ihnen besonders sachverständig erscheinen.- … Um eine statistisch neutrale Auswahl der Versuchspersonen bei Anwendung der Quotenmethode zu sichern, empfiehlt es sich daher, entweder den Gegenstand der Untersuchung durch Vorschaltung einiger thematisch anderer Fragekomplexe zu tarnen oder die zu klärenden Fragen in einen sogenannten ‚Omnibus‘, eine Mehr-Themen-Umfrage einzuschließen“ (2000, 259). Natürlich wird durch die Quotenvorschriften der gleiche Effekt bewirkt wie bei einer „geschichteten“ Zufallsauswahl (siehe Kapitel 6.5.2): In der Stichprobe wird hinsichtlich der quotierten Merkmale die Verteilung der Grundgesamtheit reproduziert. Dieser-- durchaus erwünschte-- Effekt ist hier allerdings zweitrangig. Das eigentlich angestrebte Ziel ist vielmehr etwas, was man vielleicht die Simulation von Zufall in der individuellen Willkür nennen könnte. Wenn nämlich die Rahmenbedingungen für die freie Wahl der Interviewpartner in der geschilderten Weise so gestaltet werden, dass sich ein individuell willkürliches Vorgehen nicht mehr lohnt, dann wird-- so Noelle-Neumann/ Petersen-- innerhalb der durch die Quoten definierten Schichten „offenbar ein Zufallsmechanismus wirksam, indem die Interviewer angesichts der Schwierigkeit, die in ihre Quoten passenden Personen zu finden, von persönlichen Vorlieben und Bequemlichkeiten abgehen müssen, und damit wird praktisch die gleiche Auswahlchance für jeden gesichert.“ (2000, 259 f.) Auch wenn sich ein methodologischer, theoretisch-statistischer Nachweis für die Richtigkeit dieser Annahme nicht führen lässt, scheinen empirische Ergebnisse die hier skizzierte Verfahrensphilosophie zumindest dieses Typs von Quotenmethode 224 zu bestätigen. Allensbach berichtet über Erhebungen, die vergleichend mit Zufalls- und mit Quotensamples zum selben Zeitpunkt mit demselben Fragebogen durchgeführt wurden und die sogar leichte Vorteile für das Quotenverfahren ergeben (2000, 265 f.). 224 Im Detail dargestellt bei Noelle-Neumann/ Petersen 2000, 255-281. Eine Zusammenfassung der wichtigsten Anwendungsbedingungen in acht Punkten findet sich dort auf S. 278 f. <?page no="276"?> 277 6.4 Nicht zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 277 Was die Anforderungen an die Stichprobenkonstruktion betrifft (Kapitel 6.2), so ist für die Quotenauswahl festzuhalten: Wie bei den bewussten Auswahlen (Abschnitt 6.4.2) ist die angestrebte Grundgesamtheit bei diesem Verfahren zwar abgegrenzt, die Erhebungsgesamtheit jedoch wird weder auf irgend eine Weise physisch fixiert noch (etwa durch Kartei oder Liste) symbolisch repräsentiert. Die Erhebungs-Grundgesamtheit kann erheblich kleiner sein als die angestrebte Grundgesamtheit (im Extremfall „Bekannte von Interviewern“, s. o.). In unserem Schulbeispiel hätten zumindest alle abwesenden Schüler keine Chance, befragt zu werden; außerdem könnten durch Verkehrsmittel schlecht erreichbare Schulen systematisch von den Interviewern ausgeklammert, Schulen in der Nähe ihres eigenen Wohnsitzes systematisch bevorzugt werden. Das Auswahlverfahren ist nur zum Teil angebbar (Quotierung), zu einem anderen Teil überhaupt nicht (nach welchen Gesichtspunkten wählt die Interviewerin/ der Interviewer die Zielpersonen aus? ). Die Stichprobe ist schließlich allenfalls hinsichtlich der Quotierungsmerkmale und ihrer möglicherweise vorgegebenen Kombinationen ein verkleinertes Abbild der Grundgesamtheit; hinsichtlich aller anderen Merkmale ist die Erfüllung dieser Forderung nicht mehr gesichert. Inwieweit das Allensbach-Modell einer „repräsentativen Quotenauswahl“ tendenziell auch Ansprüchen an eine Zufallsstichprobe gerecht wird, ist auf der methodologischen Ebene nicht abschätzbar. Bestandteil des Auswahlverfahrens beim Quoten-Sample dürfte häufig das sogenannte Schneeball-Verfahren sein. Hierbei wählt der Interviewer die erste Zielperson im Rahmen seines Quotenplans willkürlich aus. Am Schluss des Interviews fragt er dann nach „geeigneten“ weiteren Zielpersonen aus dem Bekanntenkreis des Befragten, die erstens vermutlich auskunftsbereit und zweitens erreichbar sind. Bei der zweiten Zielperson fragt er nach weiteren usw. Diese Strategie wird sich für den Interviewer insbesondere dann anbieten, wenn er sich der Gesamtzahl der zu erbringenden Interviews nähert; auch ohne Vorgabe von Merkmalskombinationen verbleiben nämlich am Schluss Restfälle mit eindeutigen Kombinationen der Quotierungsmerkmale. So könnte nach neun von zehn Interviews noch eine Befragung ausstehen mit einer Person im Alter zwischen 30 bis 40 Jahren, einer Person in leitender beruflicher Position, einer Person weiblichen Geschlechts. Diese Merkmale müssen sich jedoch jetzt in einer einzigen Person vereinigen; und ohne Auskünfte bisheriger Zielpersonen wird der Interviewer in einer ihm fremden Umgebung kaum die gewünschte, noch fehlende Zielperson finden. Inwieweit das Schneeballv erfahren sich auf die Qualität der Quotenstichprobe neutral auswirkt, ob es positive oder negative Auswirkungen hat (also etwa-- positiv-- Interviewervorlieben weiter zurückdrängt oder eher-- negativ-- einseitig leicht erreichbare Personen bevorzugt), lässt sich theoretisch nicht abschätzen. Es muss daher ein zentrales Ziel der Forschungsinstitute sein, die mit dem Quotenverfahren arbeiten, die Freiheit der Befrager bei der Auswahl der Zielpersonen über die Quotenvorgaben hinaus einzuschränken (durch zentrale Leitung des Interviewer-Stabes, Schulung und Kontrolle der Befrager, geringe Anzahl der Befragungspersonen pro Interviewer; siehe Quatember 1997, 8). <?page no="277"?> 278 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 278 6.5 Zufallsgesteuerte Auswahlverfahren Bewusste (gezielte) Auswahlen sind immer dann vom Prinzip her nicht möglich, wenn keine oder nur sehr wenig gesicherte Kenntnisse über die Struktur der Grundgesamtheit vorliegen. Für Wahrscheinlichkeitsauswahlen (im einfachsten Fall: für die sogenannte einfache Zufallsstichprobe) gilt dagegen, dass-- innerhalb berechenbarer Fehlergrenzen und mit angebbarer Wahrscheinlichkeit- - Repräsentativität für alle Elemente, für alle Merkmale und Merkmalskombinationen sichergestellt werden kann, ohne dass Kenntnisse über die Struktur der Grundgesamtheit vorhanden sein müssen. Dies wird durch die Wahrscheinlichkeitsauswahl gewährleistet, denn: Bei der Wahrscheinlichkeitsauswahl werden die Auswahleinheiten „kontrolliert zufällig“ aus der Grundgesamtheit (genauer: aus der Erhebungsgesamtheit) auf eine Weise entnommen, 225 dass für alle Einheiten die gleiche Chance (bei komplexen Auswahlverfahren: eine bekannte Chance) besteht, in die Auswahl aufgenommen zu werden. Diese gleiche Chance wird durch Kontrollen im Auswahlverfahren sichergestellt; jede Willkür bei der Auswahl, jede Möglichkeit für den Forscher, einzelne Untersuchungsobjekte bewusst auszuwählen, wird ausgeschaltet. Wenn nun durch Kontrollen gesichert ist, dass jede Einheit der Grundgesamtheit die gleiche Chance hat, in die Auswahl zu gelangen (einfache Zufallsstichprobe), dann werden Einheiten mit Merkmalen, die häufig in der Grundgesamtheit vorkommen, auch in der Stichprobe öfter erfasst als Einheiten mit Merkmalen, die in der Grundgesamtheit nur selten vertreten sind. Entsprechendes gilt für Merkmalskombinationen. Die Häufigkeit des Auftretens von Einheiten mit bestimmter Merkmalsausprägung und mit bestimmter Kombination von Merkmalsausprägungen in der Stichprobe ist also allein davon abhängig, wie stark diese Merkmalsausprägungen (Merkmalskombinationen) in der Grundgesamtheit vertreten sind. Solange die Auswahl nicht in einer bestimmten Weise verzerrt ist (deshalb die Formulierung: durch Kontrolle gesicherte gleiche Chance), kann bei hinreichend großem Stichprobenumfang angenommen werden, dass alle möglichen Merkmale mehr oder weniger entsprechend ihrer Häufigkeit in der Grundgesamtheit auch in der Auswahl vertreten sind. Dies gilt auch für die Häufigkeitsverteilung solcher Merkmale, an deren Auftreten man zunächst gar nicht gedacht hatte, und die deshalb bei gezielter Auswahl überhaupt nicht bei der Stichprobenkonstruktion berücksichtigt worden wären. 225 Unter „Zufall“ wird in diesem Zusammenhang das Ergebnis einer Vielzahl gleichzeitig wirkender und voneinander unabhängiger Faktoren verstanden, die in einer nicht vorhersehbaren und nicht berechenbaren Weise- - teils gegenläufig, teils gleichläufig- - auf ein Ereignis einwirken. „Nicht zufällig“ wären dagegen solche Faktoren, die eine systematische Beeinflussung des Ergebnisses bewirken (Beispiel: gezielte Auswahlen). Wahrscheinlichkeitsauswahl Auswahl kontrolliert zufällig gleiche Auswahlchance Ähnlichkeit Stichprobe und Grundgesamtheit <?page no="278"?> 279 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 279 Zusammengefasst: Je größer die Stichprobe (und-- dies sei vorweggenommen-- je geringer die Streuung der Merkmalsausprägungen in der Grundgesamtheit), um so eher kann man eine ziemlich genaue Übereinstimmung zwischen Stichprobenwerten und Parametern der Grundgesamtheit erwarten. 226 Für Wahrscheinlichkeitsauswahlen gilt das sogenannte Gesetz der großen Zahl (Cournot, 1843), dessen Formulierung auf Wahrscheinlichkeitsüberlegungen über das Auftreten einzelner Ereignisse sowie auf Überlegungen über Eigenschaften einer Serie unabhängiger Ereignisse beruht. Vereinfacht formuliert: 1. Ereignisse, deren Wahrscheinlichkeiten sehr klein sind, treten sehr selten auf. 227 Mit anderen Worten: Beim Ziehen einer Zufallsstichprobe wird es sehr selten vorkommen, dass eine Einheit mit einer Merkmalsausprägung gezogen wird, die in der Grundgesamtheit nur sehr selten vorkommt (=- Aussage über die Wahrscheinlichkeit des Auftretens einzelner Ereignisse). 2. Die Wahrscheinlichkeit dafür, dass die relative Häufigkeit eines Merkmals (oder eine andere statistische Maßzahl) in der Stichprobe beträchtlich (d. h. um mehr als einen vorgegebenen Betrag) von dem entsprechenden Parameter der Grundgesamtheit abweicht, wird um so geringer, je größer der Umfang der Beobachtungsserie ist, bei der diese Maßzahl ermittelt wurde, d. h. je größer die Stichprobe ist (=-Wahrscheinlichkeitsaussage über Eigenschaften der Stichprobe). Die zweite Formulierung muss in der wörtlichen Bedeutung verstanden werden: Wenn ein Anteilswert für eine Merkmalsausprägung in der Stichprobe berechnet wird, dann ist es nicht ausgeschlossen, dass dieser Anteilswert von dem „wahren“ Wert der Grundgesamtheit erheblich abweicht. Aber dieser Fall ist sehr unwahrscheinlich; die meisten Stichproben werden Anteilswerte bringen, die in der Nähe der wahren Anteilswerte liegen. Und je größer der Stichprobenumfang ist, desto unwahrscheinlicher wird es, dass überhaupt beträchtliche Abweichungen von den Anteilswerten der Grundgesamtheit auftreten. Die Formulierung bedeutet dagegen nicht: Je größer die Stichprobe, desto geringer die Abweichungen der Stichprobenstatistiken von den Parametern der Grundgesamtheit. Würde eine sehr große Zahl von Zufallsstichproben unabhängig voneinander aus der gleichen Grundgesamtheit gezogen und würde für jede gezogene Zufallsstichprobe der Anteil eines Merkmals bestimmt (in dem bei Statistikern beliebten Urnenbeispiel, das noch auftauchen wird, z. B. der Anteil gezogener Kugeln mit einer 226 Für die Stichprobe berechnete Maßzahlen (etwa Mittelwerte) werden im Allgemeinen als „Statistiken“ bezeichnet, die entsprechenden Maßzahlen für die Grundgesamtheit heißen „Parameter“. 227 „Statistische Wahrscheinlichkeit“ =- relative Häufigkeit in der Grundgesamtheit (empirisch: relative Häufigkeit in der Erhebungs-Grundgesamtheit); „Ereignis“ =-Ziehung einer Stichprobeneinheit mit einer bestimmten Merkmalsausprägung oder -kombination. Gesetz der großen-Zahl erhebliche Abweichung nicht ausgeschlossen Verteilung für viele Stichproben <?page no="279"?> 280 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 280 bestimmten Farbe), dann könnte in einem Koordinatensystem grafisch die Häufigkeit des Auftretens der berechneten Anteilswerte dargestellt werden. Im Falle unabhängiger Zufallsstichproben würde sich dabei das folgende Bild (sogenannte Gaußsche „Normalverteilung“) ergeben: Sehr häufig erhielte man Anteilswerte, die nur wenig oder gar nicht vom „wahren“ Anteilswert (dem Anteilswert des Merkmals in der Grundgesamtheit) abweichen; relativ oft würden die Stichproben auch noch Anteilswerte aufweisen, die nicht allzu sehr vom „wahren“ Wert nach oben oder unten abweichen; relativ selten dagegen würden Anteilswerte auftreten, die stark vom Wert der Grundgesamtheit abweichen, und sehr selten kämen Stichproben vor, für die der Anteilswert des interessierenden Merkmals sehr stark vom Parameter der Grundgesamtheit abweicht. In statistischen Werten ausgedrückt: Rund zwei Drittel aller denkbaren Stichproben würden Anteilswerte aufweisen, die vom wahren Anteilswert P höchstens um den Betrag eines „Standardfehlers“ 228 nach oben oder unten abweichen, rund 95 Prozent aller Stichproben-Anteilswerte würden höchstens um den Betrag von zwei Standardfehlern nach oben oder unten differieren. Wegen dieser Eigenschaft von Zufallsstichproben ist es möglich, aufgrund der Stichproben-Ergebnisse ein Intervall zu nennen, in dem sich der Anteilswert (oder der Mittelwert) für eine Merkmalsausprägung in der Grundgesamtheit mit angebbarer Wahrscheinlichkeit befindet. So wäre etwa aufgrund der Befragung einer Zufallsstichprobe von Wahlberechtigten die Aussage möglich: Wenn am nächsten Sonntag Bundestagswahl wäre, dann würde mit 95prozentiger Sicherheit (d. h. die Irrtumswahrscheinlichkeit für diese Aussage 228 In der deskriptiven Statistik ist die „Standardabweichung“ eine Maßzahl für die Variation der einzelnen Beobachtungswerte um den Stichprobenmittelwert (vgl. Abschnitt 8.2.4). Darauf aufbauend ist in der schließenden Statistik (vgl. Kapitel 8.1) der „Standardfehler“ als ein Maß für die Variation von Stichprobenmaßzahlen um den „wahren“ Parameter der Grundgesamtheit entwickelt worden. Verlässlichkeit von Zufallsstichproben relative Häu gkeit der Anteilswerte in der Stichprobe Anteilswerte der Stichproben Abweichungen nach oben Abweichungen nach unten "wahrer" Wert P Abbildung 6.3: Verteilung von Anteilswerten in der Stichprobe <?page no="280"?> 281 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 281 beträgt 5 %) eine bundesweit kandidierende Partei der „Linken“ einen Stimmenanteil von 10 % ± 0,5 % (d. h. zwischen 9,5 und 10,5 %) erhalten. 229 Vorsicht: Dieser Wert ist frei erfunden! 6.5.1 Verfahren zur Erstellung einfacher Zufallsauswahlen Karteiauswahl Bei einer Karteiauswahl im Rahmen eines einfachen Wahrscheinlichkeits-Samples wird der Auswahlplan auf die durch eine Kartei (oder Liste) repräsentierten Elemente der Grundgesamtheit angewendet (Kartei =- symbolische Repräsentation der Erhebungs-Grundgesamtheit). Je nach dem Auswahlverfahren kann zwischen „reiner“ Zufallsauswahl und „systematischer“ Zufallsauswahl auf der Basis der karteimäßig repräsentierten Erhebungsgesamtheit unterschieden werden. Reine Zufallsauswahl Von einer reinen (oder uneingeschränkten) Zufallsauswahl spricht man dann, wenn jedes einzelne Element der Stichprobe unabhängig durch einen Zufallsprozess aus der Erhebungsgesamtheit „gezogen“ wird. Man stelle sich etwa als Erhebungsgesamtheit die Gesamtzahl der richtigen Einsendungen bei einem Preisausschreiben vor (repräsentiert durch die eingesandten Postkarten). Diese seien in eine hinreichend große Lostrommel gelegt worden und würden durch Drehen der Trommel gemischt. Dann möge eine „Glücksfee“ mit verbundenen Augen in die Trommel greifen und eine Karte „zufällig“ herausholen, d. h. ohne Möglichkeit einer systematischen Auswahl nach irgendwelchen Auswahlkriterien. Danach werde die Trommel wieder gedreht, so dass die Karten erneut durchmischt werden, und wieder werde eine Karte gezogen. Dieser Vorgang werde so oft wiederholt, bis die vorgesehene Zahl der Preisträger (=-Stichprobe aus der Gesamtheit richtiger Einsendungen) erreicht ist. Ein Notar möge das ganze Verfahren überwachen, damit die Preisträger auch wirklich nach dem vorgesehenen Auswahlsystem zufällig bestimmt werden. Im geschilderten Beispiel sind sämtliche vorher genannten Bedingungen einer Zufalls-Stichprobe erfüllt: Jede „richtige Lösung“ hat eine bekannte (hier: die gleiche) Chance, als Preisträger (=-Element der Stichprobe) gezogen zu werden, da jede richtige Lösung durch genau eine Karte in der Erhebungsgesamtheit repräsentiert ist. Diese „gleiche Chance“ wird dadurch gewährleistet, dass die Bestimmung der Gewinner „durch Zufall“ geschieht und dass dieser „Zufall“ 229 Auf die Verfahren des Erschließens von Grundgesamtheits-Parametern auf der Basis von Zufallsstichproben-Ergebnissen wird im vorliegenden Text nicht weiter eingegangen. Darstellungen, die auch für Nicht-Mathematiker nachvollziehbar sind, findet man etwa bei Diaz- Bone (2013), Kühnel/ Krebs (2001), Sahner (1971), Thome (1990). Karteiauswahl reine Zufallsauswahl BEISPIEL <?page no="281"?> 282 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 282 durch Kontrollen gesichert wird: Der „Glücksfee“ werden die Augen verbunden, vor jeder Ziehung werden die Karten erneut gemischt, ein Notar überwacht den ganzen Prozess. Es wird also keine eingesandte Lösung systematisch bevorzugt oder benachteiligt. Dieser Typ einer reinen Zufallsauswahl wird auch als Lotterieprinzip oder „Monte- Carlo-Verfahren“ bezeichnet. Ein weiteres, jedem bekanntes Beispiel dieser Art von Zufallsziehung ist die wöchentliche Ziehung der Lottozahlen. Das Prinzip „reine Zufallsauswahl“ liegt auch den Überlegungen zugrunde, die im Rahmen wahrscheinlichkeitstheoretischer Argumentationen am Beispiel eines Urnenmodells angestellt werden, im Allgemeinen zur Veranschaulichung statistischtheoretischer Verteilungen. Man stelle sich einen Behälter (Urne) vor, in dem, je nach Vorliebe, etwa schwarze und weiße oder rote und schwarze oder rote und weiße Kugeln sind, so dass der Anteilswert der Kugeln mit einer bestimmten Farbe (z. B. Anteil schwarzer und Anteil roter Kugeln) durch Auszählen leicht bestimmbar ist. Nun werden die Kugeln in der Urne gründlich durchmischt; dann wird „zufällig“ (also ohne Hineinsehen) eine herausgenommen, die Farbe notiert, die Kugel wieder zurückgelegt, wieder durchmischt, wieder eine herausgenommen, die Farbe notiert usw. Durch das Zurücklegen der gezogenen Kugeln und neues Durchmischen wird jeweils der ursprüngliche Zustand wiederhergestellt. Dadurch sind prinzipiell unendlich viele unabhängige Zufallsziehungen möglich, so dass durch diese Konstruktion eine unendlich große Grundgesamtheit modellhaft abgebildet wird. Mit Hilfe dieses Modells kann man nun z. B. die Aussage prüfen, dass bei einer genügend großen Zahl von Zufallsziehungen die Anteilswerte der Merkmalsausprägungen für die gezogenen Kugeln ziemlich genau den „wahren“ Anteilswerten entsprechen (der Grenzwert des Stichprobenwertes, d. h. sein „Erwartungswert“, entspricht dem Anteil in der Grundgesamtheit) 230 . Oder man kann die Behauptung prüfen, dass bei einer großen Zahl unabhängiger Stichproben die Abweichungen der Stichprobenanteilswerte vom Anteilswert der Grundgesamtheit die Verteilungsform aufweisen, die oben (Kapitel 6.5) kurz geschildert wurde: So lassen sich etwa jeweils zehn Urnenziehungen als eine Stichprobe (n =-10) betrachten; der Anteil z. B. der schwarzen Kugeln wäre dann als Anteilswert p der jeweiligen Stichprobe zu notieren. Nun wird jedoch die Forderung des „gründlichen Durchmischens“ der symbolischen Elemente der Erhebungsgesamtheit zur Sicherung des „Zufalls“ nicht immer erfüllbar sein. Bei Ziehung einer Stichprobe etwa aus der Einwohnermeldekartei einer Gemeinde wäre ein „gründliches Durchmischen“ dieser Kartei sicher nicht empfehlenswert. In solchen Fällen wird man den Prozess der Zufallsauswahl stellvertretend an einem anderen Medium durchführen. 230 Allgemeiner ausgedrückt: Uneingeschränkte Zufallsauswahlen sind hinsichtlich aller Merkmale repräsentativ nach Erwartungswert (siehe Fußnote 215). Veranschaulichung durch Urnenmodell <?page no="282"?> 283 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 283 Falls die Einwohnerdatei z. B. 100.000 Einträge umfasst (je Person ein Eintrag), könnte man die Datei fortlaufend durchnummerieren 231 und zugleich Lose mit den Zahlen 1 bis 100.000 erstellen, die in eine Lostrommel gefüllt werden. Die Auswahl wäre dann wie oben geschildert durchzuführen. Anhand der gezogenen Losnummern wären die ausgewählten Personen eindeutig identifizierbar. Diese Überlegung ist die Basis für die Verwendung von Zufallszahlen zur Realisierung einer reinen Zufallsauswahl. Statt selbst Lose mit den Zahlen 1 bis 100.000 herzustellen und daraus die gewünschte Zahl von Losen (z. B. 1000) zufällig zu ziehen, lässt man mit Hilfe eines geeigneten Computer-Programms die benötigte Menge von „Zufallszahlen“ bestimmen oder entnimmt sie einer der existierenden (für solche Zwecke erstellten) statistischen Zufallszahlen-Tabellen. Anschließend werden die zu den gezogenen Zufallszahlen gehörenden Dateieinträge herausgesucht und dadurch die Personen bestimmt, die in die Auswahl kommen. Dieses Verfahren der Konstruktion einer reinen Zufallsauswahl mit Hilfe von Zufallszahlen ist immer dann leicht realisierbar, wenn vom Auswahlprogramm direkt auf eine elektronische Datei zugegriffen werden kann und man die zufällig ausgewählten Personen und Anschriften direkt ausdrucken kann. Andernfalls empfiehlt es sich, bei großen Erhebungsgesamtheiten statt einer „reinen Zufallsauswahl“ eine systematische Zufallsauswahl zu konstruieren. Systematische Zufallsauswahl Bei einer systematischen Zufallsauswahl wird nur der erste zu ziehende Fall (Bei einer systematischen Zufallsauswahl wird nur der erste zu ziehende Fall (die erste zu ziehende Karte einer Kartei oder der erste zu berücksichtigende Fall in einer Liste) „zufällig“ bestimmt, etwa durch Würfeln oder durch Herausgreifen einer Zufallszahl aus einer entsprechenden Tabelle. Bei allen weiteren in die Stichprobe kommenden Einheiten erfolgt die Bestimmung systematisch. Bei einem Auswahlsatz von 1 % (Stichprobe: n =- 1000 bei einer Erhebungsgesamtheit mit N =- 100.000) etwa würde zufällig eine Zahl zwischen 1 und 100 bestimmt (vielleicht 57); danach würde systematisch jeder weitere 100. Fall in die Stichprobe aufgenommen (also die Fälle 57, 157, 257, 357,-…, bis 99.957). Hat man es mit langen (physischen) Karteikästen zu tun (etwa in Archiven), könnte man sich sogar das Durchzählen ersparen, wenn man etwa bei einer 10 m (=- 10.000 mm) langen Kartei mit Hilfe eines Millimeter-Stabes jeweils im Abstand von 10 mm eine Karte heraussucht. 232 231 Im Allgemeinen wird eine Kennzeichnung durch Identifikationsziffern bereits vorhanden sein. 232 Das Prinzip „systematische Zufallsauswahl“ ist sogar dann problemlos anwendbar, wenn überhaupt keine Kartei oder Liste existiert, sondern die Stichprobenelemente unmittelbar ausgewählt werden sollen. Beispielsweise seien in einer Museumsuntersuchung die Besucher einer Ausstellung am Ende ihres Besuchs zu befragen. Bei einem Auswahlsatz von 10 % könnte (beginnend zu einem zufällig bestimmten Zeitpunkt) systematisch jeder 10. Besucher beim Verlassen der Ausstellungsräume angesprochen und um ein Interview gebeten werden. BEISPIEL systematische Auswahl BEISPIEL <?page no="283"?> 284 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 284 Es sind selbstverständlich noch eine Reihe anderer Auswahlsysteme denkbar und entwickelt worden. Allen ist gemeinsam, dass der Anfangspunkt der systematischen Auswahlprozedur „durch Zufall“ bestimmt wird und dann systematisch nach vorher festgelegten Regeln weiter ausgewählt wird. Auch bei diesem Verfahren ist sichergestellt, dass für jedes Element der Erhebungsgesamtheit vor Beginn des Auswahlprozesses die gleiche Wahrscheinlichkeit besteht, in die Stichprobe zu kommen. Ebenfalls wird durch ein kontrolliertes Verfahren ausgeschlossen, dass der Forscher oder die Interviewerin gezielt nach bestimmten Auswahlkriterien die Stichprobeneinheiten festlegt. Allerdings existiert die Gefahr einer systematischen Verzerrung (Verstoß gegen das Zufallsprinzip) immer dann, wenn die Kartei systematisch organisiert ist und das Auswahlsystem Elemente des Karteiordnungssystems enthält: etwa bei einer Kartei-Ordnung nach Anfangsbuchstaben von Familiennamen und einem sich ebenfalls darauf stützenden Auswahlsystem. Um solche Verzerrungen nach Möglichkeit auszuschalten, benötigt man bei der Konstruktion eines Auswahlplans mit systematischer Zufallsauswahl Kenntnisse über das Organisationsprinzip der Kartei (oder Datei), aus der ausgewählt werden soll. Gebietsauswahl (Flächenstichprobe) Erhebungseinheiten müssen, wie oben am Beispiel Museumsbesuch gezeigt wird, nicht unbedingt durch eine Kartei (oder Liste oder elektronischer Datei) symbolisch repräsentiert werden, um eine Zufallsauswahl realisieren zu können. Geeignet sind für diesen Zweck auch räumliche Bezugspunkte. Personen und Haushalte z. B. lassen sich durch den Ort, an dem sie wohnen (Arbeitnehmer durch den Ort, an dem sie arbeiten) symbolisch repräsentieren. 233 Bei Ereignissen, die beobachtet werden sollen (z. B. „Verstöße gegen die Straßenverkehrsordnung“), ist dies durch die Orte, an denen sie passieren-- etwa Straßen oder Kreuzungen-- möglich. In einem Sanierungsgebiet soll eine Zufallsauswahl von Bewohnern über ihre Lebenssituation, ihre Wohnwünsche, ihre Beurteilung der Wohnsituation und ähnliches befragt werden, um Kriterien für eine beabsichtigte vollständige Erhebung in diesem Gebiet zu gewinnen („Vorbereitende Untersuchung“ nach dem Städtebauförderungsgesetz). Im Prinzip wäre natürlich eine Karteiauswahl- - anhand der Meldedatei für dieses Gebiet-- möglich. Doch ist bekannt, dass gerade für Sanierungsgebiete die Adressendatei der Stadtverwaltung nicht sehr zuverlässig ist: Die räumliche Mobilität der Bewohner ist besonders groß, die Datei also niemals auf dem neuesten Stand; es wohnen dort viele Ausländer, die sich nicht vollzählig anmelden (immer dann, wenn keine Aufenthaltsgenehmigung vorliegt); in der Datei sind noch viele Ausländer erfasst, die dort nicht mehr 233 Problem: Wählt man „Bevölkerung“ als Grundgesamtheit, so umfasst die Erhebungsgesamtheit, repräsentiert durch „Wohnsitz“, nicht die Personen ohne festen Wohnsitz und enthält solche Personen mehrfach, die mehrere Wohnsitze haben. zufälliger Startpunkt, systematische weitere Auswahl Verzerrung möglich Gebietsauswahl BEISPIEL <?page no="284"?> 285 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 285 wohnen (keine Abmeldung bei Rückkehr ins Heimatland). Die Adressendatei scheidet also aus. Als Informationsquelle bietet sich aber noch eine andere Datei an: die Datei der Baubehörde über Wohnungen in diesem Gebiet. Diese ist ziemlich zuverlässig und könnte als symbolische Repräsentation für Haushalte herangezogen werden. Die angestrebte Grundgesamtheit wären dann die im Sanierungsgebiet wohnenden Haushalte; die Erhebungs-Gesamtheit wären Gruppen von Personen, die in je einer Wohnung leben (das können mehrere Haushalte je Wohnung sein); Auswahleinheiten wären die Wohnungen, die in der Datei erfasst sind; Erhebungs-Einheiten schließlich wären wieder einzelne Haushalte (vgl. Kapitel 6.1). Allerdings ist auch der Rückgriff auf eine solche Wohnungsdatei nicht immer möglich (insbesondere bei großräumigen Gebieten). In diesem Fall besteht eine Alternative darin, statt einer Karteiauswahl eine Gebietsauswahl zu ziehen. Bei einer Gebietsauswahl wird der Auswahlplan nicht auf eine Kartei als symbolische Repräsentation der Grundgesamtheit angewandt, sondern stattdessen auf räumliche Einheiten, die geeignet sind, die interessierenden Erhebungseinheiten zu bestimmen. Auswahleinheiten sind dann definierte und abgegrenzte Gebiete (Flächen), auf denen Personen oder Haushalte wohnen (oder Ereignisse stattfinden); Auswahlgrundlagen könnten dann etwa Landkarten oder Stadtpläne sein. Im obigen Beispiel könnte man ein Rasternetz über den Straßenplan für das Sanierungsgebiet legen und Planquadrate einer bestimmten Größe (vielleicht 50 x 50 Meter) festlegen, durchnummerieren und aus diesen Planquadraten eine Zufallsstichprobe ziehen; entweder eine „reine“ oder eine „systematische“ Stichprobe. Zu den ausgewählten Planquadraten können eindeutig die Adressen von Wohnungen zugeordnet werden. Man hat jetzt die Möglichkeit, in den gezogenen Planquadraten alle dort wohnenden Haushalte zu befragen (vgl. „Klumpenauswahl“) oder nach einem Zufallsverfahren eine Teilmenge der dort wohnenden Haushalte zu bestimmen (vgl. „mehrstufige Auswahl“). Eine mögliche Strategie wäre, in den ausgewählten Flächen zunächst alle dort wohnenden Haushalte aufzulisten (repräsentiert etwa durch die Namen auf den Türklingeln) und danach eine Zufallsauswahl aus dieser Liste zu ziehen. Eine andere Strategie wäre die des sogenannten Zufallswegs, um aus der Menge der in einer räumlichen Einheit lebenden Haushalte die zu befragenden auszuwählen, ohne dass die Entscheidung dem Belieben des Interviewers überlassen wird (vgl. Abschnitt 6.5.3). Bitte beachten Sie: In den obigen Beispielen waren die räumlichen Auswahleinheiten (z. B. Planquadrate) nicht identisch mit den Erhebungseinheiten (z. B. Haushalte, die dort wohnen). Sie waren lediglich das Instrument, um die eigentlich interessierenden Einheiten zu identifizieren. Selbstverständlich können aber- - bei entsprechender Fragestellung der Untersuchung-- auch die räumlichen Einheiten selbst (die Flächen, Gebiete) Erhebungseinheiten sein: Für städtebauliche Entscheidungen oder für räumliche Grundgesamtheit und räumliche Auswahleinheiten BEISPIEL <?page no="285"?> 286 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 286 stadtsoziologische Untersuchungen können durchaus die Merkmale der Flächen (etwa der Planquadrate) von Interesse sein, um z. B. Aussagen über die Bausubstanz und die Infrastruktur in der Stadt oder über städtische Entwicklungsprozesse zu machen. Räumliche Einheiten, die zugleich als Auswahl- und als Erhebungseinheiten von Interesse sein können, wären etwa Straßen, Kreuzungen, Plätze bei verkehrspolitischen Fragestellungen; landwirtschaftliche Flurstücke, landwirtschaftliche Flächen, Flussabschnitte, Waldstücke etc. bei landschaftsplanerischen Fragestellungen; Stadtteile, Stadtbezirke, Wohnquartiere, Wohnbzw. Baublöcke bei stadtplanerischen Fragestellungen. 6.5.2 Verfahren zur Erstellung komplexer Zufallsauswahlen Einfache Wahrscheinlichkeitsauswahlen weisen einige Nachteile auf: 1) Bei regional sehr weit gestreuten Grundgesamtheiten ist das Verfahren mühsam und aufwendig; die zufällig ausgewählten Erhebungseinheiten sind weit über das gesamte Gebiet verteilt, die Erhebung fordert dementsprechend viel Zeit und Geld. 2) Interessante Untergruppen der Grundgesamtheit, die nur geringe Anteile an der Gesamtheit aufweisen (etwa Randgruppen wie Obdachlose), werden im Allgemeinen in der Stichprobe mit zu geringen Fallzahlen vertreten sein, um gesondert ausgewertet werden zu können. Allgemein gilt: Falls bestimmte Teilgruppen der Gesamtheit in der Analyse gegenübergestellt werden sollen, ist es nachteilig, wenn deren Anteile im Rahmen von Zufallsschwankungen in der Stichprobe zu hoch oder zu niedrig ausfallen. 3) Manchmal ist es von Interesse, auch den Kontext eines Befragten in die Untersuchung einzubeziehen (Mehrebenenstudie; vgl. Kapitel 2.4.6). Die Aussagen sollen sich nicht auf die eigentlichen Merkmale z. B. der befragten Personen oder Haushalte beschränken, sondern auch die Gegebenheiten der sozialen und/ oder materiellen Umwelt berücksichtigen. Bei einfachen Wahrscheinlichkeitsauswahlen bleibt der Kontext üblicherweise außer Betracht, da es zu aufwendig wäre, zu jedem der räumlich weit verstreuten Erhebungseinheiten auch noch den jeweiligen sozialen und/ oder materiellen Kontext mit zu erheben. Durch Verfahren der mehrstufigen, der geschichteten sowie der Klumpen-auswahlen können diese genannten Nachteile ausgeräumt werden. Für solche komplexen Wahrscheinlichkeitssamples wird nicht mehr die Forderung aufrechterhalten, jede Einheit der Grundgesamtheit müsse die gleiche Chance haben, in die Auswahl aufgenommen zu werden. Die abgewandelte Forderung lautet: Jede Einheit muss eine bekannte Chance haben, gezogen zu werden. Nachteile einfacher Wahrscheinlichkeitsauswahlen oft aufwändig kleine Untergruppen schlecht repräsentiert Kontexte meist nicht abgedeckt komplexe Wahrscheinlichkeitsauswahl bekannte Chance, gezogen zu werden <?page no="286"?> 287 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 287 Geschichtete Auswahlen Ausgangspunkt für die Konstruktion einer geschichteten Auswahl ist die im Hinblick auf die angestrebte Aussage der Untersuchung bestehende Absicht, die Stichprobendaten auch getrennt für bestimmte Gruppen von Fällen auszuwerten. Gruppen von Befragten sollen nach ihrem Lebensbzw. Familienzyklus gegenübergestellt werden: alleinstehende junge Leute, Jungverheiratete ohne Kinder, junge verheiratete Personen mit Kleinkindern, Haushalte mit älteren Kindern usw. bis hin zur Gruppe der alleinstehenden alten Menschen; oder es sollen unter Kombination der Merkmale Alter und Geschlecht Kontrollgruppen gebildet werden. In solchen Fällen ist es sinnvoll, schon bei der Auswahl sicherzustellen, dass diese Gruppen in der Stichprobe verlässlich repräsentiert sind. Zu diesem Zweck teilt man die Grundgesamtheit in mehrere Teil-Grundgesamtheiten auf: in die Teilgesamtheit der alleinstehenden jungen Leute, die Teilgesamtheit der jungen verheirateten Personen ohne Kinder usw. Aus jeder dieser Teilgesamtheiten wird dann jeweils eine einfache Zufallsstichprobe gezogen (entweder eine reine oder eine systematische Zufallsauswahl). Gilt für jede der definierten Teilgesamtheiten der gleiche Auswahlsatz, dann spricht man von einer proportional geschichteten Stichprobe: Die Anteile der Gruppen in der Stichprobe sind genau so groß wie die Anteile in der Grundgesamtheit. Der Vorteil gegenüber der einfachen Wahrscheinlichkeitsauswahl besteht darin, dass die Anteilswerte der für die Auswertung bedeutsamen Gruppen exakt mit den Werten der Grundgesamtheit übereinstimmen und nicht im Rahmen von Zufallsschwankungen abweichen. Häufig ist es jedoch sinnvoll, Personengruppen mit nur geringem Anteil in der Grundgesamtheit stärker in der Stichprobe zu repräsentieren als Personengruppen mit hohem Anteil in der Grundgesamtheit. Für eine gruppenweise getrennte Auswertung der Daten ist nämlich eine bestimmte Mindestzahl von Fällen erforderlich, um sinnvoll statistische Kennwerte berechnen zu können. Bei genau proportionaler Schichtung könnte die Sicherung einer Mindestzahl von Fällen für alle interessierenden Gruppen die Konsequenz haben, dass durch das Anwachsen des notwendigen Stichprobenumfangs die Untersuchung zu kostspielig wird. Deshalb ist in solchen Fällen eine disproportional geschichtete Auswahl das geeignetere Verfahren. Disproportionale Schichtung ist auch immer dann notwendig, wenn aus irgendwelchen Gründen (etwa tabellenmäßige Auswertung) eine Mindestzahl von Personen je Gruppe erwünscht wird. Man beabsichtige, eine Stichprobe mit n =- 1000 aus einer Gesamtheit von N =- 100 000 zu ziehen. Dabei seien fünf Gruppen (A, B, C, D, E) definiert, die gleichgewichtig mit je 200 Personen in der Stichprobe vertreten sein sollen. Falls nun Gruppe A in der Grundgesamtheit 5 % aller Fälle ausmacht, Gruppe B 40 %, Gruppe C 20 %, Gruppe D 10 % und Gruppe E 25 %, muss zum Errei- BEISPIEL Aufteilung in Teil-Grundgesamtheiten proportional geschichtete Stichprobe disproportional geschichtete Stichprobe BEISPIEL <?page no="287"?> 288 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 288 chen gleicher Fallzahlen pro Gruppe der Auswahlsatz etwa der Gruppe A achtmal so hoch sein wie der Auswahlsatz für Gruppe B. Die Anteile der Gruppen in der Grundgesamtheit und die entsprechenden Auswahlsätze zur Erzielung der gewünschten disproportionalen Schichtung für dieses Beispiel sind in der folgenden Tabelle gegenübergestellt: Grundgesamtheit disproportional geschichtete Stichprobe N Anteil n Auswahlsatz Gruppe A 5000 5 % 200 4,0 % Gruppe B 40000 40 % 200 0,5 % Gruppe C 20000 20 % 200 1,0 % Gruppe D 10000 10 % 200 2,0 % Gruppe E 25000 25 % 200 0,8 % Die Auswahlsätze stellen die bekannte, jedoch nicht für jede Gruppe gleiche Chance dar, in die Stichprobe aufgenommen zu werden. Zum Vergleich: Bei einer proportional geschichteten Auswahl wäre dagegen der Auswahlsatz in jeder Teilgruppe gleichhoch, nämlich 1,0 %. Dabei kämen in die Stichprobe: aus Gruppe A 50 Fälle, aus Gruppe B 400, aus Gruppe C 200, aus Gruppe D 100 und aus Gruppe E 250 Fälle. Für statistische Analysen wäre insbesondere die Gruppe A zu klein, während aus Gruppe B Daten für „unnötig viele“ Fälle erhoben würden. Für (proportional oder disproportional) geschichtete Auswahlen gilt die Aussage nicht mehr, die für einfache Wahrscheinlichkeits-Samples gemacht wurde: dass nämlich Kenntnisse über die Grundgesamtheit nicht erforderlich seien. Was die Probleme bei der Festlegung von Schichtungsmerkmalen angeht, so gelten die Überlegungen, die im Zusammenhang mit den Verfahren der gezielten Auswahl angestellt wurden (vgl. Abschnitt 6.4.2). Ein Effekt der Schichtung ist im Übrigen, dass innerhalb der „Schichten“ (der Gruppen) die Variation des Schichtungsmerkmals (und der damit korrelierten Variablen) verringert wird und dass sich die Variation des Schichtungsmerkmals (und der damit korrelierten Variablen) zwischen den „Schichten“ vergrößert. Da wie schon erwähnt die Fehlerwahrscheinlichkeit eines Schlusses von Stichprobenwerten auf Werte der Grundgesamtheit nicht nur mit zunehmendem Stichprobenumfang, sondern auch mit abnehmender Variation der interessierenden Merkmalsausprägungen geringer wird, ist die Schichtung eine Möglichkeit, die Verlässlichkeit von Verallgemeinerungen zu erhöhen. Dabei ist die Art der Schichtung in den statistischen Modellen zu berücksichtigen, zum Beispiel mit sogenannten robusten Standardfehlern. Daneben bietet die Schichtung auch eine Chance, den notwendigen Stichprobenumfang so klein wie möglich zu halten (Kostenminimierung), wenn man ein vorgegebenes Fehlerrisiko nicht überschreiten will. Kenntnisse über die Grundgesamtheit erforderlich VERTIEFUNG Verlässlichkeit von-Verallgemeinerungen erhöhen <?page no="288"?> 289 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 289 Klumpenauswahl (cluster sampling) Häufig ist die Befragung vereinzelter (isolierter) Personen oder Haushalte-- allgemeiner: die Erhebung von Daten über einzelne (isolierte) Untersuchungsobjekte-- nicht geeignet, Informationen für ein angemessenes theoretisches Modell der sozialen Wirklichkeit zu liefern. In der Realität lebt jede einzelne Person in einem sozialen und in einem räumlichen Kontext, in dem die Person mannigfache Handlungs- und Interaktionsbezüge unterhält. Für den Lernerfolg von Schülern ist sicher der Gesamtzusammenhang in der Schulklasse von Interesse; für betriebssoziologische Fragestellungen dürfte der Zusammenhang der Arbeitsgruppe bedeutsam sein; für Nachbarschaftsuntersuchungen ist die gesamte Nachbarschaft und sind die Bedingungen des Wohngebiets wichtig. In diesen Beispielsfällen reicht es nicht aus, isolierte Informationen über einzelne Personen zu sammeln. Es müssen zusätzlich die Bedingungen erfasst werden, die sich für den Einzelnen aus seiner Einbindung in das jeweilige Teilkollektiv ergeben, um sinnvolle Aussagen machen zu können. Bezieht sich das Auswahlverfahren nicht auf die einzelne Untersuchungseinheit, sondern auf Teilkollektive- - Schulklassen, Arbeitsgruppen, Nachbarschaften, Vereinssportgruppen (in denen dann über jedes einzelne Mitglied dieses Kollektivs Informationen erhoben werden)- -, dann spricht man von Klumpenauswahlen bzw. von Auswahlen nach dem Klumpenverfahren. Dieser etwas eigenartige Ausdruck ist die Folge einer allzu wörtlichen Übersetzung der englischen Bezeichnung „cluster sampling“ (cluster =-Gruppe, Zusammenhang, Gebilde, aber auch Klumpen). Der Auswahlvorgang bei der Klumpenstichprobe orientiert sich also nicht an den Untersuchungseinheiten, sondern an den clustern, den „Klumpen“. Um den Beispielsfall vom Beginn dieses Kapitels wieder aufzugreifen-- Untersuchung der Effizienz politischer Bildung--: Eine durchaus sinnvolle Auswahlstrategie wäre es, jeweils Schüler einer ganzen Klasse zu befragen. In diesem Falle wären die Erhebungseinheiten weiterhin die Schüler (jeweils alle Schüler einer Klasse), Auswahleinheiten jedoch wären Aggregate dieser Erhebungseinheiten, nämlich die Oberstufenklassen in dem betreffenden Bundesland. Grundsätzlich spricht man nur dann von Klumpenauswahl, wenn nicht die Klumpen selbst (z. B. Schulklassen) die Erhebungseinheiten sind, sondern die Bestandteile der Klumpen (z. B. die einzelnen Schüler). Natürlich sind auch Untersuchungen denkbar und sinnvoll, in denen die ganzen Gruppen die Untersuchungseinheiten sind. So könnte eine Analyse sich etwa mit der Situation in Schulklassen befassen: Das soziale Klima, das Lernklima, Schichtenhomogenität oder heterogenität in den Schulklassen, das Schüler-Lehrer-Verhältnis und ähnliches mehr könnten dann interessierende Merkmale dieser Untersuchungseinheiten „Schulklassen“ sein. In diesem Fall hätten wir es aber bei der Stichprobenkonstruktion nicht mit einer Klumpenauswahl zu tun, sondern- - zum Beispiel- - mit BEISPIEL Klumpenauswahl BEISPIEL Klumpen mit mehreren Erhebungseinheiten <?page no="289"?> 290 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 290 einer einfachen Wahrscheinlichkeitsauswahl, falls nämlich die zu untersuchenden Schulklassen anhand eines Schulklassenverzeichnisses nach dem Zufallsprinzip bestimmt wurden. Von einer Klumpenauswahl spricht man auch dann nicht, wenn nicht alle Einheiten der ausgewählten cluster zugleich Erhebungseinheiten sind (z. B. wenn nicht alle Schüler der Klassen befragt werden), sondern nur eine zufällig zu bestimmende Teilmenge davon. In diesem Fall handelt es sich um eine mehrstufige Auswahl (s. u.). Nur wenn das Auswahlverfahren sich auf Teilkollektive bezieht, deren Bestandteile als Untersuchungseinheiten gelten, spricht man von Klumpenauswahlen. 234 Klumpenauswahlen können sowohl als Karteiwie auch als Gebiets-Auswahlen konstruiert werden. Beispiele von cluster samples als Karteiauswahl: Schulklassen (Klassenverzeichnis), Bewohner von Straßenzügen (nach Straßenzügen geordnete Meldedatei), „Zeitklumpen“ bei der Textanalyse (jahrgangsweise geordnetes Verzeichnis von Zeitschriften). − Beispiele für cluster samples als Gebietsauswahl: Häuser mit ihren Bewohnern, Wohnblocks mit ihren Wohnungen, Stadtteile mit ihren gewerblichen Betrieben (symbolisch repräsentiert durch die auf einem Stadtplan verzeichneten Gebiete). Das Cluster-Auswahlverfahren ist immer dann vorteilhaft, wenn sich die Grundgesamtheit in einfach zu unterscheidende, sozusagen „natürliche“ Klumpen zerlegen lässt. Solche Klumpen werden allerdings häufig sehr groß sein (besonders bei Gebietsauswahlen: Stadtteile, Gemeinden oder Stimmbezirke), so dass nicht alle Einheiten innerhalb des Klumpens zugleich Untersuchungseinheiten sein können, ohne dass der Erhebungsaufwand zu groß würde. In den meisten Fällen lassen sich jedoch solche „natürlichen Klumpen“ weiter untergliedern, so dass mehrstufige (s. u.) Cluster-Samples realisierbar sind. Mehrstufige Auswahl Von einer mehrstufigen Auswahl spricht man immer dann, wenn der Auswahlplan nicht direkt auf die „letzten“ Auswahleinheiten angewendet wird (die letzten oder eigentlichen Auswahleinheiten sind häufig mit den Erhebungseinheiten identisch, müssen dies jedoch nicht sein; vgl. z. B. die oben behandelte Klumpenauswahl). Mehrstufig ist eine Auswahl, wenn der Auswahlprozess mehrere „Stufen“, d. h. mehrere Auswahlebenen durchläuft. Es sei eine Fragestellung zu untersuchen, die die gesamte Bevölkerung einer Großstadt betrifft (z. B. „Blitz-Umfrage“ über die Meinungen zu einer vorgeschlagenen Privatisierung der bisher kommunalen Müllabfuhr). Da die Sache 234 Genau genommen handelt es sich bei der Klumpenauswahl um eine Kombination aus Stichprobe und Totalerhebung: Ausgewählt wird eine Stichprobe von Clustern; innerhalb der Cluster jedoch erfolgt eine Totalerhebung aller zu diesem Cluster gehörenden Elemente. Unterschied Klumpenauswahl/ mehrstufige Auswahl BEISPIELE Vorteil von Klumpenauswahl mehrstufige Auswahl BEISPIEL <?page no="290"?> 291 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 291 eilt, lässt sich eine einfache Zufallsauswahl aus der Einwohnerdatei nicht organisieren (oder die an der Befragung interessierte Institution hat keinen Zugriff auf die Datei). Um trotzdem mit relativ wenig Mühe eine Zufallsauswahl zustande zu bringen, könnte man den Auswahlprozess mehrstufig konzipieren: 1. Stufe: Man grenzt zunächst „Klumpen“ ab: auf dem Stadtplan deutlich unterscheidbare Stadtgebiete etwa gleicher Größe (gemessen an der Einwohnerzahl). Aus der Gesamtheit dieser abgegrenzten Gebiete trifft man eine einfache Zufallsauswahl. Die ausgewählten Gebiete sind die Basis für die 2. Stufe: Zunächst werden die ausgewählten „Klumpen“ in Wohnblocks bzw. Gruppen von Wohnblocks etwa gleicher Größe (gemessen an der Bewohnerzahl) unterteilt; aus dieser gewonnenen Zahl von Wohnblocks wird eine Flächenstichprobe gezogen. Die so ausgewählten Kleingebiete sind nun die Basis für die 3. Stufe: Man bestimmt die zu den ausgewählten Wohnblocks gehörenden Häuser (Straßen und Hausnummern) und fasst diese zu Kleineinheiten mit etwa gleich großer Wohnungszahl zusammen. Aus diesen wählt man zufällig einen bestimmten Anteil aus, der die Basis ist für die 4. Stufe: Es ist nun relativ leicht, zu den ausgewählten Gruppen von Wohnungen die dort wohnenden Haushalte zu bestimmen (Aufstellen einer Haushaltsliste auf dieser vorletzten Stufe durch Ablesen der Namen von den Haustürklingeln). Anhand der so erstellten Liste kann dann auf dieser letzten Auswahlstufe eine Zufallsauswahl der zu befragenden Haushalte gezogen werden. Das Beispiel macht deutlich, dass erst auf der letzten (hier: der vierten) Stufe des Auswahlverfahrens eine Liste der Erhebungseinheiten (hier: Haushalte) erforderlich wird und dass dennoch eine Zufallsauswahl aus der Grundgesamtheit „Bevölkerung einer Großstadt“ möglich ist. Die Stufen 1 bis 3 sind ohne großen Aufwand vom Schreibtisch aus durchführbar, sofern mindestens eine Person mit hinreichend guter Ortskenntnis verfügbar ist. Auch die Aufstellung der Haushaltsliste auf der vierten Stufe verursacht keinen sehr großen Aufwand, weil durch die drei ersten Stufen des Auswahlprozesses eine extreme räumliche Streuung der noch in Betracht kommenden Haushalte vermieden wurde. Man kann jedoch auch auf der vierten (der letzten) Auswahlstufe auf das Erstellen einer Haushaltsliste verzichten und sich stattdessen für das „Verfahren des Zufallswegs“ entscheiden (siehe 6.5.3). 6.5.3 Random-Route-Verfahren (Zufallsweg) Mit zunehmender Schwierigkeit, über aktuelle Angaben zur Zielpopulation „Bevölkerung“ verfügen zu können (wiederholte Verschiebung von Volkszählungen, geschärftes Datenschutzbewusstsein), hat- - insbesondere in der kommerziellen Umfrageforschung-- eine Auswahltechnik an Bedeutung gewonnen, die es erlaubt, Zufallsstichproben ohne Rückgriff auf eine Namens- oder Adressendatei zu realisie- Random-Route- Verfahren <?page no="291"?> 292 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 292 ren: das sogenannte Verfahren des Zufallswegs (Random-Route- oder Random-Walk- Verfahren). Die Haushalte als Auswahleinheiten werden hierbei durch ihren Wohnstandort symbolisch repräsentiert. In präzise formulierten Verhaltensanweisungen wird dem Interviewer vorgegeben, wie er-- von einem vorbestimmten Punkt ausgehend (s. o.: Gebietsauswahl)-- seine Zielhaushalte und gegebenenfalls die zu befragende Zielperson im Haushalt zu finden hat. Die Verfahrenslogik hat große Ähnlichkeit mit der systematischen Zufallsauswahl auf der Basis einer Datei oder Liste (Abschnitt 6.5.1): Der Ausgangspunkt (Startpunkt des „Zufallswegs“) wird nach dem Zufallsprinzip ermittelt; die „Ziehung“ der Zielperson erfolgt nach einer Systematik, die für die Interviewenden jeden Ermessensspielraum bei der Bestimmung der zu befragenden Personen ausschalten soll. Das Vorgehen sei an den Random-Route-Verhaltensanweisungen illustriert, wie sie ein Markt- und Sozialforschungsinstitut für seine Feldarbeit formuliert hat (hier in Auszügen zitiert aus dem „Grundwissen für Interviewer“ des Sample-Instituts, o. J.). 235 Im Institut werden nach einem Zufallsverfahren die Ausgangspunkte bestimmt und den Interviewern zugewiesen; im Umkreis eines jeden Ausgangspunktes soll eine vorgegebene Zahl von Befragungen durchgeführt werden. Nehmen wir an, ein solcher Ausgangspunkt sei die Bergstraße 27 im Ort X und die Interviewerin stehe vor dieser Startadresse. Ab hier wird ihr Verhalten durch eine Reihe genauer Vorschriften festgelegt. Diese beziehen sich auf die Identifizierung des Ausgangshaushalts, auf die Laufrichtung der Interviewerin, die Identifizierung der in Betracht kommenden Haushalte und die Zufallsauswahl der zu befragenden Personen im Haushalt: „Der Ausgangshaushalt. Bei einem Einfamilienhaus ist der darin wohnende Haushalt Ihre Ausgangsadresse, bei einem Mehrfamilienhaus der im Parterre links wohnende Haushalt. Hier wird nicht interviewt. Die Laufrichtung. Sie stehen vor dem Haus mit dem Gesicht zum Haus und dem Rücken zur Straße. Nun drehen Sie sich um 90º nach rechts herum, so dass jetzt die Straße rechts und das Haus links von Ihnen liegt. In diese Richtung müssen Sie losgehen. Und zwar so lange weiter, bis Sie die Möglichkeit haben, rechts in eine andere Straße abzubiegen. Bisher gingen Sie ja auf der linken Seite der Straße; wenn Sie rechts abbiegen, wechseln Sie gleichzeitig auf die rechte Straßenseite. Dort gehen Sie so lange 235 Andere Institute stellen für die Ermittlung der Zieladressen durch die Interviewer andere, in ihrer Funktion gleichartige Regeln auf; vgl. z. B. die komplett dokumentierte „Interviewer-Anweisung zur Adressenermittlung“ des Instituts für Demoskopie Allensbach bei Noelle-Neumann/ Petersen (2000, 246-252). Logik der systematischen Zufallsauswahl BEISPIEL <?page no="292"?> 293 6.5 Zufallsgesteuerte Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 293 weiter, bis Sie wieder links abbiegen können. Dort gehen Sie dann auf der linken Straßenseite weiter, bis sie wieder rechts abbiegen können. Die Random-Route-Regel lautet also: Links gehen, rechts abbiegen; rechts gehen, links abbiegen. Die Auswahl der Haushalte. Auf diesem Zufallsweg zählen Sie auf der Straßenseite, auf der Sie gerade zu gehen haben, alle Haushalte und tragen jeden n-ten Haushalt (der Zählschritt wird Ihnen im Auftragsschreiben bekannt gegeben) in die Adressenliste ein, bis alle Felder der Adressenliste gefüllt sind. (…) Die Haushaltsabzählregel. Von Ihrer Ausgangsadresse an-… zählen Sie jeweils die erforderliche Anzahl von Haushalten weiter, wobei der Ausgangshaushalt nicht mitzählt, sondern mit „A“ bezeichnet wird. Gezählt wird nach folgender Regel (Sample Institut o. J., 29, 35): Innerhalb eines Mehrfamilienhauses von links nach rechts und von unten nach oben. Von Haus zu Haus nach der vorgegebenen Laufrichtung.“ Sonderregelungen gelten für Sackgassen, für Ortsgrenzen, für nur auf einer Seite bebaute Straßen sowie für Kreisverkehr. Zufallsauswahl im Haushalt. Würde im Zielhaushalt immer diejenige Person befragt, die die Tür öffnet, wäre dies in den allermeisten Fällen entweder die Hausfrau oder ein anderes nicht berufstätiges Haushaltsmitglied. Die Folge wäre ein erheblicher Stichprobenfehler. Gleiches gilt, wenn der Interviewer nur aus denjenigen Personen auswählte, die bei seinem Besuch gerade zu Hause anwesend sind. Es muss also auch hier nach einer Regel vorgegangen werden, die jedem Haushaltsmitglied die gleiche Chance sichert, als Zielperson der Befragung identifiziert zu werden. Dafür gibt es mehrere Möglichkeiten. In dem hier dargestellten Beispiel wird ein „Geburtstagsschlüssel“ verwendet: „Wir fragen, wer als nächster im Haushalt Geburtstag hat. Diese Person muss dann befragt werden. Es ist nicht erlaubt, auf eine andere Person des Haushaltes auszuweichen, sondern es muss genau diejenige befragt werden, deren Geburtstag als nächster bevorsteht.“ (Sample Institut o. J., 37) Das Random-Route-Verfahren hat neben dem Vorteil, ohne Adressenkarteien auszukommen, noch einen weiteren Vorzug: Informationen zur Lebensumwelt der untersuchten Haushalte oder Personen (Sozial- und Infrastruktur, Umweltqualität etc.) können parallel zur Feldarbeit der Interviewer oder auch schon vorher beschafft und-- da der räumliche Startpunkt für jeweils eine Gruppe von Befragten bekannt ist-- leicht zugeordnet werden. Ein Nachteil besteht darin, dass Personen ohne festen Wohnsitz durch das Auswahlraster fallen und dass Haushalte mit mehrfachem Wohnsitz eine höhere Auswahlchance haben. parallel Zugang zu-Kontextinformationen <?page no="293"?> 294 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 294 6.6 Zusammenfassung: Vor- und Nachteile der-verschiedenen Auswahlverfahren Zur Beurteilung der durch die vorgestellten Auswahlverfahren zu erreichenden Repräsentativität der Stichprobe bietet die folgende Gegenüberstellung eine erste Orientierung (nach Kops 1977, 101): 236 Auswahlverfahren Repräsentativität der Auswahl angestrebt durch: Repräsentativität der Auswahl gesichert: willkürliche Auswahl - Nein bewusste Auswahlen Informationen zu Stichprobenelementen und Grundgesamtheit (Typisierung, Klassifikation) mit Einschränkungen oder nur für die direkt oder indirekt (durch Korrelationen) kontrollierten Merkmale Zufallsauswahlen zufällige Entnahmen der Stichprobenelemente ja Als Bedingungen für die „zufällige Entnahme der Stichprobenelemente“ aus der Grundgesamtheit können wir jetzt (u. a. unter Rückgriff auf das hypothetische „Urnenmodell“) zusammenfassen (vgl. Scheuch 1974, 76 f.): 1) Alle Einheiten müssen die gleiche (oder eine vorher angebbare) Chance haben, in die Auswahl zu kommen. 2) Jede Einheit ist im Voraus bestimmbar und gehört dem Universum nur einmal an. 3) Die Auswahl einer Einheit verändert die Chancen anderer Einheiten nicht. 4) Alle potenziellen Einheiten müssen im Moment der Auswahl greifbar (anwesend) sein. zu 1): Die Sicherung, dass die vorher bestimmbare gleiche (oder angebbare) Chance während des Auswahlprozesses realisiert wird, geschieht im Urnenmodell durch wiederholtes Durchmischen vor jedem weiteren Ziehen einer Einheit. Im realen Auswahlverfahren wird dieses „Durchmischen“ durch Verwendung von Zufallszahlen (bei systematischer Auswahl nur zur Festlegung des Startpunktes des Auswahlprozesses) oder durch Einsatz eines Zufallsauswahlprogramms in der EDV simuliert. 236 Diese Einschätzung gilt so uneingeschränkt allerdings nur für den Auswahlplan. Bei der Realisierung des Auswahlplans treten dagegen im Falle der Umfrageforschung nicht zu behebende Probleme auf, soweit sie auf die freiwillige Teilnahme der Zielpersonen an der Befragung angewiesen ist-- und das ist (mit Ausnahme gesetzlich geregelter Auskunftspflicht bei amtlichen Erhebungen) der Normalfall. Angesichts zurückgehender Bereitschaft zur Beteiligung an Interviews (siehe Kapitel 7.4.2: „Ausfälle“) kann man bei zahlreichen realisierten Stichproben nicht mehr von repräsentativen Zufalls-Samples sprechen, sondern von Samples „auf der Suche nach der zugehörigen Grundgesamtheit“ (siehe Kapitel 6.2: „Inferenzpopulation“). Beurteilung der Repräsentativität Kriterien der Zufallsziehung Kontrolle des-Zufalls <?page no="294"?> 295 6.6 Zusammenfassung: Vor- und Nachteile der-verschiedenen Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 295 zu 2): Die Grundgesamtheit und die Elemente der Grundgesamtheit müssen, ausgehend von der Problemstellung der Untersuchung, vor Beginn der Auswahl präzise definiert sein. zu 3): Dass die Auswahl einer Einheit aus der Grundgesamtheit die Auswahlchancen der weiteren Einheiten nicht verändert, gilt genau genommen nur für unendlich große Grundgesamtheiten (vgl. das Urnenmodell „mit Zurücklegen“). Man stelle sich dagegen eine kleine Grundgesamtheit mit N =-100 vor, aus der eine Stichprobe von n =-10 gezogen werden soll: Bei der ersten Ziehung ist die Chance jedes Elements der Grundgesamtheit, ausgewählt zu werden =-1/ 100; bei der zweiten Ziehung ist die Chance der verbliebenen 99 Elemente, ausgewählt zu werden =-1/ 99; -…; bei der zehnten Ziehung ist die Chance der verbliebenen 91 Elemente =- 1/ 91. Diese „bedingte Wahrscheinlichkeit“ (hier: Auswahlchance unter der Bedingung, dass bereits eine bestimmte Zahl von Elementen ausgewählt wurde) verändert sich von der ersten bis zur letzten Ziehung um so stärker, je höher der Auswahlsatz ist, bzw. bei vorgegebenem Stichprobenumfang: je kleiner die Grundgesamtheit ist. Die erste genannte Bedingung-- gleiche oder bekannte Chance für alle Einheiten-- gilt also bei endlichen Grundgesamtheiten nicht für jede einzelne Ziehung eines Elements. Sie gilt vielmehr a) vor Beginn des Auswahlprozesses für alle Elemente und b) für die Gesamtzahl der n Ziehungen, also den gesamten Auswahlprozess (Wahrscheinlichkeit, im 1. oder 2. oder-… oder n-ten Zug ausgewählt zu werden). zu 4): Hierzu wurde in Kapitel 6.1 dargestellt, dass an die Stelle der physischen Greifbarkeit (physische Anwesenheit) aller potenziellen Einheiten im Moment der Auswahl im Normalfall ersatzweise die symbolische Repräsentation aller Einheiten der Grundgesamtheit tritt. Probleme im Hinblick auf die Repräsentativität einer Stichprobe treten dann auf, wenn die symbolisch repräsentierte Grundgesamtheit nicht mit der angestrebten Grundgesamtheit (vollständig) übereinstimmt. Definition der Grundgesamtheit variierende Auswahlchancen bei kleiner Grundgesamtheit symbolische Repräsentation <?page no="295"?> 296 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 296 Übersicht: Vor- und Nachteile der verschiedenen Auswahlverfahren Vorteile: Nachteile: Vollerhebungen tiefe sachliche und räumliche Gliederung möglich; keine Auswahlfehler hoher Aufwand, hohe Kosten; lange Zeitspanne zwischen Vorbereitung und Abschluss der Erhebung: geringe Aktualität; Erfassungsfehler durch mangelnde Kontrollmöglichkeiten bei großen Erhebungen; Beeinflussung der untersuchten Gesamtheit möglich; großer Zeitaufwand für Datenaufbereitung; bei manchen Sachverhalten sind Vollerhebungen überhaupt unmöglich (z. B.-Qualitätskontrolle von Produkten) Auswahlen, Teilerhebungen geringere Kosten, dadurch größere Breite der Fragestellung möglich; schnelle Durchführung; aktuelle Ergebnisse; gründlichere Erhebung und bessere Kontrollen geringe sachliche und räumliche Gliederung; Auswahlfehler (bei zufallsgesteuerten Auswahlen kontrollierbar); räumliche und soziale Bezugssysteme können nur schwer erfasst werden (Ausnahme: Klumpenauswahl) nicht zufallsgesteuerte Auswahlen geringer Aufwand, geringe Kosten; umfangreiche Informationssammlung über besonders „interessante Fälle“ keine statistische Kontrolle des Auswahlfehlers; unsichere Generalisierbarkeit der Ergebnisse Quotenauswahlen schnelle Durchführung: aktuelle Ergebnisse; Einschränkung des Ermessensspielraums der Interviewer bei der Zielpersonenauswahl durch Vorgabe von Quoten (ggf. von Quotierungskombinationen); bei gut geschultem Interviewerstab relativ „repräsentative“ Ergebnisse, sofern Standardprobleme analysiert werden Verzerrung der Auswahl durch Persönlichkeitsmerkmale der Interviewer möglich; Interviewer nicht kontrollierbar (kaum Kontrollinterviews möglich); zur Vorgabe der Quoten sind Informationen über die Grundgesamtheit erforderlich, die häufig nicht vorliegen oder nicht aktuell sind; Quotierungsmerkmale müssten zur Sicherung generalisierbarer Ergebnisse theoretischen Bezug zur Fragestellung haben; üblicherweise können aber nur leicht erkennbare demografische Merkmale herangezogen werden zufallsgesteuerte Auswahlen repräsentative Ergebnisse; Auswahlfehler kann statistisch berechnet und damit kontrolliert werden; Auswahl unabhängig von Ermessensentscheidungen der Interviewer Zufallsstichproben schwierig durchzuführen; Ersetzen von „Ausfällen“ problematisch; längere Vorbereitung und Durchführung, dadurch höhere Kosten, geringere Aktualität einfache Wahrscheinlichkeitsauswahlen leichte Berechnung des Auswahlfehlers durch direkte Schätzung der Größen für die Gesamtheit aus den betreffenden Werten der Stichprobe; keine Informationen über Merkmale in der Grundgesamtheit erforderlich keine Anpassung des Auswahlverfahrens an den Untersuchungsgegenstand, keine Berücksichtigung von „Extremgruppen“ möglich (höhere Kosten, geringere Aussagekraft bei gegebener Stichprobengröße) komplexe Wahrscheinlichkeitsauswahlen Anpassung des Auswahlverfahrens an die Fragestellung der Untersuchung möglich (Verringerung der Kosten, Erhöhung der Aussagekraft) zum Teil komplizierte Berechnung des Auswahlfehlers, da die Einheiten der Gesamtheit unterschiedliche (aber bekannte) Auswahlchancen haben <?page no="296"?> 297 6.7 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 297 6.7 Annotationen aus der Perspektive qualitativinterpretativer Methoden Qualitativ-interpretative Verfahren sind darauf ausgerichtet, Material mit einer hohen Tiefendimension und einer großen Kontextfülle zu analysieren und zu interpretieren. Schon forschungspraktisch ist damit die Gewinnung und Verarbeitung von Daten einer sehr großen Zahl von Fällen ausgeschlossen. Dies heißt nicht, dass hier prinzipiell kleine Datenmengen verarbeitet würden; vielmehr besteht meist der einzelne Fall bereits aus sehr reichhaltigem und dichtem Informationsmaterial, d. h. insbesondere aus ausführlichen Interviewtranskripten, Volltextdokumenten, (ethnografischen) Beobachtungsprotokollen oder gar Fotos und Videos. Wenn große Fallzahlen nicht in Betracht kommen, kann sich die Fallauswahl konsequenterweise auch nicht am wahrscheinlichkeitstheoretischen Ideal der Zufallsauswahl orientieren, denn bei dieser sinkt die Chance einer statistisch repräsentativen Abbildung der Grundgesamtheit im Sample mit der Fallzahl. Studien mit 10, 20 oder 30 Fällen, wie sie in qualitativen Studien durchaus üblich sind, könnten also nie statistische Repräsentativität erreichen. Wichtiger aber ist die Feststellung, dass die statistische Repräsentativität des Samples für eine größere Fallpopulation in qualitativ-interpretativen Studien gar nicht von Interesse ist. Insofern ist der Bezug auf kleinere und anders generierte Samples in der qualitativ-interpretativen Forschung nicht ein Mangel, sondern konsequentes Ergebnis einer anderen Forschungsperspektive. In der Regel geht es in der einen oder anderen Weise um die analytische Erschließung und die theoretische Fassung neuer Phänomene oder gar gänzlich neuer Gegenstandsbereiche der Sozialforschung. Daher dominiert hier das Interesse an der Erarbeitung valider neuer theoretischer Konzepte. Auswahlen orientieren sich dementsprechend an der Aufgabe, kleine Fallzahlen hohe Materialdichte Sampling per Zufallsauswahl unangemessen Vorteile: Nachteile: geschichtete Wahrscheinlichkeitsauswahlen durch Herstellung homogener Teilgesamtheiten vor der Auswahl kann der Auswahlsatz bei gleicher Genauigkeit verringert werden (Zeit-, Kostenersparnis), bzw. bei gleich bleibendem Auswahlsatz wird die Genauigkeit erhöht (Verbesserung der Effektivität) Schichtungsmerkmale (für die Fragestellung relevante, theoretisch bedeutsame Merkmale) müssen für die Grundgesamtheit vorliegen mehrstufige Auswahlen (meist Kombinationen von Flächenstichproben mit Personenstichproben) die Grundgesamtheit muss nicht symbolisch repräsentiert werden (z. B. Karteien oder Dateien); Informationen über Merkmalsverteilungen in der Grundgesamtheit sind nicht erforderlich; Einbeziehung des Raumes als Untersuchungsgegenstand ist möglich; Klumpenbildung (räumliche Ballung der Erhebungseinheiten) möglich; Zeit- und Kostenersparnis, bessere Interviewerkontrolle keine zusätzlichen spezifischen Nachteile erkennbar <?page no="297"?> 298 6. Auswahlverfahren www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 298 Fälle auszuwählen, deren vergleichende Analyse eine systematische und umfassende Konzept- oder Theorieentwicklung erlaubt. So differenziert die Praxis qualitativ-empirischer Forschungsansätze ist, so unterschiedlich sind auch die konkreten Vorgehensweisen bei der Fallauswahl. Dabei bilden allerdings willkürliche Auswahlen eher die Ausnahme, während solche Sampling-Strategien dominant sind, die aus angebbaren und auf analytische Erfordernisse gestützten Gründen in einer bestimmten Weise organisiert sind. Es handelt sich also um bewusste und systematische Auswahlen, gleichviel, ob es sich um die Auswahl von Extremfällen handelt oder um gruppierte Samples, bei denen (alle) als relevant erachteten Falltypen im Untersuchungsfeld mit einer kleineren Anzahl von Fällen berücksichtigt werden. Auch die Auswahl eines einzigen Falles zum Zweck einer expliziten Einzelfallanalyse ist in der qualitativen Sozialforschung bereits früh praktiziert worden (klassisch: Shaw/ Burgess 1930) und findet heute u. a. in der Objektiven Hermeneutik und in der erziehungswissenschaftlichen Forschung gelegentlich noch Anwendung. Viele dieser Auswahlverfahren funktionieren allerdings nur um den Preis einer starken Einschränkung der zu beanspruchenden Reichweite, insbesondere dann, wenn es nicht gelingt, eine über die kleinen und selektiven Samples hinausweisende Geltung methodologisch nachvollziehbar zu begründen. Angesichts von auf Offenheit und Reflexivität abzielenden, kommunikativ organisierten Prozessperspektiven qualitativ-interpretativer Forschung stellt sich zudem das Problem, dass Fallauswahlen, die zu Beginn des Forschungsprojekte vorgenommen werden, zwangläufig blind gegenüber den im Forschungsverlauf neu gewonnenen Erkenntnissen sind. Ihre Angemessenheit mit Blick auf die schlussendlich bearbeitete Untersuchungsfrage kann also schnell prekär werden. Ein wichtiges und mittlerweile weit verbreitetes Verfahren zur Fallauswahl, das dieses Problem umgeht, ist das theoretische Sampling, das im Rahmen der Grounded Theory entwickelt wurde (Glaser/ Strauss 1998, 53-83, Corbin/ Strauss 2008, 143- 157, Strübing 2014, 29-33), aber mittlerweile weit darüber hinaus Anwendung findet. Der Grundgedanke besteht darin, dass die Auswahl der zu analysierenden Entitäten sukzessive und in Abhängigkeit vom Fortschritt des Theoriebildungsprozesses erfolgt. Es wird also nicht von vornherein ein bestimmtes Set von Fällen bestimmt, zu denen dann Informationen gewonnen und schließlich analysiert werden. Vielmehr geht man beim theoretischen Sampling von einem ersten, noch unsystematisch ausgewählten Fall und dessen Analyse nach bestimmten Vergleichsheuristiken (minimaler und maximaler Vergleich) aus, wählt anschließend die nächsten Fälle, die sukzessive in die Analyse und in die Theoriebildung einbezogen werden und die dann wiederum die Kriterien für die weitere Fallauswahl liefern. Weil Fallauswahl und Theoriefortschritt reziprok aufeinander bezogen sind und das Sampling damit Bestandteil eines iterativ-zyklischen Prozesses von Datengewinnung, Analyse, Hypothesenformulierung und empirischer Überprüfung ist, kann hier auf eine externe Begründung der Auswahlentscheidungen verzichtet werden. Auswahlverfahren zielen auf die Auswahl von Fällen, die in Bezug auf die Forschungsfragen zu analysieren sind. Bei variablen Frageperspektiven verändert sich systematisches Sampling relevanter Fallgruppen theoretisches Sampling <?page no="298"?> 299 6.7 Annotationen aus der Perspektive qualitativ-interpretativer Methoden www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 299 daher im Forschungsgang immer wieder unser Verständnis davon, was jeweils ein Fall ist. So kann etwa eine Untersuchung von Praktiken schulischen Lernens in der Grundschule mit der Auswahl einzelner Schülerinnen und Schüler beginnen, unter dem Eindruck erster empirischer Ergebnisse dann aber auf die Auswahl von Lerngruppen oder ganzer Klassen umschwenken. Ebenso kann sich das Fallverständnis auf Typen von Ereignissen oder auf Prozesse, z. B. Lernprozesse oder Verlaufskurven von Konflikten verschieben. Damit verbunden ist häufig eine Form des Samplings im bereits vorliegenden Material, wenn also z. B. in einem umfangreichen Set von Beobachtungsprotokollen oder Videomitschnitten gezielt Fälle von Schüler-Lehrer-Interaktionen oder von spontanen Unterrichtsunterbrechungen ausgewählt und vergleichend analysiert werden. Insgesamt kann man also sagen, dass in der qualitativ-interpretativen Forschung das Fallverständnis mit Blick auf die Bezugsdimensionen als auch in Bezug auf die zeitliche Organisation dynamisiert wird. 6.7.1 Weiterführende Literatur zur qualitativ-interpretativen Methodologie Außer im Kontext der Grounded Theory finden sich in der qualitativ-interpretativen Sozialforschung nur wenige ausführlicher Thematisierungen von Auswahlverfahren. Einige wenige Hinweise müssen daher an dieser Stelle genügen: Bauer, Martin W.; Aarts, Bas, 2000: Corpus Construction: A Principle for Qualitative Data Collection, in: Bauer, M. W.; Gaskell, G. (Hg.): Qualitative Researching with Text, Image and Sound: a Practical Handbook, London, 19-37 Gobo, Giampetro, 2007: Sampling, Representativeness and Generalizability, in: Seale, C.; Gobo, G.; Gubrium, J. F.; Silverman, D. (Hg.): Qualitative Research Practice, London, 405-426 Morse, Janice M., 2007: Sampling in Grounded Theory, in: Bryant, A.; Charmaz, K. (Hg.): The Sage Handbook of Grounded Theory, London, 229-244 (Umfassende Darstellung des theoretischen Sampling in der Grounded Theory) Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2014: Qualitative Sozialforschung. Ein Arbeitsbuch, München, 4. Aufl., (hier Kap. S. 177-187 über Sampling) Rosenthal, Gabriele, 2005: Interpretative Sozialforschung: eine Einführung, 85 ff. Strübing, Jörg, 2014: Grounded Theory. Zur sozialtheoretischen und epistemologischen Fundierung eines pragmatistischen Forschungsstils, Wiesbaden (Qualitative Sozialforschung Bd. 15), 29-33. (Hier wird das Verfahren des theoretischen Samplings ausführlich dargestellt) Veränderung der-Auswahl im Forschungsprozess <?page no="299"?> www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 300 <?page no="300"?> 301 www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 301 7 Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung Häufig sind, wenn im Zusammenhang mit empirischer Sozialforschung von „Methoden“ gesprochen wird, die systematischen Erhebungsverfahren wie Befragung, Beobachtung, Inhaltsanalyse, Soziometrie gemeint; so etwa bei Friedrichs (1982), der diese Verfahren und Strategien der Informationsbeschaffung unter der Überschrift „Methoden“ zusammenfasst. Der vorliegende Text benutzt den Begriff allerdings nicht in diesem engeren Sinne. Unter „Methoden“ werden vielmehr sämtliche systematischen, d. h. nach festgelegten Regeln ablaufenden Vorgehensweisen der Sozialforschung von der dimensionalen bzw. semantischen Analyse bis zur Datengewinnung und -auswertung verstanden. Ein Teil dieser Methoden sind die Verfahren oder Strategien der Informationsgewinnung, die sich wiederum bestimmter Erhebungsinstrumente-- wie Fragebogen, Kategorienschema, Beobachtungsbogen-- als „Werkzeuge“ bedienen. Obwohl sie in besonderem Maße im Mittelpunkt stehen, wenn Sozialforschung in die Diskussion gerät, darf doch ihr Stellenwert für das Gelingen eines Forschungsvorhabens nicht größer veranschlagt werden, als der Stellenwert der übrigen eingesetzten Methoden. Im Modellschema des Forschungsprozesses (Kapitel 2.2, vgl. auch das Strukturmodell in Kapitel 2.4.5) stellen Entwicklung und Test der Erhebungsinstrumente den Abschluss der Forschungsvorbereitung und damit der gedanklich-theoretischen Strukturierung der Untersuchung dar, bevor die empirische Informationssammlung (die „Feldarbeit“) beginnt. Diese Zäsur wird besonders deutlich in solchen Forschungsvorhaben, in denen die Vorbereitung (und später die Datenanalyse) bei einem Forscherteam liegt, während die Durchführung der Informationserhebung und -aufbereitung an ein kommerzielles, darauf spezialisiertes Institut vergeben wird. Aus dem Katalog der existierenden Strategien empirischer Informationsgewinnung werden im Folgenden exemplarisch Inhaltsanalyse, Beobachtung und Befragung herausgegriffen und jeweils in ihrer standardisierten Version vorgestellt (7.1 bis 7.3). Ein zusammenfassendes Kapitel (7.4) präsentiert dann eine Gegenüberstellung von Ähnlichkeiten und Unterschieden dieser Verfahren; hierbei werden insbesondere Probleme der Entwicklung und der Anwendung der Instrumente: Kategorienschema, Beobachtungs- und Fragebogen aufgezeigt. 237 237 Im Falle standardisiert erhobener Informationen wird üblicherweise von „Daten“ gesprochen. Daher lautet der Titel dieses Kapitels „Datenerhebungsverfahren und -instrumente“. Die hier getroffene Unterscheidung zwischen Verfahren (bzw. Strategien) auf der einen und Instrumenten (bzw. Werkzeugen) auf der anderen Seite mag manchem vielleicht spitzfindig erscheinen, Instrument als Abschluss der Vorbereitung <?page no="301"?> 302 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 302 Die Entscheidung für die Darstellung standardisierter Verfahren sollte nicht als ein Urteil über die Qualität unterschiedlicher Instrumententypen (miss)verstanden werden; etwa: standardisierte Instrumente lieferten „präzisere“ und damit „bessere“ Resultate. Ausschlaggebend sind vielmehr didaktische Überlegungen: Erstens stößt man bei der Lektüre sozialwissenschaftlicher Forschungsberichte besonders häufig auf standardisierte Erhebungen; zweitens lässt sich an ihnen die zugrunde liegende Vorgehenslogik leichter herausarbeiten. Dem Leser sollte jedoch immer bewusst bleiben, dass die Wahl einer bestimmten Untersuchungsanordnung (vgl. Kapitel 2.4) und der Einsatz bestimmter Verfahren und Instrumente niemals „automatisch“ erfolgen dürfen. Entscheidungen darüber sind in jedem Einzelfall in gründlicher Auseinandersetzung mit dem Untersuchungsgegenstand und der Fragestellung zu treffen und zu begründen. 7.1 Empirische Inhaltsanalyse Inhaltsanalyse 238 knüpft, wie die anderen Verfahren der empirischen Sozialforschung auch, an alltägliche Vorgehensweisen an, ist im Grunde nichts weiter als deren Systematisierung. So „analysiert“ jeder Autofahrer den „Inhalt“, d. h. die Bedeutung von Symbolen, wenn er sich durch den Schilderwald kämpft; so „analysiert“ der Wohnungssuchende mehr oder weniger systematisch den Inhalt des Anzeigenteils von Tageszeitungen. Allerdings geschieht diese alltägliche „Inhaltsanalyse“ eher intuitiv, nicht nach fest vorgegebenen, intersubjektiv nachvollziehbaren Regeln der Informationsverarbeitung. Die empirische Inhaltsanalyse-- so wie sie hier verstanden werden soll-- ist nach einer weit gefassten, aber durchaus gängigen Definition eine Forschungstechnik, mit der man aus jeder Art von Bedeutungsträgern durch systematische und objektive Identifizierung ihrer Elemente Schlüsse ziehen kann, die über das einzelne analysierte Dokument hinaus verallgemeinerbar sein sollen. ist jedoch für den nachfolgenden Text wichtig. Zur Klärung ein Alltagsbeispiel: Nehmen Sie an, Sie wollen einen Nagel mit einem Hammer in eine Holzwand schlagen. Vermutlich werden Sie als Strategie das Hereinschlagen mit einem Hammer wählen (also „Verfahren“ =-Hämmern; „Werkzeug“ =-Hammer). Damit Ihr Vorhaben gelingt, benötigen Sie einen für diese Aufgabe geeigneten Hammer (nicht zu groß, nicht zu klein); und Sie müssen in der Lage sein, das Werkzeug in richtiger Weise zu benutzen (damit der Nagel nicht verbogen und Ihr Daumen nicht verletzt wird). In gleicher Weise ist auch zwischen dem Verfahren des „Befragens“ und dem Instrument „Fragebogen“ und ist zwischen der Entwicklung eines geeigneten Fragebogens sowie der Schulung der Interviewer in dessen richtiger Anwendung zu unterscheiden. 238 Im Folgenden wird die Methode der empirischen Inhaltsanalyse verschiedentlich im Vergleich zur Befragung dargestellt; dabei wird zunächst lediglich ein Alltagsverständnis von „Befragung“ vorausgesetzt. Verfahren, Instrumente von Untersuchungsfrage abhängig Definition: empirische Inhaltsanalyse <?page no="302"?> 303 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 303 Diese weit gefasste Definition 239 zeigt, dass das Verfahren Inhaltsanalyse nicht auf die Verarbeitung sprachlicher Mitteilungen beschränkt ist, sondern z. B. auch Gemälde aus einer zurückliegenden Epoche, Keramik oder kultische Gegenstände aus einer Kultur, von der schriftliche Dokumente nicht überliefert sind, oder einen Stummfilm zum Gegenstand haben kann. Im Allgemeinen jedoch- - jedenfalls in den Zusammenhängen, in denen Sozialwissenschaftler die empirische Inhaltsanalyse einsetzen- - wird es sich um die Analyse sprachlicher Mitteilungen handeln, meist in Form schriftlicher Texte. Die Definition besagt insbesondere auch, dass nicht nur von Daten über Textteile (oder andere Dokumente) auf Tendenzen in den Texten (Dokumenten) selbst geschlossen wird, sondern dass man die herausgelesenen Informationen nutzt, um Aussagen über die soziale Realität außerhalb der Texte (Dokumente) zu gewinnen. Die Texte (Dokumente) sind in diesem Fall nicht selbst Gegenstand des Auswertungsinteresses (wie dies etwa bei literaturwissenschaftlichen Untersuchungen der Fall sein kann), sondern sie dienen als Informationsträger; die dokumentierten Aussagen sind „Indikatoren“ für (externe) Sachverhalte. Solche „Sachverhalte“ können sein: - beschriebene/ dargestellte Ereignisse oder Situationen, - Aussageabsichten/ Einstellungen der Autoren von Dokumenten, - Merkmale der beabsichtigten Rezipienten/ Zielgruppen von Dokumenten, - politische/ soziale Kontexte von dokumentierten Ereignissen/ Situationen. Die interessierenden Sachverhalte können entweder manifest in den Texten dokumentiert sein (als direkte „Aussagen über-…“); oder sie sind indirekt aus den Texten zu erschließen (latente Inhalte, „zwischen den Zeilen“ zu lesende Mitteilungen oder Informationen). Einige Beispiele sollen den sehr weiten Anwendungsbereich der Techniken der Inhaltsanalyse veranschaulichen: Auswertung von Gruppendiskussionen, von Intensivinterviews, von Leitfaden-Gesprächen, in denen der gesamte Gesprächsverlauf auf Tonträger (Tonband, Kassettenrecorder) aufgezeichnet wurde; Auswertung von schriftlichen Gesprächsprotokollen, von Antworten auf offen gestellte Fragen im Interview; Auswertung von Zeitungsartikeln über Energiefragen vor der „Energiewende“ und danach oder vor „Fukushima“ und danach; Flugblätter von Initiativen für Tierrechte; Analyse des Inhalts von Heiratsanzeigen in regionalen und überregionalen Zeitungen; Auswertung von historischen Quellen usw. Abzugrenzen ist die systematische empirische Inhaltsanalyse von dem im Deutschunterricht der Schule geläufigen Verfahren der Textinterpretation. Für solche Textinterpretationen gelten die Regeln der (geisteswissenschaftlichen) Hermeneutik. Auch die Hermeneutik hat die Auswertung sinnhaltiger Dokumente, insbesondere Texte, zum 239 Sinngemäß finden sich solche Definitionen oder wesentliche Elemente davon etwa bei Früh 2015, Gerbner u. a. 1969, Merten 1995, Stone u. a. 1966. keine Beschränkung auf Text Realität außerhalb des Textes Text als Indikator BEISPIEL Abgrenzung zur Hermeneutik <?page no="303"?> 304 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 304 Ziel. 240 Allerdings geht es ihr nicht um die systematische Identifizierung von Aussage-Elementen und deren Zuordnung zu vorher festgelegten Kategorien 241 , wie bei der empirischen Inhaltsanalyse. Die Erkenntnisabsicht bei hermeneutischen Verfahren ist vielmehr das „Verstehen des Sinns“, die „Auslegung“ oder „deutende Interpretation“ von Aussagen, von Dokumenten, historischen Quellen etc. Die Bedeutung einer Botschaft (eines Textes, eines Gedichts, eines Gemäldes) soll nachvollzogen und gedeutet werden, indem man versucht, sich das Dokument in seiner Ganzheit und in seinen inneren Zusammenhängen zu erschließen, gegebenenfalls sich dazu in die Situation und die Motive des Autors des Textes (oder des Schöpfers eines Kunstwerks etc.) sowie in den Kontext der Entstehung hineinzudenken. Zu diesem Zweck wird man versuchen müssen, Kenntnisse aus der Epoche, aus der die Botschaft stammt, sowie über ihre Entstehungsbedingungen zur Interpretation hinzuzuziehen. So werden beispielsweise in der Regel auch Informationen über die persönliche Lebenssituation des Autors Eingang in die Überlegungen finden. Das Ergebnis solcher geisteswissenschaftlich-hermeneutischer Textinterpretationen-- auch wenn noch so viele Informationen berücksichtigt werden-- wird jeweils subjektiv in dem Sinne bleiben, dass zwei verschiedene Personen kaum einmal genau identische Interpretationen liefern werden; d. h. das Resultat ist personenabhängig. 242 Einen gänzlich anderen Weg beschreitet die sogenannte „objektive (oder strukturale) Hermeneutik“ (Oevermann u. a. 1979, Schneider, 1985). Hier sollen sprachlich dokumentierte Protokolle realer sozialer Handlungen oder Interaktionen („Interaktionstexte“) nicht subjektiv gedeutet, sondern systematisch daraufhin analysiert werden, welche „objektiven“ (d. h. unabhängig von der subjektiven Sichtweise der Akteure existierenden), durch hermeneutische Explikation rekonstruierbaren Regeln das dokumentierte Verhalten geleitet haben könnten. 243 Wenn demgegenüber im Zusammenhang mit der systematischen Inhaltsanalyse von „objektiv“ gesprochen wird (vgl. obige Definition: „systematische und objektive Identifizierung“ von Textelementen), dann ist dies in einem sehr eingeschränkten Sinne, als Gegensatz insbesondere zum geisteswissenschaftlich-hermeneutischen Vorgehen zu verstehen: Inhaltsanalyse soll objektiv in der Weise sein, dass die Daten eindeutig dem Interpretationsobjekt (z. B. Text)-- nicht dem interpretierenden Subjekt-- zugerechnet werden können. Damit dies gewährleistet ist, hat die systematische Zuordnung von Aussageinhalten zu vorher festgelegten Kategorien unabhängig von der Person zu sein, die die Textdurchsicht und die Zuordnung vornimmt („Vercoder“). 240 Einen kurzen Überblick über hermeneutische Verfahren aus erziehungswissenschaftlicher Sicht gibt Klafki (1971); grundlegend dazu Gadamer (1972). 241 Zum Begriff der inhaltsanalytischen „Kategorie“ siehe Kapitel 7.1.2. 242 Allerdings sind in der qualitativen Sozialforschung auch sozialwissenschaftlich-hermeneutische Methodologien entwickelt worden, die die intersubjektive Geltung von Textinterpretationen sichern sollen (z. B. Bohnsack 2000; für einen vergleichenden Überblick Kapitel 9 und Strübing 2013; Lamnek 1995; speziell zur qualitativen Inhaltsanalyse Mayring 1988). 243 Für eine kurze Schilderung des Verfahrens der objektiven Hermeneutik siehe Kapitel 9.2. Dass das hier darzustellende Verfahren der (quantitativen) systematischen Inhaltsanalyse und die objektive Hermeneutik einander nicht ausschließen, sondern sich gegenseitig nutzbringend ergänzen können, belegt Mathes 1988. Abgrenzung zur-„objektiven Hermeneutik“ intersubjektive Geltung <?page no="304"?> 305 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 305 Anders formuliert: „Objektiv“ meint hier lediglich, dass die Resultate der Zuordnung „intersubjektive“ Geltung beanspruchen können. Zu diesem Zweck müssen die Zuordnungsregeln von dem Vercoder (den Vercodern) einheitlich und konsistent angewendet werden. Ein weiterer Unterschied zum geisteswissenschaftlich-hermeneutischen Vorgehen besteht darin, dass bei der hermeneutischen Interpretation die Absicht vorherrscht, durch Einbeziehen möglichst aller Umstände und Bedingungen, unter denen der Text entstanden ist, ein ganzheitliches Verständnis zu entwickeln. Die systematische Inhaltsanalyse geht dagegen den umgekehrten Weg: Die Texte werden zunächst in Einzelbestandteile aufgelöst (in „Zähleinheiten“ zerlegt, die bei der weiteren Analyse als „Merkmalsträger“ behandelt werden). Aus der Beschreibung der Einzelbestandteile sowie der zwischen den Einzelbestandteilen festzustellenden Beziehungen gelangt man dann zu Schlussfolgerungen, die über die eigentlichen Texte hinausgehen (können). Nicht die einzelnen Bestandteile eines Textes liefern die Antworten auf die Untersuchungsfragen, auch nicht ein einzelner zusammenhängender Text; sondern erst die Auswertung der Informationen (Daten), die aus der Gesamtheit der Elemente der analysierten Texte gewonnen werden, erlaubt verallgemeinerbare Schlüsse. Zusammengefasst: „Objektiv“ soll für die systematische empirische Inhaltsanalyse bedeuten: Das Verfahren der Zerlegung eines Textes in seine zu analysierenden Bestandteile sowie der Zuordnung zu analytischen Kategorien ist „objektiviert“. Jeder Sachkundige kann die Vorgehensweise exakt nachvollziehen, sie ist intersubjektiv überprüfbar. „Systematisch“ heißt, dass vor der Inhaltsanalyse ein Kodierschema erarbeitet wird, an das die Vercoder sich zu halten haben. Wissenschaft ist- - so der schwedische Sozialwissenschaftler Gunnar Myrdal- - „nichts anderes als äußerst kritischer, stark verfremdeter ‚common sense‘“ (1971, 18). Dies gilt in besonderem Maße für die gängigen Methoden der empirischen Sozialforschung wie Befragung, Beobachtung, Inhaltsanalyse. Sie knüpfen sämtlich an aus dem Alltag vertrauten Vorgehensweisen und Verfahren an. Betrachten wir das Vorhaben von vier Studierenden, die zu einer Wohngemeinschaft zusammenziehen wollen, systematisch die Vermietungsangebote in den regionalen Tageszeitungen und Anzeigenblättern durchzusehen. Wegen des Umfangs der Aufgabe und aus Gründen der gemeinschaftlichen Entscheidungsfindung soll dies arbeitsteilig geschehen. Vergegenwärtigen Sie sich an dieser „alltagsweltlichen Inhaltsanalyse“ die Ähnlichkeiten zur vorn dargestellten Strategie einer „systematischen empirischen Inhaltsanalyse“: - Die durchzusehenden Texte enthalten Informationen (sie sind Bedeutungsträger); der Gesamttext der jeweiligen Zeitungsausgabe wird zerlegt in relevante Teil-Elemente (hier: Anzeigen). - Die Analysierenden haben Fragestellungen, zu denen sie aus den Texten gezielt Informationen sammeln und ordnen (hier: Informationen über angebotene Aufteilung in Zähleinheiten BEISPIEL <?page no="305"?> 306 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 306 Mietwohnungen, die beispielsweise zusammengefasst werden zu einer systematischen Übersicht über die interessierenden Angebote). - Damit nicht jeder der arbeitsteilig lesenden vier Studierenden etwas anderes nach anderen Kriterien heraussucht und ordnet, sondern die Ergebnisse ihrer Durchsicht und Zusammenfassung miteinander vergleichbar werden und „intersubjektive Geltung“ beanspruchen können, benötigen sie eine Art „Lese- und Zuordnungs-Anweisung“. Dies ist nichts anderes als das oben beschriebene Kategorienschema: unterschiedliche Formulierungen in den Anzeigentexten werden nach semantischer Ähnlichkeit in gleiche „Schubladen“ eingeordnet (hier z. B.: Miethöhe, geforderte Kautionszahlung, Größe der Wohnung in qm und Zimmerzahl, Lage, Ausstattung, frühestmöglicher Einzugstermin etc.). - Die arbeitsteilig Lesenden benötigen auch Kriterien, welche Textteile überhaupt analysiert werden sollen (hier: welche Anzeigen überhaupt interessant sind: etwa nur Miet-, nicht Kaufangebote; nur Wohnungen mit mindestens 4 Zimmern; nur Wohnungen, die weniger als 1000 € Warmmiete kosten). - Für jeden Textteil (jede infrage kommende Anzeige) wird das Leseergebnis systematisch protokolliert (etwa in einen gemeinsam erarbeiteten Übersichtsbogen oder eine Excel-Tabelle eingetragen). - Alle Protokolle werden zusammenfassend und vergleichend ausgewertet (Welche Angebote sind am günstigsten? Wie viele sind überhaupt interessant? etc.). 7.1.1 Das (vereinfachte) Modell sozialer Kommunikation Die Forderung nach Intersubjektivität ist im Zusammenhang mit der Inhaltsanalyse leicht aufgestellt, aber schwer zu verwirklichen. Mit dem Prozess der Übermittlung und der Deutung von Zeichen, die eine bestimmte Information enthalten (hier speziell: von sprachlichen Zeichen), befasst sich die Informationswissenschaft (vgl. z. B. Seiffert 1968, Maletzke 1981, v. Saldern 1989). Das dort entwickelte Modell sozialer Kommunikation soll im Folgenden in einer stark vereinfachten Version vorgestellt werden. 244 Kommunikation wird nach diesem Modell als Zeichenverkehr zwischen „Sender“ und „Empfänger“ verstanden. Hierbei ist der Sender die Quelle einer Botschaft (z. B. eine Person, die einen Satz ausspricht). Die „gesendeten Zeichen“ stellen die Nachricht dar, die übermittelt werden soll (z. B. die Worte des gesprochenen Satzes, die eine bestimmte Bedeutung repräsentieren); Empfänger ist derjenige, der die Nachricht, die Information aufnimmt (z. B. derjenige, der den gesprochenen Satz hört). Hinzu kommt noch als weitere Notwendigkeit die Existenz eines Übertragungsmediums (z. B. die Luft, die vom Sprecher produzierte Schwingungen als Schall über- 244 In erweiterter Form wird darauf bei den Erörterungen über das Erhebungsinstrument Befragung zurückzukommen sein. Modell sozialer Kommunikation <?page no="306"?> 307 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 307 trägt, so dass diese vom Ohr des Empfängers aufgefangen werden können). Im Falle schriftlicher Kommunikation tritt an die Stelle des gesprochenen Wortes das geschriebene Wort (die Symbolisierung durch Laute wird durch Symbolisierung in Form von Schriftzeichen ersetzt), das Übertragungsmedium ist dann z. B. das Papier, auf dem die Schriftzeichen erkennbar sind. Zur Veranschaulichung sei ein kurzer Kommunikationsausschnitt aus einem Interview (z. B. Intensivinterview einer Interviewerin mit einem Befragten anhand eines Leitfadens mit offenen Fragen, d. h. Fragen ohne vorgegebene Auswahlantworten) herausgegriffen: Die Interviewerin (I) hat in ihrem Kopf eine bestimmte Fragestellung, ein bestimmtes Problem (angeregt z. B. durch ein Stichwort im Interviewleitfaden), und zwar zunächst als ihren subjektiven gedanklichen Vorstellungsinhalt (G): 1) I denkt G 1 . Die Interviewerin kleidet dieses Gedachte in Worte, d. h. sie übersetzt den gedanklichen Frageinhalt in eine Frageformulierung: sie verschlüsselt ihre Vorstellungen in sprachliche Zeichen, in Worte (W): 2) I verschlüsselt G 1 in W 1 . Das Ergebnis dieses Übersetzungsvorgangs spricht die Interviewerin aus, d. h. sie stellt dem Interviewten eine Frage. Die verschlüsselten Informationsinhalte W 1 werden über ein Medium zum Empfänger übertragen (hier: Schallwellen). Der Befragte (B) hört die gesprochenen Worte und übersetzt sie entsprechend seinem Verständnis; es entsteht eine gedankliche Vorstellung in seinem Kopf: 3) B entschlüsselt W 1 in G 2 . Das Ergebnis dieser Entschlüsselung ist das Frageverständnis von B, d. h. das, was B unter der von I gestellten Frage versteht. Im Idealfall-- wenn die Verschlüsselungssysteme von I und B exakt übereinstimmen- - kann G 2 mit G 1 identisch sein. Aufgrund seines Frageverständnisses entwickelt der Befragte nun den gedanklichen Vorstellungsinhalt einer Antwort, die er dann in sprachliche Zeichen übersetzt und der Interviewerin mitteilt: 4) B denkt G 3 . 5) B verschlüsselt G 3 in W 2 . Die formulierte Antwort W 2 ist also eine Reaktion auf die Frage W 1 , so wie sie vom Befragten verstanden wurde; kurz ausgedrückt: W 2 ist eine Antwort auf G 2 , nicht auf G 1 (denn G 1 kennt der Befragte ja gar nicht). Die Interviewerin hört die Antwort und übersetzt sie in ihr Antwortverständnis: 6) I entschlüsselt W 2 in G 4 . Wir haben es also mit zwei in Worte gefassten Botschaften (W 1 und W 2 ), aber mit vier gedanklichen Vorstellungsinhalten zu tun (G 1 bis G 4 ). Wenn nun die Interviewerin die Antwort des Befragten auf ihre Frage verarbeitet, dann setzt sie G 1 (ihr Frageverständnis) mit G 4 (ihrem Antwortverständnis) in Beziehung. Der BEISPIEL <?page no="307"?> 308 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 308 Befragte dagegen hat G 2 (sein Frageverständnis) mit G 3 (seinem Antwortverständnis) in Beziehung gesetzt. Um sich verständigen zu können, müssen die Gesprächspartner voraussetzen, dass G 1 mit G 2 und dass G 3 mit G 4 weitgehend übereinstimmen, sie müssen von der Fiktion ausgehen, dass beide Gesprächspartner den Worten W 1 sowie den Worten W 2 weitgehend dieselbe Bedeutung zuschreiben. Obwohl diese Fiktion kaum realistisch ist, klappt erstaunlicherweise die Kommunikation meist einigermaßen; aber eben nur meist und nur einigermaßen, nämlich dann, wenn beide Gesprächspartner-- wie es treffend in der Umgangssprache heißt-- „dieselbe Sprache sprechen“. Dass Fälle nicht einwandfrei gelingender Kommunikation aber gar nicht so selten eintreten, illustrieren manche Diskussionen, in denen die Diskutierenden erhebliche Zeit völlig aneinander vorbeireden können, ohne dies zu bemerken. Nach längerer Debatte erweist sich dann möglicherweise die vermeintliche Meinungsverschiedenheit als ein Missverständnis und löst sich im besten Fall in Wohlgefallen auf. Ein Beispiel aus dem Wissenschaftsbereich ist der Zuverlässigkeitstest beim Vercoden im Zusammenhang mit der empirischen Inhaltsanalyse: Zwei verschiedene Personen (Vercoder) haben die Aufgabe, den gleichen Text nach den gleichen Regeln einem exakt definierten System von Kategorien unabhängig voneinander zuzuordnen. Die Bedingungen dafür, dass die Zuordnung von W 1 (Text) zu W 2 (Kategorien) bei beiden Vercodern zum gleichen Ergebnis führt (d. h. dass die mit W 1 assoziierten gedanklichen Vorstellungsinhalte G bei ihnen übereinstimmen), sind hier erheblich günstiger als in der alltäglichen Kommunikation oder bei der Befragung: Die verwendeten Begriffe (Kategorien) sind definiert; die Zuordnungsregeln sind eindeutig formuliert; die Vercoder sind für ihre Aufgabe speziell geschult worden. Dennoch wird es eine ganze Reihe unterschiedlicher Zuordnungen geben; d. h. die gleichen Worte rufen in den Vercodern trotz aller Versuche der „Objektivierung“ unterschiedliche gedankliche Inhalte („Vorstellungsbilder“) hervor. Die angedeuteten Schwierigkeiten verstärken sich noch, wenn Texte analysiert werden, die aus einem anderen sozialen Kontext stammen als dem der Forscher und/ oder Vercoder (z. B. historische Texte, Flugblätter/ Tagebücher von Angehörigen sozialer Randgruppen). In solchen Fällen sollte der eigentlichen empirischen Inhaltsanalyse eine semantische Analyse der in den Texten vorkommenden Begriffe vorausgehen, um die tatsächliche Bedeutung der sprachlichen Zeichen festzustellen. Zusammengefasst: „Objektivität“ als Definitionsmerkmal der empirischen Inhaltsanalyse kann sich nur beziehen auf eine „Objektivierung“ des Verfahrens der systematischen Datengewinnung durch vorab formulierte explizite Regeln des Vorgehens. Das gilt im Übrigen nicht nur für die Inhaltsanalyse, sondern für sämtliche Methoden der standardisierten empirischen Forschung. Verständnis und Missverständnisse BEISPIEL Vorbereitung: semantische Analyse Objektivierung des-Verfahrens <?page no="308"?> 309 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 309 7.1.2 Die Entwicklung des inhaltsanalytischen Kategoriensystems „Die Analyse von Inhalten geschieht durch ein Kategoriensystem, nach dem die Einheiten des Materials in den problemrelevanten Dimensionen codiert werden“ (Friedrichs 1982, 316). „Da die Kategorien die Substanz der Untersuchung enthalten, kann eine Inhaltsanalyse nicht besser sein als ihre Kategorien“ (Berelson 1952, 147). Beide Zitate zeigen die zentrale Bedeutung des inhaltsanalytischen „Werkzeugs“ Kategoriensystem, das vor Beginn der Textanalyse aus der Fragestellung der Forschung heraus und unter Rückgriff auf empirisch fundiertes Wissen sorgfältig erarbeitet werden muss. Eine gründliche theoretische Aufarbeitung des Forschungsproblems ist, wie bei anderen empirischen Strategien auch, eine notwendige Voraussetzung für die Konstruktion eines brauchbaren Kategorienschemas als Instrument der inhaltsanalytischen Datengewinnung. Diese theoretische Aufarbeitung ist unbedingt vor der Datenerhebung erforderlich; sie kann nicht erst im Laufe der Analyse nachgeholt werden. Um die „problemrelevanten Dimensionen“ der Untersuchung zu ermitteln, wird man-- von einer präzisen Formulierung des Forschungsproblems ausgehend-- eine dimensionale Analyse durchführen und vorhandenes theoretisches sowie empirisches Wissen zum Gegenstandsbereich auswerten, damit die geeigneten Begriffe (hier begriffliche Kategorien genannt) festgelegt und definiert werden können. Diese sollen dann die gezielte Wahrnehmung der Vercoder bei der systematischen Durchsicht der Texte lenken. 245 Damit der Bezug zu den bisherigen allgemeiner gehaltenen Vorüberlegungen deutlich wird, möge sich der Leser nochmals den Ablauf des Forschungsprozesses vergegenwärtigen (vgl. Kapitel 2.2): Nachdem der Forscher aufgrund von Relevanzgesichtspunkten eine Reihe bedeutsamer Aspekte (Eigenschaften, Merkmale) des Gegenstandsbereichs bestimmt hat (Dimensionen A, B,-…; vgl. „dimensionale Analyse“, Kapitel 3.1/ 3.2), werden diese auf der sprachlichen Ebene durch geeignet definierte Begriffe repräsentiert (Begriffe A, B,-…; vgl. Kapitel 3.4). Im Zuge der Operationalisierung sind für jede der begrifflich bezeichneten Merkmalsdimensionen Indikatoren auszuwählen (a 1 , a 2 ,-…; b 1 , b 2 ,-…; vgl. Kapitel 4.1/ 4.3), die zusammen mit den zu unterscheidenden Ausprägungen die Variablen der Untersuchung darstellen (vgl. Kapitel 5.3.2). Den „Merkmalsdimensionen“ in der bisherigen Ausdrucksweise entsprechen nun bei der Inhaltsanalyse von Texten die Kategorien, d. h. die Oberbegriffe, denen die in den Texteinheiten zum Ausdruck kommenden Inhalte zugeordnet werden. 245 Wer selbst eine empirische Inhaltsanalyse durchführen möchte, sollte diesem zentralen, die Qualität der Resultate in hohem Maße determinierenden Arbeitsschritt- - Entwicklung des Kategoriensystems- - besondere Sorgfalt widmen. In einem von Wirth und Lauf (2001) herausgegebenen Reader werden in Teil II (Kategorienbildung) von mehreren Autoren Verfahren vorgestellt, die sie in eigenen Forschungen angewandt haben. Hier findet der Interessierte wertvolle Hinweise. Wichtigkeit des Kategoriensystems Vorbereitung: dimensionale Analyse VERTIEFUNG <?page no="309"?> 310 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 310 „Indikatoren“ für die mit den Kategorien bezeichneten Sachverhalte (Inhalte) sind die sprachlichen Realisationen (z. B. Worte, Sätze). „Merkmalsausprägungen“ (oder Variablenausprägungen) werden in diesem Zusammenhang im Allgemeinen „Unterkategorien“ genannt. Zur Veranschaulichung kann an das in Kapitel 3.2 eingeführte Beispiel einer Untersuchung zum Zusammenhang von sozialer Herkunft und späterem Berufserfolg angeknüpft werden: - Angenommen, es solle einerseits durch Erhebung von Daten bei einer Gruppe von Personen (Befragung) erforscht werden, wie die empirische Situation aussehe (Untersuchung der sozialen Realität). - Andererseits sollen Informationen darüber gewonnen werden, welche Auffassungen gesellschaftliche Gruppen zu dem genannten Problem vertreten (politische Parteien, Gewerkschaften und andere berufsbezogene Organisationen, Interessenverbände; Äußerungen in deren Grundsatz- und eventuell Wahlprogrammen, in deren Veröffentlichungen, Pressediensten usw.). Nach welchen Aussageinhalten müssten wir suchen, und welche Daten müssten wir erheben, um Sichtweise und Zielvorstellungen der genannten Organisationen mit den realen Gegebenheiten vergleichen zu können? Die Fragestellung impliziert für beide Untersuchungsperspektiven zunächst mindestens zwei grobe Dimensionen (oder Denkkategorien): - zum einen die statische Vorstellung von einer sozialen Hierarchie, in der jedes Mitglied der Gesellschaft entsprechend seinem sozialen Status „verortet“ werden kann (und die sich durch Begriffe wie „soziale Lage“, „soziale Schicht“ oder „Klassenstruktur“ bezeichnen lässt); - zum anderen die Vorstellung von einer dynamischen Veränderung dieser Hierarchie, die Idee einer mehr oder weniger starken Durchlässigkeit der Schicht- oder Klassengrenzen (was durch einen Begriff wie „soziale Mobilität“ zu erfassen ist). Damit ein solcher Sachverhalt (Hierarchie, Mobilität) überhaupt als „soziales Problem“ angesehen wird, das z. B. in den öffentlichen Meinungsäußerungen gesellschaftlicher Gruppen als Thema auftaucht und das eine nähere Untersuchung erfordert, müssen mindestens zwei Bedingungen erfüllt sein (Entstehungskontext, Kapitel 2.3): - Der Zustand, wie er wahrgenommen wird, verstößt gegen normative Vorstellungen (z. B. bei einem konservativ Denkenden: Die Mobilität ist zu groß, „alte Traditionen“ gehen verloren, es drohen Instabilität und ein „Zerfallen der gesellschaftlichen Ordnung“; oder aber: Die Mobilitätschancen sind zu gering, die Norm der Chancengleichheit für alle Bürger wird verletzt, die bestehende Hierarchie konserviert überholte Macht- und Herrschaftsverhältnisse). - Die verfügbaren Kenntnisse über die Zusammenhänge im bestehenden System (hier: über die Ursachen und die Wechselwirkungen von individueller Mobilität und gesellschaftlicher Stabilität) werden als nicht ausreichend erachtet. VERTIEFUNG <?page no="310"?> 311 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 311 Zu einer Fragestellung wie der genannten existieren nun vielfältige und widersprüchliche Thesen, Vermutungen und Befürchtungen (Informationssammlung für die dimensionale Analyse, s. Kapitel 3.2). Etwa: Die soziale Hierarchie wird dadurch konserviert, dass der Status des Elternhauses auf die Nachfolgegeneration „vererbt“ wird. Oder entgegengesetzt: Die gegenwärtige Gesellschaft ist hochmobil, sie ist gekennzeichnet durch „Entschichtungsvorgänge“, durch „Deklassierungen und Wiederaufstiege“, wobei der Schule (über die Vermittlung aufstiegsbestimmender Berufsqualifikationen) die Funktion eines „bürokratischen Zuteilungsapparates“ von Lebenschancen zukommt (Schelsky 1962, siehe Kapitel 3.2). Ferner gibt es zum Problem eine Reihe von Theorien (z. B. Sozialisations- und Schichtungstheorien) sowie empirische Einzelbefunde, auf die man aufbauen und aufgrund derer man untersuchungsleitende Hypothesen entwickeln kann. Die Ausformulierung entsprechender Hypothesen führt uns zu problemrelevanten Begriffen wie soziale Stellung des Elternhauses (Berufsprestige, Bildungsstandard, Einkommen usw.), Schulbildung und Berufserfolg der Kinder sowie- - bei einem Vergleich des Elternstatus mit dem der erwachsenen Kinder- - Mobilität, Mobilitätshemmnisse usw. Diese Begriffe sind für das weitere Vorgehen präzise zu definieren. Bis zu diesem Punkt sind die forschungsvorbereitenden Arbeitsschritte für beide Teiluntersuchungen (empirische Beschreibung der sozialen Situation sowie Erhebung der dazu vertretenen Auffassungen) identisch. Unterschiede ergeben sich erst durch die unterschiedliche Art und Weise der Operationalisierung der Begriffe im Hinblick auf die Verfahren Befragung bzw. empirische Inhaltsanalyse. Bei der Befragung geschieht die Operationalisierung dadurch, dass als Informationen über das Vorliegen der mit den Begriffen bezeichneten Sachverhalte (soziale Herkunft, Bildung, Berufserfolg etc.) die Antworten der Befragten herangezogen werden, die Auskunft über die reale Situation geben sollen: Also ist für jede Teildimension des begrifflich bezeichneten Sachverhalts mindestens eine Frage zu stellen (zur sozialen Herkunft etwa je eine Frage nach der genauen Berufsposition des Vaters und der Mutter, dem ungefähren Haushaltseinkommen, nach dem Bildungsabschluss des Vaters und der Mutter, nach den Leistungsorientierungen im Elternhaus usw.). Ferner ist zu entscheiden, ob und in welcher Differenzierung das mögliche Antwortspektrum vorstrukturiert werden soll („Variablenkonstruktion“); etwa bei der Berufsposition: genaue Angabe der Berufstätigkeit nach Berufsbezeichnung, Art der Tätigkeit und Branche; oder bei Haushaltseinkommen: unter 500 €, bis zu 1000 €, bis zu 1500 € usw. Für die empirische Inhaltsanalyse von Texten geschieht die Operationalisierung auf eine etwas andere Weise. Nach der Definition der Begriffe für die problemrelevanten Dimensionen sind Text-Indikatoren für die Sachverhalte zu bestimmen, über die Daten erhoben werden sollen. Die interessierenden „Sachverhalte“ sind ja in diesem Fall nicht empirische Gegebenheiten wie soziale Herkunft, Bildung und Berufserfolg von Personen, sondern Aussagen über den Zusammenhang zwischen sozialer Herkunft und Schulerfolg, über Mobilität, über soziale Hierarchien, über Chancengleichheit oder -ungleichheit usw. Die Variablenkonstruktion geschieht jetzt dadurch, dass zunächst Oberbegriffe (Kategorien) formuliert werden, die mit den definierten Begrif- Operationalisierung für die Befragung Operationalisierung für Inhaltsanalyse <?page no="311"?> 312 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 312 fen für die problemrelevanten Dimensionen identisch sein oder diese weiter in Teildimensionen untergliedern können. Zusätzlich ist anzugeben, welche Unterscheidungen je Kategorie vorgenommen werden sollen (Unterkategorien). Die Kategorien sind also das Äquivalent zu den Fragen im Instrument Fragebogen, die Unterkategorien sind das Äquivalent zu den Antwortvorgaben. Der interessierende Begriff sei „Chancengleichheit“. An Kategorien im Text seien hier unterschieden: - Dimension 1: normative Aussagen zur Chancengleichheit, - Dimension 2: deskriptive Aussagen zur Chancengleichheit Als weitere Differenzierung (=- Unterkategorie, beobachtbare „Ausprägung“ der Dimension) sei vorgesehen: zu 1 (normative Aussagen): Chancengleichheit - wird als unverzichtbarer gesellschaftlicher Grundwert angesehen - wird als erstrebenswert, aber nicht vollständig erreichbar angesehen … bis zu-… - wird strikt abgelehnt; zu 2 (deskriptive Aussagen): Chancengleichheit - ist voll und ganz verwirklicht - ist größtenteils verwirklicht … bis zu-… - ist überhaupt nicht verwirklicht. Man sieht: An die Stelle des Fragebogens, der das Verhalten des Interviewers lenkt und der vorschreibt, welche Fragen zu stellen und wie die Antworten zu protokollieren sind, tritt bei der Inhaltsanalyse eine Art „Textbeobachtungsschema“, also ein Kategoriensystem, das die Aufmerksamkeit der kodierenden Person(en) bei der Textdurchsicht lenkt und das vorschreibt, welche Aussageinhalte in welcher Weise systematisch zu protokollieren sind. Die Ähnlichkeit beider Verfahren lässt sich im Falle eines standardisierten Interviews weiter verdeutlichen: Bei der Befragung liest die Interviewerin/ der Interviewer den Fragewortlaut vor und notiert zu jeder Frage, ob die/ der Befragte (=-Erhebungseinheit) geantwortet hat und falls ja, welche der Antwortvorgaben gewählt wurde: Das Ergebnis ist für jede(n) Befragte(n) ein vollständig ausgefüllter Fragebogen als Rohdatenbeleg. Im Falle der systematischen Inhaltsanalyse hat die Vercoderin/ der Vercoder (analog zum Fragebogen) ein begriffliches Kategoriensystem als Abfrageschema an den Text vorliegen. Die Vercoderin/ der Vercoder liest nun einen Textabschnitt (=-Erhebungs- Oberkategorien und Unterkategorien BEISPIEL Vergleich Fragebogen/ Kategoriensystem <?page no="312"?> 313 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 313 einheit oder Zähleinheit) 246 und stellt zu jeder Kategorie fest, ob im Textabschnitt hierzu etwas ausgesagt wird und wenn ja, welche der vorgesehenen Unterkategorien zutrifft. Das Ergebnis ist für jeden Textabschnitt ein vollständig ausgefülltes Kodierblatt als Rohdatenbeleg (mit den Vercoder-„Antworten“ auf sämtliche inhaltsanalytischen Kategorien). Inhaltsanalytische Vorgehensweisen sind allerdings nicht nur notwendig bei dem eigentlichen Verfahren der empirischen Inhaltsanalyse als Strategie der Datengewinnung. Man benötigt sie auch bei der Anwendung der Verfahren Beobachtung und Befragung. So setzt z. B. die Entwicklung von Antwortvorgaben zu einer Frage im standardisierten Fragebogen eine vorgezogene- - gedankliche- - Inhaltsanalyse des potenziellen Antwortspektrums voraus. Das typische Vorgehen kann am Beispiel einer „Mini-Inhaltsanalyse“ von Antworten auf eine offene Frage in einem Interview (d. h. eine Frage ohne Antwortvorgaben) veranschaulicht werden. In einer Befragung zur Wohnsituation in Köln und Umgebung (Kromrey 1981) wurde folgende sehr allgemein gehaltene und mehrere Dimensionen des Begriffs „Wohnsituation“ ansprechende Frage gestellt: „Bitte sagen Sie mir jetzt noch, was Ihnen an Ihrem Wohngebiet besonders gut gefällt und was Sie für besonders schlecht halten.“ Die Frage war bewusst so allgemein gestellt worden, um zu erfahren, welche Wohngebietsmerkmale von den Befragten spontan als besonders gut und welche spontan als besonders schlecht eingestuft werden (bewusstseinsmäßige Präsenz von Merkmalen der Wohngebietsgüte als Indikator für individuelle Bedeutsamkeit dieser Merkmale). Das Vorgehen bei der Auswertung offener Fragen ist relativ einfach, aber auch zeitaufwendig. Um eine Mini-Inhaltsanalyse der Antworten im Hinblick auf die angesprochenen Dimensionen der Bewertung der Wohnsituation durchführen zu können, wird man sich zunächst auf die Hypothesen stützen, die der gesamten Untersuchung zugrunde liegen. Auf diese Weise bestimmt man, welche Bewertungsdimensionen für die Auswertung wichtig sind (etwa Wohnlage, Infrastruktur, soziale Umwelt). Danach kann man bei nicht zu großen Datenmengen zunächst sämtliche Antworten, die einen bestimmten Aspekt ansprechen, in Stichworten (geordnet) auflisten. Dabei wird sich herausstellen, a) ob die theoretisch ermittelten Bewertungsdimensionen ausreichen und b) ob sie hinreichend oft in den Antworten vorkommen, um beibehalten zu werden. Aufgrund der so gewonnenen ausführlichen Liste der in den Antworten der Befragten vorkommenden Stichworte und der Häufigkeit ihres Vorkommens (Strichliste) besteht die Möglichkeit, geeignete Oberbegriffe (theoretische Dimensionen) sowie die zu unterscheidenden Ausprägungen festzulegen. Danach kann die endgültige Vercodung der Antworten stattfinden. 246 Zur Abgrenzung der Zähleinheiten vgl. Kapitel 7.1.4. Inhaltsanalytische Vorgehensweise in anderen Kontexten BEISPIEL Inhaltsanalyse offener Fragen <?page no="313"?> 314 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 314 Im Falle sehr großer Datenmengen wird man allerdings das Anfertigen einer Stichwort- und Strichliste auf eine Stichprobe aus der Gesamtzahl der Interviews beschränken und auf dieser Basis das Kategoriensystem zur Vercodung der Antworten aufstellen. Dieser letztere Fall entspricht dem Vorgehen bei einer „echten“ Inhaltsanalyse: Zunächst wird aufgrund der theoretischen Vorüberlegungen ein Entwurf eines Kategorienschemas erstellt; danach wird das Schema anhand einer kleinen Stichprobe von Texten angewendet (Pretest), aufgrund der gemachten Erfahrungen verbessert und endgültig formuliert. Der Vercodungsplan für die genannte Frage zur Bewertung der Wohnsituation sah wie folgt aus: Kategorien: Stichworte: - Lage kurze Entfernungen, zentrale Lage, Stadtlage - Ruhe, Luft gute Luft, wenig Verkehrslärm - Verkehrssituation gute Verkehrsverbindungen, gute Straßen, Autobahnnähe, Parkmöglichkeiten, Straßenbahn - Natur Parks, Gärten, landschaftlich schöne Umgebung, Grün - Menschen, Leben Bewohner, Kommunikation, Kontakte, Geselligkeit, soziale Mischung, Nachbarn, Altstadtleben - Ortsbild, Bebauung Rheinpromenade, Altstadtbauten, historische Struktur, Gepflegtheit, Bebauungsdichte, Architektur, Aufgelockertheit - Einkaufsmöglichkeiten Geschäfte, Warenangebote, Tante-Emma-Läden in der Nähe - Infrastruktur für-Kinder Schulen, Kindergärten, Spielplätze - Infrastruktur für-Freizeit kulturelle Veranstaltungen, Gastronomie, Kino, Bowling, Diskothek - sonstige Infrastruktur Schwimmbad, Gehwege Ausprägungen zu jeder Kategorie: besonders gut-- sowohl gute als auch schlechte Aspekte genannt-- besonders schlecht-- Kategorie kommt in der Antwort nicht vor. 247 247 Eine ausführliche Behandlung von Ansätzen zur Auswertung offener Interviewfragen (insbesondere mit EDV-Unterstützung) findet sich in Kuckartz 2005; geeignete Programme sind z. B. das darin beschriebene MAX-QDA oder Atlas.ti. Kategorienschema aus theoretischen Überlegungen BEISPIEL <?page no="314"?> 315 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 315 7.1.3 Anforderungen an das Kategoriensystem Anhand des im vorigen Abschnitt vorgestellten Beispiels lassen sich bereits einige Feststellungen zur Kategorienbildung treffen. 248 Erstens. Das inhaltsanalytische Kategoriensystem ist immer selektiv im Hinblick auf bestimmte Fragestellungen; d. h. - es werden sich nicht alle Einzelheiten, die im Text enthalten sind, auch in der Differenzierung des Kategorienschemas wiederfinden; 249 - das Kategorienschema muss nicht eine vollständige Erfassung hinsichtlich aller im Text auftretenden Inhalte erlauben, sondern es muss so differenziert sein, dass es zum einen vollständig alle interessierenden Bedeutungsdimensionen erfasst und zum anderen Vergleiche zwischen den Texteinheiten des Untersuchungsmaterials erlaubt. 250 Im Zusammenhang mit dieser prinzipiellen Selektivität stellt sich die Anforderung, dass die relevanten Untersuchungsdimensionen klar bestimmt und die Kategorien auf sämtliche relevante Dimensionen bezogen sein müssen. Ferner sind die Kategorien so präzise zu definieren, dass eindeutig feststellbar ist, ob ein Textelement in die betreffende Kategorie fällt. Zweitens. Das Kategorienschema muss bestimmten formalen Anforderungen gerecht werden: - Jede im Kategorienschema enthaltene Kategorienreihe (d. h. Oberkategorie mit Unterkategorien als Merkmalsausprägungen) muss aus einem einheitlichen Klassifikationsprinzip abgeleitet sein, sie darf sich nur auf eine Bedeutungsdimension beziehen (vgl. „Prinzip der Vergleichbarkeit“, Kapitel 5.3.3). 251 - Die einzelnen Kategorien müssen einander ausschließen. Das gilt sowohl für die eigentlichen Kategorien (Oberbegriffe), da sonst Unklarheiten entstehen könnten, welcher Merkmalsdimension eine Äußerung zuzuordnen ist. Das gilt aber 248 Ein umfassend dokumentiertes Forschungsbeispiel findet sich in: Kromrey/ Jansen u. a. (1984). 249 Im obigen Beispiel ist „Menschen und Leben“ eine einzige Kategorie, obwohl in den Antworten eine sehr große Vielfalt anzutreffen ist: Die Äußerungen beziehen sich zum Teil auf Interaktionen, auf die Sozialstruktur, auf bestimmte Einzelpersonen, auf den Verhaltensstil von Personengruppen usw. 250 Beispiel: Wenn jemand das Wetter in seiner Wohngegend bemängelt haben sollte, so ist diese Wertung im Hinblick auf die städtebaulich interessierenden Dimensionen irrelevant. 251 Beispiel: Die zitierte Frage bezieht sich auf bewertete Eigenschaften von Wohngebieten. Falls in diesem Zusammenhang etwas über Menschen und Leben ausgesagt wird, dann soll dies als Eigenschaft des Wohngebiets gelten; es darf nicht mit der Bewertung einer bestimmten Person vermengt werden. Wäre die Frage von den Befragten so aufgefasst worden, dass sie sowohl zum Wohngebiet etwas Wertendes aussagen als auch über ihre persönliche Situation, über ihre persönlichen Kontakte mit einzelnen anderen Personen, dann könnten solche Äußerungen entweder außer Acht gelassen werden, oder-- falls man sie auswerten wollte-- es müsste eine weitere Kategorie gebildet werden, die sich auf diese Bewertungsdimensionen bezieht. Kategoriensystem ist selektiv formale Anforderungen nur eine Bedeutungsdimension Kategorien müssen einander ausschließen <?page no="315"?> 316 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 316 auch für die Unterkategorien (die Ausprägungen). Zusammengefasst: Jede auf eine interessierende Bedeutungsdimension bezogene sprachliche Einheit muss sich einer und nur einer Kategorie und Unterkategorie zuordnen lassen (vgl. „Prinzip der Klassifizierbarkeit“, Kapitel 5.3.3). - Das Kategorienschema muss erschöpfend sein, d. h. jede für die Untersuchungsfragestellung interessierende sprachliche Einheit (aber nicht: jede sprachliche Einheit des Textes) muss sich einer der definierten Kategorien zuordnen lassen. Eine klare Bestimmung der Kategorien und ein durchsichtiger theoretischer Bezug ist eine wesentliche Voraussetzung dafür, dass wirklich alles Material, das an sich in die Kategorie gehört, dieser auch zugeordnet wird (vgl. „Prinzip der Vollständigkeit“, Kapitel 5.3.3). - Die Unabhängigkeit der Kategorien muss gesichert sein; d. h. die Einordnung einer Texteinheit in eine Kategorie darf nicht die Einordnung anderer Daten festlegen. Diese Forderung kann nicht eingehalten werden, falls Texte im Hinblick auf ein bestimmtes Merkmal nach ihrem Rang in eine Skala eingeordnet werden sollen. Die aufgeführten Regeln gelten im Übrigen nicht nur für die Inhaltsanalyse, sie gelten allgemein für jede Klassifikation von Beobachtungs- und Befragungsmaterial sowie für das Aufstellen von Kodierplänen. Im fertigen Kategorienschema bezeichnet jede Kategorie eine bestimmte Klasse von Bedeutungen (Inhalten) auf einer bestimmten Bedeutungsdimension. In den Kategorien werden die im Textmaterial auftretenden relevanten sprachlichen Einheiten unter dem Gesichtspunkt ihrer Bedeutungsgleichheit (richtiger: ihrer semantischen Ähnlichkeit) zusammengefasst. Die Vielfalt sprachlicher Ausdrucksmöglichkeiten eines bestimmten Inhalts wird somit auf Klassen semantischer Ähnlichkeiten reduziert. Um eine zuverlässige Einordnung der sprachlichen Einheiten in diese Klassen semantischer Ähnlichkeiten zu gewährleisten, sind die Kategorien operational zu interpretieren; d. h. es ist für jede Kategorie-- etwa anhand typischer Beispiele-- genau anzugeben, welche Arten von Aussagen unter die Kategorie zu subsumieren sind. Zu diesem Zweck ist es erforderlich, dass auch die Zähleinheit (=-die Untersuchungseinheit oder Kategorisierungs- oder Kodiereinheit) präzise definiert und somit für den Kodierer eindeutig abgrenzbar ist (vgl. dazu Kapitel 7.1.4). Die gebildeten Kategorien müssen sich nämlich auf die kleinsten im Text zu unterscheidenden Einheiten-- die Zähleinheiten-- beziehen lassen. Möglichkeiten der Operationalisierung (der „operationalen Interpretation“) sind: - Die Kategorien werden lediglich mit einem Oberbegriff bezeichnet (Lage; Ruhe und Luft; Infrastruktur für Kinder usw.). Dem Vercoder bleibt es überlassen, nach seinem eigenen Sprachverständnis die Texteinheiten einzuordnen. Dieses Verfahren dürfte eine sehr geringe Inter-Coder-Zuverlässigkeit aufweisen. Kategorienschema muss erschöpfend sein Kategorien müssen voneinander unabhängig sein Zusammenfassung nach Bedeutungsgleichheit präzise definierte Zähleinheit Möglichkeiten der Operationalisierung <?page no="316"?> 317 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 317 - Die Kategorien werden mit einem Oberbegriff bezeichnet, zusätzlich werden typische Beispiele aufgeführt und Grenzfälle aufgezeigt. - Alle zu einer Kategorie gehörigen sprachlichen Elemente werden aufgelistet. Dies kann durch eine Stichwortliste zu jeder Kategorie geschehen, die man im Verlaufe der Vercodung fortlaufend ergänzt, falls neue Stichworte auftauchen. - Der Rahmen einer Kategorie wird allgemein beschrieben, auch in Bezug zu anderen Kategorien, ohne dass einzelne Elemente aufgezählt würden. Beispiel 1: Kooperation =- liegt vor, wenn mindestens zwei Partner aktiv handeln und dabei ein gemeinsames Ziel oder Teilziel verfolgen und dabei weder Konkurrenz noch Dissens über ihre Aktivitäten und Ziele besteht. Beispiel 2: In Kapitel 5.2.1 wurde zur Illustration, wie leicht ein oberflächlicher Umgang mit statistischen Angaben zu fehlerhaften Schlussfolgerungen führen kann, der Fall einer „Weiterverwertung“ der jährlich durch das Institut für Museumskunde erhobenen Museumsbesuchszahlen geschildert. Die in diesem Zusammenhang vorgenommene Definition des Begriffs „Museum“ kann als eine Mustervorlage auch für die Präzisierung inhaltsanalytischer Kategorien gelten (Definitionsprinzip: Angabe von Merkmalen, die Organisationen vom Typ Museum aufweisen müssen, und Nennung einiger Negativbeispiele für Fälle, die nicht zu berücksichtigen sind; vgl. Kapitel 3.5.3). 7.1.4 Phasen der Inhaltsanalyse 252 a) Festlegung der Art oder der Klasse von Texten, die man für eine Fragestellung analysieren will, etwa - Bundestagsprotokolle 1950-1960, 1970-1980 und 1990-2000; - Deutschlesebücher für das 5.-7. Schuljahr, die 2005 in bayerischen, nordrhein-westfälischen und Brandenburger Hauptschulen benutzt wurden; - Kommentare zum Thema „Arbeitslosigkeit“ in der FAZ, Welt, Süddeutschen Zeitung, in der taz und in „Bild“ vom 1.7.2008 bis 30.6.2009; - politische Kabarett-Texte aus Berlin, Hamburg, Düsseldorf und München 1950-55 und 2000-2005. Wesentlich bei der Entscheidung über die Festlegung ist: - dass die Texte relevant für den Zweck der Untersuchung sind, - dass sie existieren und - dass sie zugänglich sind. 252 Nach Harder 1974, 236 ff. Eine differenzierte methodische Darstellung der Arbeitsschritte mit hilfreichen Beispielen findet sich bei Schreiber 1999. BEISPIELE Textmaterial festlegen <?page no="317"?> 318 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 318 Dies wiederum ist nur zu entscheiden, wenn man - die Merkmale der Texte eindeutig definiert (Was z. B. soll als „Nachricht“, was als „Kommentar“ gelten, was als „politischer Kabarett-Text“? ), - den Zeitraum ihrer Entstehung oder Verwendung (im Zweiten Weltkrieg entstandene oder gesungene Soldatenlieder? ) oder Publizierung genau festlegt. b) Definition einer Stichprobe oder Teilgesamtheit aus der Klasse der festgelegten Texte. Diese entfällt dann, wenn man nur einen zu analysierenden Fall hat (etwa einen Roman) oder wenn die Gesamtheit der Fälle berücksichtigt werden soll (etwa das Gesamtwerk eines Schriftstellers). Soweit sachlich erforderlich und kostenmäßig vertretbar, sollte eine Zufallsstichprobe gezogen werden. Dann gelten alle Regeln und Formen der Stichprobentheorie, insbesondere soweit sie die Schichtung und Mehrstufigkeit betreffen. Soll eine Auswahl aus allen Zeitungen der BRD für den gesamten Zeitraum seit 1949 gezogen werden, ist ein mehrstufiges Vorgehen zweckmäßig, etwa: - 1. Stufe: Auswahl aus der Gesamtheit der Gemeinden, in denen Zeitungen erscheinen; - 2. Stufe: sofern in bereits ausgewählten Gemeinden mehrere Zeitungen erscheinen-- je Gemeinde Auswahl eines Zeitungstitels; - 3. Stufe: Auswahl bestimmter Nummern der Zeitungen, die jetzt noch „im Rennen“ sind (z. B. jede 20. Ausgabe). - Möglicherweise wäre aber auch eine Kombination von geschichteter und mehrstufiger Auswahl sinnvoll: - 1. Stufe: die Gesamtheit aller erscheinenden Zeitungen (Verzeichnis des Verlegerverbandes) wird in drei Gruppen eingeteilt: a) in die kleine Anzahl von Zeitungstiteln mit sehr hoher Auflage (alle werden berücksichtigt), b) die mittelgroße Anzahl von Titeln mit durchschnittlicher Auflage (Auswahlsatz 40 %) und schließlich c) die große Zahl von Titeln mit kleiner Auflage (Auswahlsatz 10 %); - 2. Stufe: Auswahl bestimmter Nummern der Zeitungen, die in Stufe 1 ausgewählt worden sind (z. B. jede 20. Ausgabe). Allgemein ist die Auswahl nach vier Typen von Gesichtspunkten zu treffen: - Regionalität: Länder, Städte, Messeplätze usw.; - Zeit, Periodizität: Kalenderdaten, Erscheinungsfolgen, Jahre, Kriege usw.; - Quellen: Verfasser, Titel, Publikation, Eigentümer, Empfänger (von z. B. Briefen); - inhaltliche Gesichtspunkte: etwa Auswahl der Themen von Zeitungsberichten, aber auch formale Gesichtspunkte wie die weitere Unterteilung der Publikation in Seiten, Absätze usw. Auswahl BEISPIEL Auswahldimensionen <?page no="318"?> 319 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 319 c) Definition der Zähleinheit (außer im Falle einer eher „qualitativen“ Textdurchsicht, wo es nur darum geht, die „interessanten“ Textstellen zu finden oder zusammenhängende Argumentationsstränge herauszuarbeiten oder einen ersten Eindruck vom Inhalt zu gewinnen). Die Zähleinheit ist der Merkmalsträger, an dem untersucht wird, welche Ausprägungen (Unterkategorien) der zu erhebenden Merkmale (Kategorien) vorliegen. Das Ergebnis der Kodierung anhand des gesamten Kategorienschemas ist für jede einzelne Zähleinheit (für jede Texteinheit) festzuhalten, d. h. systematisch zu protokollieren. Im Zuge der Auswertung wird dann festgestellt („gezählt“), wie viele Zähleinheiten (Merkmalsträger) in eine Unterkategorie gehören. 253 Im Falle der hier behandelten systematischen empirischen Inhaltsanalyse geht es um die Zählung von Texteinheiten, um quantitative Auswertungen. Zähleinheiten eines Textes können zum Beispiel sein: - Wörter, die listenmäßig vorgegeben sind; - Wortbestandteile (Suffixe, Wurzeln usw.); - Fremdwörter, Wortarten, Wortgruppen (Idiome, Schlagworte etc.); - Sätze, Satzteile; - Textabschnitte, Artikel, Seiten; - Schlagzeilen, Überschriften; - Briefe, Reden, Aufsätze; - Minutenabschnitte von Sendungen (z. B. Nachrichten, Kommentare); - zusammenhängende Aussagen, Argumente usw., d. h. semantisch abgegrenzte Zähleinheiten. Um bei den Auszählungen (insbesondere aber bei anspruchsvolleren Zusammenhangsanalysen) die aus dem Zusammenhang des Gesamttextes herausisolierten Aussagen korrekt verstehen zu können, benötigt man im Allgemeinen zu jedem Textelement (=-zu jeder Zähleinheit) ergänzende Informationen über den Kontext, in dem sie gestanden haben. Man wird in diesem Fall also auch die entsprechende Kontexteinheit definieren müssen, aus der diese Zusatzinformationen herausgelesen werden können (s. Schreiber 1999, 87). 254 Die Zähleinheit ist-- außer bei der Klumpenauswahl (Kapitel 6.5.2)-- die letzte Stufe im Stichprobenplan: die „letztstufige Stichprobeneinheit“. 253 Der Zähleinheit in der Inhaltsanalyse entspricht beim Interview im Allgemeinen die befragte Person. Die Auswertung der Befragungsdaten besteht dann u. a. darin, dass man zählt, wie oft bestimmte Antworten vorgekommen sind. 254 Die Notwendigkeit der Erfassung ergänzender Kontextinformationen zur Sicherung der Interpretierbarkeit standardisierter Daten ist keine Besonderheit der empirischen Inhaltsanalyse. So werden auch bei Befragungen regelmäßig analoge Zusatzinformationen erhoben (insbesondere sozio-demografische Daten wie Geschlecht, Alter, Familienstand, Bildung, Beruf etc.). Definition der Zähleinheit BEISPIEL Information über Kontexteinheit <?page no="319"?> 320 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 320 Dies zeigt das obige Beispiel: Wenn auf der 2. Stufe Zeitungsausgaben in einem mehrstufigen geschichteten Verfahren ausgewählt wurden, wird üblicherweise als weitere Stufe noch die Festlegung und gegebenenfalls Auswahl von Zähleinheiten folgen: Artikel, Spalten oder Absätze, falls nicht die gesamte Zeitungsausgabe als eine große Zähleinheit gelten soll. Im Falle des Klumpenverfahrens werden dann alle Zähleinheiten der ausgewählten „Klumpen“ berücksichtigt (z. B.: Auswahleinheit =-Leitartikel in den Wochenendausgaben von Tageszeitungen; Zähleinheiten =-die Absätze in den ausgewählten Leitartikeln). d) Entwicklung eines Kategorienschemas Dies ist das Kernproblem der Inhaltsanalyse. Das Kategorienschema wird vor Durchsicht der Texte im Entwurf fertig gestellt und danach im Allgemeinen mit Hilfe einer Probeanwendung (Pretest) an einem Teil der Stichprobe noch ausgefeilt. Vor allem sind die Kategorien und Unterkategorien aufgrund der Erfahrungen dieses Prestests präzise zu definieren und mit Beispielen anzureichern. Die Definition der Zähleinheit (s. o.) ist im Falle der Inhaltsanalyse gleichbedeutend mit der Festlegung der Untersuchungseinheit im allgemeinen Fall empirischer Erhebungen. Demgegenüber handelt es sich bei den inhaltsanalytischen Kategorien (bei der Entwicklung des Kategorien-Unterkategorien-Schemas) um die methodenspezifische Art und Weise der Operationalisierung der Untersuchungsfragestellung. Man kann die Kategorientypen danach unterscheiden, ob sie eine elektronische (maschinelle) Zuordnung der Unterkategorien zu den Zähleinheiten zulassen oder nicht. Falls ja, bestehen auch für menschliche Vercoder keine semantischen Probleme. Dies ist der Fall, wenn die Kategorie durch bestimmte Buchstabenkombinationen (Worte, Namen, Bezeichnungen, Abkürzungen, Einzelbuchstaben) oder Zeichen sowie durch Zählungen (Zahl der Worte in einem Satz, Zeilenanzahl, Substantive pro Abschnitt usw.) oder Messungen (Quadratzentimeter) definiert oder identifizierbar ist. Die Inhaltsanalyse arbeitet allerdings hauptsächlich mit Kategorien, die intensional definiert sind und über den manifesten Inhalt von Texten (die „wortwörtliche“ Bedeutung) hinausreichen. e) Verschlüsselung der Zähleinheiten nach dem Kategorienschema (Vercodung) Um übereinstimmende Kodierungen zu erreichen, sind präzise Definitionen der inhaltsanalytischen Kategorien sowie eine ausreichende Schulung der Vercoder erforderlich. Im Codeblatt ist Raum für sämtliche Kategorien vorzusehen; jede Unterkategorie erhält eine Code-Nummer. Jede Zähleinheit wird mit einer Zeile im Codeblatt repräsentiert. Der Vercoder trägt je Zähleinheit ein, welche Unterkategorie für die jeweilige inhaltsanalytische Kategorie zutrifft. Wie unter c) schon geschildert, muss das Kategorienschema, damit eine sinnvolle Auswertung der codierten Daten möglich ist, für jede Zähleinheit auch Kontextinformationen umfassen. Im Beispiel „Analyse der Leitartikel in Wochenendausgaben BEISPIEL Entwicklung des Kategorienschemas Untersuchungseinheit ist Zähleinheit VERTIEFUNG Zuordnung von Codes <?page no="320"?> 321 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 321 von Tageszeitungen“ und der Zähleinheit „Absatz“ sind zumindest erforderlich: Identifikationsnummer des Leitartikels, aus dem der Absatz stammt; Thema des Leitartikels; Name der Tageszeitung; Erscheinungsdatum. f ) Analyse des codierten Materials Die Phasen a) bis e) bringen die Rohdaten des Textes in eine Form, die nun die eigentliche Analyse unter Anwendung mathematisch-statistischer Analysetechniken ermöglicht (siehe Kap. 8). 255 Diese Analyse gibt uns die Antworten auf unsere Untersuchungsfragen. Je nach Messniveau der verwendeten inhaltsanalytischen Kategorien sind neben der Häufigkeitsauszählung Tabellenanalysen, Korrelations-, Regressionsrechnungen oder Verfahren der multivariaten Statistik anwendbar. g) Prüfung der Zuverlässigkeit und Gültigkeit (ist bei allen „Phasen“ der Inhaltsanalyse im Auge zu behalten) Bei allen Messoperationen muss sich die Forscherin bzw. der Forscher ein Bild davon machen können, ob die Messwerkzeuge zuverlässig messen und ob die Messergebnisse auch das besagen, was sie besagen sollen (ob sie „gültig“ sind). Die größte Gefahr für die Zuverlässigkeit der inhaltsanalytischen Ergebnisse liegt im Einsatz mehrerer Vercoder/ innen, weil sich Unterschiedlichkeiten der Auffassung, des Sprachgefühls und der subjektiven Einstellungen zum Inhalt bei den einzelnen Vercodern auf die Codierung als subjektiv-interpretierenden Vorgang auswirken (können). Die Zuverlässigkeit zwischen Vercodern hängt somit vom Inhalt selbst, vom Kategorienschema und von der Eigenart der Texte ab (z. B. homogene/ heterogene Stile, gleiche Autoren/ unterschiedliche Autoren). Vieldeutige Kategorien führen zu größeren Abweichungen als eindeutige. Man verringert die Fehlermöglichkeiten, indem man Textbeispiele für die Unterkategorien in deren Definition aufnimmt. Das Zuverlässigkeitsproblem stellt sich natürlich auch, wenn nur eine einzige Person das gesamte Material verschlüsselt. Wie kann man wissen, ob nicht ein anderer aus demselben Material etwas anderes vercoden würde? (Kontrolle: Vercodung desselben Materials durch eine zweite Person). Außerdem wird nicht das ganze Material zum gleichen Zeitpunkt verschlüsselt; die Codierungen können aber mit fortschreitender Arbeit teilweise anders ausfallen (Ermüdungsebenso wie Lernprozesse). Es ist also zwischen der Inter-Coder-Reliabilität (mehrere Vercoder) und der Intra-Coder- Reliabilität (Übereinstimmung der Verschlüsselung beim gleichen Vercoder zu verschiedenen Zeitpunkten) zu unterscheiden. Die Frage der Gültigkeit stellt sich schwerpunktmäßig bei den Kategorien. Werden diese ohne alle Berücksichtigung des Materials gebildet und endgültig so beibehalten, besteht die Gefahr, dass das Material wenig Gültiges über die intendierten Zielvariablen aussagt. Stellt man auf der anderen Seite sehr materialnahe Kategorien auf, so können diese möglicherweise wenig relevant für die Zielvariablen sein. Dies 255 Die Kategorisierung oder Verschlüsselung (Codierung) des Inhalts ist die letzte Phase des Teils der „Inhaltsanalyse“, der im Wortsinne eigentlich noch gar keine „Analyse“ ist, sondern nur deren Vorbereitung. Analyse des codierten Materials Prüfung der Zuverlässigkeit Inter-Coder- Reliabilität Intra-Coder- Reliabilität Prüfung der Gültigkeit <?page no="321"?> 322 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 322 verweist auf zwei Ebenen der Gültigkeit-- die interne und die externe. Intern gültig (intern valide) ist die Codierung, wenn es gelingt, unterschiedlich formulierte Aussagen entsprechend ihrer tatsächlich gemeinten Bedeutung den richtigen Kategorien zuzuordnen. Extern gültig (extern valide) ist die Vercodung darüber hinaus, wenn die Kategorien korrekte Schlussfolgerungen auf die Realität außerhalb der Texte erlauben (vgl. die Definition von Inhaltsanalyse in Kapitel 7.1). Das generelle Problem einer gültigen Übersetzung theoretischer Begriffe in Indikatoren (vgl. Kapitel 4.1) existiert natürlich bei der Inhaltsanalyse in gleicher Weise wie bei jedem anderen empirischen Verfahren. 7.1.5 Verschiedene inhaltsanalytische Ansätze Bisher wurde „Inhaltsanalyse“ relativ vage als eine Forschungstechnik umschrieben, mit der man aus jeder Art von Bedeutungsträgern durch systematische und objektive Identifizierung ihrer Elemente Schlüsse ziehen kann. Die vorgeschlagene Definition ist bewusst weit gefasst und bedeutet-- anders als in frühen methodologischen Positionen-- auch nicht eine Eingrenzung der Analyse auf den „manifesten Inhalt“ von Mitteilungen (auf die reinen Wortbedeutungen); sie bezieht vielmehr auch die Analyse „latenter Inhalte“ als Möglichkeit mit ein. Unter diesen Begriff von Inhaltsanalyse können dementsprechend sehr unterschiedliche Verfahren subsumiert werden, die es erlauben, Texte in Einzelteile bzw. in Elemente zu zerlegen und diese Elemente dann bestimmten Kategorien zuzuordnen. Gemeinsam ist allen diesen Verfahren, dass sie in irgendeiner Weise Inhalte zu klassifizieren versuchen. Je nach Art und Weise, in der Inhalte quantifiziert werden, lassen sich unterschiedliche inhaltsanalytische Strategien unterscheiden. Frequenzanalysen Im einfachsten Fall bleibt es auch in der Phase der Auswertung bei einer einfachen Klassifikation von Textelementen: Für die Codierung ist ein Kategorienschema vorgegeben; es ist definiert, was für die Codierung die kleinste zu unterscheidende Einheit (das „Element“, die Zähleinheit) sein soll; und es werden die jeweiligen Zähleinheiten unter jeweils zutreffende Kategorien subsumiert. Falls sich die anschließende Auswertung dieser Zuordnungen darauf beschränkt festzustellen, wie häufig bestimmte Zeichen oder Zeichengruppen auftauchen, sprechen wir von Frequenzanalysen. Es wird also lediglich ausgezählt, wie häufig Textbestandteile den Kategorien und Unterkategorien zugeordnet worden sind. Frequenzanalysen sind sinnvoll, wenn unterstellt werden kann, dass die Häufigkeit des Auftretens bestimmter Themen, bestimmter Elemente in einem Text ein entscheidendes Indiz für die Bedeutung dieser Elemente im Hinblick auf das Untersuchungsproblem sei (vgl. Ritsert 1972, 17). verschiedene Inhaltsanalyse- Verfahren Häufigkeit von Textbestandteilen <?page no="322"?> 323 7.1 Empirische Inhaltsanalyse www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 323 Valenzanalysen Häufig will man sich nicht mit reinen Häufigkeitsauszählungen begnügen, sondern möchte zusätzlich den Trend von Bewertungen berücksichtigen, der in Aussagen deutlich wird. In diesem Fall ist das Kategorienschema anspruchsvoller zu gestalten; es muss nicht nur die entsprechenden Bewertungsdimensionen, sondern auch die Bewertungsausprägungen enthalten (mindestens: pro-- contra-- neutral). Dieser Typ von Inhaltsanalyse wird als Valenzanalyse bezeichnet. Beispielsweise werde nicht nur festgestellt, wie häufig die Süddeutsche Zeitung, die FAZ und BILD über die Finanzierung des Aufbaus in den ostdeutschen Bundesländern durch Steuererhöhungen („Solidaritätszuschlag“) in einem bestimmten Zeitraum berichtet haben, sondern auch, ob die Berichterstattung pro oder contra Solidaritätszuschlag oder in dieser Hinsicht neutral (nur informierend) war. Bei der Frequenzanalyse hätten wir es bei einer Kategorie von z. B. „Steuererhöhung“ oder „Solidaritätszuschlag“ als Ausprägungen lediglich mit „genannt“ und „nicht genannt“ zu tun; bei der Valenzanalyse gibt die Merkmalsausprägung zusätzlich noch Auskunft darüber, ob-- wenn die Kategorie im Text vorkommt-- die Stellungnahme jeweils positiv, negativ oder neutral war. Solche Valenzanalysen sind natürlich nur in der Lage, sehr grobe Aussagen über die Tendenz von Berichten bestimmter Publikationen zu machen. Intensitätsanalysen Eine Erweiterung dieses Ansatzes zielt darauf ab, auch die Intensität von Bewertungen mit zu erfassen, also nicht nur die Richtung positiv bzw. negativ, sondern zusätzlich: wie stark positiv bzw. wie stark negativ? Bei solchen Intensitätsanalysen stellt sich somit die Aufgabe, das kategorisierte Textmaterial von gut geschulten „Beobachtern“ (Codern) auf einer Intensitätsskala (Urteilsintensitäten, Einstellungsintensitäten) intersubjektiv verlässlich zu bewerten. Ein bekanntes Verfahren der Intensitätsanalyse ist die von Ch. Osgood u. a. (1956) entwickelte „Evaluative Assertion Analysis“. Kontingenzanalysen Eine andere Form der Spezifizierung des Verfahrens der Inhaltsanalyse fragt nicht allein danach, wie oft ein sprachliches Element in der Mannigfaltigkeit des Textmaterials auftaucht, sondern zusätzlich, wie oft es im Zusammenhang mit anderen sprachlichen Elementen erscheint. Beispielsweise möge Textmaterial daraufhin untersucht worden sein, ob Aussagen zur Bildung und/ oder Ausbildung gemacht werden, ob hohe oder niedrige Bildung positiv oder negativ bewertet wird, ob berufsbezogene oder allgemeine Bildung bevorzugt wird. Bei der Kontingenzanalyse werden nun solche Aussagen nicht jeweils isoliert betrachtet, sondern in einen Zusammenhang zu anderen Aussagen im Text gebracht. Die Aussagen werden also beispielsweise danach differenziert, ob sie mit dem Blick auf männliche oder auf weibliche Jugendliche gemacht werden, ob sie mit Blick auf Unterschicht-, Mittel- oder Oberschichtkinder erfolgen. Die Kontingenzanalyse erlaubt dann Aussagen darüber, ob für männliche Jugendliche eher eine höher qualifizierende Bildung befürwortet wird als Analyse von Bewertungen BEISPIEL Intensität von Bewertungen Analyse gemeinsamen Auftretens von Textelementen <?page no="323"?> 324 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 324 für weibliche Jugendliche, ob hohe Bildung im Mittel- oder Oberschichtkontext einen höheren Stellenwert genießt als im Unterschichtkontext oder ob für Mittel- und Oberschichtkinder eher abstraktere Bildungsinhalte, für Unterschichtkinder eher handwerklich-berufsbezogene Bildungsinhalte befürwortet werden. 256 Besteht der Wunsch nach solchen Auswertungen des codierten Datenmaterials, benötigt man im Kategorienschema die dafür erforderlichen Variablen (Kategorien). Da im Allgemeinen nicht alle benötigten Informationen im jeweils zu codierenden Textteil (der Zähleinheit) explizit enthalten sein werden, ist bei der Codierung notwendigerweise der Kontext dieser Zähleinheit (siehe Kapitel 7.1.4, Punkte c und f ) zu berücksichtigen. Weitere Varianten Eine Weiterentwicklung der Kontingenzanalyse ist die Bedeutungsfeldanalyse. „Ausgehend von dem Gedanken, dass zeitliche Nähe im Redefluss oder räumliche Nähe im Text auch kognitiver Nähe und struktureller Verbindung dieser Begriffe entspricht, werden Texte-… daraufhin untersucht, welche Begriffe innerhalb von Textsequenzen festgelegter Größe gemeinsam auftreten. Die Bedeutungsfeldanalyse zeichnet- - anders als die Kontingenzanalyse- - zusätzlich die Reihenfolge und die Häufigkeit der Begriffe auf“ (Lamnek 1995, Bd. 2, 195). Andere interessante Weiterentwicklungen sind die Argumentationsanalyse sowie die Semantische Struktur- und Inhaltsanalyse (SSI). Bei der Argumentationsanalyse geht es darum, die isolierte Betrachtung einzelner Aussagen (Pro- oder Contra-Argumente in einer untersuchten Streitfrage) zu überwinden und sie stattdessen in den jeweiligen Argumentationszusammenhang zu stellen. Die spezifische Charakteristik des Verfahrens liegt-- so Weiß (1989, 479)-- „in der Kombination vor allem folgender Merkmale: A-priori-Ansatz; Übergang von der Argumentzur Argumentationsanalyse; Behandlung von Argumentationszusammenhängen als Codier- und Zähleinheiten; Zusammenführung und Verdichtung nominal skalierter Argumente in Tendenz-Indizes auf höherem Skalenniveau“. Auch der standardisiert vorgehende Teil der Framing-Forschung entspricht diesem Vorgehen (z. B. Gerhards 2010). Anlass für das Entstehen der Semantischen Struktur- und Inhaltsanalyse waren Eigenschaften des traditionellen Codierverfahrens, die-- so Früh (1989, 490 f.)-- bei der Anwendung auf komplexere Fragestellungen der medienwissenschaftlichen Rezeptionsanalyse sich als einschränkendes Manko erweisen. Mit der SSI wurde deshalb eine Methode entwickelt und erprobt, „die a) auf Mikro- und Makroebene gleichermaßen operiert; b) eine integrierte Beschreibung von Inhalten und Bedeutungsstrukturen zulässt; c) Textbedeutungen nicht nur statisch, sondern auch als Produkte einer dynamischen Informationsverarbeitung beschreibt; 256 Beispiele für Kontingenzanalysen mit Hilfe multivariater Auswertungsverfahren finden sich in Bos/ Tarnai (1989). Bedeutungsfeldanalyse Argumentationsanalyse Semantische Struktur- und Inhaltsanalyse <?page no="324"?> 325 7.2 Beobachtung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 325 d) maschinenlesbar formalisiert ist; e) Kennwerte erzeugt, die einer weiteren statistischen Analyse leicht zugänglich sind und- - um unterschiedliche Textsorten (…) direkt miteinander vergleichen zu können-- f ) von der Textoberfläche weitgehend unabhängig ist“ (Früh 1989, 491 f.). Die Vorgehensstrategie für dieses anspruchsvolle inhaltsanalytische Verfahren wird ausführlich geschildert und anhand von Beispielen illustriert in Früh (2015, Kap. 2.6, 258 ff.). Für detaillierte generelle Darstellungen inhaltsanalytischer Ansätze s. Lisch/ Kriz 1978 (insbes. Kapitel 8 bis 10), Merten (1995), Früh (2015), Schreiber (1999). Wie für andere Instrumente der Sozialforschung, so gibt es mittlerweile auch leistungsfähige Programme, die eine computerunterstützte Anwendung der Inhaltsanalyse erlauben (siehe dazu etwa Kuckartz 2005, Kuckartz u. a. 2004, Lissmann 2001, Muhr/ Friese 2001, Wirth/ Lauf 2001, Teil 5 oder Züll/ Harkness/ Hoffmeyer-Zlotnik 1996). Erste Ansätze reichen bis 1962 zurück (vgl. Stone/ Bales u. a. 1962). 7.2 Beobachtung Ähnlich wie die Inhaltsanalyse ist auch das Datenerhebungsverfahren systematische Beobachtung im Prinzip nichts anderes als die Systematisierung eines alltäglichen Vorgehens. Jedoch richtet sich die Aufmerksamkeit bei der Beobachtung nicht auf das systematische Erfassen der Bedeutung dokumentierter Symbolzusammenhänge (wie bei der empirischen Inhaltsanalyse). Beobachtung zielt auf das Erfassen von Ablauf und Bedeutung einzelner Handlungen und Handlungszusammenhänge. Der wesentliche Unterschied liegt also im Beobachtungsgegenstand. Bei der Inhaltsanalyse ist der Gegenstand der „Beobachtung“ im weitesten Sinne das Produkt von Handlungen: historische Quellen, Kunstwerke, Briefe, Nachrichten, Romane, auf Tonband aufgezeichnete Diskussionen usw. Der inhaltsanalytische „Beobachtungsgegenstand“ steht damit, so wie er produziert worden ist, ein für allemal fest und verändert sich während des Prozesses des Analysierens, des „Identifizierens seiner Elemente“, nicht mehr. Datenerhebung und -analyse können beliebig oft am gleichen Material wiederholt werden. Das Verfahren der empirischen Beobachtung dagegen richtet sich auf soziale Prozesse und Verhaltensabläufe, also auf Gegebenheiten, die während des Beobachtens, des „Identifizierens der Elemente der Beobachtungssituation“ ablaufen und sich dabei ständig verändern. VERTIEFUNG Erfassung von Handlungen Veränderung während der Beobachtungssituation <?page no="325"?> 326 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 326 Beobachtungsgegenstände (Situationen) können etwa sein: Der Verkehrsfluss in der City zur Zeit der Rush hour (mit allen dabei vorkommenden Zwischenfällen als zu identifizierende Beobachtungselemente wie Verkehrsunfälle, Stauungen, Nichtbeachten der Vorfahrt, Überschreiten der zulässigen Höchstgeschwindigkeit, auf die Kreuzung fahren bei „Spätgelb“) oder das Geschehen in einer Haupteinkaufsstraße kurz nach Büroschluss (mit Beobachtungselementen wie eiliges Einkaufsverhalten nach Feierabend, Verhalten vor dem Schaufenster, Gedränge am Eingang, Schlangenbildung vor der Kasse im Selbstbedienungsladen, Nutzung der Sitzplätze und Ausruhmöglichkeiten im Geschäftsgebiet). Wie nun bei der Inhaltsanalyse von Texten zu unterscheiden ist zwischen der Bedeutung, die der Sender mit einer bestimmten Wortfolge gemeint hat, und der Bedeutung, die der Vercoder daraus herausliest (vgl. Kapitel 7.1.1), so ist bei der Beobachtung zu unterscheiden zwischen der subjektiven Bedeutung eines Tuns für den Handelnden und der Bedeutung, die der Beobachter dieser Handlung beimisst. Und ähnlich wie bestimmte Worte eine „durchschnittliche“ oder übliche Bedeutung haben, an der sich z. B. der Vercoder bei der Feststellung des manifesten Inhalts von Mitteilungen orientiert, so haben auch bestimmte Handlungen, Gesten oder Verhaltenssequenzen eine „durchschnittliche“, eine übliche Bedeutung, an der sich die Beobachterin/ der Beobachter ausrichtet. In beiden Fällen kann es jedoch sein, dass die Bedeutungsinterpretationen nicht übereinstimmen, dass also der Sender (der Verfasser eines Textes) mit den geäußerten Worten eine andere Vorstellung verbindet als der Empfänger, oder dass der Handelnde mit bestimmten Gesten oder Aktivitäten etwas anderes bezweckt als ihm vom Analysierenden unterstellt wird. Im ersten Fall sprechen Verfasser und Vercoder „verschiedene Sprachen“, und der Vercoder interpretiert dadurch „falsch“. Im zweiten Falle leben der Handelnde und der Beobachtende möglicherweise in unterschiedlichen kulturellen bzw. subkulturellen Handlungskontexten, und der Beobachtende interpretiert „falsch“. In dieser Hinsicht haben die Instrumente Inhaltsanalyse und Beobachtung mit der gleichen Art von Schwierigkeiten fertig zu werden. Erschwerend kommt bei der Beobachtung hinzu, dass sich, wie bereits angedeutet, die zu beobachtende Situation während des Beobachtungsprozesses ständig verändert, dass zudem gleichzeitig vielfältige Aktivitäten einer Vielzahl von Handelnden ablaufen. Einmal verpasste Beobachtungen lassen sich nicht nachholen. Die Interpretation des beobachteten Handlungsablaufs muss vom Beobachter an Ort und Stelle und im gleichen Tempo vorgenommen werden, in dem die beobachteten Handlungen ablaufen. Das stellt an das Kategorienschema für die Beobachtung ein noch höheres Maß an Anforderungen als bei der Inhaltsanalyse. Die Beobachtungskategorien müssen nicht nur eindeutig und präzise definiert sein; sie müssen zusätzlich die Situation so strukturieren, dass alle Beobachtungselemente leicht identifizierbar sind, ohne dass damit der Sinnzusammenhang einer Handlung zerrissen wird. Außerdem dürfen nicht zu viele Beobachtungskategorien gleichzeitig zu beachten sein, weil sonst die beobachtende Person überfordert wird. BEISPIELE Codierung durchschnittlicher Bedeutungen Problem des Missverstehens Problem ständiger Veränderung Kategorienschema leicht identifizierbare Elemente <?page no="326"?> 327 7.2 Beobachtung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 327 Mehr noch als bei der Inhaltsanalyse muss das Beobachtungsinstrument aus einer soliden, theoretischen Strukturierung des Forschungsgegenstandes heraus entwickelt werden: Die bei der Datenerhebung vorzunehmende Selektion ist notwendigerweise größer als bei der Inhaltsanalyse; verpasste Einzelheiten lassen sich nicht durch nochmalige Beobachtung derselben Situationen nachholen. Stärker auch als bei der Inhaltsanalyse kann der Beobachter bei nicht sorgfältig entwickeltem Kategorienschema zur Fehlerquelle werden: durch nicht gesteuerte Prozesse selektiver Zuwendung, selektiver Wahrnehmung und selektiver Erinnerung; durch die Tendenz, auch unzusammenhängende Einzelereignisse entsprechend den eigenen Erwartungen (des Beobachters) zu sinnvollen Einheiten zusammenzufassen, Fehlendes zu ergänzen, die Situation entsprechend der eigenen Deutung zu strukturieren. Die Beobachtung scheint damit entschieden weniger objektiv- - im Sinne von intersubjektiv nachprüfbar-- zu sein als das Verfahren der Inhaltsanalyse. Zwar gibt es technische Hilfsmittel, um diese Nachteile zu vermindern: Zusätzlich zur Beobachtung an Ort und Stelle kann das Geschehen durch einen zweiten Teilnehmer mit Videorecorder aufgezeichnet werden, um hinterher die angefertigten Beobachtungsprotokolle mit dieser Aufzeichnung vergleichen und die endgültige Zuordnung der Beobachtungselemente zum Kategorienschema vornehmen zu können. Dadurch wird zwar die intersubjektive Nachprüfbarkeit wesentlich verbessert, ausgeschaltet ist die Subjektivität des Vorgehens damit jedoch nicht: Auch auf der Videoaufzeichnung sind nur Ausschnitte des gesamten Geschehens in der abgegrenzten Situation festgehalten. Wenn ein Beobachter das zu beobachtende Geschehen direkt vercodet und ein zweiter die Kamera bedient, werden beide normalerweise nicht die gleichen Ausschnitte (z. B. des Geschehens auf einer belebten Straßenkreuzung oder auf der Haupteinkaufsstraße) als wichtig einstufen und festhalten. Was soll dann gelten: die vom Beobachter protokollierten Aspekte, die Videoaufzeichnung oder beides? Zudem ist es nicht in jeder Situation möglich, Filmaufzeichnungen zu machen. In manchen Zusammenhängen sind solche Aufzeichnungen auch gar nicht angebracht, weil sich dadurch die Situation so verändern kann, dass sie nicht mehr dem Beobachtungsziel entspricht. Kaum jemand verhält sich ungezwungen und „normal“, wenn er eine laufende Kamera bemerkt. 7.2.1 Arten der Beobachtung Das zuletzt angesprochene Problem verweist auf eine wichtige Unterscheidung von Beobachtungstypen; je nachdem, ob die beobachteten „Objekte“ vom Beobachtungsvorgang Kenntnis haben oder nicht, lassen sich verschiedene Arten von Beobachtungen unterscheiden. Falls die zu beobachtenden Personen nicht bemerken sollen, dass sie beobachtet werden, spricht man von verdeckter Beobachtung. In diesem Falle ist die Aufzeichnung der Handlungsabläufe mit Hilfe einer Kamera problematisch, weil zu auffällig. Möglich ist eine Aufzeichnung, ohne bemerkt zu werden, allenfalls in technisch dafür ausgerüsteten Räumen oder in öffentlichen Situationen, wo so vieles gleichzeitig Selektivität des Kategorienschemas intersubjektive Nachprüfbarkeit problematisch verdeckte Beobachtung <?page no="327"?> 328 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 328 abläuft, dass eine versteckt angebrachte Kamera überhaupt nicht wahrgenommen wird. Eine Aufzeichnung ist weiter dort möglich, wo ohnehin häufig Kameras angebracht sind, so dass ihre Benutzung nicht auffällt, z. B. in Selbstbedienungsläden, auf Sportplätzen oder an Verkehrskreuzungen. Sind dagegen die Handelnden über den Beobachtungsvorgang informiert, spricht man von offener Beobachtung. Falls die zu beobachtenden Personen sich mit einer Aufzeichnung einverstanden erklären, ist natürlich der Einsatz einer Kamera im Prinzip kein Problem. Allerdings ist auch dann nicht auszuschließen, dass das Bewusstsein, nicht nur beobachtet, sondern auch noch gefilmt zu werden, die Beobachtungssituation (das gezeigte Verhalten) drastisch verändert. Zur Unterscheidung möglicher Varianten der Beobachtung (Art der Beobachtungssituation und des Beobachtungsvorgangs) zieht Friedrichs (1982, 272 f.) fünf Dimensionen heran: 1) verdeckt / offen: Ist der Beobachter als solcher erkennbar oder nicht; ist er z. B. durch eine nur von einer Seite durchsichtige Glasscheibe verdeckt? 2) teilnehmend / nicht teilnehmend: Nimmt der Beobachter an den Interaktionen teil, oder befindet er sich außerhalb des Feldes? 3) systematisch / unsystematisch: Erfolgt die Beobachtung systematisch mit einem standardisierten Schema oder eher unsystematisch und dem spontanen Interesse des Beobachters folgend? 4) „natürliche“ / „künstliche“ Beobachtungssituation: Es können z. B. spielende Kinder im Kindergarten beobachtet werden (natürliche Situation), oder die Spielsituation kann im Raum eines psychologischen Instituts unter kontrollierten Bedingungen nachgestellt werden („Labor“-Situation). 5) Selbstbeobachtung / Fremdbeobachtung: Die Anwendung des Verfahrens der Beobachtung als Instrument der Datenerhebung beschränkt sich im Allgemeinen auf Fremdbeobachtung. Selbstbeobachtungen kommen häufig in der Psychoanalyse und Psychiatrie vor. Beschränkt man sich auf die ersten vier Dimensionen und unterscheidet jeweils nur zwei gegensätzliche Ausprägungen-- bleiben also mögliche Zwischenformen unberücksichtigt, etwa auf dem Kontinuum von „überhaupt keine Beteiligung des Beobachters im Feld“ bis „vollständiges Eingebundensein des Beobachters in die zu beobachtenden Interaktionen“--, dann gelangt man bereits zu einer Differenzierung in 16 Beobachtungsarten: Nicht teilnehmende Beobachtung teilnehmende Beobachtung verdeckt offen verdeckt offen „natürliche“ Beobachtungssituation systematisch 1 2 3 4 unsystematisch 5 6 7 8 „künstliche“ Beobachtungssituation systematisch 9 10 11 12 unsystematisch 13 14 15 16 offene Beobachtung Varianten der Beobachtung Tabelle 7.1: Arten von Beobachtung <?page no="328"?> 329 7.2 Beobachtung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 329 Natürlich wird man nicht alle so gewonnenen Beobachtungs-“Typen“- - von der verdeckten, nicht teilnehmenden, systematischen Beobachtung in natürlichen Situationen (1) bis zur offenen, teilnehmenden, unsystematischen Beobachtung in künstlich geschaffenen Situationen (16)- - gleich häufig in der empirischen Praxis vorfinden. Im Folgenden beziehen sich die Ausführungen vor allem auf die systematische, nicht teilnehmende Fremdbeobachtung (Nr. 1, 2, 9, 10). Die auftretenden Probleme sollen dabei so weit wie möglich im Vergleich zur Inhaltsanalyse abgehandelt werden. 257 7.2.2 Anwendungsprobleme bei der systematischen Beobachtung a) Analog zur Inhaltsanalyse als Datenerhebungsmethode steht auch bei der Beobachtung am Beginn die Festlegung der Art oder Klasse von Beobachtungsgegenständen. Ausgehend von der zu untersuchenden Fragestellung ist zunächst die Art der Situationen zu definieren, in denen per Beobachtung Daten gesammelt werden sollen. Beim Verfahren der Beobachtung ist also eine zentrale theoretische Dimension sozialen Handelns ausdrücklich von Beginn an auch methodologisch mit zu berücksichtigen, die ansonsten eher ausgeklammert wird: der „Handlungskontext“, bzw. die Situation, in der die Handlung abläuft. 258 Richtet sich die Fragestellung auf Verhalten in „natürlichen“ Situationen, oder sollen „reine“ Bedingungen in künstlichen Situationen (in „Labor“-Situationen) hergestellt werden? Bei Beobachtungen in natürlichem Kontext ist, was das Zustandekommen der Daten angeht, die Ausgangslage ähnlich wie bei der Analyse von Texten, die im normalen Handlungsvollzug entstanden sind (Briefe, Zeitungsberichte, Akten) und nicht erst für die Zwecke der Untersuchung geschaffen wurden. Bei der Beobachtung unter Laborbedingungen dagegen ist die Ausgangslage ähnlich wie bei der Analyse von Antworten auf offen gestellte Fragen im Interview. Solche Texte hat erst der Interviewer künstlich für den Untersuchungszweck provoziert; ebenso wird das unter Laborbedingungen beobachtete Verhalten für die Untersuchung selbst provoziert. 257 Vgl. zum Folgenden Kapitel 7.1.4 (Phasen der Inhaltsanalyse).-- An teilnehmender Beobachtung Interessierte seien auf die ausführlicheren Darstellungen bei Friedrichs/ Lüdtke 1973 und Thierbach/ Petschick 2014 (standardisierte Verfahren) sowie bei Dechmann 1978 und Lamnek 1995 (qualitativ orientierter Ansatz) verwiesen. 258 Insbesondere bei „Repräsentativerhebungen“ bemüht man sich um Kontextunabhängigkeit, zumindest um methodische „Kontrolle“ möglicher Kontexteinflüsse. Zu den beiden Begriffen vgl.: Friedrichs, Jürgen, 1974: Situation als soziologische Erhebungseinheit, in: Zeitschrift für Soziologie, H. 1, 44-53; Küchler, Manfred, 1981: Kontext-- eine vernachlässigte Dimension empirischer Sozialforschung, in: J. Matthes (Hg.), Lebenswelt und soziale Probleme, Frankfurt/ M., New York, 344-354. Beobachtungsgegenstände festlegen Art der Situation definieren <?page no="329"?> 330 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 330 Zusammengefasst: 1) Ob in natürlichem oder künstlichem Kontext beobachtet wird, hängt von der Fragestellung ab. 2) Welcher Art die Beobachtungsgegenstände sind, hängt ebenfalls von der Fragestellung ab. Sind „Art und Ausmaß von Vereinsaktivitäten“ Gegenstand des Interesses, können inhaltsanalytisch Vereinsrundschreiben, Vereinssatzungen, Protokolle von Vorstandssitzungen und Versammlungen, Zeitungsberichte über Aktivitäten und Erfolge der Vereinsarbeit, Flugblätter ausgewertet werden. Mit Hilfe der Beobachtung können dagegen Interaktionen zwischen den Vorstandsmitgliedern bei Vorstandssitzungen direkt erfasst werden (falls der Vorstand einverstanden ist); oder der Beobachter kann an Vereinsversammlungen teilnehmen, kann öffentliche Veranstaltungen des Vereins besuchen usw. Besonders wichtig ist für diese Entscheidung die Festlegung, welche Situationen und welche in diesen Situationen vorkommenden Aktivitäten für die Fragestellung relevant sind und ob der Beobachter sich zu diesen Situationen Zugang verschaffen kann. Auch hier ist wieder erforderlich, eindeutig zu definieren, wie eine Situation abgegrenzt wird. Als Beginn einer Vereinsversammlung wird die offizielle Eröffnung der Sitzung durch den Versammlungsleiter, als Ende die offizielle Schließung der Versammlung definiert. Oder: Bei Flugblattverteilungsaktionen einer Organisation werden alle Aktivitäten der seitens der Organisation beteiligten Personen beobachtet sowie zusätzlich alle Ereignisse, die dadurch unmittelbar oder mittelbar in einem Umkreis von-… Metern hervorgerufen wurden (wie Diskussion zwischen Passanten, Stehenbleiben von Zuschauern usw.). Neben der Definition der Art der zu beobachtenden Situationen und der Klasse der relevanten Ereignisse ist auch der Beobachtungszeitraum festzulegen (etwa: sämtliche Vereinsaktivitäten in der Amtsperiode eines Vorstands von dessen Wahl bis zur nächsten turnusmäßigen Mitgliederversammlung mit dem Tagesordnungspunkt Vorstandswahl) sowie der räumliche Ausdehnungsbereich, in dem Beobachtungen anzustellen sind (etwa bei Aktivitäten von Organisationsgliederungen politischer Parteien: Aktivitäten in einem Stadtbezirk). Bei Dokumenten, die inhaltsanalytisch ausgewertet werden sollen, kann der Untersuchungszeitraum ohne Weiteres auch längere Perioden, z. B. 100 Jahre und mehr, umfassen (etwa Analyse der Fachdiskussion um städtebauliche Zielsysteme oder „Leitbilder“ seit Beginn der Industrialisierung), und der räumliche Bezug kann sich auf die ganze Welt erstrecken (etwa: Auswertung von Quellen zur städtebaulichen Zieldiskussion aus Europa, Australien und Nordamerika). Der Anwendung der BEISPIEL Festlegung der zu beobachtenden Aktivitäten BEISPIEL Zeitraum und räumliche Ausdehnung festlegen <?page no="330"?> 331 7.2 Beobachtung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 331 Methode Beobachtung sind im Vergleich dazu sehr enge Grenzen gesetzt. Diese Überlegungen hat man bereits bei der Abgrenzung der angestrebten Grundgesamtheit zu berücksichtigen. b) Nach der Definition der relevanten Situationen und Ereignisse sowie der angestrebten Grundgesamtheit ist auch bei der Beobachtung im Allgemeinen der Rückgriff auf die Erhebung von Daten für nur eine Teilgesamtheit, also die Konstruktion einer Stichprobe erforderlich. Man kann nicht alle zur Grundgesamtheit zählenden Situationen oder Ereignisse in einem angegebenen Zeitraum und einem abgegrenzten Gebiet beobachten. Die Erstellung eines Auswahlplans ist allerdings für Beobachtungen wesentlich komplizierter als im Falle der Inhaltsanalyse. Jede Auswahl muss hier zwei Gesichtspunkte berücksichtigen: Zum einen handelt es sich um eine Stichprobe von Zeitpunkten (oder Zeitintervallen, Beobachtungsintervallen) aus dem abgegrenzten Zeitraum, zum anderen ist es eine Stichprobe aus dem abgegrenzten räumlichen Beobachtungsbereich (Regionen, Orte, Plätze). Das Verfahren ist also in jedem Fall mindestens zweistufig: Auswahl von Zeitpunkten bzw. -intervallen sowie von räumlichen Bezugspunkten (und innerhalb dieses Rahmens üblicherweise nochmals mehrstufig). Will man etwa die Beobachtungen über ein Jahr (Z) ausdehnen, so ist erforderlich: Z 1 : Stichprobe aus den 365 Tagen; Z 2 : Stichprobe aus den innerhalb der ausgewählten Tage für die Beobachtung infrage kommenden Intervallen (im Fall der Beobachtung des Verkehrsflusses etwa in den Hauptverkehrsstunden am Morgen und am Nachmittag jeweils Ein-Minuten-Intervalle; oder im Falle der Beobachtung des Verhaltens von Passanten in einer Haupteinkaufsstraße jeweils Fünf-Minuten-Intervalle in der Zeit zwischen Büroschluss und Geschäftsschließung). Soll zudem die Beobachtung im ganzen Bundesgebiet (R) erfolgen, dann könnte man weiter wie folgt vorgehen: R 1 : Flächenstichprobe nach Regionen (z. B. Regierungsbezirke); R 2 : Flächenstichprobe nach räumlichen Beschreibungskategorien (z. B. Areale mit jeweils annähernd gleich großen Einwohnerzahlen in ländlichen Gebieten, Mittelstädten, großstädtischen Einzugsbereichen, Großstädten); R 3 : Stichprobe aus den infrage kommenden eng begrenzten Orten der Beobachtung (z. B. Straßenkreuzungen an den Hauptverkehrswegen oder Haupteinkaufsplätze bzw. -straßen). Das spezifische Problem bei der Entwicklung eines Auswahlplans für Beobachtungen liegt darin, dass die Auswahl auf Ereignisse (Erhebungseinheiten, „Elemente der Grundgesamtheit“, vgl. Kapitel 6.1) abzielen muss, die zum Zeitpunkt der Stichprobenkonstruktion noch gar nicht existieren. Die zu beobachtenden Handlungsabläufe werden ja erst während des Zeitraums der Datenerhebung stattfinden; die Erstellung des Auswahlplans aber muss vorher erfolgen. Da es also die angestrebte Grundgesamtheit von Ereignissen, auf die sich die späteren Aussagen der Untersuchung beziehen sollen, erst in Zukunft geben wird, ist weder diese Grundgesamtheit schon empirisch definierbar, noch sind die Erhebungseinheiten im Voraus eindeutig Stichprobe festlegen Stichprobe von-Zeiträumen Stichprobe von-Räumen BEISPIEL Grundgesamtheit nicht vorher bestimmbar <?page no="331"?> 332 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 332 bestimmbar, noch sind alle potenziellen Einheiten im Moment der Auswahl greifbar (vgl. Kapitel 6.6). Auch eine „symbolische Repräsentation“ aller Elemente der Grundgesamtheit ist nicht unmittelbar möglich (etwa in Form einer Kartei). Bei der „symbolischen Repräsentation“ muss deshalb auf Ersatzmerkmale zur Definition der faktischen Auswahleinheiten zurückgegriffen werden, an denen die zu beobachtenden zukünftigen Ereignisse „festgemacht“ werden können. Das ist der Grund, warum oben von der Notwendigkeit einer mindestens zweistufigen Auswahl nach Beobachtungsräumen und Beobachtungszeitpunkten (bzw. -intervallen) die Rede war. Die interessierenden Ereignisse werden-- das ist die einzig sichere (und triviale) Prognose-- an bestimmten Orten und zu bestimmten Zeiten stattfinden; und indem eine repräsentative Auswahl von potenziellen Ereignisräumen und potenziellen Ereigniszeiten getroffen wird, kann man-- so die Hypothese-- davon ausgehen, zugleich auch eine repräsentative Auswahl aus der Grundgesamtheit der interessierenden Ereignisse gezogen zu haben. Die Auswahleinheiten sind die Zeitpunkte und Orte; die Erhebungseinheiten sind üblicherweise die erwarteten Ereignisse, es können aber auch die ausgewählten Beobachtungsintervalle sein (siehe nächsten Abschnitt); die Untersuchungseinheiten schließlich ergeben sich aus der Fragestellung der Studie. c) Bei der Inhaltsanalyse wurde als dritter Punkt die Definition der Zähleinheit oder Kategorisierungseinheit genannt. Eine analoge Festlegung ist auch bei der Beobachtung erforderlich: Wonach soll die Häufigkeit des Auftretens bestimmter Kategorien bemessen werden? Ist etwa als Auswahleinheit „fünf Minuten Verkehrsfluss an der Kreuzung x“ festgelegt worden, dann geben die Beobachtungskategorien darüber Auskunft, auf welche Tatbestände der Beobachter in diesem Zeitintervall zu achten hat: Missachtung der Ampelregelung, Stauung, Verkehrsunfall. Außerdem ist anzugeben, ob lediglich das Auftreten einer Stauung, das Vorkommen eines Verkehrsunfalls, die Tatsache der Missachtung der Ampelregelung festgestellt oder zusätzlich deren Häufigkeit im Beobachtungsintervall gezählt werden soll, ob also die Ergebnisse jeweils auf das Beobachtungsintervall zu beziehen sind. 259 Die Protokollaussage könnte in diesem Fall lauten: Im Intervall t 1 sind n 1 Ampelregelungsmissachtungen, n 2 Stauungen, n 3 Verkehrsunfälle vorgekommen. Das Beobachtungsintervall ist in diesem Falle der Merkmalsträger; die Kategorien sind die Merkmale (Variablen); die Häufigkeit des Auftretens ist die Ausprägung des Merkmals. Untersuchungsziel könnte sein, Aussagen über die Belastung des Verkehrsnetzes im Tagesverlauf zu gewinnen. 259 Auch bei der Codierung von Beobachtungen wird man (ähnlich wie bei der Inhaltsanalyse) häufig ergänzende Kontextinformationen miterfassen müssen (vgl. siehe Kapitel 7.1.4, Punkte c und f: Kontexteinheiten), also hier z. B.: An welcher Kreuzung und wann wurde die Beobachtung vorgenommen? Orientierung an Ersatzmerkmalen Definition der Zähleinheit BEISPIEL <?page no="332"?> 333 7.2 Beobachtung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 333 Es könnte aber auch sein, dass nicht die Häufigkeit des Auftretens eines Ereignisses pro Zeitintervall, sondern speziell das einzelne Ereignis, etwa der Verkehrsunfall, interessiert: . Dann definiert das Beobachtungsintervall lediglich die zeitlichen Grenzen, innerhalb derer Informationen über Ereignisse erhoben werden. In diesem zweiten Fall sind pro Verkehrsunfall bestimmte Merkmale zu erheben: Ort und Zeitpunkt des Verkehrsunfalls, beteiligte Fahrzeuge (Art und Zahl), Folgen (Verletzungen, Sachschäden), Ursachen (Missachtung der Vorfahrt, überhöhte Geschwindigkeit, Glätte) usw. Hier ist der Verkehrsunfall das Untersuchungsobjekt (der Merkmalsträger); Ort und Zeitpunkt des Ereignisses, beteiligte Fahrzeuge, Folgen und Ursachen des Unfalls sind die Merkmale; Ort x, Uhrzeit 10: 05, Zahl der beteiligten Fahrzeuge, Art der Folgen und der Ursachen sind dann die Merkmalsausprägungen. Untersuchungsziel könnte jetzt sein, Aussagen über die Bestimmungsgründe von Verkehrsunfällen zu gewinnen. Zähleinheiten (die Einheiten, auf die sich die festgestellten Merkmale beziehen) wären im ersten Beispiel die Beobachtungsintervalle, im zweiten Beispiel die Ereignisse, vorgegeben durch die Kategorien des Beobachtungsplans. Auswahleinheiten aber wären in beiden Fällen eine Kombination von Beobachtungsorten und -zeitintervallen. Bei häufig auftretenden Ereignissen wird man Beobachtungsintervalle als Zähleinheiten (als Merkmalsträger) wählen. Bei manchen Tatbeständen, in denen die Zeit praktisch als Dimension mit enthalten ist, ergibt sich dies zwangsläufig: etwa Verkehrsdichte, definiert als: n Fahrzeuge pro Zeiteinheit. Bei manchen Tatbeständen bietet sich auch ein bestimmter Raum, eine Fläche als zusätzlicher Bestandteil der Definition der Zähleinheit an; etwa bei: Passantendichte auf der Haupteinkaufsstraße, definiert als „n Personen pro abgegrenzter Fläche zum Zeitpunkt t“. Die Zähleinheit wäre durch einen Raum und einen Zeitpunkt definiert; Beschreibungsmerkmal wäre: Passanten, die sich auf dieser Fläche befinden; Merkmalsausprägung wäre die Zahl der Passanten pro Flächeneinheit. Bei seltenen Ereignissen, oder zumindest Ereignissen, die nicht zu jedem Zeitpunkt oder in jedem Beobachtungsintervall auftreten, wird man dagegen das Ereignis selbst als Zähleinheit oder als Merkmalsträger heranziehen. d) Wie bei der Inhaltsanalyse ist auch bei der Beobachtung die Entwicklung des Kategorienschemas das Kernstück und der problematischste Teil des ganzen Verfahrens. Da lediglich die „Beobachtungsgegenstände“ bei beiden Verfahren unterschiedlich sind (s. o.), nicht jedoch die Logik der Datenerhebung, sind die bei der Aufstellung des Beobachtungsschemas zu beachtenden Regeln die gleichen wie bei der Inhaltsanalyse. Auf die Ausführungen dort (Kapitel 7.1.2) kann deshalb verwiesen werden. BEISPIEL Zähleinheit: Einheit pro Raum Kategorienschema <?page no="333"?> 334 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 334 Dass auch die Abgrenzung beider Verfahren anhand ihrer „Beobachtungsgegenstände“ fließend ist, zeigt ein bekanntes Kategorienschema, das von R. F. Bales zur Analyse von Interaktionen in problemlösenden Kleingruppen entwickelt worden ist (siehe Abbildung 7.1) 260 . Von manchen Autoren wird das Bales-Schema als Beispiel für ein Kategorienschema zur Beobachtung, von anderen als Beispiel für ein Kategorienschema zur Inhaltsanalyse verbaler Gruppenprozesse genannt. 260 Das Schema selbst sowie die theoretische Herleitung und die Möglichkeiten seiner Anwendung sind ausführlich (mit Beispielen) in einem ins Deutsche übersetzten Aufsatz beschrieben worden (Bales in: König 1962). BEISPIEL Abbildung 7.1: Schema der Interaktionsprozessanalyse nach Bales A Sozialemotionaler Bereich: positive Reaktionen B Aufgabenbereich: Versuche der Beantwortung C Aufgabenbereich: Fragen D Sozialemotionaler Bereich: Negative Reaktionen 4. Macht Vorschläge, gibt Anleitung, wobei Autonomie des anderen impliziert ist 5. Äußert Meinung, bewertet, analysiert, drückt Gefühle oder Wünsche aus 6. Orientiert, informiert, wiederholt, klärt, bestätigt 7. Erfragt Orientierung, Information, Wiederholung, Bestätigung 8. Fragt nach Meinungen, Stellungnahmen, Bewertung, Analyse, Ausdruck von Gefühlen 9. Erbittet Vorschläge, Anleitung, mögliche Wege des Vorgehens 1. Zeigt Solidarität, bestärkt den anderen, hilft, belohnt 2. Entspannte Atmosphäre, scherzt, lacht, zeigt Befriedigung. 3. Stimmt zu, nimmt passiv hin, versteht, stimmt überein, gibt nach 10. Stimmt nicht zu, zeigt passive Ablehnung, Förmlichkeit, gibt keine Hilfe 11. Zeigt Spannung, bittet um Hilfe, zieht sich zurück 12. Zeigt Antagonismus, setzt andere herab, verteidigt oder behauptet sich a b c d e f <?page no="334"?> 335 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 335 Beobachtungseinheit (Zähleinheit) ist bei Bales „die kleinste erkennbare Einheit des Verhaltens,-…, die ihrem Sinn nach so vollständig ist, dass sie vom Beobachter [entsprechend der Definition einer der Kategorien, H. K.] gedeutet werden kann oder im Gesprächspartner eine Reaktion hervorruft. Die Einheit wird also durch einen Bedeutungswechsel innerhalb eines Systems von Symbolen, die der Mitteilung dienen, definiert-…“ (a. a. O., 158). Die 12 Beobachtungskategorien entsprechen (d. h. sind die Operationalisierung von) sechs aus einer Theorie der Gruppe abgeleiteten Aspekten der Lösung von Problemen in Gruppenarbeit (vgl. Schlüssel a bis f ) sowie zwei Verhaltensbereichen, dem „sozialemotionalen Bereich“ (vgl. A und D) und dem „Aufgabenbereich“ (B und C). Wie bei der Inhaltsanalyse kann man jedoch bei konkreten eigenen Beobachtungs- Untersuchungen selten auf bereits ausgearbeitete Kategorienschemata zurückgreifen. Vielmehr werden vorhandene „Muster“ (wie das obige) im Allgemeinen nur als Anhaltspunkte für die Bildung eines auf die spezielle Untersuchungsfrage zugeschnittenen Kategoriensystems heranzuziehen sein (vgl. Ischi 1982). Auch hierbei ist es im Prinzip auf zweierlei Weise möglich, zu einem Kategorienschema für die Untersuchung zu kommen (vgl. Kapitel 7.1.2): - durch empirisches Vorgehen. Man beobachtet zunächst infrage kommende Situationen relativ unstrukturiert; man notiert alles, was auffällt, und ordnet das Beobachtungsmaterial nach Kategorien (zu unterscheidende Ereignisse) und Unterkategorien (Ausprägungen von Eigenschaften eines Ereignisses); oder - man bestimmt vor der Beobachtung aufgrund von Ableitungen aus Hypothesen oder aus einer Theorie die relevanten Beobachtungsdimensionen und bildet (darauf aufbauend) die Beobachtungskategorien. Üblicherweise wird man sowohl bei der Inhaltsanalyse als auch bei der systematischen Beobachtung beide Vorgehensweisen kombinieren: Zunächst wird, ausgehend von der Fragestellung und den Hypothesen, ein grobes Beobachtungsraster entworfen, um damit Pretests durchzuführen. Anhand der in den Pretests gewonnenen Erfahrungen wird das Kategoriensystem ausgefeilt und verbessert. Was die Auswertung der so gewonnenen Ergebnisse angeht, so besteht bei den Resultaten systematischer Beobachtung (d. h. den mit Hilfe des Instruments Beobachtung ermittelten Daten) kein Unterschied gegenüber Daten, die mit Hilfe anderer Instrumente gewonnen wurden. 7.3 Befragung In der empirischen Sozialforschung ist die Befragung noch immer die am häufigsten verwendete Methode der Datenerhebung. Zugleich handelt es sich auch um das am weitesten entwickelte Verfahren. Zwar gilt das persönliche Interview nicht mehr unbestritten als der „Königsweg“ unter den Verfahren der Datensammlung. Den- Anpassung vorhandener Kategorienschemata Erstellung eines Kategorienschemas Kombination von empirischer und theoretischer Entwicklung <?page no="335"?> 336 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 336 noch hat es- - trotz Kritik angesichts steigender Kosten und sinkender Ausschöpfungsquoten (vgl. Kapitel 7.4.2)-- seine dominierende Position in der Forschungspraxis bewahrt. Hinzu kommt eine ständig zunehmende Bedeutung telefonisch und schriftlich, insbesondere webbasiert (per E-Mail oder direkt online) durchgeführter Befragungen. 261 Fragen zu stellen, um Informationen zu erhalten, erscheint besonders leicht. Dass Sprache als Instrument der Informationsübermittlung aber nicht ohne Probleme ist, haben wir bereits bei der Einführung zur empirischen Inhaltsanalyse angedeutet (vgl. Kapitel 7.1.1): Es gibt „unterschiedliche Sprachen“ in verschiedenen Subkulturen. Bezogen auf das Interview: Es existiert häufig für ein und dieselbe Frage ein unterschiedliches Verständnis, eine unterschiedliche Deutung zwischen Interviewer und Befragtem sowie innerhalb verschiedener Gruppen von Befragten. Hinzu kommt noch-- und das ist eine einschneidende Einschränkung--, dass bei der Befragung die beobachtbaren Reaktionen auf gegebene verbale Stimuli (also die protokollierbaren Antworten auf gestellte Fragen) nicht immer auch schon Ausprägungen der interessierenden Merkmale sind, sondern oft nur Indikatoren für ihr Vorliegen. Wenn z. B. politische Einstellungen als Merkmale von Individuen interessieren, erhält der Forscher Antworten auf sogenannte Einstellungsfragen und verwendet diese Antworten als Indikatoren für die eigentlich interessierenden, aber nicht direkt feststellbaren Einstellungen. Doch selbst wenn die Antwort bereits eine direkte Auskunft über die Ausprägung eines interessierenden Merkmals ist, kann die Verlässlichkeit dieser Information durchaus fraglich sein. Interessiert z. B. das Haushaltseinkommen als Merkmal des untersuchten Haushalts, erhält der Forscher zwar Angaben der als Informantin befragten Ehefrau über das Haushaltseinkommen aufgrund einer entsprechend gestellten Frage und kann diese Angaben als Messwerte für das interessierende Merkmal Haushaltseinkommen verwenden. Gültigkeit und Zuverlässigkeit dieser Daten sind jedoch im Einzelfall nicht abschätzbar. Friedrichs (1982, 223) berichtet zu dem letztgenannten Beispiel von einer vergleichenden Auswertung verschiedener Quellen im Statistischen Bundesamt, die zeigt, in welch geringem Maß selbst eine so einfach scheinende Frage wie die nach dem Einkommen das tatsächliche Einkommen des Haushalts wiedergibt: Nur bei 52 % aller Haushalte stimmten danach die Angaben im Interview mit Zahlen anderer Datenquellen (hier: Haushaltsbücher) überein. In 37 % der Fälle wurde das monatliche Nettoeinkommen im Interview zu niedrig, in 11 % zu hoch angegeben. 261 Die Literatur zur Befragung ist besonders umfangreich. Eine Reihe von Lehrbüchern geht ausführlich auf Befragungen und insbesondere einzelne Aspekte der Befragung ein. Empfehlenswert sind Dillman 2000; Faulbaum/ Prüfer/ Rexroth 2009; Frey/ Kunz/ Lüschen 1990, 24 f.; Jackob/ Schoen/ Zerback 2009; Kaase/ Küchler 1985, 55 ff.; Porst 2014; Schnell 2012; für aktuelle Hinweise siehe www.gesis.org/ unser-angebot/ publikationen/ . Problem unterschiedlicher Sprachverständnisse protokollierbare Antworten nur Indikatoren BEISPIEL <?page no="336"?> 337 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 337 Solche Abweichungen können nicht allein darauf zurückgeführt werden, dass Befragte bewusst falsche Angaben machen-- was natürlich auch vorkommen wird. Abweichungen müssen vielmehr schon deshalb auftreten, weil in der Befragung nicht die eigentlich interessierenden Merkmale erhoben werden können (Einstellungen; Einkommen; Bildung), sondern einzig Kenntnisse oder Vermutungen der Befragten über den jeweiligen Sachverhalt zum Zeitpunkt und in der Situation der Befragung. Diese Kenntnisse aber können fehlerhaft, die Vermutungen ungenau sein. Sie werden zunehmend ungenauer, je komplizierter der erfragte Sachverhalt für den Befragten ist, je geringer seine persönlichen Erfahrungen mit dem Sachverhalt sind und je weiter das erfragte Ereignis zeitlich zurückliegt. In diesem Zusammenhang vom „Befragten als Fehlerquelle“ zu sprechen (so etwa Scheuch 1973a, 115 ff.), ist dennoch problematisch. Die befragte Person wird im Interview in eine Rolle gedrängt, die ihr oder ihm ad hoc verbale Reaktionen auf verbale Stimuli abverlangt. Wenn diese Reaktionen (die Antworten) auf die Stimuli (die Fragen) nicht mit den Sachverhalten übereinstimmen, die erhoben werden sollen, dann ist darin kein „Fehlverhalten“ zu sehen. 262 Vielmehr wird der Befragte sich bemühen, jeweils für ihn „angemessen“ auf diese künstliche Situation zu reagieren, mit der er sich konfrontiert sieht. Ist er unsicher, wird er vielleicht versuchen, so zu antworten, wie er meint, dass dies vom Interviewer oder von seiner sozialen Umwelt erwartet wird (Neigung zu sozial erwünschten Antworten). Fühlt er sich „überfallen“, wird er möglicherweise trotzig reagieren und eventuell Antworten auf unbequeme Fragen verweigern. Ist er zum Zeitpunkt der Fragestellung ermüdet, wird er vielleicht automatisch von vorgelegten Antwortvorgaben irgendwelche aus dem mittleren Bereich der Vorgabeliste wählen. Fühlt er sich überfordert, wird er vielleicht raten, um nicht vor dem ihm fremden Interviewer als jemand dazustehen, der „nichts weiß“ (zum „Befragtenverhalten“ vgl. Schnell 2012, Kapitel 2 und die Untersuchungen von Esser 1975, 1977). Der Befragte ist eben keine Datenbank, aus der man nach Bedarf Daten abrufen kann. Das Interview ist vielmehr ein ausgesprochen „unnatürlicher“, „künstlicher“ Interaktionsprozess (zu den Besonderheiten der „Forschungskontaktsituation Befragung“ siehe Schnell 2012, Kreutz 1972). Die Daten, die durch Befragungen gesammelt werden, sind speziell für den Zweck der Forschung produzierte Daten; es sind nicht Aufzeichnungen über normale soziale Prozesse (wie etwa im Falle der Beobachtung in „natürlichen“ Situationen). Jede Befragung hat etwas von der Künstlichkeit einer Laborsituation an sich. Würden Gespräche in natürlichen Situationen festgehalten und ausgewertet, hätte man es nicht mehr mit der Anwendung der Methode „Befragung“ zu tun, sondern es handelte sich um die Inhaltsanalyse von Texten, die ohne das Instrument „Fragebogen“ entstanden sind. 262 Man muss sich ja nicht unbedingt der extremen Position von Manning (1967, „the respondent never lies“) anschließen, an die Atteslander u. a. (1991, 138) erinnern: „Der Befragte lügt nie-- die zutreffende Interpretation dessen, was er sagt, hängt vom Können des Analytikers ab“ (siehe auch Esser 1986). Ungenauigkeit durch indirekte Messung Situation der Befragten berücksichtigen <?page no="337"?> 338 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 338 7.3.1 Eigenschaften der Interview-Situation Die Befragung (das persönliche mündliche Interview ebenso wie die schriftliche und die telefonische Befragung) ist ein formalisiertes Verfahren der empirischen Sozialforschung, mit dem Informationen über sozialwissenschaftlich interessierende Sachverhalte erhoben werden sollen. Alle im Interview gestellten Fragen sind nicht Bestandteile einer zweckfreien Kommunikationssituation, sondern haben rein instrumentellen Charakter: Sie sind Mittel zu dem gewünschten Zweck: den Antworten. Das Instrument „Fragebogen“ misst im Allgemeinen nur indirekt, indem es nicht Eigenschaften von Sachverhalten erfasst, sondern Aussagen über Eigenschaften von Sachverhalten (im Einzelnen siehe Porst 2014, 19 ff.; Kreutz 1972, 62 ff.). Noelle-Neumann/ Petersen bringen diese Situation auf die Kurzformel: „Das Gespräch ist kein Gespräch“; womit gemeint ist: Das mündliche Interview hat zwar äußerliche Ähnlichkeit mit der alltagsweltlichen Situation eines Gesprächs zwischen zwei Menschen; es wird aber völlig missverstanden, wenn man es nach den dafür eingebürgerten gesellschaftlichen Wertmaßstäben und Konventionen beurteilt. Plastischer beschrieben: „Der Interviewer ruft zur Unzeit an und bittet um ein Gespräch, beansprucht die Zeit des Befragten, unterbricht bei der Arbeit oder stört Freizeitpläne. Oder er klingelt wie ein Hausierer an der Wohnungstür, und obwohl er in der Regel ein Fremder ist, lässt er sich am Küchentisch oder Wohnzimmertisch nieder und stellt Fragen nach völlig privaten Dingen- - z. B. nach Gesundheit, Einkommen, Zukunftsplänen, politischen Ansichten, Jugenderlebnissen--, wechselt sprunghaft die Themen, geht überhaupt nicht persönlich auf seine Gesprächspartner ein, sondern schert alle Befragten über einen Kamm, führt das ganze Gespräch ‚nach Schema F‘ und verstößt dabei gegen alle Regeln einer gebildeten Unterhaltung.“ (Noelle-Neumann/ Petersen 1996, 60) Zu dieser Künstlichkeit der Befragungssituation 263 werden häufig drei Punkte besonders hervorgehoben (vgl. v. Alemann 1977, 208 f.): Erstens sind im Normalfall die interagierenden Personen (Interviewer und Befragter) Fremde, die sich noch nie gesehen haben. Für den einen von ihnen, nämlich Interviewerin bzw. Interviewer, gibt es bestimmte Rollenvorschriften, nach denen sie/ er sich verhalten soll. Diese Verhaltensvorschriften werden in der Interviewerschulung explizit vermittelt. 264 263 Qualitative Untersuchungsformen allerdings orientieren sich durchaus am Modell „alltägliches Gespräch“ und bemühen sich, ein möglichst hohes Maß an „Natürlichkeit“ in die Interviewsituation hinüberzuretten (zu einigen Regeln qualitativer Interviews siehe Hopf 1978). 264 Nach der Art der Verhaltensvorschriften unterscheidet man zwischen „weichen“, „neutralen“ oder „harten“ Interviews. formalisierte Informationserhebung VERTIEFUNG Künstlichkeit der Befragungssituation Gespräch unter Fremden <?page no="338"?> 339 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 339 Für Befragte gibt es solche ausformulierten und eingeübten Rollenvorschriften nicht. Fehlen bisher Erfahrungen mit Interviewsituationen, werden Befragte vergleichbare oder ähnliche Situationen zur Orientierung heranziehen: etwa Vertreterbesuche an der Wohnungstür. Von daher ergeben sich für Interviewer teilweise erhebliche Probleme, das Einverständnis der zu befragenden Person für das Interview zu gewinnen. Je nach Zugehörigkeit zu sozialen Schichten ließen sich unterschiedliche Antwortbereitschaften beobachten. Mittelschichtangehörige sind mitteilungsfreudiger als Arbeiter oder Oberschichtangehörige. Man spricht häufig sogar von einer ausgesprochenen Mittelschichtorientierung der Methode Befragung. Vorausgesetzt wird bei der Befragung ein nicht unerheblicher Individualismus des zu Befragenden. Es wird unterstellt, dass zum einen der Interviewpartner seine eigenen Ansichten überhaupt für mitteilenswert ansieht und dass er zum anderen nicht so vollständig in Gruppenbezügen denkt, dass bei verschiedenen Personen der gleichen Gruppenzugehörigkeit immer die gleichen Antworten zustande kämen. Mit anderen Worten: „Es muss zu den sozial eingeübten Verhaltensweisen [des Befragten, H. K.] gehören, in einer dyadischen Beziehung mit Fremden mitteilbare und als mitteilenswert angesehene Meinungen und Informationen zu besitzen und sich zu ihrer Äußerung fähig und kompetent zu fühlen“ (Esser 1974, 111). Zweitens handelt es sich bei einem Interview um eine asymmetrische soziale Beziehung. Die eine Person (der Interviewer/ die Interviewerin) stellt ständig Fragen; von ihr gehen fast alle Aktivitäten aus. Die andere Person (der/ die Befragte) gibt Auskünfte über sich selbst und verhält sich weitgehend passiv. Der Befragte ist im Rahmen des Erhebungsmodells „standardisiertes Interview“ kein eigentlicher Gesprächspartner, sondern in allererster Linie „Datenträger“ und Informant. Strategien zur Strukturierung der Interviewsituation (Interviewerschulung, vorgeschriebener Interviewstil, s. o.) sowie zur „richtigen“ Konstruktion von Fragebögen (vgl. Porst 2014; Schnell 2012; Kreutz/ Titscher 1974) sind Bestandteil von Bemühungen zur Optimierung der Bedingungen des „Datenabrufs“. Drittens unterscheidet sich die Situation des Interviews von natürlichen Interaktionen dadurch, dass sie sozial folgenlos ist. Im Normalfall weist der Interviewer auf diesen Tatbestand mittels Zusicherung der Wahrung der Anonymität ausdrücklich hin. Wenn den Befragten nicht gerade dieser Hinweis besonders misstrauisch machen sollte, kann er seine Meinungen über alle Themen frei „von der Leber weg“ äußern. Wenn er sagt, sein Vorgesetzter sei ein Quatschkopf, dann hat das für ihn, anders als würde er diese Äußerung am Arbeitsplatz tun, keine Konsequenzen. Eine Folge davon ist u. a., dass auch weniger „harte“ Meinungen im Interview geäußert werden. In anderen nicht privaten sozialen Situationen wird jemand eine bestimmte Meinung erst dann vertreten, wenn er auch wirklich fest von ihr überzeugt ist, etwa in der Diskussion bei einer öffentlichen politischen Wahlveranstaltung. Atteslander u. a. (1991, 142) unterscheiden in diesem Zusammenhang zwischen „verbindlichen“ und „unverbindlichen“ Meinungen. Vergleich mit ähnlichen Situationen schichtabhängige Reaktionen auf Befragung asymmetrische soziale Beziehung sozial folgenlose Situation verbindliche/ unverbindliche Meinungen <?page no="339"?> 340 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 340 Nimmt man dies alles zusammen, so dürfte deutlich sein, dass das Interview niemals ein neutrales Erhebungsverfahren sein kann, welches ohne Beeinflussung durch Merkmale der Forschungskontaktsituation lediglich die verbalen Stimuli des Fragebogens an den Befragten weitergibt und dessen Antworten möglichst exakt aufzeichnet. Hierzu trägt allein schon die Tatsache bei, dass es eine von (fast) allen befolgte soziale Norm ist, auf eine Frage zu antworten. „Nicht zu antworten, also keine Reaktion zu zeigen, widerspricht offensichtlich allgemeinen Erwartungen gegenseitigen Verhaltens. Fragen sind deshalb immer auch als Reaktion nicht nur auf das zu Erfragende bezogen, sondern auf den Fragenden, auf die gesamte Situation. Die Frage ist zugleich Element eines Prozesses und auch Element ganz spezifischer zeit-örtlich fixierter sozialer Situationen“ (Atteslander u. a. 1991, 142). Noch weiter gehen Noelle-Neumann/ Petersen, die (zumindest) das demoskopische Interview als ein „Reaktions-Experiment“ bezeichnen. Sie erläutern dies am Beispiel einer Umfrage zur Krankenkassenreform, in der den Befragten Reform-Alternativen zur Beurteilung vorgelegt wurden. Ihre Situationsanalyse: „Zweifellos hatte die große Mehrheit der Befragten vor Beginn des Interviews noch keine gleichsam bereitliegende Meinung darüber, welche dieser Regelungen die bessere sei. Das Vorlegen von Fragen zu Gegenständen, über die sich die Befragten vor dem Interview noch keine Meinung gebildet haben, ist keine Ausnahme. Bei den ‚Meinungsumfragen‘ werden also häufig keine fertigen Meinungen eingesammelt, sondern es werden Reaktionen festgestellt. Die Befragten ‚reagieren‘ in der experimentellen Test-Situation, indem sie die Testfragen beantworten. Sie mögen über die beste Krankenkassen-Regelung vor dem Interview noch keine klare Meinung gehabt haben, aber dennoch kommen die Ansichten, die sie nun äußern, nicht von ungefähr. Sie sind ein Ausdruck von Kenntnissen, von persönlichen Erfahrungen, Anlagen und Einstellungen, von persönlichen Interessen, die den realen und meist schwer veränderlichen Untergrund der Meinungen bilden. Die Meinung selbst mag sich eben erst im Interview gebildet haben, die Dispositionen, deren Indikator sie ist, sind vorgegeben und sind-- etwa bei der Einführung einer Krankenkassenreform-- eine politische Realität.“ (Noelle-Neumann/ Petersen 1996, 82 f.) 265 7.3.2 Nochmals: Das Modell sozialer Kommunikation (erweitert) Im Kapitel 7.1.1 wurde bereits ein vereinfachtes Modell sozialer Kommunikation eingeführt. Zum Verständnis der bei Inhaltsanalysen zu überwindenden Probleme war die vereinfachte Darstellung hinreichend. Um die bei der Anwendung des Instruments Befragung hinzukommenden Schwierigkeiten zu illustrieren, ist jedoch eine 265 Auf die Unterscheidung von „Testfragen“ (die im Interview gestellt werden) und „Programmfragen“ (die durch die Untersuchung insgesamt beantwortet werden sollen) wird im Kapitel 7.3.3 eingegangen. kein neutrales Erhebungsverfahren VERTIEFUNG Interview als „Reaktions- Experiment“ <?page no="340"?> 341 7.3 Befragung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 341 Modifizierung notwendig: Man stelle sich eine Forscherin vor, die-- etwa zur Überprüfung einer Theorie-- Daten über soziale Sachverhalte benötigt und die als geeignetes Erhebungsinstrument das standardisierte Interview wählt, also zur Operationalisierung der zentralen Begriffe ihrer Hypothesen eine Reihe von Fragen formulieren will. Das heißt: Die Forscherin (F) hat in ihrem Kopf bestimmte Fragestellungen (gedankliche Frageinhalte G; wobei im Folgenden der Prozess der Datenerhebung im Hinblick auf nur eine solche Fragestellung nachvollzogen werden soll): 1a) F benötigt Daten zum sozialen Sachverhalt S. 1b) F denkt G 1 . Zu dieser gedanklichen Fragestellung formuliert sie einen konkreten Fragewortlaut: 2) F verschlüsselt G 1 in W 1 (=-Frageverständnis der Forscherin). Nun führen jedoch im Normalfall nicht die Forscher, die den Fragebogen entwickelt haben, auch selbst die Interviews durch. Vielmehr wird die Feldarbeit einem Interviewerteam übertragen. Die Interviewer werden im Idealfall für ihre Aufgaben speziell geschult, d. h. ihnen wird der Fragebogen erläutert, sie werden in den gewünschten Interviewstil eingewiesen usw. Danach suchen die Interviewer (I) die ausgewählten Interviewpartner auf. Im folgenden Interview wird dem Befragten (B) der von der Forscherin formulierte Fragewortlaut übermittelt: 3) I übermittelt W 1 an B (=-Interviewer als „Übertragungsmedium“ zwischen Sender =-Forscherin und Empfänger =-Befragter). Der Befragte hört den Fragewortlaut und übersetzt die Worte entsprechend seinem Sprachverständnis in eine gedankliche Frageassoziation: 4) B hört W 1 und entschlüsselt in G 2 (=-Frageverständnis des Befragten). Aufgrund seines Frageverständnisses entwickelt der Befragte den gedanklichen Vorstellungsinhalt einer Antwort, die er für angemessen hält: 5) B denkt G 3 . Diese ihm angemessen erscheinende Antwort hat der Befragte nun sprachlich zu formulieren, wobei er je nach Art der Fragestellung dies entweder in eigenen Worten tun kann (bei „offenen Fragen“) oder aus einer Anzahl vorgegebener Antwortmöglichkeiten auszuwählen hat (bei „geschlossenen Fragen“): 6) B verschlüsselt G 3 in W 2 . Im Falle einer „geschlossenen Frage“ protokolliert der Interviewer, welche der vorgegebenen Antwortkategorien der Befragte genannt hat: Schritte des Frage-Antwort- Prozesses <?page no="341"?> 342 7. Datenerhebungsverfahren und -instrumente der empirischen Sozialforschung www.claudia-wild.de: Kromrey__Sozialforschung__5-7__[Druck-PDF]/ 06.09.2016/ Seite 342 7a) I hört und protokolliert W 2 . Komplizierter ist der Ablauf im Falle „offener Fragen“. Der Interviewer hört die Antwort W 2 , kann jedoch normalerweise nicht vollständig den ganzen Wortlaut protokollieren, sondern muss das nach seinem Verständnis „Wesentliche“ in Stichworten festhalten. 7b) I hört W 2 und entschlüsselt in G 4 (=-Antwortverständnis des Interviewers). 7c) I wählt aus G 4 das nach seiner Auffassung „Wesentliche“ heraus und verschlüsselt dies zu W 3 (=-Antwort von B im Antwort- und Sprachverständnis von I; d. h. Antwort von B, wie sie durch Vermittlung des Mediums I zu Protokoll genommen wird). Später erhält die Forscherin die kompletten Fragebögen und wertet diese aus. Das heißt, sie entschlüsselt die Antworten unter Rückgriff auf ihr Sprachverständnis und interpretiert die protokollierten (und damit zu Daten gewordenen) Antworten als Indikatoren für den Sachverhalt S. Im Falle „geschlossener Fragen“ (vgl. 7a): 8a) F entschlüsselt W 2 in G 4 (=-Antwortverständnis der Forscherin) und interpretiert W 2 als Indikator für S. Im Falle „offener Fragen“ (vgl. 7b, 7c): 8b) F entschlüsselt W 3 in G 5 und interpretiert W 3 als Indikator für S. Die Schritte 1b bis 8b skizzieren den formalisierten Prozess der Kommunikation zwischen Forscherin und Befragtem im Falle eines standardisierten Interviews. Skeptischer formuliert: Sie skizzieren Rudimente einer Kommunikation mit eingebauten Hindernissen. Um sich diese „eingebauten Hindernisse“ vor Augen zu führen, vergegenwärtige man sich einige Voraussetzungen für einen gelingenden Kommunikationsprozess: Alle am Kommunikationsprozess Beteiligten müssen die erforderliche kommunikative Kompetenz besitzen, d. h. jeder Beteiligte muss die Bedeutung der Zeichen kennen, mit deren Hilfe kommuniziert wird (hier: sprachliche Zeichen, deren Grammatik und Semantik), und zwar müssen alle Beteiligten (Forscherin, Interviewer, Befragter) den Zeichen die gleiche Bedeutung beimessen. Im alltäglichen Ges