eBooks

Empirisch forschen

Die Planung und Umsetzung von Projekten im Studium

0216
2026
978-3-8385-6344-2
978-3-8252-6344-7
UTB 
Theo Hug
Gerald Poscheschnik
10.36198/9783838563442

Der Band bietet einen Überblick über die wichtigsten Schritte bei der Planung und Umsetzung von empirischen Forschungsprojekten. Der Aufbau folgt dem Ablauf der Forschung, das Buch kann deshalb auch als Leitfaden für eigene Forschungsprojekte verwendet werden. Die gut verständliche Darstellung wird durch zahlreiche Übersichten, Literaturtipps und Internetquellen ergänzt. Die 4. Auflage enthält vertiefende und ergänzende Textabschnitte zur Methodenanwendung sowie Tipps und Hinweise zum Umgang mit digitalen Medien und Künstlicher Intelligenz in der Forschung. - Was ist und wie funktioniert empirische Forschung? - Welche Forschungsdesigns und -methoden gibt es? - Wie plant man ein empirisches Forschungsprojekt? - Wie präsentiert man die Forschungsergebnisse? - Wie kann man im Forschungsprozess sinnvoll mit KI-Systemen umgehen?

9783838563442/9783838563442.pdf
<?page no="0"?> ISBN 978-3-8252-6344-7 Theo Hug | Gerald Poscheschnik (Hg.) Empirisch forschen 4. Auflage Der Band bietet einen Überblick über die wichtigsten Schritte bei der Planung und Umsetzung von empirischen Forschungsprojekten. Der Aufbau folgt dem Ablauf der Forschung, das Buch kann deshalb auch als Leitfaden für eigene Forschungsprojekte verwendet werden. Die gut verständliche Darstellung wird durch zahlreiche Übersichten, Literaturtipps und Internetquellen ergänzt. Die 4. Auflage enthält vertiefende und ergänzende Textabschnitte zur Methodenanwendung sowie Tipps und Hinweise zum Umgang mit digitalen Medien und Künstlicher Intelligenz in der Forschung. ● Was ist und wie funktioniert empirische Forschung? ● Welche Forschungsdesigns und -methoden gibt es? ● Wie plant man ein empirisches Forschungsprojekt? ● Wie präsentiert man die Forschungsergebnisse? ● Wie kann man im Forschungsprozess sinnvoll mit KI-Systemen umgehen? Schlüsselkompetenzen 4. A. Empirisch forschen Hug | Poscheschnik (Hg.) Dies ist ein utb-Band aus dem UVK Verlag. utb ist eine Kooperation von Verlagen mit einem gemeinsamen Ziel: Lehr- und Lernmedien für das erfolgreiche Studium zu veröffentlichen. utb.de QR-Code für mehr Infos und Bewertungen zu diesem Titel Mit Tipps zu KI in der Forschung Studieren, aber richtig 6344-7_Hug_Poscheschnik_M_3357_PRINT.indd Alle Seiten 6344-7_Hug_Poscheschnik_M_3357_PRINT.indd Alle Seiten 08.01.26 13: 57 08.01.26 13: 57 <?page no="1"?> utb 3357 Eine Arbeitsgemeinschaft der Verlage Brill | Schöningh - Fink · Paderborn - Vandenhoeck & Ruprecht · Göttingen - Böhlau · Wien · Köln Verlag Barbara Budrich · Opladen · Toronto facultas · Wien Walter de Gruyter · Berlin · Boston Haupt Verlag · Bern Verlag Julius Klinkhardt · Bad Heilbrunn Mohr Siebeck · Tübingen Narr Francke Attempto Verlag - expert verlag · Tübingen Psychiatrie Verlag · Köln Psychosozial-Verlag · Gießen Ernst Reinhardt Verlag · München transcript Verlag · Bielefeld Verlag Eugen Ulmer · Stuttgart UVK Verlag · München Waxmann · Münster · New York wbv Publikation · Bielefeld Wochenschau Verlag · Frankfurt am Main <?page no="2"?> Zu den Autoren und der Autorin Theo Hug und Franz Reiter lehren an der Fakultät für Soziale und Poli‐ tische Wissenschaften der Universität Innsbruck. Gerald Poscheschnik lehrt im Studienbereich Gesundheit und Soziales an der Fachhochschule Kärnten. Irina Andreitz lehrt an der Fakultät für Kultur- und Bildungswis‐ senschaften der Universität Klagenfurt. Bernd Lederer lehrt an der Fakultät für Bildungswissenschaften der Universität Innsbruck. Studieren, aber richtig Herausgegeben von Michael Huter, Huter & Roth, Wien Die Bände behandeln jeweils ein Bündel von Fähigkeiten und Fertigkeiten. Das gesamte Paket versetzt Studierende in die Lage, die wesentlichen Aufgaben im Studium zu erfüllen. Die Themen orientieren sich an den wichtigsten Situationen und Formen des Wissenserwerbs. Dabei werden auch das scheinbar Selbstverständliche behandelt und die Zusammenhänge erklärt. Weitere Bände: Steffen-Peter Ballstaedt: Wissenschaftliche Bilder: gut gestalten, richtig verwenden (utb 6031) Jasmin Bastian, Lena Groß-Mlynek: Lernen und Wissen (utb 3779) Isabella Buck: Wissenschaftliches Schreiben mit KI (utb 6365) Sabine Dengscherz, Michele Cooke: Transkulturelle Kommunikation (utb 5319) Otto Kruse: Kritisches Denken und Argumentieren (utb 4767) Otto Kruse: Lesen und Schreiben (utb 3355) Klaus Niedermair: Recherchieren, Dokumentieren, Zitieren (utb 3356) Gerlinde Mautner, Christopher J. Ross: English Academic Writing (utb 6028) Gerlinde Mautner: Wissenschaftliches Englisch (utb 3444) Melanie Moll, Winfried Thielmann: Wissenschaftliches Deutsch (utb 4650) <?page no="3"?> Theo Hug / Gerald Poscheschnik (Hg.) Empirisch forschen Die Planung und Umsetzung von Projekten im Studium Mit Beiträgen von Irina Andreitz, Theo Hug, Bernd Lederer, Gerald Poscheschnik und Franz Reiter 4., überarbeitete und erweiterte Auflage <?page no="4"?> 4., überarbeitete und erweiterte Auflage 2026 3., überarbeitete und ergänzte Auflage 2020 2., überarbeitete Auflage 2014 1. Auflage 2010 DOI: https: / / doi.org/ 10.36198/ 9783838563442 © UVK Verlag 2026 ‒ Ein Unternehmen der Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikro‐ verfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Alle Informationen in diesem Buch wurden mit großer Sorgfalt erstellt. Fehler können dennoch nicht völlig ausgeschlossen werden. Weder Verlag noch Autor: innen oder Heraus‐ geber: innen übernehmen deshalb eine Gewährleistung für die Korrektheit des Inhaltes und haften nicht für fehlerhafte Angaben und deren Folgen. Diese Publikation enthält gegebenenfalls Links zu externen Inhalten Dritter, auf die weder Verlag noch Autor: innen oder Herausgeber: innen Einfluss haben. Für die Inhalte der verlinkten Seiten sind stets die jeweiligen Anbieter oder Betreibenden der Seiten verantwortlich. Internet: www.narr.de eMail: info@narr.de Einbandgestaltung: siegel konzeption | gestaltung Druck: Elanders Waiblingen GmbH utb-Nr. 3357 ISBN 978-3-8252-6344-7 (Print) ISBN 978-3-8385-6344-2 (ePDF) ISBN 978-3-8463-6344-7 (ePub) Umschlagabbildung: © shutterstock Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. <?page no="5"?> 7 8 15 1 16 2 21 3 30 4 36 5 55 61 1 63 2 68 3 70 4 75 5 79 6 83 7 102 Inhalt Vorwort zur 4. Auflage (T. Hug, G. Poscheschnik) . . . . . . . . . . . . . . . . . . Worum es in diesem Buch geht und wie man es benützt (T. Hug, G. Poscheschnik) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I Ausgangspunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Nachdenken-- Wozu überhaupt? (T. Hug) . . . . . . . . . . . . . . Alltagserfahrung vs. wissenschaftliche Erfahrung (T. Hug) Empirisch forschen - Was ist das? (T. Hug) . . . . . . . . . . . . . Die Freiheit der Forschung und ihre Grenzen (T. Hug) . . . Mein erstes Forschungsprojekt - Was brauche ich? (T. Hug) II Erste Schritte: Die Planung eines Forschungsprojekts . . . . . . . . . . . . . Von der ersten Idee zur konkreten Forschungsfrage (G.-Poscheschnik) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wie verstehe ich den Gegenstand meiner Forschung? (G. Poscheschnik) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wer suchet, der findet - Übers Recherchieren im Prozess der Forschung (G. Poscheschnik) . . . . . . . . . . . . . . . . . . . . . . Die Rolle von Argumenten im Prozess der Forschung (G. Poscheschnik) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Step by step-- Sinn und Zweck von Ablaufmodellen (G. Poscheschnik) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Design matters-- Über Sinn und Zweck von Forschungsdesigns (G. Poscheschnik) . . . . . . . . . . . . . . . . . . Der methodische Dreischritt empirischer Forschung: Erhebung, Aufbereitung, Auswertung (G. Poscheschnik) . <?page no="6"?> 8 108 9 116 123 1 124 2 143 3 172 4 191 203 1 204 2 232 3 256 263 1 264 2 277 3 279 4 283 287 300 305 306 Qualitativ oder quantitativ? Die Gretchenfrage in der Wissenschaft (G. Poscheschnik) . . . . . . . . . . . . . . . . . . . . . . . Es ist nicht alles Gold, was glänzt-- Über Gütekriterien empirischer Forschung (G. Poscheschnik) . . . . . . . . . . . . . . III Datenerhebung und Datenaufbereitung . . . . . . . . . . . . . . . . . . . . . . . . Qualitative Erhebungsmethoden (G. Poscheschnik) . . . . . . Quantitative Erhebungsmethoden (B. Lederer, F. Reiter) . . Aufbereitungsmethoden (I. Andreitz) . . . . . . . . . . . . . . . . . . Die Rolle der Medien in der Erhebung und Aufbereitung von Daten (T. Hug) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IV Datenauswertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Qualitative Auswertungsmethoden (G. Poscheschnik) . . . . Quantitative Auswertungsmethoden (B. Lederer, F. Reiter) Zum Einsatz von Medien bei der Auswertung von Datensätzen (T. Hug) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V Darstellung der Ergebnisse und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . Die Darstellung der Ergebnisse (T. Hug) . . . . . . . . . . . . . . . Zur Problematik der »fake science« (B. Lederer) . . . . . . . . Ausblick oder wie entwickle ich meine Methodenkompetenz weiter? (T. Hug) . . . . . . . . . . . . . . . . . Nützliche Internetquellen und Werkzeuge (T. Hug) . . . . . . Literaturhinweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Register . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Abbildungsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabellenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Inhalt <?page no="7"?> Vorwort zur 4. Auflage (T. Hug, G. Poscheschnik) Seit der 3. Auflage sind nun fünf Jahre vergangen. Wie sich Forschungsland‐ schaften und Fachkulturen ändern, so verändern sich auch Methodenland‐ schaften. Einerseits hat die weltweite Pandemie, die mit der Verbreitung der SARS-CoV2-Viren einherging, die Arbeitsweisen und Kooperationsformen auch im akademischen Raum verändert. Andererseits sind im tertiären Bildungsbereich weiterhin umfassende Transformationsprozesse im Gange, die mit digitaltechnologischen Entwicklungen und neuen gesellschaftlichen Nützlichkeitserwartungen an wissenschaftliche Forschung verbunden sind. Das betrifft nicht zuletzt Fragen des Umgangs mit digitalen Forschungsda‐ ten, mit teilautomatisierten Forschungsabläufen und den Werkzeugen der so genannten „Künstlichen Intelligenz“ (KI), deren Einsatzmöglichkeiten und Grenzen allemal differenziert und kritisch reflektiert werden sollten. Für die Überarbeitung dieses Bandes sind wir bei traditionellen Arbeitsweisen geblieben, insofern gilt für ihn das Gütesiegel „KI-frei“. Auch wenn ein einführender Band auf rund 300 Seiten unmöglich alle empirischen Methoden und Analysetechniken behandeln kann, so sind wir dem Anspruch treu geblieben, die volle Breite der Methodenlandschaft im Bereich der sozialwissenschaftlichen empirischen Forschung in den Blick zu nehmen und die wichtigsten Ansätze und Verfahren vorzustellen. Neu aufgenommen haben wir die Autoethnographie, die Aktivierende Be‐ fragung, die Thematische Analyse, die Psychoanalytische Beobachtung und die Dokumentarische Methode. Viele Abschnitte haben wir um zusätzliche Aspekte ergänzt. Unterstützung haben wir dabei durch die Mitwirkung von Irina Andreitz und Franz Reiter bekommen. Unser Dank gebührt wie immer den vielen Lehrenden und Studierenden, die das Buch bisher genutzt haben und dadurch nun auch eine 4. erweiterte Auflage ermöglicht haben. Zum anderen möchten wir unseren Lesenden auch für das Feedback zum Buch danken, das eine stetige Korrektur und Weiterentwicklung ermöglicht hat. Die Zuschriften, die wir erhalten haben, und die Fragen und Anmerkungen der Studierenden aus unseren Lehrver‐ anstaltungen zur Forschungsmethodik haben uns stets geholfen, komplexe Zusammenhänge möglichst verständlich darzustellen, Offenes zu klären und somit das Buch von Auflage zu Auflage weiterzuentwickeln. Inwieweit uns das gelungen ist, mögen die Lesenden der 4. Auflage beurteilen. <?page no="8"?> Worum es in diesem Buch geht und wie man es benützt (T. Hug, G. Poscheschnik) Empirische Forschung ist ein zentrales Thema nahezu jeder wissenschaft‐ lichen Ausbildung. Im Studium werden Sie bald die Erfahrung machen, dass sie nicht nur in den Lehrveranstaltungen zu Theorien und Methoden, sondern auch in anwendungsorientierten Kursen eine Rolle spielt. Immer wieder wird dabei auf empirische Forschungsergebnisse Bezug genommen. Sie sind aufgefordert, Forschungsberichte auch selbst nachzuvollziehen und zu beurteilen. Mehr noch: Spätestens bei der abschließenden Qualifizie‐ rungsarbeit stellt sich die Frage, wie Sie Ihr eigenes erstes Forschungsprojekt aufsetzen und realisieren können. Empirische Forschung wird Ihnen also während Ihres ganzen Studiums auf Schritt und Tritt begegnen. Methodenkurse zählen im Allgemeinen nicht gerade zu den beliebtesten Lehrveranstaltungen. Es gibt sogar Studierende, die die Auseinandersetzung mit Forschung und Forschungsmethoden als Zumutung empfinden. Das kann unterschiedliche Gründe haben. Einerseits befürchten sie, mit abstrak‐ ten und komplexen Inhalten überfordert zu werden. Andererseits konkur‐ riert die empirische Forschung auch mit Lehrveranstaltungsangeboten, die schon im Titel lebens- und berufspraktische Bedeutung versprechen. Es ist auch nicht auszuschließen, dass Statistik- und Methodenkurse da und dort dazu missbraucht werden, um mit Knock-out-Prüfungen den Andrang von Studierenden zu bewältigen. Grundsätzlich ist empirische Forschung allerdings weder komplizierter noch uninteressanter als andere Teile Ihres Studiums. Was haben das Kochen eines feinen Menüs, das Einstudieren eines neuen Musikstücks, die Programmierung einer tollen Website, das Erlernen einer Fremdsprache, das Einüben neuer Tanzschritte und der Erwerb forschungsmethodischer Kompetenzen gemeinsam? - Alle diese Tätigkeiten können Befriedigung verschaffen, Spaß machen und Freude bereiten - und: sie bedeuten auch Arbeit, sie erfordern eine gewisse Liebe zur Sache, und sie brauchen Zeit und Geduld. <?page no="9"?> Mit diesem Buch wollen wir Ihnen den Einstieg in Methodenfragen erleich‐ tern und Ihnen helfen, sich im weiten Feld der empirischen Forschung zu orientieren. Wir möchten Sie ermutigen, über Methodenthemen nachzu‐ denken, Anwendungen zu erproben und Schritt für Schritt forschungsme‐ thodische Kompetenzen zu erwerben. Deshalb konzentrieren wir uns auf zentrale Themen und Schlüsselfragen. Indem wir Sie mit grundlegenden Erfordernissen und Prinzipien vertraut machen, wollen wir Ihre Neugier wecken und gleichzeitig allfällige Befürchtungen im Zusammenhang mit empirischer Forschung zerstreuen oder zumindest mildern. Das Buch kann Ihnen als Lösungshilfe für praktische Probleme in der Forschung dienen, sowohl im Studium als auch in der beruflichen Praxis. Darüber hinaus hilft es Ihnen auch, empirische Forschungsarbeiten anderer besser zu verstehen. Die inhaltliche Gliederung des Bandes folgt der Logik, nach der empiri‐ sche Forschung üblicherweise abläuft. Damit dient er auch als Leitfaden für die Durchführung Ihres eigenen Forschungsprojekts. Bevor Sie Ihr erstes eigenes empirisches Forschungsprojekt in Angriff nehmen, können Sie das Buch von Anfang bis zum Ende durchlesen und dabei alle Schritte Ihres Vorhabens planen. Sie haben aber auch die Möglichkeit, einzelne Kapitel zu lesen, und verschaffen sich damit einen raschen Überblick über ein bestimmtes Thema. Wenn Sie zum Beispiel Information über qualitative Interviews brauchen, lesen Sie einfach Abschnitt III.1. Im Inhaltsverzeichnis sind die wichtigsten Themen der empirischen Forschung benannt. In jedem Fall wird Ihnen der Band dabei helfen, die begrenzte Zeit mit Lehrenden oder Tutoren möglichst sinnvoll und effektiv zu nutzen. Beim Schreiben haben wir die Dinge absichtlich vereinfacht. Das soll Ihnen den Einstieg ins Thema erleichtern. Es gibt kaum einen Punkt, den man nicht relativieren und diskutieren könnte, aber um die Sache nicht unnötig zu verkomplizieren, haben wir darauf weitgehend verzichtet. Damit nehmen wir bewusst in Kauf, dass Sie wahrscheinlich eines Tages, wenn Sie über eine gewisse methodologische Expertise verfügen, auf dieses Büchlein milde lächelnd zurückschauen können. Es ist nicht mehr als eine Leiter, die dazu dient, das nächsthöhere Plateau des Wissens zu erklimmen. Dort angelangt, können Sie darauf verzichten und sie getrost umstoßen. Wir weisen also auf die Grenzen dieses schmalen Büchleins hin. Wir möchten Ihnen nicht vormachen, dass alles, was man über empirische For‐ schung wissen kann, in diesem Buch steht. Wenn Sie in einem bestimmten Gebiet Expertise erlangen möchten, müssen Sie weiterlesen. Aus diesem Grund enthält das Buch auch am Ende jedes Abschnitts einen oder meh‐ Worum es in diesem Buch geht und wie man es benützt 9 <?page no="10"?> rere Literaturtipps. Außerdem haben wir eine Reihe von Internetquellen zusammengestellt, die beim Erwerb forschungsmethodischer Kompetenzen hilfreich sind. Damit können Sie Ihr Wissen gezielt ausbauen. Überblick Fragen, die Ihnen dieser Band beantwortet ● Worin unterscheidet sich wissenschaftliche Erkenntnis von All‐ tagserkenntnis? ● Was ist und wie funktioniert empirische Forschung? ● Wie kann ich Hypothesen und Forschungsfragen finden? ● Wie plane ich mein erstes empirisches Forschungsprojekt? ● Wie läuft ein empirisches Forschungsprojekt ab? ● Welche Forschungsdesigns und Forschungsmethoden gibt es? ● Was ist der Unterschied zwischen qualitativen und quantitativen Forschungsmethoden? ● Welche Forschungsdesigns und Forschungsmethoden soll ich ver‐ wenden? ● Wodurch zeichnet sich eine gute wissenschaftliche Studie aus? ● Welche Methoden zur Erhebung von Daten gibt es? ● Welche Methoden zur Aufbereitung von Daten gibt es? ● Welche Methoden zur Auswertung von Daten gibt es? ● Wie kann ich Software und digitale Medien für mein Forschungs‐ projekt nutzen? ● Wie kann ich Künstliche Intelligenz in meinem Forschungsprojekt nutzen? ● Wie kann ich meine Forschungsergebnisse erfolgreich präsentie‐ ren? In die Erstellung dieses Buchs sind im Laufe der Jahre weitaus mehr Texte eingeflossen als im Rahmen der wenigen Literaturtipps Erwähnung finden. Nachdem ein Anspruch auf Vollständigkeit der Angaben alleine mit Blick auf immer wieder aktualisierte Seminarunterlagen kaum einzulösen wäre, wollen wir hier auf die nützlichen Internetquellen und Werkzeuge im Kapitel V verweisen. Abgesehen von wissenschaftlicher Literatur sind auch Gespräche mit Studierenden sowie mit Kolleginnen und Kollegen, 10 Worum es in diesem Buch geht und wie man es benützt <?page no="11"?> denen wir für ihre Anregungen und Hinweise danken möchten, in die Aktualisierungen eingeflossen. Noch ein Hinweis: Nur keinen falschen Respekt vor Büchern! Bei diesem Bändchen handelt es sich nicht um eine heilige Schrift, sondern um ein Werkzeug. Aus dem Grund ist es auch in Ordnung zu unterstreichen, Randnotizen einzufügen, Eselsohren zu machen, Post-its reinzukleben usw. Wissenschaftliche Bücher sind dazu da, verwendet zu werden. Man benützt ja auch einen Hammer und lässt ihn nicht nur im Werkzeugkoffer liegen. Die Tatsache, dass wir an dieser Stelle eine Werkzeugperspektive ins Spiel bringen, soll allerdings nicht darüber hinwegtäuschen, dass bei jedem Werkzeuggebrauch nicht nur instrumentelle, methodische und technische, sondern auch soziale, kulturelle, ökonomische, politische, ethische und er‐ kenntnistheoretische Aspekte eine Rolle spielen. Die gilt insbesondere auch für jene Formen der technischen Daten- und Informationsverarbeitung, die heute als „künstliche Intelligenzen“ (KI) gehandelt werden. Was haben Rezepte zum Kochen, musikalische Kompositionen, Über‐ setzungen von Texten in fremde Sprachen und forschungsmethodische Konzepte gemeinsam? - Alle diese Dinge können zumindest in einer basalen Form auf der Grundlage von Datensätzen, statistischen Wahr‐ scheinlichkeiten und algorithmischen Anwendungen von maschinel‐ len Lernmodellen errechnet werden - und: Sie können in kreativer, kontextsensitiver und sinnverstehender Weise von intelligenten und vulnerablen menschlichen Wesen in komplexen Formen erstellt wer‐ den. Angesichts der weiten Verbreitung von KI-Systemen in alltagsweltlichen und wissenschaftlichen Kontexten wollen wir die geneigten Lesenden auf einige Punkte hinweisen, die uns besonders wichtig sind: 1. Rhetorik: Viele Ausdrucksweisen im Umgang mit so genannten „künst‐ lichen Intelligenzen“ (KI) weisen anthropomorphisierende Züge auf. Das bedeutet, dass den datenverarbeitenden Maschinen menschliche Züge des Lernens, der Intelligenz, des Denkens, der Kreativität oder des moralischen Handelns zugeschrieben werden. Im Regelfall handelt es sich dabei um metaphorische Beschreibungen, die mindestens so viel verdecken wie sie erhellen. Aus der Tatsache, dass komplexe Berechnungen von riesigen Worum es in diesem Buch geht und wie man es benützt 11 <?page no="12"?> Datensätzen interessante Einsichten befördern können, folgt nicht, dass die Berechenbarkeit der Welt grenzenlos wäre oder dass eine Auswahl berechenbarer Aspekte von komplexen Zusammenhängen schon für „das Ganze“ oder die wirklich relevante Wirklichkeit genommen werden sollten. Auch wenn die maschinellen Wahrscheinlichkeitsrechnungen mitunter beeindruckende, je nach Datenbasis aber auch stereotype und irreführende Ergebnisse liefern, sollten die Rechenleistungen von vernetzten Computern nicht mit menschlichen Denk- und Wissensprozessen verwechselt werden. 2. Transparenz: Es gibt noch keine allgemeingültigen und für alle verbind‐ lichen Regeln, wie man mit KI-Systemen im Prozess der Forschung umgehen soll. Deshalb empfehlen wir Ihnen nachdrücklich, sich unbedingt an die Vorgaben Ihrer Universität zu halten und alle hochschulinternen Regeln konsequent zu beachten. Der Mindeststandard ist es, jeden Einsatz eines KI-Assistenten genauestens zu dokumentieren und transparent zu machen. Wo und wie haben Sie KI-Systeme verwendet? Am besten erstellen Sie eine Tabelle und listen alle Einsatzgebiete und Zwecke auf. Ansonsten würde es sich um einen klaren Fall von wissenschaftlichem Betrug handeln. 3. Datenschutz: Nehmen Sie stets auch auf datenschutzrechtliche und ur‐ heberrechtliche Aspekte Rücksicht. Es ist meistens nicht durchsichtig, wie KI-Programme genau lernen und was mit den Daten passiert, die Sie einge‐ ben. Wenn Sie sich zum Beispiel KI-Unterstützung bei der Auswertung von Interviews holen möchten, sollten Sie dafür auch die explizite schriftliche Zustimmung der von Ihnen interviewten Personen einholen. Keinesfalls sollten Sie personenbezogene Daten ohne vorherige Anonymisierung eingeben. 4. Promptformulierung: Die Genauigkeit der Ergebnisse hängt auch von der Genauigkeit Ihrer Fragestellung ab. „Werte mir das Interview mal qualitativ aus“, wird ebenso wenig wissenschaftlich brauchbare Ergebnisse liefern wie die Aufforderung: „Berechne mir die Statistik von folgenden Werten“. Wenn Sie präzise und profunde Antworten erhalten möchten, gilt als Faustregel, dass man die KI zuvor mit entsprechenden Informationen „füttern“ muss. Teilen Sie dem Programm mit, in welchem Themenfeld es seine Expertise abrufen soll, welche Informationen Sie gerne hätten und wie diese aufbereitet sein sollen. Ein kleines Beispiel: „Erstell mir einen Interviewleitfaden für eine Befragung, wie zufrieden Klienten mit Ihrer Psychotherapie sind“, wird weniger gute Ergebnisse liefern als fol‐ gender Prompt: „Du bist nun Experte für qualitative Interviews, hierbei 12 Worum es in diesem Buch geht und wie man es benützt <?page no="13"?> insbesondere für Evaluationen von psychotherapeutischen Prozessen aus Klientensicht. Erstelle einen qualitativen Interviewleitfaden für die Befra‐ gung von Klienten, in denen folgende Themenfelder durch jeweils mehrere Fragen abgedeckt werden: Zustand vor der Therapie und Veränderung während der Therapie; in welchen Lebensbereichen haben sich Verände‐ rungen bemerkbar gemacht und wie haben sich diese bemerkbar gemacht; welches Verhalten des Therapeuten war hilfreich, welches weniger hilfreich; welchen Beitrag musste die Klientin selbst zur Therapie leisten; sonstige Vermutungen zur Therapie und Veränderung. In all diesen Themenfeldern sollen jeweils unterschiedliche Arten von Fragen vorgeschlagen werden: Fragen, die zum Erzählen persönlicher Erfahrungen anregen; Fragen, die auf abstraktere Analysen und Überzeugungen dieser Thematiken abzielen; Fragen, die bestehende Überzeugungen und Ansichten in Frage stellen. Achte darauf, dass die Fragen möglichst offen sind und keine Antwort suggerieren. Bringe die Fragen des Interviewleitfadens in eine sinnvolle Reihenfolge und gruppiere sie nach Themen. Finde eine Frage, die den Einstieg ins Gespräch erleichtert“. Eine „intelligente“ Antwort braucht einen intelligenten und kompetenten User. Das heißt, die KI kann Ihnen nicht die vorherige fachliche Ausein‐ andersetzung mit einem Thema ersparen. Erst wenn Sie ein gewisses Kenntnisniveau erreicht haben, können Sie die Prompts so formulieren, dass sie nicht nur amateurhafte Antworten erhalten. Meist ist es nämlich auch nötig, in Interaktion mit der KI zu treten und gezielt zu sagen, in welchen Hinsichten Sie gerne genauere und detailliertere Informationen haben möchten. 5. Welche KI für welchen Zweck: Die Anzahl der KI-Assistenten ist mittlerweile Legion. Das heißt, wir müssen uns vom Gedanken verabschie‐ den, alle generativen AI/ KI-Apps zu kennen. Bis zu einem gewissen Grad ist der vermutlich bekannteste Vertreter dieser Gattung, ChatGPT, ein durchaus hilfreicher Wegbegleiter durch den Prozess der Forschung. Es gibt allerdings speziellere AI/ KI-Anwendungen, die speziell für die wissenschaft‐ liche Forschung entwickelt wurden und dementsprechend vielfach auch bessere Ergebnisse erzielen. Allerdings sind diese meist nicht gratis nutzbar, sondern man muss einen bestimmten Betrag dafür bezahlen. Manchmal muss man sogar etwas tiefer in die Tasche greifen, um sich eine KI zu leisten, die dann auch meist bessere Ergebnisse erzielt als die Gratisversion und die Bewältigung umfangreicherer Anfragen und Datenmengen ermöglicht. Worum es in diesem Buch geht und wie man es benützt 13 <?page no="14"?> Eine Liste von KI-Assistenten für die wissenschaftliche Forschung finden Sie in Kapitel V des Buchs. 6. Vertrauen und Kontrolle: Konfabulationen bzw. so genannte Hallu‐ zinationen sind nach wie vor recht häufig. Das bedeutet, die KI erzählt uns manchmal Dinge, die schlichtweg falsch sind. Recht häufig werden Literaturangaben und »Fakten« einfach frei erfunden. Prüfen Sie also immer nochmals unabhängig, was die KI formuliert. 7. Nachhaltigkeit und soziale Ungleichheit: Während wir hier zum Nachdenken über die Verwendung von KI-Systemen anregen, mögen Sie vielleicht einwenden, dass es zumindest im Rahmen der alltagsweltlichen Mediennutzung kaum mehr ein „Entkommen“ gibt. Sie können zwar zum Beispiel Ecosia statt Google als Suchmaschine nutzen, aber bei vielen Anwendungen sind KI-Assistenten nicht deaktivierbar. Gerade deswegen ist es wichtig, sich klar zu machen, dass es hier nicht um naturgesetzliche, sondern um menschengemachte Entwicklungen geht. Mehr noch: Die sozio-technischen KI-Entwicklungen korrespondieren mit anderen men‐ schengemachten Entwicklungen etwa dem Klimawandel, der schwindenden Biodiversität und der sozialen Ungleichheit. Metaphorische Redeweisen wie die von den Daten in der „Cloud“ lenken davon ab, dass Rechenzentren keine „Wolken“ sind, sondern materielle Einrichtungen, die einen enormen Energieverbrauch aufweisen. Auch wenn sich großindustrielle Interessen nicht einfach mit individuellen Handlungsweisen „aushebeln“ lassen, so sollten wir im Interesse von zukunftsoffenen Entwicklungsmöglichkeiten aller Weltregionen gerade in der Forschung die „wins and losses“ im Umgang mit KI-Systemen in differenzierter Weise in den Blick nehmen. Wir möchten uns an dieser Stelle auch noch erlauben, auf die weiteren Teilbände der Buchreihe »STAR - Studieren, aber richtig« hinzuweisen. Sinn und Zweck dieser Bände ist es, interessierten Studierenden wichtige Schlüsselkompetenzen für das Studium zu vermitteln. Diese »Basics«, wie beispielsweise Lesen und Schreiben, Recherchieren und Dokumentieren, Ar‐ beiten mit Medien, Visualisieren und wissenschaftliches Englisch sind häufig nur ungenügend oder gar nicht in den Studienplänen verankert, werden aber trotzdem in Lehrveranstaltungen mehr oder weniger vorausgesetzt. Ein letzter Hinweis: Für eine bessere Lesbarkeit haben wir uns entschie‐ den, männliche und weibliche Personenbezeichnungen im Wechsel zu verwenden. Natürlich sind in allen Fällen immer alle Geschlechter gemeint. 14 Worum es in diesem Buch geht und wie man es benützt <?page no="15"?> I Ausgangspunkte 1. Nachdenken-- wozu überhaupt? (T. Hug) 2. Alltagserfahrung vs. wissenschaftliche Erfahrung (T. Hug) 3. Empirisch forschen-- Was ist das? (T. Hug) 4. Die Freiheit der Forschung und ihre Grenzen (T. Hug) 5. Mein erstes Forschungsprojekt-- Was brauche ich? (T. Hug) Ziel dieses Kapitels ist es, Sie beim Einstieg in die Thematik mit brauchbaren Anregungen und Hinweisen zu versorgen. Gleichzeitig wollen wir Ihr Verständnis für grundlegende Fragen der empirischen Forschung wecken und Sie zur Entwicklung eigener Standpunkte und Begründungen ermuntern. Sie werden sehen, dass es sich lohnt, me‐ thodische und methodenreflexive Kompetenzen zu erwerben - nicht zuletzt deshalb, weil sie sich auch im Alltag und in der beruflichen Praxis als nützlich erweisen können. <?page no="16"?> 1 Nachdenken-- Wozu überhaupt? (T. Hug) Wer anfängt, sich mit wissenschaftlicher Forschung zu beschäftigen, sieht sich schnell einer Vielzahl von Ergebnissen, Methoden und Ansätzen gegen‐ über. Die Ausdrucksweise und die Fachbegriffe sind schwer verständlich, man sehnt sich nach Überblick und Durchblick. Das Bedürfnis nach Orien‐ tierung ist nur zu gut verständlich, denn im Studium wird ja erwartet, dass Sie Forschungsergebnisse analysieren und kommentieren. Andererseits müssen Sie lernen, eigene Forschungsprojekte zu planen, durchzuführen und zu präsentieren. Auf den ersten Blick mag das etwas viel verlangt erscheinen, vor allem wenn man dabei an große Würfe wie die Evolutionstheorie oder die Psy‐ choanalyse denkt. Aber keine Sorge: Die meisten Forscherinnen produzieren keine nobelpreisverdächtigen Ergebnisse und von studentischen Qualifizie‐ rungsarbeiten werden keine bahnbrechenden Neuigkeiten erwartet. Beachten Sie also: Zwischen groß angelegten Forschungsprojekten, für die viele Millionen Euro zur Verfügung stehen, und kleinen Studien, die im Rahmen von Lehrveranstaltungen, im Zusammenhang von Weiterbildung oder in beruflichen Kontexten gemacht werden, liegt ein weites Feld unter‐ schiedlich anspruchsvoller Forschungsbemühungen. Reflexion Grundsätzlich geht es aber darum, dass Sie sich Gedanken darüber machen, ● wie sich alltagsweltliche und wissenschaftliche Erfahrungen zueinander verhalten ● welche Bilder und Vorverständnisse von wissenschaftlicher For‐ schung Sie haben ● was »Wissenschaft« und »empirisches Forschen« bedeuten ● wo die Freiheit der Forschung und wo ihre Grenzen liegen ● was auf dem Weg zu Ihrem ersten Forschungsprojekt wichtig ist. Wissenschaftliche Forschung geht immer von Vorannahmen und Voraus‐ setzungen aus. Darüber nachzudenken lohnt sich doppelt: Es wird nach‐ vollziehbar, wie Problembeschreibungen entstehen. Und: die Entscheidung 16 I Ausgangspunkte <?page no="17"?> für oder gegen eine bestimmte Vorgangsweise lässt sich differenzierter diskutieren und begründen. Über Ausgangspunkte nachzudenken, heißt auch, Zielsetzungen, Interes‐ senslagen und Relevanzen von Forschungsergebnissen besser zu verstehen. Dabei rücken theoretische Vorannahmen, institutionelle Rahmenbedingun‐ gen, gesellschaftliche Zusammenhänge, individuelle oder kollektive Voraus‐ setzungen inhaltlicher Art ins Blickfeld. In jedem Fall wird deutlich, dass Tatsachen etwas »Gemachtes« sind. Exkurs Parforceritt durch die Erkenntnistheorie (Bernd Lederer) Wenn Sie ein Forschungsprojekt planen oder durchführen, stehen Sie in einer über zweieinhalbtausendjährigen Tradition empirischer Forschung. Die ersten Forscher in der europäischen Geschichte, die daran gingen, die Welt aufgrund von Beobachtung nach logischen Grundsätzen zu erklären und zu verstehen, waren die so genannten »Naturphilosophen« der vorklassischen Epoche Griechenlands (ca. 700-500 v. u. Z.). Ab ca. 600 v.u.Z. war es das Verdienst einer Reihe großer Denker, an die Stelle des mythischen Denkens ein Denken auf Basis von Beobachtung und Vernunft gesetzt zu haben. Dieser geistesgeschichtliche Übergang vom »Mythos« zum »Logos« (griechisch für: das Wort, im weiteren Sinne aber auch »Vernunft«, »Argument«, »Lehrsatz«) markiert den Beginn abendländischen Denkens im Allgemeinen und abendländischer Wissenschaft im Speziellen. Wo somit einst Blitz und Donner auf das Werk eines zornigen Gottes zurückgeführt wurde, dem man schutzlos ausgeliefert war, werden heute vielmehr physikalische Gesetzmäßigkei‐ ten zur Erklärung herangezogen, die auf Beobachtungen, Messungen und überprüfbaren Vorhersagen gründen. Statt also all das unhinterfragt zu übernehmen, was die Altvorderen in mündlicher oder schriftlicher Form über die Entstehung und Beschaffenheit der Welt (die meistens göttlichen Taten und Untaten geschuldet waren) berichteten, trat nun statt dessen das Bemühen, Vermutungen und Erklärungen über die Natur auf eigene Beobachtung zu gründen. Eine schöne Anekdote etwa besagt, dass Aristarch von Samos (310-230 v. Chr.) auf die Kugelgestalt der Erde schloss, nachdem er beobachtete, wie Schiffe am Horizont nicht gleichmäßig kleiner wurden, bevor sie letztlich aus dem Sichtbereich 1 Nachdenken-- Wozu überhaupt? 17 <?page no="18"?> entschwanden, sondern vielmehr an der Horizontlinie »untergingen«, was eine Krümmung der Oberfläche impliziert. Weitere wichtige »Pioniere« der Empirie waren, stellvertretend für viele andere, deren Nennung den Rahmen sprengen würde: ● Thales von Milet (624-546), der den Urgrund allen Seins und aller Dinge (»arché«) im Urstoff Wasser vermutete und somit an die Stelle eines persönlichen Urhebers eine Ursache rückte. ● Pythagoras (540-497), der bemüht war, den Kosmos (von grie‐ chisch: »Ordnung«) nach zahlenmäßigen, mathematischen Ge‐ setzmäßigkeiten zu erklären. ● Anaxagoras (500-428), der das Ziel des Lebens in der vernunftge‐ mäßen Schau (»Theoria«) der Dinge und der Welt erkannte und so für rationale Naturerklärungen plädierte. ● Demokrit (460-370), dem das folgende Zitat zugeschrieben wird: »Lieber eine einzige Ursachenerklärung als König von Persien sein« und strikt zwischen Wahrheit und Meinung sowie zwischen Erscheinungen und der Wesenhaftigkeit unterschied und letztlich berühmt wurde durch das Postulat kleinster, unteilbarer Teilchen (»Atome«) als Grundbausteine der physischen Welt. ● Protagoras (485-415), der erklärte, dass Wahrheit stets subjek‐ tiv-relativ sei und es somit keine absolute Wahrheit geben könne (»Der Mensch ist das Maß aller Dinge«). Als bedeutendster »Gründervater« der Wissenschaft wird meist Aris‐ toteles (384-322) angeführt, der die Logik als eigenständige Wissens‐ disziplin und zudem eine Vielzahl anderer wissenschaftlicher Fächer (Zoologie, Geologie, Botanik u. v. a. m.) begründete und prinzipiell darum bemüht war, die Welt kategorisierend zu systematisieren. Bereits das Mittelalter war unter erkenntnisgeschichtlichen Gesichtspunkten bei weitem nicht so »finster«, wie oft behauptet wird. Hier finden sich vielmehr einige wichtige »Meilensteine« der Wissenschaftsgeschichte. In dieser als »Scholastik« bezeichneten Epoche, die sich vor allem dem Bemühen widmete, Vernunft und Glauben zu versöhnen, fällt etwa die explizite Formulierung des Gedankens des »Experimentes« als beliebig oft wiederholbare Reproduktion wissenschaftlicher Ergebnisse durch Ro‐ ger Bacon (1214-1292). Auch William of Ockhams (1285-1349) berühm‐ tes Vernunftprinzip, wonach keine unnötigen Hypothesen aufzustellen sind, ist hier im Rahmen dieser exemplarischen Kurzskizze anzuführen. 18 I Ausgangspunkte <?page no="19"?> Ockham postuliert also, dass es vernünftig ist, bei der Erklärung von Sachverhalten von der naheliegendsten Erklärung auszugehen, und auf überflüssige Teile einer Theorie zu verzichten. Francis Bacon (1561-1626) markiert bereits den Beginn der Neuzeit in den Wissenschaften. René Descartes (1596-1650) formulierte sein berühmtes »cogito ergo sum« als oberstes Prinzip gesicherter Erkenntnis. Er gilt als Begründer des Rationalismus, einer erkenntnistheoretischen Position, der zufolge es der menschliche Verstand vermag, die objektive Struktur der Wirklichkeit zu erkennen, und zwar sowohl auf physikalischem, metaphysischem wie moralischem Gebiet. Wichtige weitere Vertreter dieser Auffassung, wonach die Welt prinzipiell aufgrund von Verstandestätigkeiten und angeborenen geistigen Strukturen erkenn- und erklärbar ist, waren etwa Georg Wilhelm Leibniz und Baruch de Spinoza. Als Empirismus hingegen bezeichnet man die Gegenposition des Rationalismus: ein auf John Locke (1632-1704) und David Hume (1711-1776) zurückgehendes philosophisches System, in welchem alle Erkenntnisse einzig und allein als aus der Erfahrung abgeleitet ange‐ sehen werden. Der menschliche Verstand ist in dieser heute in seiner Einseitigkeit als überholt zu betrachtenden Auffassung bei der Geburt demnach zunächst nur eine »leere Tafel« (eine »tabula rasa«). Alles Wissen, das wir Menschen über die Welt besitzen, ist das Ergebnis sinn‐ licher Erfahrung, resultiert also aus Gesehenem, Gehörten, Gespürten. Die geistesgeschichtliche Strömung des Idealismus (Fichte, Schelling, Hegel u. v. a. m.) stellt nicht zwingend eine erkenntniskritische Posi‐ tion dar. Sie ist zudem als nicht-empirisch zu bezeichnen, weil sie behauptet, dass die uns umgebende Welt letztlich Produkt unserer Vorstellungswelt ist und somit nicht auf (äußeren) Erfahrungen grün‐ det, sondern vielmehr Ergebnis einer Innenschau ist. Das Gegenteil dieser Auffassung bildet zeitlich später der Positivismus (Comte, Car‐ nap, Mach, Wittgenstein, Popper), der sich in seiner strengen Form nur mit unmittelbar-konkret Wahrnehmbarem bzw. sprachlich exakt Benennbarem zu beschäftigen gewillt ist. Die erkenntnistheoretische und zugleich philosophische Denkrichtung der Phänomenologie (Edmund Husserl, Martin Heidegger, Maurice Merleau-Ponty u. a.) wendet sich gegen den um die Wende zum 20 Jahrhundert grassierenden »Psychologismus« (die Auffassung, dass alle Erkenntnis letztlich das Ergebnis psychologischer Gesetzmäßig‐ keiten ist) und »Historismus« (Betonung der Geschichtlichkeit des 1 Nachdenken-- Wozu überhaupt? 19 <?page no="20"?> Menschen und seiner Kultur) in den Geisteswissenschaften. Sie widmet sich mittels bestimmter Denktechniken dem »Wesen« der Objektwelt. Wichtiger Bestandteil phänomenologischen Denkens ist zudem das Bemühen, das subjektive Erleben des Individuums nachzuvollziehen. Gerade für subjektbezogene Disziplinen wie Psychologie und Pädago‐ gik sind Kenntnisse der Repräsentation der (vermeintlich) objektiven Außenwelt im innerlichen Empfinden unverzichtbar. Im 20. Jahrhun‐ dert postulierte Karl Popper (1902-1992) seinen kritischen Rationa‐ lismus, wonach sich Hypothesen nie vollends beweisen, sehr wohl hingegen widerlegen (»falsifizieren«) lassen. Bekannt ist das Beispiel, wonach die These »Alle Schwäne sind weiß« sich niemals empirisch vollends beweisen lässt, da es forschungspraktisch unmöglich ist, alle Schwäne, die je existierten, irgendwo auf der Welt existieren oder gar je existieren werden, hinsichtlich ihrer Farbe zu messen. Hingegen reicht ein einziger nicht-weißer, z. B. ein schwarzer Schwan, um die Hypothese zu kippen. Durchaus geistesverwandt ist diese bescheidende, weil letztgültige Wahrheiten vermeidende Position mit dem Pragmatismus (Charles S. Peirce, William James, George Herbert Mead, John Dewey), der als temporäre »Wahrheit« die zu einem Zeitpunkt von einer Diskursgemeinschaft der Experten pragmatisch als zutreffend empfunden wird, bis zum Zeitpunkt einer Widerlegung oder Weiterentwicklung des Forschungsstandes. Systemtheorie, Strukturalismus bzw. Poststrukturalismus und Kon‐ struktivismus sind erkenntnistheoretische Positionen und Denkströ‐ mungen der jüngeren Vergangenheit und Gegenwart, die bei aller Verschiedenheit, auf Sprache und Diskurse als Medien der Herstellung von Bedeutung abzielen. Erscheinungen und deren Kontexte, subjek‐ tive Wahrnehmungsweisen und Konstruktionsprinzipien von Realität sind hierbei von zentralem Interesse. Ihre wissenschaftlichen »Stoffe« entdecken diese Geistesströmungen vor allem in der Literatur und Kunst, im Populären und Diskursiven. Dieser mehr als oberflächliche Überblick auf ausgewählte Meilensteine der Erkenntnistheorie sollte zweierlei bewirken: erstens sollte Ihr Interesse geweckt werden, sich eingehender mit den weiterhin lebendi‐ gen Fragen und Positionen der Wissenschaftsgeschichte zu beschäfti‐ gen, um zweitens in der Lage zu sein, Ihre eigenen Forschungsprojekte ideengeschichtlich zu verorten. 20 I Ausgangspunkte <?page no="21"?> 2 Alltagserfahrung vs. wissenschaftliche Erfahrung (T. Hug) Alltagserfahrungen dienen häufig als didaktisches Hilfsmittel beim The‐ meneinstieg, zur Veranschaulichung von Kernaussagen und als Hintergrund und Gegensatz für wissenschaftliche Erfahrungen. Aber was sind Alltags‐ erfahrungen? Diese Frage lässt sich doch einfach beantworten, werden Sie sich vielleicht denken: Das sind Erfahrungen, die wir im alltäglichen Leben machen, zum Beispiel: Einkaufen gehen, eine Fahrkarte lösen, jemanden grüßen, einen Waldlauf machen, einen Podcast hören, ein Social-Media-Posting verfassen, sich einen Drink an der Bar genehmigen, usw. Die Liste ließe sich lange fortsetzen. Das mag schon sein, werden Sie nun vielleicht einwenden, aber wir können doch diese Erfahrungen mit einem Begriff zusammenfas‐ sen, zum Beispiel so: Alltagserfahrungen sind Erfahrungen, die wir im alltäglichen Leben immer wieder machen, ohne dass sie eine besondere Bedeutung für uns haben. - Gut, damit haben wir eine erste einfache Definition, man könnte auch sagen: eine alltagsweltliche Definition, also eine Begriffsbestimmung, die aus dem Alltagsleben stammt und in diesem für viele Zwecke bestens funktioniert. Diese Definition ist insofern unscharf, als sie auf wiederholte Erfahrungen abzielt und die Abgrenzung zu besonderen Erfahrungen offenlässt. Offen blei‐ ben weiters auch Abgrenzungen zu einmaligen Erlebnissen und nicht zuletzt zu jenem weit verbreiteten Alltagsverständnis von Erfahrung, demzufolge unter Erfahrung einer Person auch deren ausgeprägte Handlungskompetenzen in einem speziellen Arbeitsbereich, einem beruflichen Feld oder auch einer Sphäre der Freizeit gemeint sind. Denken Sie zum Beispiel an das Handlungswissen des erfahrenen Installateurs, der auch mit begrenzten Ressourcen und unter raum-zeitlichen Beschränkungen gut improvisieren und dauerhafte Lösungen schaffen kann. Oder stellen Sie sich eine erfahrene Seglerin vor, die viele Tausend Meilen gesegelt ist, die viele schöne und auch viele schwierige Situationen erlebt hat, und die sich in den allermeisten maritimen Lebenslagen gut zu helfen weiß. Kurzum: Wir sehen, dass wir bereits im Alltagsleben verschiedene Begriffe von ›Alltagserfahrung‹ verwenden. Auch wenn wir sie nicht ausdrücklich voneinander unterscheiden, so kommen wir im Allgemei‐ nen mit ihnen gut zurecht. 2 Alltagserfahrung vs. wissenschaftliche Erfahrung 21 <?page no="22"?> Auch in der Philosophie und den Sozial- und Kulturwissenschaften sind unterschiedliche Begriffe von ›Alltagserfahrung‹ diskutiert worden. Die Akzentsetzungen fallen dabei alles andere als einheitlich aus. So wird das Augenmerk beispielsweise auf sinnliche Aspekte der Wahrnehmung, die Strukturierung von Alltagsrationalität, soziale Dimensionen der Erfahrung, einfühlendes Verstehen von Ereignissen sowie auf Fragen von Macht und Herrschaft gelegt. Für unsere Zwecke genügt die folgende Kurzdefinition: Definition Unter Alltagserfahrungen verstehen wir jene sinnlichen Wahrneh‐ mungszusammenhänge, die sich auf soziale Ereignisbereiche des täg‐ lichen Lebens beziehen, in denen die Mehrheit der Gesellschaftsmit‐ glieder über Wissen und Handlungskompetenzen verfügt. Wichtig ist nun, dass wir uns vor Augen führen, wie wir solche Alltagser‐ fahrungen kommunizieren und dokumentieren. Nehmen wir ein Beispiel: Ein Kollege bekommt einen Anruf einer Werbeagentur, die seine Tele‐ fonnummer ausfindig gemacht hat und die ihn für ein Interview über Life‐ style-Fragen gewinnen will, das nur 10 Minuten dauert. Er lehnt dankend ab, nachdem der Zeitpunkt ungünstig ist und er sich auf das Gespräch mit seiner Freundin konzentrieren will. Die anrufende Person schwärmt ihm trotzdem von tollen Preisen vor, die er gewinnen kann und will das Telefonat ungeachtet seiner Erklärungen führen. Er wird ungeduldig und bricht den Telefonkontakt mit einem kurzen »Danke, nein« ab. Tags darauf treffen Sie ihn beim Sport und er erzählt Ihnen: Du, gestern hat eine Dame von so einer Agentur angerufen. Die wollte unbedingt wissen, ob ich ein Auto hab’ und was für eines, und welches Shampoo ich verwende, und was weiß ich noch was alles. Du, die war ganz schön aufdringlich - unglaublich, wie die da vorgehen. Eigentlich wollte ich mich nachher beschwe‐ ren, aber da war keine Nummer und ein Brief, na ja, der landet sowieso im Papierkorb. - Lass’ uns von was Erfreulicherem reden: Wie war denn die Party am Wochenende-… Überlegen wir kurz: Was charakterisiert diese Alltagsbeschreibung? -- Es handelt sich um eine mündliche Erzählung. Sie enthält wertende Züge (z. B. »von so einer Agentur«) und drückt die subjektive Sicht des Erzählers recht einseitig aus. Die Beschreibung hat den Charakter des »So-und-so-ist-es« 22 I Ausgangspunkte <?page no="23"?> und enthält Verallgemeinerungen (z. B. »wie die da vorgehen«) sowie auch spekulative Elemente (z. B. »der landet sowieso im Papierkorb«). Weiters werden Gesten der Distanzierung von der Interviewerin und der persönliche Bezug zur Person deutlich, die Erfahrung erzählt bekommt. Einige dieser Merkmale sind für die meisten Alltagsbeschreibungen cha‐ rakteristisch. Wie steht es nun aber um die wissenschaftliche Erfahrung? Eine erste Antwort haben Sie schon, ohne sie vermutlich bemerkt zu haben: Indem wir uns zwar kurz, aber doch reflektiert mit der obigen Alltagsbe‐ schreibung befasst haben, haben wir bereits eine reflexive Distanz zur Darstellung hergestellt - die Alltagsbeschreibung ist zum Gegenstand unse‐ rer Betrachtungen geworden. Freilich müssten bei einer wissenschaftlichen Analyse einer solchen Alltagsbeschreibung je nach Erkenntnisziel etliche weitere Gesichtspunkte beachtet werden. Fassen wir kurz zusammen: 1. Die Wissenschaft stellt alltagsweltliche Grundannahmen und Selbst‐ verständlichkeiten in Frage und bricht mit der fraglos angenommenen Perspektive des »So-und-so-ist-es«. 2. Vielfach geht es in Wissenschaft darüber hinaus auch um die Überwin‐ dung nicht nur gewohnter alltagsweltlicher, sondern auch eingespielter wissenschaftlicher Sichtweisen. 3. Im Unterschied zu Alltagserfahrungen sind wir bei wissenschaftlichen Erfahrungen immer aufgefordert, die Methoden ausdrücklich zu benen‐ nen, mit denen die Erfahrungen gemacht worden sind. 4. Weiters ist die Auswahl der Methoden jeweils zu begründen und der institutionelle Zusammenhang deutlich zu machen. Definition Unter wissenschaftlichen Erfahrungen verstehen wir jene Formen der Ver- und Entflechtung von Wahrnehmungen und Beobachtungen, die in speziellen institutionellen Zusammenhängen und häufig mithilfe von spezifischen Instrumenten oder Apparaten hergestellt und reflek‐ tiert werden. Dabei spielen zwei weitere Aspekte eine besondere Rolle: ● die Beschreibung und Kritik der jeweiligen Theoriebezüge und der Methodenverwendung ● das Erfordernis von Sonderwissen und speziellen Handlungskom‐ petenzen 2 Alltagserfahrung vs. wissenschaftliche Erfahrung 23 <?page no="24"?> Schauen wir noch einmal auf unser Beispiel: Wie könnte eine wissenschaft‐ liche Beschreibung hier aussehen und was zeichnet die wissenschaftliche Erfahrung aus? Je nach Fragestellung, Zielsetzung und Erkenntnisinteresse sind hier sehr verschiedene Methoden und Beschreibungen möglich. Wir begnügen uns der Einfachheit halber mit einer qualitativen und einer quantitativen Version: Eine Beschreibung im Kontext qualitativer Sozialforschung könnte zum Beispiel auf die Untersuchung eines Teilbereichs der Medienkommuni‐ kation abheben. Die qualitativen Daten könnten etwa in Form eines Inter‐ viewdokuments vorliegen, das als Grundlage für Prozesse der Interpretation und Hypothesengenerierung dient. Sofern die qualitative Beschreibung den Standards guter wissenschaftlicher Praxis genügt, wäre sie im Vergleich zur Alltagsbeschreibung weniger subjektiv gefärbt sowie weniger wertend und weniger spekulativ. Die Fokussierung wäre mit der Forschungsfrage begründet, die Beschreibung wäre weiters tendenziell abstrakter und auch systematischer. Überblick Alltagsweltliche und wissenschaftliche Erfahrungsformen wei‐ sen folgende Gemeinsamkeiten auf: ● Filterprozesse und Auswahl von Perspektiven der Betrachtung (Figur-/ Grund-Relation) ● erfahrungsorientierter Umgang mit Wirklichkeit (Hypothesenbil‐ dung, Erfolgskriterien) ● interaktive Realisierung von Handlungsplänen (Intersubjektivität der Orientierungen) ● begrenzte Möglichkeiten der Darstellung und der Versprachli‐ chung des Wissens (explizites vs. implizites Wissen) ● Bedürfnis möglichst verlässlicher Voraussagen (prognostische An‐ sprüche) ● Theoriecharakter des Wissens (Alltagstheorien vs. wissenschaftli‐ che Theorien) Die korrespondierenden Beschreibungsformen lassen sich unter‐ scheiden insbesondere nach 24 I Ausgangspunkte <?page no="25"?> dem Abstraktionsgrad niedriger vs. höherer Grad dem Grad ihrer Systematisierung schwach vs. stärker systematisiert dem Begründungsanspruch fraglos gegeben vs. explizit begründet der Sprache erfahrungsnahe vs. erfahrungsfern dem institutionellen Kontext informell vs. formell dem Erkenntnisinteresse alltagspraktisch vs. wissenschaftlich Tabelle 1: Grade der korrespondierenden Beschreibungsformen Eine Beschreibung im Kontext quantitativer Sozialforschung könnte ebenfalls auf die Beantwortung einer Forschungsfrage im Bereich der Medienkommunikation zielen. Sie könnte zum Beispiel auf die Akzeptanz digitalisierter Telefonumfragen in einer bestimmten Region abheben. Die quantitativen Daten könnten in Form einer standardisierten Befragung online oder mittels gedruckter Fragebögen erhoben werden. Die korrekt ausgefüllten Bögen könnten dann als Grundlage für eine statistische Ana‐ lyse und Interpretation der Ergebnisse dienen. Sofern die quantitative Beschreibung den Standards guter wissenschaftlicher Praxis genügt, wäre sie im Vergleich zur Alltagsbeschreibung ebenfalls weniger subjektiv gefärbt sowie weniger wertend und weniger spekulativ. Angesichts der Selektion der zu quantifizierenden Aspekte wäre die Fokussierung spezieller als bei der qualitativen Beschreibung. Im Vergleich zu letzterer wäre sie überdies noch abstrakter (vgl. die mathematische Sprache) und weniger nahe am lebendigen Geschehen. 2 Alltagserfahrung vs. wissenschaftliche Erfahrung 25 <?page no="26"?> Diskussion Überlegen Sie, welche Unterschiede zwischen alltagsweltlichen und wissenschaftlichen Erfahrungsformen Ihnen besonders wichtig erscheinen. Begründen Sie Ihre Auffassungen und diskutieren Sie das Resultat Ihres Nachdenkens mit Studien- oder Arbeitskollegin‐ nen. Nehmen Sie das Diskussionsergebnis nochmals unter die Lupe und schauen Sie nach, ob und in welcher Form Sie auch einzelne der folgenden Aspekte behandelt haben: ● Ansprüche des Verstehens, der Erklärung, der Kritik und der Prognose ● Formen und Grade der Regelgeleitetheit ● Funktionen des Reflexions-, Handlungs- und Orientierungswis‐ sens ● Mittel und Methoden der Problembearbeitung ● Aufgaben der Innovation und Tradierung ● Funktionen der Bewältigung von individuellen und gesellschaftli‐ chen Lebenslagen Runden Sie Ihre Diskussion ab, indem Sie Beispiele benennen, mit denen sich die Bedeutung der einzelnen Punkte für alltagsweltliche und wissenschaftliche Erfahrungszusammenhänge veranschaulichen lässt. Wir haben es also bei alltagsweltlichen und wissenschaftlichen Erfahrungs‐ formen nicht mit absoluten, sondern mit relativen Gegensätzen zu tun. Analoges gilt für Theorien, Wissen, Denken und Handeln. Es lassen sich jeweils ähnliche Gegenüberstellungen machen, in denen es kritisch abzu‐ wägen gilt: Alltagswissen vs. wissenschaftliches Wissen, Alltagstheorien vs. wissenschaftliche Theorien, Alltagsdenken vs. wissenschaftliches Denken, etc. Die Anhaltspunkte für Gemeinsamkeiten und Unterschiede alltagswelt‐ licher und wissenschaftlicher Erfahrungsformen zeigen in einer kompri‐ mierten Form dreierlei: Einmal wird plausibel, dass und wie zwischen den verschiedenen Welten des Alltagslebens, der beruflichen Praxis und der wissenschaftlichen Forschung diverse Übergänge und Zusammenhänge 26 I Ausgangspunkte <?page no="27"?> beschrieben werden können; zum Zweiten wird die Diskussionswürdigkeit der Anhaltspunkte einsichtig; und zum Dritten sehen wir auch hier, dass Wissenschaft ein vielgestaltiges Unterfangen ist. Wir wollen Sie mit unseren Ausführungen dazu verführen, sich auf wissenschaftliche Erfahrungsformen einzulassen. Dazu legen wir Ihnen nahe, dass Sie sich zunächst Ihre Vorstellungsbilder und Ihr Vorverständnis von wissenschaftlicher Forschung vor Augen führen. Reflexion Nehmen Sie ein Blatt Papier und notieren Sie Ihre Assoziationen und Vorstellungsbilder zum Thema Wissenschaft und Forschung in Stichworten. Welche Metaphern fallen Ihnen ein? Welche Farben stehen im Vorder‐ grund? Denken Sie an Ihre Studienziele im Bereich wissenschaftlicher Theorie und Methodik und formulieren Sie einen Zweizeiler in der Terminolo‐ gie von Wettervorhersagen. Überlegen Sie weiters anhand von drei, vier der oben genannten Anhaltspunkte, was wissenschaftliche Forschung für Sie gegenwärtig bedeutet. Fallen Ihnen auch Anhaltspunkte ein, die wir nicht erwähnt haben? Diskutieren Sie Ihre Überlegungen mit Studien- oder Arbeitskollegin‐ nen und -kollegen. Das Nachdenken über Vorstellungsbilder und Vorverständnisse ist insofern wichtig, als diese den Zugang zur empirischen Forschung erschweren oder erleichtern können. Oft wird das, was Wissenschaft leisten kann, über- oder auch unterschätzt - und nicht selten werden die eigenen Entwick‐ lungsmöglichkeiten im Bereich empirischer Forschung verkannt. Ehrfurcht vor den »heiligen Hallen« der Wissenschaft, Illusionen über deren Prob‐ lemlösungskapazitäten und Mystifizierungen von Forscherpersönlichkeiten helfen nicht weiter, wenn es um Ihre wissenschaftlichen Arbeiten geht. »Aber was ist nun Wissenschaft? «, werden Sie sich an dieser Stelle vielleicht fragen, und: »Was macht meine Arbeit wissenschaftlich? « Diese Fragen sind nicht leicht zu beantworten und es besteht in der Wissenschaft allenfalls Konsens über sehr allgemeine und abstrakte Bestimmungen. Hier zwei Beispiele für mögliche Antworten: 2 Alltagserfahrung vs. wissenschaftliche Erfahrung 27 <?page no="28"?> Wissenschaft meint Prozesse und Ergebnisse der Forschungstätigkeiten, die in besonderen gesellschaftlichen Institutionen (z. B. Hochschulen, Uni‐ versitäten) durchgeführt werden. Ihre Arbeit ist dann wissenschaftlich, wenn sie in einem solchen institutionellen Zusammenhang gemacht wird, Sie dabei entsprechende Basisanforderungen des Recherchierens, Doku‐ mentierens, Zitierens, Schreibens sowie der Erhebung, Auswertung und Darstellung von Daten erfüllen, und wenn die Resultate von Wissenschaft‐ lerinnen akzeptiert werden. »Moment mal,« werden Sie nun mitunter einwenden: »und was ist mit der nicht-empirischen, theoretischen Forschung? Was ist mit der Forschung in Unternehmen und öffentlichen Institutionen wie Schulen, Vereinen oder sozialpädagogischen Einrichtungen? Wo bleiben die Erfordernisse logischer Widerspruchsfreiheit? Was ist mit der forschungsbasierten Lehre und dem forschenden Lehren und Lernen? Und überhaupt: Da gibt es doch auch allerhand Irrtümer und Glaubensbekenntnisse, politischer Aktionismus, Intrige, Betrug und Täuschung - nicht wahr? « - Ja, wir stimmen Ihnen zu: Selbstverständlich erfüllen viele theoretische und nicht-akademische Forschungen wissenschaftliche Basisansprüche. Freilich ist lange nicht alles, was Wissen schafft, auch Wissenschaft, und auch nicht alles, was als solche verkauft wird, verdient den Namen Wissenschaft. Wir müssen allerdings in Rechnung stellen, dass im Zuge der historischen Ausdifferenzierung wis‐ senschaftlicher Bemühungen eine große Vielfalt von Wissenschaftsvers‐ tändnissen entstanden ist, die teils international und teils nur in lokalen Wissenschaftskulturen Gehör und Anerkennung finden. Auf die Frage nach allgemein verbindlichen Kriterien für die Unterscheidung von Wissenschaft, Nichtwissenschaft und Pseudowissenschaft hat die Wissenschaftstheorie bis heute keine eindeutige und gemeinhin akzeptierte Antwort. Wenn sich die Erkenntnisbemühungen jedoch hauptsächlich auf Intuition oder mystische Versenkung berufen und die Ergebnisse nur einem kleinen Kreis »Wissender« zugänglich sind, dann werden sie von den Vertreterinnen etablierter Wissenschaftszweige in aller Regel nicht als wissenschaftliche anerkannt. Auch wenn sich die Auffassungen von Wissenschaft unterscheiden, so gibt es durchaus Kriterien, die fach- und disziplinübergreifend anerkannt werden. So wird zum Beispiel in der Welt der Wissenschaft eine unreflek‐ tierte Vorgangsweise nicht akzeptiert. Damit unterscheidet sich die Wissen‐ schaft tendenziell von alltagsweltlichen und künstlerischen Methoden sowie insbesondere von mystischen oder magischen Erkenntniswegen. Intuition‐ 28 I Ausgangspunkte <?page no="29"?> istische Verfahren, kryptische Darstellungen, widersprüchliche Behauptun‐ gen, Kritikverweigerungen und unsystematische Argumentationsformen sind in der Wissenschaft nicht annehmbar. Andererseits sagt die Erfüllung der angeführten Basisanforderungen noch nichts darüber aus, wie wissenschaftliche Erkenntnisse im Detail gewonnen werden. Wie wir in den folgenden Kapiteln sehen werden, sind die Wahlmöglichkeiten hier sehr groß. Welche Vorgangsweise jeweils an‐ gemessen ist und welches Verfahren konkret in Betracht kommt, hängt dabei ganz wesentlich von den Forschungsfragen, der angestrebten Reichweite der Aussagen und den verfügbaren Ressourcen ab. Definition Wissenschaft ist eine Sammelbezeichnung für unterschiedliche For‐ men des gesellschaftlich organisierten Forschungshandelns, die in metho‐ disch reflektierter und nachvollziehbarer Weise auf die Bearbeitung spezifischer Gegenstände und abgegrenzter, historischer oder zeitge‐ nössischer Fragestellungen zielen. Wichtige Basisanforderungen sind dabei: ● die Beschreibung der Erkenntnisinteressen und Ziele ● die intersubjektive Überprüfbarkeit der Prozesse und Ergebnisse der Forschungsaktivitäten ● die Klärung zentraler Begriffe und relevanter Theorien ● die Entwicklung möglichst widerspruchsfreier Aussagezusam‐ menhänge ● die möglichst eindeutige sprachliche und mediale Darstellung der Methoden und Resultate ● die Begründung der Reichweiten der Aussagezusammenhänge und der Relevanzen für gesellschaftliche und kulturelle Problemlagen ● die Kritisierbarkeit der Methoden, Konzepte, Ansprüche, Prozesse und Ergebnisse 2 Alltagserfahrung vs. wissenschaftliche Erfahrung 29 <?page no="30"?> 3 Empirisch forschen - Was ist das? (T. Hug) Empirisch forschen heißt wissenschaftliche Erfahrungen machen. Die Arten und Weisen, wie das geschieht, haben sich im Laufe der Geschichte sehr verändert. Und die Zeiten, in denen »Empirie« allein mit statistischen und experimentellen Verfahren assoziiert wurde, sind längst vorbei. Heute existieren viele verschiedene Formen, die in unterschiedlichen Wissen‐ schaftskulturen gepflegt und weiterentwickelt werden. Darüber sollen auch die aktuellen Tendenzen der prioritären Förderung quantitativ-empirischer Forschung mit sehr großen Datenmengen nicht hinwegtäuschen (Stichwort „Big Data“). Die Geschichte des empirischen Forschens reicht weit zurück. Man‐ che Wissenschaftshistoriker setzen den Beginn mit der Verwendung von Steinwerkzeugen durch den homo habilis um ca. 1.800.000 vor unserer Zeitrechnung (v.u.Z.) an. Manchmal wird der Beginn mit den Anfängen der Kultivierung von Getreide um ca. 8.000 v.u.Z., der Kupferbearbeitung (ca. 4.000 v.u.Z.) oder der Erfindung des Pflugs in China (ebenfalls ca. 4.000 v.u.Z.) angesetzt. In den Jahrtausenden bis zum Beginn unserer Zeitrech‐ nung wurden viele weitere Forschungsleistungen erbracht (Bsp. Kalender, Zählsysteme, Kompass), die sich als frühe Vorformen dessen beschreiben lassen, was wir heute unter empirischer Forschung verstehen. Auch wenn die Entwicklungen dieser Vorformen über den Globus ver‐ streut gemacht wurden, so werden in den meisten historischen Darstel‐ lungen die Anfänge wissenschaftlicher Forschung mit der antiken Kultur im 8. Jahrhundert v.u.Z. angesetzt. Als historische Meilensteine werden dabei häufig die Naturphilosophie der vorklassischen Zeit Griechenlands (ca. 700-500 v.u.Z.), die Vorsokratiker (z. B. Pythagoras und Heraklit) und die Wende genannt, die Sokrates (469-399) eingeleitet hat, in dem er den Menschen statt Zahlenverhältnisse, Bewegungsgesetze und metaphysische Prinzipien in den Mittelpunkt des Denkens rückte. Wie immer hier die Schwerpunkte gesetzt werden, entscheidend sind die Neuakzentuierungen im Spannungsfeld von Mythos und Logos. Bis dahin waren der Mythos und die Epen die zentralen Erklärungs- und Darstellungsformen. In der weiteren Folge wurden rationale und vernunftgeleitete Formen favorisiert und durchgesetzt. Ein neuer Typ des Geschichtenerzählens war entstanden, bei dem abstrakte Begriffe und vor allem die schematisierte Erzähldyna‐ 30 I Ausgangspunkte <?page no="31"?> mik wichtig wurden. Letztere unterlag nicht mehr dem äußeren Zwang einer Tradition, sie war sozusagen von innen her geregelt: Das Ende der Geschichte folgte jeweils aus der »Natur der Dinge«. Zwar waren die neuen Darstellungsweisen weniger komplex und ärmer an Details, dafür waren die Ergebnisse aber eindeutiger und (scheinbar) weniger von der erzählenden Instanz abhängig. Für die Geschichte der abendländischen Wissenschaft, die in dieser Zeit beginnt, sind zwei Aspekte bis heute wichtig geblieben: ● Argumentation und Logik ● Abstraktion und sprachliche Darstellung Hinzu kommt die globale Verbreitung wissenschaftlicher Terminologien mit sprachlichen Wurzeln im Griechischen und Lateinischen. Für das empirische Forschen sind im 20. Jahrhundert viele weitere Strömungen und Denkrichtungen bedeutsam geworden, so zum Beispiel: Neopositivismus, kritischer Rationalismus, Neomarxismus, Kritische Theo‐ rie, erkenntnistheoretischer Anarchismus, Strukturalismus bzw. Poststruk‐ turalismus, Postkolonialismus, Feminismus, Postmodernismus, Neue Phä‐ nomenologie, Systemtheorie, Konstruktivismus, Kontextualismus etc. Auf die verschiedenen Ismen und Theorieansätze und die korrespondierenden Auffassungen von empirischer Forschung können wir hier nicht weiter eingehen. Für die erste Orientierung reicht es aus, wenn Sie die folgenden Merk‐ punkte beachten: ● Am Anfang empirischer Forschung stehen beschriebene Problemkons‐ tellationen, theoretisch oder praktisch motivierte Forschungsfragen, Vorannahmen über Regelmäßigkeiten und Strukturzusammenhänge, alltagsweltliche Erfahrungen und deutungsbedürftige Einzelbeobach‐ tungen sowie Sehnsüchte, Hoffnungen, Ärgernisse und Nutzenerwar‐ tungen aller Art. ● Die Annahme, dass »reine Beobachtung« und »reine Theorie« strikt voneinander abgegrenzt werden können, gilt seit einigen Dekaden als überholt. ● Die Auffassung, dass wissenschaftliche Verfahren eine zwar mitunter etwas verzerrte, aber tendenziell objektive Repräsentation von Wirk‐ lichkeit ermöglichen (positivistisches Empirieverständnis), wurde in der Wissenschaftsphilosophie in vielfacher Hinsicht in Frage gestellt 3 Empirisch forschen - Was ist das? 31 <?page no="32"?> und massiv kritisiert. Diese Kritik betrifft auch den so genannten »Da‐ tenpositivismus«, der davon ausgeht, dass sich im Zuge der statistischen Bearbeitung von nicht interpretierten Daten verlässliche Aussagen über Zusammenhänge in verschiedensten Phänomenbereichen machen las‐ sen, ohne theoretische Vorannahmen treffen zu müssen. Der Anspruch, dass die Auswertung von enorm großen Mengen numerischer Daten gleichsam einen direkten Erkenntniszugang zur Welt und einen theo‐ riefreien, „neutralen“ Blick auf das Gegebene eröffnen würde, ist aus wissenschaftstheoretischer Sicht nicht haltbar. ● Auch wenn in der Wissenschaft alles andere als Einigkeit über die Beziehungen zwischen Wirklichkeit und Wissen besteht: Empirisch forschen wird heute überwiegend als eine institutionalisierte Form der Wirklichkeitskonstruktion mit spezifischen methodischen Hilfsmitteln verstanden. ● Sowohl »natürliche« oder besser: kultürliche Alltagserfahrungen als auch streng methodisch hergestellte Erfahrungen (Bsp. Experiment) können zum Gegenstand wissenschaftlicher Reflexion gemacht werden (Stichwort »Beobachtungen zweiter Ordnung«). ● Empirische Forschung kann einerseits auf die Ansammlung von Wis‐ sen und die Entwicklung von methodischen Routinen im Sinne von bestätigenden Erfahrungen zielen. Andererseits kann sie auch auf die Bearbeitung wissenschaftlicher Vorurteile und Scheinprobleme, die Konfrontation von Forschungsergebnissen mit der Komplexität realer Lebenszusammenhänge oder auf Irritationen und Enttäuschungen im Zusammenhang vermeintlicher Sicherheiten abheben (Bsp. Einsprüche, widerlegende Erfahrungen, Generierung neuer Hypothesen). ● Hand in Hand mit den Digitalisierungsprozessen ist auch in der em‐ pirischen Forschung eine Neubewertung der Rolle der Medien im Forschungsprozess im Allgemeinen und der bildhaften Darstellungen im Besonderen zu verzeichnen. ● Empirische Forschung ist allemal eine Verdichtungsleistung - sowohl im Sinne von »komprimierter« Darstellung als auch im ästheti‐ schen Sinne von Dichtkunst (»Herstellung«). 32 I Ausgangspunkte <?page no="33"?> Überblick Aristoteles (384-322) Begründung der Logik als eigenständige Wis‐ sensdisziplin William von Ockham (ca. 1285-1349) Prinzip der Eliminierung aller unnötigen Be‐ griffe und Hypothesen René Descartes (1596-1650) Begründung der »rationalen Methode«, Sub‐ jektunabhängigkeit als Prinzip systemati‐ scher Wissenschaft John Locke (1632-1704) und David Hume (1711- 1776) Ideen sind nicht angeboren, sie stammen aus der Erfahrung; Ursachenerkenntnisse gehen auf wiederholte Erfahrungen zurück und sind durch bloße Vernunft nicht zu gewinnen (Empirismus) Auguste Comte (1798-1857) Verlässliche wissenschaftliche Erkenntnis ist als höchste Form menschlicher Geistesent‐ wicklung nur auf der Basis sinnlich gegebener und wiederholt positiv bestätigter Tatsachen möglich (Positivismus) Karl Marx (1818-1883) Das gesellschaftliche Sein bestimmt das Be‐ wusstsein der Menschen, Forderung nach weltverändernder Praxis anstelle von Gelehr‐ tenstreitereien über die Wirklichkeit des Den‐ kens (Marxismus) Edmund Husserl (1859- 1938) Realität hat keinen selbständigen Status, sie kann als Erscheinendes, Intentionales und Bewusstes mittels Wesensschau untersucht werden (Phänomenologie) 3 Empirisch forschen - Was ist das? 33 <?page no="34"?> Charles Sanders Peirce (1839-1914), William James (1842-1910) und John Dewey (1859- 1952) Bedeutungen von Begriffen und Handlungen sowie die Wahrheit von Aussagen sind in ihren praktischen Konsequenzen und Wir‐ kungen auszuloten, auch das wissenschaft‐ lich-theoretische Wissen ist im praktischen Umgang mit den Gegenständen fundiert (Pragmatismus) Tabelle 2: Meilensteine in der abendländischen Geschichte der Methodenreflexion Eine streng systematische Abgrenzung zur nicht-empirischen Forschung ist schwierig. Als Beispiele für Formen theoretischer Forschung lassen sich die philosophischen Methoden der Hermeneutik, Phänomenologie, Logik und Sprachanalyse nennen. Aber schon die Gegenüberstellung sozi‐ alwissenschaftlicher und geisteswissenschaftlicher Methoden macht nur begrenzt Sinn, wenn man etwa an die sozialwissenschaftliche Hermeneutik denkt. Ein verbreitetes Verständnis nicht-empirischer Forschung, mit dem An‐ fänger oft konfrontiert werden, wird mit dem Terminus »kompilatorische Arbeit« ausgedrückt. Damit ist gemeint, dass der Stand der Forschungser‐ gebnisse auf einem bestimmten Gebiet oder zu einer spezifischen Frage zusammengetragen, zusammenfassend dargestellt und in vergleichender Absicht bewertet wird. Solche Übersichtsarbeiten (»desk studies«) werden typischer Weise in akademischen Seminaren, aber auch im Zusammenhang wirtschaftsorientierter Bedarfserhebungen gemacht. Häufig stehen sie auch am Anfang von empirischen Untersuchungen. 34 I Ausgangspunkte <?page no="35"?> Definition Empirisches Forschen ist eine Sammelbezeichnung für unterschied‐ liche Formen der institutionalisierten, zielgerichteten und begründeten Anwendung wissenschaftlicher Methoden und Techniken zur kommu‐ nikativen Stabilisierung von Forschungsgegenständen und lösungso‐ rientierten Bearbeitung von Forschungsfragen. Wichtig sind dabei die Beachtung der wissenschaftlichen Basisanfor‐ derungen (s. o.) sowie die folgenden Punkte: ● Anpassung der Vorgangsweise im Lichte der Fragen, Ziele und Rahmenbedingungen (Spezifikation des Ablaufmodells) ● Begründung der Auswahl eines geeigneten Forschungsdesigns und der passenden Forschungsmethoden ● Verortung im Spannungsfeld von Anwendungs- und Grundlagen‐ forschung sowie von Nutzenorientierung (Bsp. Praxisbesserung) und zweckfrei gedachter Erkenntnis (Bsp. Verstehen) ● Bestimmung des Exaktheitsniveaus und der angestrebten Reich‐ weite der Aussagezusammenhänge ● Klärung historischer und systematischer Ansprüche und Arbeits‐ weisen ● Ausbalancieren der Nähe-Distanz-Thematik (Bsp. Selbstbetrof‐ fenheit, politisches Engagement, intervenierende Sozialforschung vs. teilnahmslose Aufzeichnung oder strikte methodische Distan‐ zierung von Untersuchungsgegenständen und Forschungspartne‐ rInnen) ● Beachtung internationaler Dimensionen und lokaler Fachkulturen, methodenspezifischer Gütekriterien und forschungsmethodischer Spielregeln (»relative Regelgeleitetheit«) 3 Empirisch forschen - Was ist das? 35 <?page no="36"?> 4 Die Freiheit der Forschung und ihre Grenzen (T. Hug) In einigen Ländern ist die Freiheit wissenschaftlicher Forschung und Lehre als bürgerliches Grundrecht verankert. Dass die Wissenschaft wie auch die Kunst nicht einfach alles darf, ergibt sich schon im Zusammenhang ethischer oder strafrechtlicher Überlegungen. Andererseits kann man auch ohne groß angelegtes empirisches Projekt leicht sehen, dass das Bild des Forschers, der von alltagsweltlichen Verpflichtungen weitgehend entbunden ist, der in aller Ruhe seinen Lieblingsthemen nachgehen kann und der über die ökonomische Verwertbarkeit der Ergebnisse nicht nachdenken muss, längst überholt ist. Mittlerweile hält ökonomisches Denken mehr und mehr auch in den geistes- und kulturwissenschaftlichen Disziplinen Einzug. Der Druck ökonomisch verwertbares Wissen zu produzieren steigt. Leistungsverein‐ barungen und output-orientierte Mittelverteilung, Steuerungsgremien und Zielvorgaben, Exzellenzversprechungen und verschulte Massenbetriebe, politische Einflussnahmen auf die Gestaltung von Forschungsprogrammen, Technologiemilliarde - das sind nur ein paar Stichworte, die deutlich machen, dass die Grenzen der Freiheit der Forschung verschoben wurden. Daraus resultiert für angehende Forscherinnen eine Reihe von Fragen, die es auch im Zusammenhang erster eigener Forschungsprojekte zu reflektie‐ ren gilt: Werde ich von staatlicher oder wirtschaftlicher Seite gefördert oder nicht? Ist mit der Förderung die Erwartung verbunden, dass die Forschungs‐ ergebnisse in eine bestimmte Richtung gehen? Habe ich einen fairen Vertrag oder muss ich im Forschungsprojekt unentgeltlich mitarbeiten, um meinen Abschluss schaffen zu können? Wie bringe ich persönliche, berufliche, familiäre und ausbildungsbezogene Ziele in gelingender Weise unter einen Hut? Was kann ich alleine machen und was kann, soll, muss und will ich zusammen mit anderen beforschen? Wie steht es um die Ethik der Forschung im wissenschaftlichen Alltag? Akademische und kommerzielle Forschung Die Unterscheidung akademischer und kommerzieller Forschung stellen Sie sich am besten als Pole eines Kontinuums vor: 36 I Ausgangspunkte <?page no="37"?> Abbildung 1: Kontinuum akademischer und kommerzieller Forschung Akademische Forschung wurde lange mit rein theoretisch motivierter Grundlagenforschung an Hochschulen und Universitäten gleichgesetzt. Kommerzielle Forschung hingegen wurde meist mit angewandter For‐ schung oder gewinnorientierter Industrieforschung verbunden. Diese Si‐ tuation hat sich geändert. Einfache Gegenüberstellungen wie etwa Nutzen bringend vs. nutzlos, gesellschaftsrelevant vs. l’art pour l’art oder ökono‐ misch aussichtsreich vs. gesellschaftskritisch greifen zu kurz. Vielfach werden heute Studierende in laufende Forschungsaktivitäten mit eingebun‐ den. Was müssen Sie beachten, wenn Sie während des Studiums bezahlte Forschungsmöglichkeiten wahrnehmen wollen? Tipps Forschen gegen Bezahlung Die Zusammenarbeit muss für beide Seiten fair sein. Achten Sie darauf, dass Geben und Nehmen in einem ausgewogenen Verhältnis stehen. Verschaffen Sie sich Klarheit über den Nutzen, den Ihre Arbeit für den Auftraggeber und für Sie selbst hat. Bei der Zusammenarbeit mit Part‐ nern außerhalb der Universität betreten Sie wahrscheinlich Neuland. Achten Sie darauf, dass Sie von einer erfahrenen Person in fachlicher und methodischer Hinsicht beraten werden. Die Durchführung des Projekts bietet Ihnen wahrscheinlich auch die Chance, besondere Kompetenzen zu erwerben. Machen Sie sich klar, welche das sind, und entwickeln Sie Ihre Expertise. In der angewandten Forschung sind auch ethische Aspekte stärker zu berücksichtigen. Denken Sie daran, dass Sie für Forschungsprozesse und Ergebnisse eine Verantwortung im Sinne der Grundsätze guter wissenschaftlicher Praxis haben. Das sind die entscheidenden Erfolgsfaktoren: ● Klarheit über den Inhalt und Umfang des Auftrags, die Zielsetzung und Methoden 4 Die Freiheit der Forschung und ihre Grenzen 37 <?page no="38"?> ● Eindeutigkeit hinsichtlich der Verteilung von Zuständigkeiten und Verantwortung ● schriftliche Vereinbarung von Leistungsumfang und Bezahlungs‐ modalitäten Selbst gewählte und vorgegebene Themen Am Anfang einer Forschungsarbeit steht oft die Frage: Kann ich mir mein Thema selbst aussuchen oder wird mir das Thema vorgegeben? Vor allem bei Qualifizierungsarbeiten bestehen hier oft große Spielräume. Anders als in unternehmerischen Kontexten, wo die Forschungsthemen in aller Regel von der Geschäftsleitung im Lichte der Unternehmensziele vorgegeben sind, und anders als in Schulen, in denen Selbstevaluationsprojekte durchgeführt werden, kann bei wissenschaftlichen Seminar- oder Abschlussarbeiten in vielen Einrichtungen das Thema selbst gewählt werden. Manchmal werden von den Dozentinnen auch Listen mit aktuellen und diskussionswürdigen Themen zur Verfügung gestellt, seltener sind die Themenstellungen im Detail vorgegeben. Es kommt allerdings häufig vor, dass angesichts von Prüfungsberechtigungen, fachlichen Spezialgebieten und Zuständigkeiten, methodischen Präferenzen sowie lokalen Forschungsschwerpunkten und -traditionen die Wahlmöglichkeiten begrenzt werden. Tipps ● Wägen Sie die Wahl von Themen und Forschungsfragen nach Möglichkeit immer auch unter der doppelten Perspektive der fachlichen Qualifikation und der kommunikativen Kompetenz der betreuenden Person ab. ● Verlassen Sie sich dabei in erster Linie auf Ihre eigenen Wahrneh‐ mungen und nicht auf die Gerüchteküche. ● Unterscheiden Sie zwischen maschinellen Prozessen der Errech‐ nung von sinnhaften Themenvorschlägen und menschlichen Pro‐ zessen der Sinngebung und der sinnlichen Kreativität - überschät‐ zen Sie die KI-Werkzeuge nicht und unterschätzen Sie Ihre eigenen Fähigkeiten nicht. ● Wählen Sie Themen, die Ihnen wichtig sind oder am Herzen liegen und nicht x-beliebige Themen. 38 I Ausgangspunkte <?page no="39"?> ● Überlegen Sie, bis wohin Sie gehen wollen, wenn Sie wirklich Neues schaffen wollen und den standortspezifischen Schwer‐ punktsetzungen, den fachkulturellen Normalitätserwartungen oder den forschungspolitischen Rhetoriken eine relative Bedeu‐ tung zuschreiben. Diese Anregung können Sie gerne mit dem Spruch von Weinliebhabern vergleichen: Das Leben ist zu kurz, um viel Zeit in nebensächliche Forschungsfragen zu investieren. Außerdem brauchen Sie auch bei der Durchführung kleinerer Forschungsprojekte viel Kraft und Ausdauer, und die lassen sich viel leichter aufbringen, wenn der Sinn der Sache für Sie klar ist und die Motive subjektiv bedeutsam sind. Weiters empfehlen wir Ihnen, die folgenden Punkte zu berücksichtigen: ● Prüfen Sie vorab, ob Sie einen angemessenen Zugang zu den Quellen und Materialien sowie zum Forschungsfeld haben. ● Loten Sie die Betreuungskapazitäten aus und machen Sie sich klar, was Sie können oder leicht selbst erlernen können und wozu Sie Unterstützung brauchen. ● Grenzen Sie die Themenstellung schon am Anfang so ein, dass sie mit den Ihnen zur Verfügung stehenden Mitteln gut bearbeitbar ist (s. dazu Kapitel II). ● Vergewissern Sie sich über die politischen Dimensionen und relevanten Kontexte der Thematik und überlegen Sie, welchen Interessen Sie zuarbeiten wollen und welche Rolle Sie dabei einnehmen wollen oder zu akzeptieren bereit sind. ● Wägen Sie im Fall der Möglichkeit der Einbindung in größere For‐ schungsprojekte ab, was für Sie und die anderen Beteiligten dabei die Vor- und Nachteile sind. ● Achten Sie auf ein ausgewogenes Verhältnis von frohsinnigem Engage‐ ment und skeptischer Distanzierung - weder allzu heftige Emotionen oder intime persönlichen Verstrickungen noch frostige Indifferenz oder ängstliche Verschlossenheit gelten als Erfolg versprechende Faktoren für eine gelingende Themenbearbeitung. 4 Die Freiheit der Forschung und ihre Grenzen 39 <?page no="40"?> Institutionelle Rahmenbedingungen und persönliche Kontexte Im Zuge der gesellschaftlichen Differenzierungsprozesse und gesetzlichen Veränderungen haben sich nicht nur die institutionellen Rahmenbedin‐ gungen im tertiären Sektor verändert. Auch die Milieus und Lebenswelten der Studierenden sind heterogener geworden. Lehrende an Hochschulen und Universitäten sind heute mit sehr unterschiedlichen Erwartungshaltun‐ gen konfrontiert. Das Spektrum reicht dabei von der erfolgreichen Einwer‐ bung von hohen Forschungsförderungen (Drittmittel) über ein umfassendes Engagement in der akademischen Selbstverwaltung (Gremienarbeit und Zuarbeiten für Controlling-Instanzen) bis zu unterhaltsamen Formen der Lehre und der Wissenschaftskommunikation in Rundfunk, Fernsehen und Online-Medien („Third Mission“). Hinzu kommen Vorstellungsbilder der fürsorglichen und kompetenten Fachberaterin, der für alles verantwort‐ lichen und notfalls durchgreifenden Autorität, des Gutachtenlieferanten sowie der gleichberechtigten Ansprechpartnerin zum Zwecke des wissen‐ schaftlichen Austauschs. Tipps ● Vermeiden Sie in Ihren Forschungsprojekten Rollenkonfusionen. Sie mögen als Supervisor, Leiterin einer Arbeitsgruppe, Mitarbeiter eines Teams, studentische Hilfskraft, neugieriger Forscher oder Firmenchefin erfolgreich tätig sein - aber vermischen Sie weder die Rollen noch die Funktionen, die mit den verschiedenen Arbeits‐ bereichen verknüpft sind. ● Achten Sie auf angemessene Beziehungsökologien und degradie‐ ren Sie Ihre engsten Freunde nicht zu Datenlieferanten. ● Sichern Sie sich möglichst regelmäßige Zeitfenster für Ihre For‐ schungsaktivitäten sowie auch für Erholung, Entspannung und körperliche Bewegung. Was die viel zitierte Work-Life-Balance betrifft, wollen wir hier nur einige Punkte hervorheben, die uns wichtig erscheinen. Die Durchführung eines empirischen Forschungsprojekts erfordert Konzentration, Aufmerksamkeit und viel Zeit. Achten Sie darauf, dass 40 I Ausgangspunkte <?page no="41"?> ● Ihre Basisökonomie ausreichend gesichert ist und nutzen Sie verfügbare Forschungsstipendien ● ein Mindestmaß an Zeit für Familie, Kinder sowie für Freundinnen bleibt ● Sie bei unverhofften Ereignissen, die mit Zusatzbelastungen verbunden sind, entsprechende Unterstützung organisieren und sich zeitliche Spiel‐ räume verschaffen ● die häusliche Arbeitsteilung in einer allseits akzeptablen Weise geregelt ist ● Ihre Gesundheit nicht leidet und die sinnlichen Seiten des Lebens, die in der wissenschaftlichen Erfahrung keinen Platz haben, nicht zu kurz kommen. Die Forschungsaufgabe, die Gruppe und ich Vor allem an Massenuniversitäten werden Didaktiken, die das Lernen in kleinen Gruppen mit plenaren Lernsituationen verknüpfen, gerne einge‐ setzt. Auch an Fachhochschulen und in betrieblichen Zusammenhängen wird von Ihnen erwartet, dass Sie im Team arbeiten können und entspre‐ chende Fähigkeiten entwickeln. Was bedeutet das für das empirische For‐ schen? Die Antwort auf diese Frage hängt sehr vom jeweiligen Forschungskon‐ text ab. Es macht einen Unterschied, ob Sie Ihre Forschung als Ausbildungs‐ teil in einem Lehrveranstaltungsmodul, als Qualifizierungsarbeit (Bachelor, Master, Diplom), als Kooperationsprojekt mit einem Verein, einer Schule oder einem Unternehmen, oder als Teil eines umfangreichen kommerziellen Großprojektes durchführen. Die zeitlichen Handlungsbögen, die inhaltli‐ chen Verantwortlichkeiten und die Gruppendynamiken können hier sehr variieren. Wer z. B. eine Masterarbeit zu zweit oder zu dritt schreibt, dem wird es nicht erspart bleiben, sich mit seinen Kolleginnen auseinanderzusetzen. Die Arbeit in Gruppen kann - wie jeder aus eigener Erfahrung in und mit Gruppen weiß - sowohl Chancen als auch Risiken in sich bergen. Einerseits besteht die Chance, im Team die eigene Leistungsfähigkeit zu steigern und sich selbst zu übertreffen, andererseits besteht das Risiko, sich in Konflikten mit den anderen Gruppenmitgliedern zu verzetteln und letztlich vielleicht sogar zu scheitern. Effektives Arbeiten in Gruppen erfordert Reflexionspro‐ zesse unterschiedlicher Art: Verantwortlichkeiten müssen geklärt werden, der Fokus der Aufgabenstellung sowie die gemeinsamen und individuellen 4 Die Freiheit der Forschung und ihre Grenzen 41 <?page no="42"?> Motive sollten besprochen werden, die Arbeit muss aufgeteilt werden, Verbindlichkeiten müssen kultiviert werden, Konflikte müssen thematisiert und bearbeitet werden, die Ergebnisse und deren Präsentation sollten als gemeinsame Leistung erfahrbar werden. Reflexion ● Wie geht es mir in Gruppensituationen in der Freizeit, im Studium bzw. im Beruf ? ● Gibt es typische Erfahrungen, die ich immer wieder mache? Kann ich mutmaßliche eigene Anteile benennen? ● Feedback geben und nehmen: Habe ich das gelernt? Wo und wie? ● Arbeite ich gerne in Gruppen oder versuche ich Gruppensituatio‐ nen tendenziell zu meiden? ● Denken Sie an eine Gruppe, in der Sie Mitglied sind: Sind Sie mit dem Platz und dem Raum, den Sie in dieser Gruppe haben, zufrieden? Wenn nicht: Wie wollen Sie damit künftig umgehen? ● Was immer ihr nächster Schritt beim Erwerb forschungsmethodi‐ scher Kompetenzen ist: Formulieren Sie für sich selbst auch einen Schritt, den Sie in Sachen Gruppenlernen machen wollen, z. B. die Moderation übernehmen, im Namen der Gruppe präsentieren, eine Irritation artikulieren, einen Konflikt ansprechen, sich weniger oft zu Wort melden, als erste das Wort ergreifen, ein Abstract zur gemeinsamen Forschungsaufgabe entwerfen, eine neues Werkzeug ausprobieren (z. B. https: / / nuudel.dig italcourage.de/ oder https: / / cryptpad.fr/ ), pünktlich zum vereinbarten Termin kommen etc. Wichtig ist, dass es Ihre Idee, Ihr Lernthema und Ihr Lernschritt ist. In allen Fällen gilt es, inhaltlich-thematische und kommunikativ-gruppen‐ dynamische Dimensionen in ausgewogener Weise zu beachten. Dabei ist es besonders wichtig, sich den Gesamtzusammenhang der wissenschaftlichen Erkenntnisbemühungen vor Augen zu halten. Die folgende tabellarische Übersicht einer Auswahl von wichtigen Aspekten, kann hilfreich sein bei der ● Unterscheidung und Einordnung von Forschungskontexten, 42 I Ausgangspunkte <?page no="43"?> ● Reflexion von Verantwortlichkeiten und Zuständigkeiten ● und der Abwägung von Vor- und Nachteilen sowie von Chancen und Schwierigkeiten. Die hier exemplarisch aufgezeigten Forschungszusammenhänge sind je‐ weils mit unterschiedlichen zeitlichen Handlungsbögen sowie Abhängig‐ keiten und Wahlfreiheiten verknüpft. Überblick Forschungskontext Dauer in Mo‐ naten Volu‐ men in k€ Besonderheiten und wichtige Aspekte Ausbildungsteil - Lehrveranstal‐ tungsmodul 3-12 - Die ersten Schritte in der For‐ schungspraxis, das Kennenlernen von einzelnen Verfahren oder Techniken, gestaltet sich in klei‐ nen Gruppen oft leichter als allein. Wichtig sind klare Abmachungen über Zuständigkeiten, Termine und Aufgaben. Die Gruppegröße sollte auf drei bis fünf Mitglieder beschränkt sein. Leitungsfunktio‐ nen können rotieren. Studienbegleitendes Projekt 3-24 0 bis 10 Handelt es sich eher um Routi‐ nearbeiten und eine Möglichkeit des Nebenverdiensts oder um per‐ sönlich oder politisch bedeutsame Aktivitäten? Die anteilige Verant‐ wortung für das Projekt ist in jedem Fall zu klären. Studienbeg‐ leitende Soloprojekte sind selten - die Gruppensituationen können wichtige Anlässe zur Entwicklung (semi-)professioneller Leistungen bieten. 4 Die Freiheit der Forschung und ihre Grenzen 43 <?page no="44"?> Forschungskontext Dauer in Mo‐ naten Volu‐ men in k€ Besonderheiten und wichtige Aspekte Qualifizierungsarbeit (Bachelor, Master, Di‐ plom) 3-12 0 bis 2 Abschlussarbeiten werden meis‐ tens allein verfasst. Das muss nicht so sein. Im Fall von Part‐ ner- und Gruppenarbeiten sollte es jedoch vor Beginn mindestens eine Erfahrung der gelungenen Zusammenarbeit geben. Klare Aufgabenverteilungen sind un‐ erlässlich, zumal die Leistungen der Mitwirkenden in der Regel getrennt zu beurteilen sind. Kleinprojekte in Ver‐ einen, Schulen und Unternehmen 3-6 1 bis 20 Solche Projekte werden meistens als Gruppe durchgeführt. Beson‐ dere Falle: Sehr ambitionierte Zielsetzungen und bescheidene Mittel verleiten einzelne oder alle zu unangemessenen For‐ men der Verausgabung, Selbst‐ ausbeutung und zu unbezahlten Liebesdiensten an der Institu‐ tion. Die Ungleichverteilung der (unbezahlten) Arbeitsleistungen kann Schwierigkeiten mit sich bringen. Andererseits kann die gemeinsame Bewältigung der Herausforderungen mit beschei‐ denen Mitteln auch ein wunder‐ bares Erfolgserlebnis für alle be‐ deuten. 44 I Ausgangspunkte <?page no="45"?> Forschungskontext Dauer in Mo‐ naten Volu‐ men in k€ Besonderheiten und wichtige Aspekte mittlere Projekte in Vereinen, Schulen und Unternehmen 6-24 20 bis 200 In solchen Projekten werden mitunter auch umfänglichere Aufgaben von einzelnen geleis‐ tet, die in losem Kontakt zur Gruppe stehen. Meistens ist eine Kerngruppe federführend und organisiert Zuarbeiten aller Art. Eine faire Verteilung des kultu‐ rellen Kapitals und der verfügba‐ ren Geldmittel ist wichtig (z.B.: Scheinen auch diejenigen auf, die die Transkripte erstellt oder eine qualitative Analyse beige‐ steuert haben? ) mehrjährige aka‐ demische oder kom‐ merzielle Projekte 24 und dar‐ über über 200 Eigenverantwortliche For‐ schungsleistungen und gelin‐ gende Zusammenarbeit in der Gruppe sollte für alle Beteilig‐ ten möglich und wichtig sein. Das Verhältnis Projektleitung und Projektbearbeitung und die entsprechenden Aufgaben‐ verteilungen und Zuständigkei‐ ten sollten gemeinsam geklärt sein. Weiters: Wer kann und soll im Namen der Gruppe öffentlich sprechen? Supervision der Grup‐ penprozesse kann mitunter hilf‐ reich sein. 4 Die Freiheit der Forschung und ihre Grenzen 45 <?page no="46"?> Forschungskontext Dauer in Mo‐ naten Volu‐ men in k€ Besonderheiten und wichtige Aspekte mehrjährige akademi‐ sche oder kommerzi‐ elle Großprojekte 24 und dar‐ über über 500 Professionelle Forschungsleis‐ tungen stehen im Vordergrund. Stärken und Schwächen der Be‐ teiligten sollten so zum Tragen kommen können, dass erfolgrei‐ che Kooperation möglich ist. Themen der Über- und Unter‐ forderung sollten geklärt sein (v.-a. wenn Novizen mitwirken). Die Relation Teilgruppen und Gesamtgruppe und die entspre‐ chenden Zuständigkeiten und Verantwortlichkeiten sollten für alle nachvollziehbar sein und mitgetragen werden können. Eine faire Verteilung der Lorbee‐ ren ist unerlässlich. Tabelle 3: Einzel- und Gruppenarbeit in unterschiedlichen Forschungskontexten - ausgewählte Aspekte Ob Sie nun eine Wahl haben, Ihre Forschungsinteressen in der Gruppe zu bearbeiten, oder nicht: in jedem Fall sind es viele Aspekte, die förderlich oder hinderlich sein können. Erfolg und Misserfolg hängen von vielen Faktoren ab, und Sie werden vielleicht sagen: »Wenn ich all das, was in der Gruppenpädagogik wichtig ist, auch noch ständig im Auge haben soll, dann sinken doch die Chancen auf gelingende Lernprozesse? « In der Tat ist es so, dass man auch hier allzu leicht den Wald vor lauter Bäumen nicht mehr sehen kann. Aber: Es fallen weder in der Forschung noch in der Gruppenkommunikation die Meister einfach vom Himmel. Also: ● Nehmen Sie sich immer nur einen oder zwei Lernschritte vor und lassen Sie sich Zeit für den Kompetenzerwerb. 46 I Ausgangspunkte <?page no="47"?> ● Versuchen Sie die Herausforderungen auf den verschiedenen Ebenen des Forschungshandelns so auszubalancieren, dass bei Ihnen und Ihren Forschungspartnerinnen ein Grundgefühl der Zufriedenheit überwiegt. ● Lesen Sie nachfolgenden vertiefenden Exkurs, mit dem wir Ihnen zeigen, wie zum Beispiel das Modell der Themenzentrierten Interaktion (TZI) auch in Forschungsprozessen fruchtbar angewendet werden kann. Exkurs Die Themenzentrierte Interaktion (TZI) wird vor allem im deutschen Sprachraum in unterschiedlichen Kommunikationszusammenhängen entwickelt und angewendet. Häufig werden dabei die folgenden Berei‐ che genannt: ● Arbeit mit Gruppen und Teams ● Unternehmens- und Mitarbeiterführung ● Nachwuchs- und Führungskräfteentwicklung ● Lehren und Lernen in Schule, Hochschule und Erwachsenenbil‐ dung ● Supervision, Beratung, Coaching, Training Was TZI an Universitäten und Hochschulen betrifft, so werden haupt‐ sächlich hochschuldidaktische und gruppenpädagogische Aspekte fo‐ kussiert (vgl. Portele & Heger 1995; Meyerhuber et al. 2019). Die TZI bietet aber darüber hinaus auch vielfältige Anknüpfungspunkte in der empirischen Forschung. Dies lässt sich am Beispiel des Gruppen‐ gesprächs als Erhebungsmethode zeigen. Eine kurze Charakterisierung von TZI Die Themenzentrierte Interaktion (TZI) ist ein gruppenpädagogisches Mo‐ dell, das sowohl auf effektives Lernen und Arbeiten als auch auf Persönlich‐ keitsentwicklung zielt. Das Spektrum reicht dabei von allgemeinen Fragen der Lebenskunst bis zu konkreten Fragen der Leitung von Gruppen und der Gestaltung von sozialen Situationen. Im professionellen pädagogischen Handlungskonzept werden didaktisch-methodische Aspekte und solche der persönlichen Haltung und Einstellung zusammen in den Blick genommen. Einerseits geht es um die Bearbeitung von Sachthemen und die Lösung von Aufgaben, andererseits geht es allemal auch um persönliches Wachstum, 4 Die Freiheit der Forschung und ihre Grenzen 47 <?page no="48"?> kongruente Kommunikation, Selbstaktivierung und Selbstverantwortung (Chairperson-Postulat). Neben den anthropologischen Grundannahmen (z. B. Autonomie und Interdependenz) spielt dabei das Konzept des dynami‐ schen Gleichgewichts zwischen den verschiedenartigen Bedürfnissen der Einzelnen, der Interaktion der Gruppe und deren Aufgabe (Ich-Wir-Es-Ba‐ lance) unter Berücksichtigung kontextueller Bedingungen im engeren oder weiteren Sinne (»globe«) eine besondere Rolle. Abbildung 2: Vier-Faktoren-Modell der TZI Im interaktionellen System der TZI steht ● ICH für die einzelne Person, die auf andere Personen und eine gemein‐ same Aufgabenstellung bezogen ist, ● WIR für die Gruppensituation und die Interaktion untereinander, ● ES für den gemeinsamen Focus der Gruppenaktivität (Anliegen, Inter‐ esse, Aufgabe), der ein Sachthema (z. B. Lernstoff), ein Beziehungsthema (z. B. Gruppenprozess) oder etwa auch ein Selbsterfahrungsthema sein kann, ● GLOBE für Rahmenbedingungen der Gruppe (z. B. zeitliche, räumliche, finanzielle Ressourcen), das soziokulturelle Umfeld (Alter, Geschlecht, Schichtzugehörigkeit, usw.), infrastrukturelle Kontexte (institutionelle Bedingungen, mediale Strukturen, usw.) und andere Umweltbezüge. 48 I Ausgangspunkte <?page no="49"?> Gruppengespräche als TZI-Anwendungen in der empirischen Forschung Zur Erforschung interaktiver und kollektiver Phänomene werden im anglo-amerikanischen Sprachraum seit den späten 40er Jahren auch Grup‐ pendiskussionen als Erhebungsinstrument eingesetzt (sog. »focus groups« und »group discussions«). Seit etwa Mitte der 1950er Jahre werden Grup‐ pendiskussionsverfahren auch im deutschen Sprachraum angewendet. Manchmal wird der Ausdruck »Gruppendiskussion« auch als Sammelbe‐ zeichnung für unterschiedliche Methoden wie Gruppenbefragung, Grup‐ peninterview, Gruppengespräch, Gruppendiskussion (i.e.S.) verwendet. Un‐ terscheidungslinien werden in konzeptioneller und praktischer Hinsicht nicht ganz einheitlich gehandhabt. In einer ersten Annäherung lassen sich folgende Akzente nennen: ● Gruppenbefragung und Gruppeninterview: 8-12 Teilnehmern werden mittels eines standardisierten Fragebogens oder Leitfadens befragt, gruppendynamische Aspekte werden dabei nicht reflektiert, wenig Interaktion - die Befragungssituation kann den Charakter von Einzel‐ interviews in Gegenwart anderer Gruppenmitglieder haben. ● Gruppengespräch: Die Gesprächssituation hat weniger direktive Züge, tendenziell gleicht sie alltagsweltlichen Situationen. Gruppenmitglieder verstehen sich meistens auch außerhalb der Erhebungssituation als solche. Das Gespräch kann, muss aber nicht von der forschenden Person initiiert werden. Es geht nicht nur um explizite Gesprächsinhalte, kollektive Orientierungsmuster oder informelle Gruppenmeinungen, sondern auch um deren Aushandlungscharakter und kommunikative Dynamiken. ● Gruppendiskussion: Gruppenmitglieder können sich kennen (»Real‐ gruppe«) oder erst im Zusammenhang der Forschungssituation ken‐ nenlernen. Funktionen der Diskussionsleitung sind wahrnehmbar im Sinne tendenziell formaler Interventionen (Gestaltung der Eröffnungs‐ runde, Setzen eines Grundstimulus, neutral gedachte Moderation und Steuerung von Themen und Dynamiken, mehr oder weniger direktive Gesprächsführung). In der empirischen Forschung kommen Gruppengespräche und Gruppen‐ diskussionen als Instrumente der Datenerhebung mit unterschiedlichen theoretischen Begründungen, manchmal auch einfach aus zeitlichen und 4 Die Freiheit der Forschung und ihre Grenzen 49 <?page no="50"?> ökonomischen Gründen zum Einsatz. Wenn bei der Planung, Durchführung und Auswertung das Modell der Themenzentrierten Interaktion Beachtung findet, dann spielen insbesondere die folgenden Charakteristika eine Rolle: ● partizipierende Leitung statt »neutrale« Moderation, ● stärkere Wahrnehmung und Akzentuierung der Gruppensituation auch als Lernsituation ● Formulierung bedeutsamer gemeinsamer Themen, Themenstellungen beziehen sich auf Sach- und Gruppenaspekte, sie werden im Austausch aller Beteiligten bearbeitet ● ausgehend von der Anerkennung subjektiver Anliegen und Interessen der Gesprächsteilnehmerinnen ist die Gestaltung der dynamischen Balance wichtig (kognitive und emotionale Dimensionen, Momente der Distanzierung und Beteiligung, vier Faktoren Ich, Wir, Es und Globe) ● Förderung von Prozessen der Selbstreflexion im Forschungsprozess ● Beachtung von Aspekten der Gruppenentwicklung Einschlägige Anwendungen sind in vielen erziehungs- und sozialwissen‐ schaftlichen Feldern denkbar. Exemplarisch sei hier auf ein Projekt aus der psychoanalytischen Sozialforschung zu ausgewählten Aspekten einer Sozialpsychologie der Arbeit verwiesen (s. Leithäuser & Volmerg, 1988, S. 225-233). Literaturtipps Zur Themenzentrierten Interaktion (TZI): Cohn, Ruth C. (2009): Von der Psychoanalyse zur Themenzentrierte Interak‐ tion. Von der Behandlung einzelner zu einer Pädagogik für alle. 15. Aufl. (Erstauflage 1975). Stuttgart: Klett-Cotta. Langmaack, Barbara & Braune-Krickau, Michael (2010): Wie die Gruppe laufen lernt. Anregungen zum Planen und Leiten von Gruppen. Ein praktisches Lehrbuch. 8. Aufl. (Erstauflage 1985). Weinheim: Beltz Psychologie-Ver‐ lags-Union. Meyerhuber, Sylke, Reiser, Helmut, & Scharer, Matthias (2019): Theme-Cen‐ tered Interaction (TCI) in Higher Education: A Didactic Approach for Sustainable and Living Learning. Cham: Springer International Publishing AG 50 I Ausgangspunkte <?page no="51"?> Portele, Gerhard & Heger, Michael (Hrsg.) (1995): Hochschule und Lebendiges Lernen. Beispiele für Themenzentrierte Interaktion. Weinheim: Deutscher Studienverlag. Schneider-Landolf, Mina; Spielmann, Jochen & Zitterbarth, Walter (Hrsg.) (2014): Handbuch Themenzentrierte Interaktion (TZI). 3. Aufl. Göttingen: Vandenhoeck & Ruprecht. Zum Thema Gruppendiskussion, Gruppengespräch und Gruppeninter‐ view: Bohnsack, Ralf & Schäffer, Burkhard (2001): Gruppendiskussionsverfahren. In: Hug, Theo (Hrsg.): Wie kommt Wissenschaft zu Wissen? Bd. 2, Baltmanns‐ weiler: Schneider- Verlag Hohengehren, S. 324-341. Dreher, Michael & Dreher, Eva (2012): Gruppendiskussionsverfahren. In: Flick, Uwe et al. (Hrsg.): Handbuch Qualitative Sozialforschung: Grundlagen, Konzepte, Methoden und Anwendungen. 3. Aufl. München: Psychologie Verlags Union, S. 186-188. Lamnek, Siegfried (2005): Gruppendiskussion: Theorie und Praxis. Stuttgart: Beltz/ utb für Wissenschaft. Leithäuser, Thomas & Volmerg, Birgit (1988): Psychoanalyse in der Sozialfor‐ schung. Eine Einführung. Opladen: Westdeutscher Verlag. Schmidt-Grunert, Marianne (2005): Das Gruppengespräch in der Sozialen Arbeit. Eine Einführung in qualitative Analyse und Evaluation. Freiburg: Lambertus. Wie halte ich es mit Ethik und Moral in der Forschung? Im vorigen Abschnitt wurde bereits deutlich, dass empirische Forschung nicht einfach eine Sache der sturen Anwendung von ein paar Richtlinien ist. Es bestehen viele Gestaltungs- und Wahlmöglichkeiten und damit verbunden auch Entscheidungsnotwendigkeiten. Wir gehen davon aus, dass qualitätsvolle Forschung ihren Preis hat und werden uns im dritten Kapitel noch ausführlicher mit den Gütekriterien empirischer Forschung befassen. An dieser Stelle wollen wir Sie darauf aufmerksam machen, dass Über‐ legungen zur Ethik und Moral in der Forschung nicht nur mit Blick auf technologieintensive Zweige der Atom-, Gen- oder Rüstungsforschung eine Rolle spielen. Sie sollten in allen Forschungszweigen und Disziplinen ihren Platz haben. 4 Die Freiheit der Forschung und ihre Grenzen 51 <?page no="52"?> Zwei forschungsethische Prinzipien haben Sie bereits kennengelernt. Einmal handelt es sich um den Begründungsanspruch (Bsp. Auswahl der Themen und Methoden), und zum Zweiten um die Forderung der Metho‐ denexplikation, d.h. der ausdrücklichen Benennung und Beschreibung der jeweiligen verwendeten Forschungsmethoden. Als empirische Forscherin sollten Sie weiters erläutern können, was die Ziele Ihrer Forschung sind und welchen Nutzen Sie sich von Ihrer Forschungsarbeit erwarten. Selbstver‐ ständlich müssen Sie auch die geltenden Datenschutzbestimmungen sowie Urheber- und Verwertungsrechte beachten. Als allgemeine Kriterien für qualitätsvolle Forschung gelten insbe‐ sondere Sorgfalt, Umsicht, Ehrlichkeit und Gewissenhaftigkeit. Vielleicht wenden Sie hier ein, dass in den beschleunigten Lebensverhältnissen doch andere Kriterien wie etwa Schnelligkeit, Gewandtheit, List oder Trickreich‐ tum wichtig sind, dass es so etwas wie ein kollektives Gewissen einer Forschungsdisziplin doch sowieso nicht gibt, und dass heute hauptsächlich die Frechheit siegt, und alle, die auf Betrug und Täuschung verzichten, auf der Strecke bleiben. Auch wenn wir die Diagnose der beschleunigten Lebensverhältnisse teilen und zugestehen, dass sich mit den gesellschaftli‐ chen Veränderungen in vielen Hinsichten auch die Bedeutung von Werten, Normen und ethischen Prinzipien verändert hat, so wollen wir doch an einigen Prinzipien festhalten. Hier einige ausgewählte Punkte, die uns im Hinblick auf verantwortliche Forschungsaktivitäten wichtig erscheinen: ● Klären Sie zu Beginn eines Projekts mit Ihren Forschungspartnern und den kooperierenden Einrichtungen die Motive, Ziele und Aufga‐ benverteilungen. Achten Sie weiters darauf, dass dabei einvernehmlich festgelegt wird, wer in welcher Weise mit Materialien und Ergebnissen umgehen darf. ● Machen Sie je nach Umfang und Reichweite des Vorhabens einen Ver‐ trag. Im Fall von drei Interviews oder einer Gruppendiskussion in einem Ausbildungszusammenhang genügt im Allgemeinen ein mündlicher Vertrag. Bei Projekten mit größeren Reichweiten oder im Fall von bezahlten Forschungsaktivitäten sollte der Vertrag schriftlich sein. In jedem Fall sollte allen Beteiligten klar sein, wozu sie ihre Zustimmung geben. ● Wenn Sie Kinder zu Forschungszwecken beobachten oder befragen, dann brauchen Sie dazu vorab das Einverständnis auch der Eltern. 52 I Ausgangspunkte <?page no="53"?> ● Holen Sie den Rat erfahrener Forscherinnen ein, wenn Sie experimen‐ telle Methoden verwenden wollen. ● Achten Sie auf einen fairen Umgang mit allen Beteiligten hinsichtlich der Verwendung von Materialien (Stichwort »fair use«). Mitteilungen »off the records« bleiben »off the records«. ● Tragen Sie Sorge für die Aufklärung der Befragten über Forschungsre‐ sultate und achten Sie auf einen fairen Umgang mit Ergebnissen (Bsp. symbolische Namensordnungen bei Publikationen). ● Achten Sie auf einen sorgsamen Umgang mit sich selbst (Bsp. eigene Schwächen, »Bekenntnisse«) und verzichten Sie auf Anbiederungen. Achten Sie weiters auf einen sorgsamen und geschlechtersensitiven Umgang mit allen Beteiligten auch hinsichtlich ihrer Herkünfte, Zuge‐ hörigkeiten zu Milieus oder Teilkulturen, Einkommensverhältnisse, etc. ● Behandeln Sie personenbezogene Daten streng vertraulich und in anonymisierter Form (Datenschutz). Bei Experten-Interviews oder Befragungen von Personen des öffentlichen Lebens gibt es da Ausnah‐ men (Bsp. Politik); diese sind aber ggf. einvernehmlich und schriftlich festzulegen. ● Geben Sie der Verführung, Daten im Lichte erhoffter oder erwarteter Ergebnisse »hinzubiegen«, nicht nach und verzichten Sie auf Plagiate (Redlichkeit). ● Achten Sie darauf, dass durch Ihre Forschungsaktivitäten niemand zu Schaden kommt. Manche dieser Punkte müssen zu Beginn eines Projekts besondere Beach‐ tung finden, andere werden erst später bedeutsam. Wichtig ist, dass Sie sich im Klaren darüber sind, dass die Erwägung forschungsethischer Themen keine Sache ist, die man einmal anschaut, und dann für den Rest der Forschungsarbeiten als abgehakt betrachten kann. Diese Erwägungen haben in der empirischen Forschung vielmehr den Charakter der Begleitreflexion. Dabei können die einzelnen Punkte selten einfach im Sinne simpler Regeln angewendet werden. Sie müssen vielmehr in fall- und kontextbezogener Weise reflektiert, interpretiert und fruchtbar gemacht werden. 4 Die Freiheit der Forschung und ihre Grenzen 53 <?page no="54"?> Tipps ● Schauen Sie nach, welche Regeln guter wissenschaftlicher Praxis und welche ethischen Standards von Seiten der Institution, an oder mit der sie Ihre Forschungen durchführen, veröffentlicht sind. ● Recherchieren Sie, welche Richtlinien die für Sie wichtigen wissen‐ schaftlichen Fachgesellschaften zu forschungsethischen Themen sowie zum Umgang mit Forschungsdaten und generativer KI be‐ schlossen haben. ● Lesen Sie die gefundenen Dokumente aufmerksam durch und überlegen Sie, welche der in ihnen angesprochenen Punkte für Ihre Forschungsvorhaben in welchen Hinsichten bedeutsam sind. 54 I Ausgangspunkte <?page no="55"?> 5 Mein erstes Forschungsprojekt-- Was brauche ich? (T. Hug) Zum Abschluss des ersten Kapitels wollen wir Ihnen einige praktische Tipps für Ihr erstes Forschungsprojekt mit auf die Reise geben. Wenn Sie aufmerksam gelesen und die Reflexionsaufgaben gemacht haben, dann haben Sie über viele Dinge nachgedacht, die für die erfolgreiche Durchfüh‐ rung eines seriösen empirischen Projekts zumindest in Ansätzen geklärt sein sollten. Das Forschungshandeln in empirisch ausgerichteten Projekten erschöpft sich aber nicht im »Nachdenken und Reden über« - es geht dabei wesentlich auch um konkrete Interaktionen und die Verwendung methodischer Instrumente. Schließlich wollen Sie ja nicht stundenlang die Schier wachseln, sondern auch mal die Hänge hinunterfahren. Fassen wir kurz zusammen, was wir von den Dingen, die Sie für ihr erstes Forschungsprojekt brauchen, bereits angesprochen haben. Das sind insbesondere Zeit, Geduld, Ausdauer, Schaffenskraft, Lernbereitschaft, Be‐ reitschaft zur Übernahme von Verantwortung, kommunikative Kompetenz, Neugier und Liebe zur Sache. Freilich ist diese Liste alles andere als vollstän‐ dig, und es ist auch nicht so, dass man all das einfach schon mitbringt oder eben nicht. Die entsprechenden Fähigkeiten, Fertigkeiten und Qualitäten sind vielmehr schrittweise weiter zu entwickeln. Nehmen wir zum Beispiel den Punkt Ausdauer. Wenn Sie das Verfas‐ sen einer Abschlussarbeit, die auf einem empirischen Forschungsprojekt basiert, mit der Anfertigung eines Werkstücks bei der Meisterprüfung vergleichen, was war dann das Gesellenstück? Was waren die entsprechen‐ den Vorübungen? Aus welchen Fehlern konnten Sie auf dem Weg zum Meisterstück lernen? - Hatten Sie in der Schule mal die Gelegenheit, kurze Interviews durchzuführen? Haben Sie in Ihrem bisherigen Leben mal über Wochen hinweg an einem Bild gemalt, ein Musikstück kompo‐ niert oder ein umfänglicheres Wohnungsprojekt durchgeführt? Sind Sie gewohnt, über längere Zeit hinweg konzentriert zu lesen oder halten Sie es eher mit Social-Media-Postings und kurzen Zeitschriftenbeiträgen? Bereits kleinere Forschungsprojekte erfordern überdurchschnittlich lange Aufmerksamkeitsspannen und eine gewisse Kondition beim Recherchieren, Organisieren, Transkribieren, Dokumentieren, Lesen, Schreiben und nicht zuletzt bei der Überarbeitung von Rohfassungen. 5 Mein erstes Forschungsprojekt-- Was brauche ich? 55 <?page no="56"?> Auf einen besonders wichtigen Punkt wollen wir extra nochmals hin‐ weisen: Die Bereitschaft zum Perspektivenwechsel. Das bedeutet, dass im Zuge empirischer Forschungstätigkeiten ähnlich wie bei der Auseinan‐ dersetzung mit wissenschaftlichen Theorien die Begrenztheit vertrauter Sichtweisen überschritten wird und verschiedene Erklärungs- und Deu‐ tungsmöglichkeiten ins Blickfeld rücken. Die »Normalität« des Alltagsle‐ bens erscheint dann mitunter fremd und reflexionswürdig. Differenziertere Betrachtungsweisen und kritisches Denken lassen die Dinge komplexer er‐ scheinen, neue Formen der Wissensintegration und Komplexitätsreduktion erscheinen angezeigt. Wichtig Empirische Forschung kann Ihr Leben sehr verändern. Der (schein‐ bar) sichere Boden des alltagsweltlichen »So-und-so-ist-es« wird frag‐ würdig, Vorurteile und stereotype Darstellungen fallen bei einem selbst und bei anderen gehäuft auf. Das Erfordernis Dinge neu denken zu müssen, geht Hand in Hand mit dem Abenteuer, sich selbst neu zu ent‐ decken. Als Lohn für die Bemühungen um wissenschaftliche Erfahrung winken vertiefte Einsichten und Kenntnis neuer Zusammenhänge, erweiterte Handlungsspielräume und differenziertere Betrachtungs‐ weisen. 56 I Ausgangspunkte <?page no="57"?> Fragebogen Teil 1: Mein erstes Forschungsprojekt: Was bringe ich mit? Meine Selbsteinschätzung: niedrig mittel hoch Vorfreude ( ) ( ) ( ) Neugier ( ) ( ) ( ) gesicherte Basisökonomie ( ) ( ) ( ) kommunikative Fähigkeiten ( ) ( ) ( ) Kritikfähigkeit ( ) ( ) ( ) Medienkompetenz ( ) ( ) ( ) Informationskompetenz ( ) ( ) ( ) digitaltechnische Kompetenz ( ) ( ) ( ) organisatorisches Talent ( ) ( ) ( ) Zeitmanagement ( ) ( ) ( ) Arbeitsplanung / Projektmanagement ( ) ( ) ( ) mathematische Kenntnisse ( ) ( ) ( ) Netzwerke, institutionelle Verbindungen ( ) ( ) ( ) Basiskompetenzen im wiss. Arbeiten ( ) ( ) ( ) Vorerfahrungen (Bsp. Schulprojekte) ( ) ( ) ( ) forschungsmethodische Kompetenzen ( ) ( ) ( ) unterstützendes Umfeld (Familie, Freunde, Studienkolleginnen) ( ) ( ) ( ) . . . . . . . . . . . . . . . . . . . . . . . ( ) ( ) ( ) 5 Mein erstes Forschungsprojekt-- Was brauche ich? 57 <?page no="58"?> Teil 2: Mein erstes Forschungsprojekt: Wo gibt es Schwächen und wo will ich erste Schritte setzen? Bereich Aktivitäten Forschungsmethoden (Überblick) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . spezielle Forschungsmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Basisökonomie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Medienkompetenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . kommunikative Fähigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . emotionale Aspekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . kritisches Denken / Kritikfähigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Präsentieren und Moderieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Umfeld (Familie, Freunde, etc.) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . technische Ausstattung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Projektmanagement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tipp Wählen Sie zunächst lediglich 2-3 Bereiche aus und konzentrieren Sie sich auf höchstens 2-3 Aktivitäten. Kommen Sie allerdings in einigen Wochen wieder auf diese Aufgabe zurück und setzen Sie dann neue Akzente. Bevor Sie sich nun auf den Weg zu Ihrem ersten Forschungsprojekt machen, laden wir Sie zu einem Check up ein, der Ihnen dabei helfen soll, die Kräfte möglichst gut einzuteilen. Halten Sie dabei vor Augen, um welche Zielstellung es zunächst geht. So, wie Sie für einen Ausflug ins Nachbardorf, eine Wanderung auf eine nahe gelegene Alm oder eine Klettertour im 58 I Ausgangspunkte <?page no="59"?> hochalpinen Gelände jeweils andere Dinge mitnehmen, so sollten Sie sich vorab klar machen, ob Sie Ihre Selbsteinschätzung im Hinblick auf eine forschungsmethodische Seminararbeit, Ihre erste Bachelorarbeit oder zum Beispiel eine Masterarbeit vornehmen. Und das sind die entscheidenden Erfolgsfaktoren auf dem Weg zu Ihrem ersten Forschungsprojekt: ● gute Selbsteinschätzung (Stärken-/ -Schwächen) ● Forschungsneugier und ernsthafte Motive ● angemessene Ressourcen (Zeitbudget, finanzielle Absicherung) ● gute Kontakte und Zugänge (Internet, Bibliotheken, Forschungsfeld) ● ein Umfeld, in dem Humor, Selbstachtung, Selbstironie sowie Wertschät‐ zung und Anerkennung für Ihre Bemühungen gepflegt werden. Sofern das Thema für Ihr erstes Forschungsprojekt nicht vorgegeben ist, brauchen Sie nur noch eine Idee und es kann losgehen. Wie Sie zu Ideen und von diesen zu Ihren Forschungsfragen kommen, erfahren Sie im nächsten Kapitel. Literaturtipps Zum Thema gibt es ein großes Informationsangebot in Form von Bü‐ chern, Aufsätzen und Internetquellen. Für den Einstieg in die Thematik empfehlen wir Ihnen als Ergänzung und Erweiterung zu diesem Band folgende Bücher: Baur, Nina & Blasius, Jörg (2022): Handbuch Methoden der empirischen Sozialforschung. 3. Aufl. Wiesbaden: Springer VS. Flick, Uwe; Kardorff, Ernst v. & Steinke, Ines (Hrsg.) (2005): Qualitative Forschung. Ein Handbuch. 7. Aufl. Reinbek bei Hamburg: Rowohlt. Heinze, Thomas (2001): Qualitative Sozialforschung. Einführung, Methodolo‐ gie und Forschungspraxis. München / Wien: Oldenbourg. Hug, Theo (Hrsg.) (2001): Wie kommt Wissenschaft zu Wissen? 4 Bände, Baltmannsweiler: Schneider-Verlag Hohengehren. Hug, Theo & Niedermair, Klaus (Hrsg.) (2025): Handreichung Wissenschaftli‐ ches Arbeiten. Innsbruck: Studia Universitätsverlag. https: / / ulb-dok.uibk.a c.at/ urn/ urn: nbn: at: at-ubi: 3-42280 Hussy, Walter; Schreier, Margrit & Echterhoff, Gerald (2013): Forschungsme‐ thoden in Psychologie und Sozialwissenschaften-- für Bachelor. 2. Aufl. Berlin u. a.: Springer. 5 Mein erstes Forschungsprojekt-- Was brauche ich? 59 <?page no="60"?> Kruse, Otto (2018): Lesen und Schreiben. Der richtige Umgang mit Texten im Studium. 3. Aufl. Konstanz u. a.: utb. Mautner, Gerlinde (2016): Wissenschaftliches Englisch. Stilsicher schreiben in Studium und Wissenschaft. Grundlagen und Anwendungen. 2. Aufl. Konstanz u. a.: utb. Niedermair, Klaus (2023): Recherchieren und Dokumentieren. Der richtige Umgang mit Literatur im Studium. 2. Aufl. Tübingen u. a.: utb. Raithel, Jürgen (2008): Quantitative Forschung: Ein Praxiskurs. 2. Aufl. Wies‐ baden: VS. 60 I Ausgangspunkte <?page no="61"?> II Erste Schritte: Die Planung eines Forschungsprojekts 1. Von der ersten Idee zur konkreten Forschungsfrage (G. Poscheschnik) 2. Wie verstehe ich den Gegenstand meiner Forschung (G.-Poscheschnik) 3. Wer suchet, der findet - Übers Recherchieren im Prozess der Forschung (G.-Poscheschnik) 4. Die Rolle von Argumenten im Prozess der Forschung (G. Poscheschnik) 5. Step by step-- Sinn und Zweck von Ablaufmodellen (G. Poscheschnik) 6. Design matters - Über Sinn und Zweck von Forschungsdesigns (G. Poscheschnik) 7. Der methodische Dreischritt empirischer Forschung: Erhebung, Aufbe‐ reitung, Auswertung (G. Poscheschnik) 8. Qualitativ oder quantitativ? Die Gretchenfrage in der Wissenschaft (G. Poscheschnik) 9. Es ist nicht alles Gold, was glänzt - Über Gütekriterien empirischer Forschung (G. Poscheschnik) Die Forschungsfrage die Sie gefunden haben, richtet sich immer auf einen bestimmten Forschungsgegenstand. Dieser bezeichnet das Phänomen, das empirisch untersucht werden soll und kann auf unterschiedliche Art und Weise verstanden werden. Wichtig ist es dann, nicht nur Forschungsgegenstand und Forschungsfrage, sondern auch Ihr methodisches Vorgehen und Ihre Forschungsergebnisse mit guten Argumenten zu begründen. Behilflich bei der Planung Ihres Forschungsprojekts ist das Ablaufmodell, das eine logische Abfolge von Schritten vorgibt, wie Sie Ihr Ziel erreichen. Ein wichtiges Element in der Umsetzung Ihres Forschungsvorhabens ist das Forschungsdesign. Darunter versteht man den übergeordneten Versuchsplan, in dem dann unterschiedliche Forschungsmethoden zum Einsatz kommen. Es gibt Methoden zur Erhebung von Daten, zur Aufbereitung von Daten und schließlich zur Auswertung von Daten. Dabei können Sie jeweils quantitativ und / oder qualitativ vorgehen. Eine Reihe von <?page no="62"?> Gütekriterien hilft Ihnen, sowohl die Qualität Ihrer eigenen Studie einzuschätzen als auch andere wissenschaftliche Untersuchungen zu beurteilen. In Kapitel 1 abgehandelt. 62 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="63"?> 1 Von der ersten Idee zur konkreten Forschungsfrage (G.-Poscheschnik) Ein Forschungsprojekt definiert sich dadurch, dass es darauf abzielt, eine bestimmte Forschungsfrage zu beantworten. Aber wie kommt man eigent‐ lich zu dieser Forschungsfrage? Hier gibt es im Großen und Ganzen zwei Möglichkeiten: Entweder Sie lassen sich die Forschungsfrage von erfah‐ reneren Forschenden liefern, indem Sie an deren Forschungsprogramme und Forschungsthematiken andocken. Oder Sie versuchen selbst, eine For‐ schungsfrage zu finden. Diese zwei Optionen, zwischen denen natürlich eine große Grauzone liegt, sollen nun kurz dargelegt werden. 1. Als Studierende haben Sie eventuell die Möglichkeit an bestehende Pro‐ jekte und Forschungsschwerpunkte anzuknüpfen, die an der Hochschule, an der Sie studieren, betrieben werden. Manchmal gibt es am jeweiligen Institut oder auf den Internetseiten des Instituts explizit Ausschreibungen, in denen nach Projektmitarbeitenden gesucht wird. Sie haben auch die Möglichkeit, sich mit Lehrenden zu unterhalten und selbige zu fragen, ob diese eine diesbezügliche Idee für Sie haben. Voraussetzung hierfür ist allerdings, dass Sie ein gewisses Interesse für die Thematik mitbringen und sich mit selbiger auch beschäftigen wollen. Fällt es Ihnen nämlich generell schwer sich auf Themen einzulassen, die Sie nicht die Bohne interessieren, kann das Durchführen der entsprechenden Studie und das Verfassen der Arbeit zu einem frustrierenden Prozess werden. Ist es Ihnen hingegen völlig egal, über was Sie Ihre Abschlussarbeit schreiben, weil Ihre Interessen sehr flexibel sein können, kann es überaus sinnvoll sein, diesen Weg einzuschlagen. So haben Sie dann meist eine bessere Betreuung, weil nicht nur Sie, sondern auch Ihre Betreuungsperson motiviert und interessiert ist, die Studie durch‐ zuführen. Und auch wenn es keinerlei Vergütung geben mag, kann eine derartige Arbeit nah an bestehenden Forschungsprojekten Ihres Betreuers Ihnen eventuell die Tür zu einer auch remunerierten Anstellung im Rahmen eines künftigen Projekts öffnen. 2. Eine vollkommen freie Wahl des Themas ist nur selten möglich. Meist muss zumindest Ihre Betreuungsperson zustimmen und qua ihrer Exper‐ tise ihren Sanctus für die Sinnhaftigkeit des Themas erteilen. Wenn Sie allerdings so gestrickt sind, dass Sie nur dann effizient und dauerhaft 1 Von der ersten Idee zur konkreten Forschungsfrage 63 <?page no="64"?> an einer Sache arbeiten können, wenn selbige Sie interessiert, sind Sie gut beraten, sich auf ein Thema zu konzentrieren, bei dem Sie mit einer gewissen Leidenschaft bei der Sache sind. Wie kommen Sie nun aber von irgendwelchen vagen Interessen zu einer konkreten Forschungsfrage oder Hypothese? Viele Forschungsprojekte beginnen mit einer recht vagen Idee, die zunehmend konkretisiert wird. Wenn Sie noch gar keine spezielle Idee haben, lassen Sie ihr bisheriges Studium mit all seinen Lehrveranstaltungen nochmal vor ihrem inneren Auge Revue passieren und fragen sich: Welche Lehrveranstaltungen wa‐ ren besonders spannend? Was hat mich am meisten interessiert? Über welche Themen wollte und will ich mehr wissen, hatte aber bisher keine Gelegenheit dem nachzugehen? Als Resultat dieses Nachdenkprozesses können Sie auf ein bestimmtes oder auch mehrere mögliche Gebiete stoßen, in denen Sie sich vorstellen können, Ihre Abschlussarbeit zu verfassen. Wenn Sie viele Ideen haben, sich aber noch nicht so recht entscheiden können, kann es hilfreich sein, sich potenzielle Themen auf einer Liste oder auf Kärtchen zu notieren. Ist die Anzahl der möglichen Gebiete zu groß, versuchen Sie am besten eine Gewichtung hinsichtlich der Frage, was davon Sie mehr und was weniger interessiert. Häufig ist die erste Formulierung von Interessen recht breit, um nicht zu sagen: viel zu breit. Solche oder ähnlich klingende Aussagen kann man insbesondere in der Anfangsphase einer Arbeit noch häufig vernehmen: „Ich möcht was über Kinder schreiben“, „Mich interessiert das Konzept der Intelligenz“, „Social media find ich voll spannend“ oder „Ich würd mich gern auf Logistik konzentrieren“. Im Rahmen dieser Überlegungen können Sie auch einer »Künstlichen Intelligenz« Ihre Interessen schildern und diese dann nach Ideen für spannende und relevante Themen innerhalb dieser Bandbreite fragen. Elicit, Jenni AI oder ChatGPT können Ihnen dabei nebst anderen KI-Tools behilflich sein. Wie kommen Sie nun von diesen Ideen zu einer konkreten Forschungs‐ frage oder Hypothese? Wie schon erwähnt, sind die anfänglichen Interessen häufig zu breit gefächert. Das Motto, um von Ihren Ideen und Themen zu einer konkreten Forschungsfrage oder Hypothese zu kommen, lautet: eingrenzen, eingrenzen, eingrenzen! Folgende Fragen und Kriterien können Ihnen bei diesem Prozess behilflich sein: ● Eingrenzung durch W-Fragen: Grenzen Sie ihr Interessensgebiet Schritt für Schritt durch die klassischen W-Fragen ein. Angenommen, 64 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="65"?> Sie würden sich für den Zusammenhang zwischen der Nutzung von Social Media und Gesundheit interessieren, könnten Sie sich folgende Fragen stellen: Was genau interessiert mich an diesen Aspekten? Sind es bestimmte Social Media-Plattformen? TikTok, Instagram, Facebook? Welche Aspekte biopsychosozialer Gesundheit will ich erheben? Sind es depressive Verstimmungen, soziale Kontaktlosigkeit, psychosomati‐ sche Beschwerden, Myopie und Kopfschmerzen? Wer soll untersucht werden? Hierbei könnten Sie die Altersgruppe eingrenzen, auf Kinder, Jugendliche, Erwachsene und hierin nochmals bestimmte Alterskohor‐ ten. Wie viel, wie sehr? Welches Ausmaß soll die Mediennutzung haben, um als problematisch oder unproblematisch eingestuft zu werden? Wann? Auf welchen Zeitraum bezieht sich die Untersuchung? Geht es um Werktage, Wochenende, Urlaub, die Zeit einer Pandemie? Wo soll geforscht werden? Überall oder in bestimmten Bundesländern, städti‐ sche oder ländliche Gebiete? Auf diese Weise könnte aus dem Interesse am eingangs erwähnten Zusammenhang zwischen Social Media und psychosozialer Gesundheit folgende Forschungsfrage werden: Welchen Einfluss hat die tägliche Nutzung von TikTok für mehr als drei Stunden auf die realen sozialen Kontakte von Jugendlichen im Alter zwischen 14 und 16 Jahren in einer Ortschaft mit weniger als 500 Einwohnern? ● Eingrenzung durch Machbarkeitsanalyse: Hier geht es vor allem um die Frage, ob die Studie für Sie überhaupt realisierbar ist. Können Sie einen Zugang zu den zu befragenden Personen herstellen? Können Sie sich alternativ auf eine andere Stichprobe konzentrieren? Ist die Forschungsfrage mit Ihren zeitlichen und auch finanziellen Ressourcen beantwortbar? Hier lässt sich eventuell die Größe der Stichprobe ver‐ kleinern oder auch die Anzahl der Erhebungs- und Auswertungsmetho‐ den verringern, die Sie einzusetzen planen. ● Eingrenzung durch Literaturrecherchen: Obwohl im Rahmen von Bachelor- oder Masterarbeiten nicht unbedingt eine große Innovation erwartet wird, steigt mit der Höhe des akademischen Abschlusses für gewöhnlich der Anspruch, in der Qualifikationsarbeit auch etwas Neues zu Tage zu fördern. Um herauszufinden, welche Themenfelder schon zur Genüge beackert wurden, hilft Ihnen eine Recherche der wissen‐ schaftlichen Literatur zu dem Thema (mehr dazu im übernächsten Abschnitt). Mit etwas Glück finden Sie in einer aktuellen Review zu Ihrem Thema einen Hinweis auf einen gap of research, also eine noch offene Forschungsfrage. 1 Von der ersten Idee zur konkreten Forschungsfrage 65 <?page no="66"?> Einige hilfreiche KI-Assistenten für den Prozess der Forschung Jenni AI ist ein Forschungsassistent, der Ihnen helfen kann, vor allem das Schreiben schneller und effizienter abzuwickeln. Diese KI kann Ihnen u. a. dabei helfen, Übersichten und Zusammenfassungen wissen‐ schaftlicher Texte zu verfassen sowie Statements und Präsentationen zu erstellen. https: / / jenni.ai Research Rabbit kann Ihnen u. a. bei der Suche nach relevanten wissenschaftlichen Quellen behilflich sein. Es kann Ihnen Papers und Forschende vorschlagen, ähnliche Texte finden und als visuelle Netz‐ werke darstellen. Gelegentlich wird es als Spotify für wissenschaftliche Papers charakterisiert. https: / / www.researchrabbit.ai Connected Papers unterstützt Sie bei der Recherche und visualisiert die Ergebnisse. https: / / www.connectedpapers.com Elicit AI kann Ihnen ebenfalls bei der Recherche, Analyse und Syn‐ these von wissenschaftlichen Texten dienlich sein. Es findet relevante Texte und ähnliche Papers für Sie und assistiert bei der Erstellung systematischer Literaturreviews. https: / / elicit.com Scite AI ist ein weiterer KI-Assistent, der bei der Suche nach wissen‐ schaftlichen Papers helfen und zudem anhand der Zitationen bestimm‐ ter wissenschaftlicher Veröffentlichungen eine Evaluation selbiger anbieten kann. https: / / scite.ai DeepL ist ein KI-basiertes Übersetzungsinstrument, das Abstracts, wissenschaftliche Papers oder schwer verständliche Passagen in un‐ terschiedliche Sprachen übersetzen kann. Trello hilft Ihnen, den Ablauf von Projekten zu organisieren und die damit verbundenen Aufgaben zu planen. https: / / trello.com Monday AI unterstützt Sie ebenfalls bei der Planung des Projektab‐ laufs und den einzelnen Aufgaben. Es ist besonders für die Teamarbeit geeignet. https: / / monday.com NVivo kann die Kodierung und Auswertung qualitativer Daten unter‐ stützen. https: / / nvivo.de AtlasTI kann qualitative Daten kategorisieren und Auswertungsvor‐ schläge machen. https: / / atlasti.com IBM Watson Studio assistiert bei der Durchführung quantitativer Studien, kann Datenbereinigungen vornehmen und helfen, statistische 66 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="67"?> Modelle zu entwickeln. https: / / www.ib.com/ de-de/ products/ watson-s tudio Data Robot kann sowohl bei qualitativer als auch quantitativer For‐ schung ein hilfreicher Assistent sein. https: / / www.datarobot.com JASP ist trotz diverser Begrenztheiten ein einsteigerfreundliches KI-Tool für die statistische Datenauswertung. https: / / jasp-stats.org Die Allrounder, die Ihnen bei allen möglichen Aspekten von Forschung als Helferlein zur Verfügung stehen können, sind nebst vielen anderen ChatGPT (https: / / chatgpt.com), Gemini (gemini.google.com) und Mistral (https: / / mistral.ai). 1 Von der ersten Idee zur konkreten Forschungsfrage 67 <?page no="68"?> 2 Wie verstehe ich den Gegenstand meiner Forschung? (G. Poscheschnik) Die Möglichkeiten, den Forschungsgegenstand zu verstehen, sind in den Human- und Sozialwissenschaften nahezu unbegrenzt. Sie können Ihren Forschungsfokus unter anderem auf kognitive Schemata, emotionale Re‐ aktionen, Interaktionsmuster, subjektive Sichtweisen, Sinnkonstruktionen, Gruppendynamiken, historische Abläufe, soziale Beziehungen, neuronale Vorgänge, genetische Besonderheiten, Entwicklungsprozesse, gesellschaft‐ liche Trends, mediale Inszenierungen, interkulturelle Unterschiede, ethni‐ sche Besonderheiten usw. richten. Sie können Individuen und Kollektive, Menschen und Gegenstände, Statiken und Dynamiken untersuchen. Den Forschungsgegenstand an und für sich zu finden, ist insofern leicht, als er durch die jeweilige Wissen‐ schaft vorgegeben und Ihre Forschungsfrage eingegrenzt ist. Kompliziert ist allerdings der Umstand, dass sich ein Forschungsgegenstand auf ganz unterschiedliche Art und Weise verstehen lässt. Die Art und Weise, wie man den Gegenstand der Forschung versteht, hängt von disziplinären, theoretischen und methodologischen Vorausset‐ zungen ab. Meistens ist uns dieses Vorverständnis nicht bewusst. Am leich‐ testen können Sie sich Klarheit über Ihr Verständnis Ihres Forschungsgegen‐ standes verschaffen, wenn Sie die Ihnen vertrauten Theorien reflektieren (s.a. Abschnitt II.9). Das gelingt z. B., indem Sie diese mit anderen wissen‐ schaftlichen Theorien über Ihren Forschungsgegenstand vergleichen. Das ist nötig, weil die Wahl der Forschungsstrategie eng mit Ihrem Verständnis vom Forschungsgegenstand zusammenhängt. Deshalb müssen Sie sich aus‐ führlich Gedanken darüber machen, wie Sie Ihren Forschungsgegenstand verstehen. Forschende, die verhaltenstheoretisch orientiert sind, werden ihren Ge‐ genstand anders verstehen und andere Forschungsmethoden verwenden als Forschende, die ihren Forschungsgegenstand handlungstheoretisch ver‐ stehen. Im ersten Fall lassen sich Methoden zum Einsatz bringen, die menschliche Verhaltensweisen erfassen, ohne sich um dahinterstehende mentale Prozesse zu kümmern. Es geht nur um sinnlich wahrnehmbare Aktivitäten eines Individuums, die sich in irgendeiner Form messen lassen. Im zweiten Fall hingegen werden menschliche Aktionen und Reaktionen 68 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="69"?> als ein Handeln verstanden, das von seinem Akteur als subjektiv sinnhaft empfunden und mit einer bestimmten Intention durchgeführt wird. Hand‐ lungsforschende bringen demzufolge Forschungsmethoden zum Einsatz, die subjektiven Sinn erfassen. Das können beispielsweise Interviews und qualitative Auswertungsmethoden sein. Es geht also nicht nur darum, WAS man zum Gegenstand seiner For‐ schung macht, sondern auch darum WIE man sich den Gegenstand vorstellt oder welches Modell man sich davon macht. Und wie Sie Ihren Forschungs‐ gegenstand verstehen, bestimmt wie Sie forschen werden. Dieses Verständ‐ nis bedingt die Wahl des Forschungsdesigns und der Forschungsmethoden, die dafür adäquat sind. 2 Wie verstehe ich den Gegenstand meiner Forschung? 69 <?page no="70"?> 3 Wer suchet, der findet - Übers Recherchieren im Prozess der Forschung (G. Poscheschnik) Böse Zungen sagen ja, wer heutzutage behaupten würde, etwas Neues entdeckt zu haben, hätte nur schlecht recherchiert. Ob das nur für die geistes-, human-, kultur- und sozialwissenschaftliche Forschung gilt oder auch für die naturwissenschaftliche Spitzenforschung zutrifft, sei einmal dahingestellt. Aber immerhin hat sogar Isaac Newton gemeint, er hätte nur weiter blicken können als andere, weil er auf der Schulter von Riesen stand. Das ist wahrscheinlich nicht nur Ausdruck der vielgerühmten britischen Bescheidenheit, sondern eine ganz nüchterne Einschätzung, wie Wissen entsteht und sich verändert. Der Homo sapiens ist durch die Sprache und ihre Verschriftlichung in der Lage, Wissen von Mensch zu Mensch und von Generation zu Generation weiterzugeben. Auch wenn Lernende am Beginn ihrer wissenschaftlichen Reise dazu neigen, Dinge wie, „Dazu gibt es noch nichts“ oder „Dazu hab ich nichts gefunden“ zu sagen, haben sie wahrscheinlich wirklich nur nicht gut genug recherchiert. Wenn Sie also nicht das Rad nochmal erfinden wollen, sind Sie gut beraten, vor Beginn Ihrer eigenen Forschungsreise gründlich zu recherchieren. Um sich einen Überblick über den aktuellen Stand der Forschung zu verschaffen, gehen Sie am besten in mehreren Schritten vor. Dabei stoßen Sie zuerst einmal auf Titel, Klappentexte, Abstracts, Inhaltsverzeichnisse. Wenn Sie diese durchgehen, können Sie rasch beurteilen, ob der jeweilige Text brauchbar für Ihr Forschungsprojekt ist oder eben nicht. ● Allgemeine Internetrecherche: Mithilfe Ihrer bevorzugten Suchma‐ schine können Sie das thematische Terrain zumindest oberflächlich sondieren. Dazu brauchen Sie nicht viel mehr zu machen als die Grundbegriffe einzugeben und nachzuschauen, welche Ergebnisse Ih‐ nen ausgespuckt werden. Vielleicht ist das klassische Googeln für eine akademische Abschlussarbeit eher weniger ergiebig, google.scholar.com allerdings hat sich mittlerweile zu einer passablen Rechercheplattform gemausert. Es kann zwar die fachbezogenen, zahlungspflichtigen Lite‐ raturdatenbanken (siehe unten) noch nicht gänzlich ersetzen, aber liefert oft brauchbare Ergebnisse. 70 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="71"?> ● KI-gestützte Recherche: Häufig bieten AI-Programme, wie z. B. Research Rabbit, Scite AI, Connected Papers oder Semantic Scholar etwas bessere und zuverlässigere Ergebnisse als eine klassische Suche über Google. Hier haben Sie die Möglichkeit, sich von der KI einen aktuellen Überblick über ein bestimmtes Fachgebiet erstellen zu lassen. Sie können dann auch fragen, welche Themen innerhalb dieses Forschungsfelds momen‐ tan relevant sind und sogar eine Einschätzung erstellen lassen, wo der größte Forschungsbedarf innerhalb des Gebiets vermutet wird. ● Bibliotheksrecherche: Die meisten Hochschulen leisten sich eine eigene Fachbibliothek für Studierende und Lehrende. Dort können Sie prü‐ fen, welche Bücher und Fachzeitschriften vor Ort zu Ihrem Thema vorhanden sind. Die meisten Universitätsbibliotheken stellen aber nicht nur gedruckte Werke zur Verfügung, sondern auch eine Reihe von Online-Ressourcen. Dazu gehört meistens ein Zugang zu ansonsten kostenpflichtigen Literaturdatenbanken (siehe nächster Punkt) sowie digitalisierten Büchern und Fachzeitschriften. Das sind letztlich Kollek‐ tionen wissenschaftlicher Fachzeitschriften und Bücher, auf die Sie von Ihrem (mobilen oder stationären) Endgerät zugreifen können. ● Literaturdatenbanken: Elektronische Literaturdatenbanken beinhalten eine Sammlung von aktuellen und historischen Publikationen zu einem oder mehreren wissenschaftlichen Fachgebieten. Dabei ist oft nicht das gesamte Dokument vorhanden, sondern nur Autoren, Titel, Abstract und Quelle, womit Sie den Text bei Bedarf finden können. Es wurde schon erwähnt, dass scholar.google.com mittlerweile sicherlich eine der am einfachsten zugänglichen und obendrein für die unterschiedlichsten Wissensgebiete geeignete Datenbank ist. Darüber hinaus existieren aber eine ganze Reihe weiterer elektronischer Literaturdatenbanken. Manche davon sind frei zugänglich, andere nur gegen Bezahlung verwendbar. Meist haben Sie Zugriff auf eine Liste der verfügbaren Datenbanken über die Bibliothekshomepage Ihrer Hochschule. Manche Datenbanken haben einen generischen Anspruch und umfassen eine breite Palette an Wissenschaften. Andere wiederum kaprizieren sich speziell auf bestimmte Disziplinen oder Fachgebiete. 3 Wer suchet, der findet - Übers Recherchieren im Prozess der Forschung 71 <?page no="72"?> Allgemein/ Alle Wissenschaften WorldCat (weltweiter Bibliothekskata‐ log), Google Scholar, Web of Science, Scopus Soziologie/ Sozialwissenschaft SocINDEX, Sociological Abstracts, JSTOR Wirtschaftswissenschaft EconLit, WISO, EconBiz Medizin PubMed, Cochrane Library, Medline Pädagogik, Erziehungs- und Bildungswis‐ senschaft ERIC, FIS Bildung Literaturdatenbank, Pedocs Psychologie PsycINFO, PSYNDEX, PEP Tabelle 4: Einige Literaturdatenbanken zur wissenschaftlichen Recherche Wenn Sie noch nicht ganz genau wissen, welche exakt formulierte For‐ schungsfrage Sie innerhalb eines ganz bestimmten Gebiets verfolgen wollen, empfiehlt es sich bei der Recherche unterschiedliche Begriffe auszupro‐ bieren. Aufgrund der schieren Masse an Treffern, die man bei nahezu allen Suchbegriffen erhält, kann eine Kombination von zwei oder auch mehr Begriffen empfehlenswert sein. So lässt sich die Anzahl der Treffer reduzieren. Auf alle Fälle lohnt es sich immer auf Deutsch und auf Englisch zu recherchieren, da sich der Großteil der wissenschaftlichen Forschung im angloamerikanischen Raum abspielt. Ist - was seltener vorkommt - Ihre Suche hingegen zu eng und die Rechercheausbeute unzufriedenstellend (z. B. Social Media Nutzung in der 200-Seelen-Ortschaft Gotschuchen in Kärnten), erweitern Sie die Begriffe und suchen allgemeiner. Die Ansprüche an die Recherche sind je nach Wissenschaft, Betreuungs‐ person und angestrebtem akademischem Grad recht unterschiedlich. Wie bereits erwähnt, sind Sie heutzutage im Nu mit einer Flut wissenschaftlicher Literatur konfrontiert, die Sie im Rahmen einer Qualifikationsarbeit gar nicht mehr bewältigen können. Allein auf scholar.google.com beispielsweise können Sie je nach Forschungsthema auf hunderte oder tausende Litera‐ turquellen stoßen. Es versteht sich von selbst, dass man das nicht alles lesen kann, und Sie müssen das auch gar nicht. Sie können also nur eine mehr oder weniger begründete Auswahl treffen. Wie umfangreich diese ist, hängt wie gesagt zum einen davon ab, ob Sie eine Bachelor- oder Masterarbeit schreiben oder einen Doktortitel erwerben möchten. Als Faustregel gilt: Je höher der akademische Grad desto umfangreicher muss 72 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="73"?> die Literaturauswahl sein. Während für eine Bachelorarbeit oft ein paar Handvoll Quellen reichen, kann die Anzahl der Literaturangaben in einer Dissertation auf mehrere Hundert ansteigen. Manchmal geben hochschul- oder studiengangsinterne Regeln eine bestimmte Mindestanzahl von Quel‐ len und Quellentypen (Fachzeitschriftenartikel, Buchkapitel, Lehrbücher usw.) vor. Häufig verlangen Betreuungspersonen auch eine bestimmte An‐ zahl von Quellen. Ebenso wird immer wieder ein bestimmter Prozentsatz an englischsprachigen Literaturangaben definiert. In diesem Zusammenhang können wir Ihnen an dieser Stelle nur empfehlen, diesbezüglich Rückspra‐ che mit Ihrer Betreuungsperson zu halten, um etwaigen Missverständnis‐ sen vorzubeugen. Bei gewissen Typen von Studien, wie Meta-Analysen, systematischen Reviews oder Scoping Reviews ist der Anspruch an die Recherche für gewöhnlich höher. Hierbei suchen Sie nach möglichst al‐ len wissenschaftlichen Beiträgen zu einer bestimmten klar abgegrenzten Fragestellung mit eindeutigen Inklusionswie auch Exklusionskriterien. Wollen Sie beispielsweise eine quantitative Meta-Analyse zur Wirksamkeit einer bestimmten Intervention durchführen, braucht es eine systematische Suche nach allen Studien, die diese Intervention, sei es ein medizinisches oder psychosoziales Prozedere, evaluiert haben. Dazu würden Sie nicht nur ruckzuck im Internet suchen, sondern auch weitere fachrelevante Datenbanken systematisch nach bestimmten Stichwörtern durchsuchen, die Literaturverzeichnisse bereits existierender Meta-Analysen und Reviews auf passende Studien durchforsten und vielleicht auch noch Forschende auf dem jeweiligen Gebiet um Literaturhinweise bitten. Als Inklusionsbzw. Exklusionskriterien könnten Sie je nach Zielsetzung Ihrer Studie Inhalte und Themen definieren (z. B. psychologische Interventionsstudien, Autoethno‐ graphie als Methode der Soziologie), Zusammenhangsanalysen fokussieren (z. B. Effekte von Gefängnisaufenthalten auf weitere kriminelle Handlungen, Managementstile und ihr Einfluss auf Produktivität und Mitarbeitenden‐ zufriedenheit), methodische Ansprüche festlegen (z. B. nur randomisiert kontrollierte Experimente, nur qualitative Studien), Erscheinungszeiträume der Studien eingrenzen (z. B. von 1950 bis 1960, ab 2000) und gewisse publizistische Standards verlangen (z. B. nur in Journals mit Peer Review veröffentlicht, gelistet in bestimmten fachspezifischen Datenbanken). Für eine systematische Recherche oder eine Meta-Analyse wird jedenfalls die Definition strenger Inklusions- und Exklusionskriterien verlangt. Eine eher narrative Zusammenfassung erfordert eine weniger umfangreiche Recher‐ che und begnügt sich meist mit einer unsystematischeren Literaturauswahl. 3 Wer suchet, der findet - Übers Recherchieren im Prozess der Forschung 73 <?page no="74"?> Fazit: Eine gründliche Recherche ist jedenfalls unumgänglich, um den aktuellen Forschungsstand zu erheben und dadurch auch eine eigene Forschungsfrage zu finden oder selbige zu präzisieren. Nutzen Sie die Recherchemöglichkeiten, die Sie haben. Literaturtipp Niedermair, Klaus (2023): Recherchieren, Dokumentieren, Zitieren. Die Arbeit mit wissenschaftlichen Quellen. 2. Aufl. Tübingen u.-a.: utb. 74 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="75"?> 4 Die Rolle von Argumenten im Prozess der Forschung (G. Poscheschnik) Argumente dienen dazu, eine Behauptung zu begründen oder zu wider‐ legen. Eine Folge von Argumenten, mit der andere Leute von der Richtig‐ keit oder Falschheit von Behauptungen überzeugt werden sollen, nennt man Argumentation. Im Prozess der Forschung spielen Argumente eine zentrale Rolle. Sie dürfen nämlich in den Wissenschaften nicht einfach irgendetwas behaupten und diese Behauptung im Raum stehen lassen. Sie müssen diese Behauptung mit Argumenten begründen und wenn möglich mit empirischen Daten belegen. Stationen des Argumentierens 1. Forschungsfrage und Forschungsgegenstand 2. Designentwicklung und Methodisches Vorgehen 3. Ergebnisse und Schlussfolgerungen Gleich zu Beginn des Forschungsprozesses geht es darum, Forschungs‐ frage und Forschungsgegenstand zu argumentieren. Sie müssen Argu‐ mente vorbringen, warum der Forschungsgegenstand und die Forschungs‐ frage diskussionswürdig und relevant sind. Hier kann man grob zwischen wissenschaftlicher und gesellschaftlicher Relevanz unterscheiden. Die wissenschaftliche Relevanz begründet man meist mit Lücken in der Forschung (gap of research). Als gesellschaftlich relevant gilt eine Studie dann, wenn sie zur Lösung gesellschaftlicher Probleme beiträgt. Bei stark praxisorientierten Wissenschaften, wie z. B. der Medizin, der Sozialen Arbeit oder Klinischen Psychologie kann man auch noch nach der praktischen Relevanz des Forschungsprojekts fragen und eventuell damit begründen, dass die Ergebnisse Praktizierenden nützlich sein können. Ob eine Forschungsfrage schon hinreichend beantwortet ist oder nicht, erfahren Sie durch das Studium der einschlägigen wissenschaftlichen Litera‐ tur. Die Untersuchung einer Forschungsfrage gilt dann als wissenschaftlich relevant, wenn sie bisher unbeforscht oder unbeantwortet geblieben ist. Im Rahmen dieser Begründung wird meistens das Forschungsprojekt verortet, und zwar indem Sie angeben, welcher wissenschaftlichen Disziplin und 4 Die Rolle von Argumenten im Prozess der Forschung 75 <?page no="76"?> Teildisziplin Ihre Studie angehört, und welchem Forschungsprogramm bzw. Paradigma Sie sich zugehörig fühlen (s. Kapitel I). Nach dem Forschungsgegenstand und der Forschungsfrage werden das Forschungsdesign und das methodische Vorgehen mit Argumenten be‐ gründet. Das gilt zum einen für die Argumentation des wissenschafts‐ theoretischen und methodologischen Rahmens. Ist Ihr Grundverständnis kritisch-rational, empiristisch, hermeneutisch oder dialektisch (s. Kapitel I)? Zum anderen müssen Sie auch begründen, warum Sie sich für ein bestimm‐ tes Forschungsdesign und bestimmte Forschungsmethoden entschieden haben. Das machen Sie, indem Sie vor Augen führen, dass Ihre Methodik zur Untersuchung Ihres Forschungsgegenstands und zur Beantwortung Ihrer Forschungsfrage geeignet ist. Argumentation nimmt aber nicht nur in der Planung und Durchführung Ihres Forschungsprojekts eine zentrale Stellung ein, sondern auch bei der Präsentation der Ergebnisse. Sie müssen Ihre Ergebnisse geschickt mit Argumenten untermauern. Das bedeutet, Sie müssen sowohl die Stärken als auch die Schwächen der Ergebnisse Ihrer Studie benennen. Einerseits müssen Sie die Grenzen Ihrer Studie ausloten können (s. Abschnitt II.9.), andererseits dürfen Sie das Licht Ihrer Studie aber auch nicht unter den Scheffel stellen. Deshalb ist es ebenso wichtig die Ergebnisse gegen mögliche Einwände anderer Wissenschaftlerinnen zu verteidigen wie Argumente für die Qualität und die Gültigkeit Ihrer Ergebnisse zu liefern. Auf allen Stufen der Argumentation können Fehler passieren und selbst Experten tappen dabei noch in Fallen. Ein Beispiel für eine solche Falle ist etwa der ethnozentrische Blickwinkel. Gerade in den Anfängen der Ethnologie wurde an fremde Kulturen der Maßstab der eigenen Kultur angelegt, ohne dass das reflektiert worden wäre. Das hat dazu geführt, dass andere Ethnien als primitiv eingestuft wurden, weil gewisse Sitten und Gebräuche, die bei uns gang und gäbe sind, und bestimmte technische Errungenschaften, die hierzulande eine Selbstverständlichkeit sind, dort nicht vorkommen. Aus solchen »Zentrismen«, die einem-- wenn man sie nicht reflektiert - gar nicht bewusst werden, ergeben sich blinde Flecken, die dazu führen, dass Forschungsergebnisse vorschnell überinterpretiert und übergeneralisiert werden. Es kommt auch häufig vor, dass deskriptive und normative Aspekte miteinander vermengt werden. Nicht selten wird vom Sein aufs Sollen »geschlossen«. Wenn z. B. festgestellt wird, dass in Spanien nur ein geringer Prozentsatz der Volksschulklassen mit Computern ausgestattet ist, lässt sich 76 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="77"?> daraus nicht zwingend der Schluss ziehen, dass man die restlichen Klassen auch mit PCs ausstatten sollte. Will man diese Forderung aufstellen, braucht man eine normative Vorgabe, dass z. B. Medienkompetenz ein wichtiges Bildungsziel ist. Man könnte nämlich genauso gut die Forderung aufstellen, dass die bestehenden Computer abgerüstet werden, wenn das normative Ziel darin besteht, etwaigen Augenschäden bei Kindern vorzubeugen. Vermeiden Sie solche »Kurzschlüsse« und reflektieren Sie deskriptive und normative Aspekte in Ihrem Forschungsprojekt. Empirische Forschung setzt voraus, dass Sie Ihren Forschungsgegenstand mit einer gewissen »Neutralität« betrachten. Überblick Drei häufige »Blindheiten« in der wissenschaftlichen Forschung 1. Geschichtsblindheit: Geschichtsblind wäre es, die Möglichkeiten der Manipulation von Menschen durchs Internet als noch nie dagewesen zu bezeichnen und dabei zu übersehen, dass es schon lange vor der Erfindung des Internets äußerst effektive Propaganda gegeben hat. 2. Geschlechtsblindheit: Wenn die Wirksamkeit einer bestimmten Psychotherapiemethode bisher in erster Linie an Frauen überprüft wurde, die Ergebnisse dann aber ohne weitere Studien auf Männer übertragen werden, wäre das geschlechtsblind. 3. Gesellschaftsblindheit: Gesellschaftsblind schließlich wäre es, das vermehrte Auftreten von Depressionen auf Störungen im Neurotransmitterhaushalt des Gehirns zurückzuführen, ohne zu beachten, dass unsere neoliberale Gesellschaft einen enormen Druck auf ihre Mitglieder ausübt, sich ständig beweisen und ständig Leistung erbringen zu müssen. Argumentation ist natürlich nicht gleich Argumentation. Es gibt Formen der Argumentation, die eher logisch ausgerichtet sind. Andere versuchen mit poetischen und rhetorischen Mitteln zu überzeugen. Die Wissenschaft hat sich zwar der Logik und Wahrheit verschrieben, nichtsdestotrotz enthalten auch wissenschaftliche Veröffentlichungen eine nicht zu unter‐ schätzende Komponente an rhetorischen Raffinessen. Gerade erfolgreiche Wissenschaftlerinnen sind oft auch gute Autoren, die gekonnt auf der 4 Die Rolle von Argumenten im Prozess der Forschung 77 <?page no="78"?> Klaviatur sowohl logischer als auch poetischer Argumentation zu spielen wissen. Eine kleine Argumentationsübung: Stellen Sie sich vor, Sie sind ganz schrecklich skeptisch und haben die Aufgabe erhalten, Ihre eigene Studie von vorne bis hinten zu kritisieren. Was haben Sie als skeptischer Mensch an Ihrer Studie zu bemängeln? Was passt nicht an Forschungdesign und Methodenwahl? Warum ist die Stichprobe schlecht geeignet? Warum ziehen Sie die falschen Schlussfolgerungen aus den erhobenen Daten? Welche alternativen Erklärungen könnte man für die Ergebnisse noch finden? In einem zweiten Schritt dieser Übung greifen Sie nun diese potenziellen Einwände auf und setzen sich mit diesen auseinander. Die diesbezügliche Argumentationsfigur könnte in etwa so lauten: „Dieser und jener Punkt spricht tatsächlich bis zu einem gewissen Grad gegen mein Vorgehen/ meine Interpretation, aber aus diesem und jenem Grund ist das Vorgehen/ die Interpretation trotzdem (mit diesen und jenen kleineren Einschränkungen) gerechtfertigt“. Sie haben natürlich auch die Möglichkeit, eine KI mit der Sammlung von Argumenten für und gegen Ihr Forschungsprojekt zu beauftragen. ChatGPT lässt sich beispielsweise mit einer simulierten Peer Review für Ihr Vorgehen beauftragen. Scite AI wiederum kann Ihnen kritische und zustimmende Meinungen zu bestehenden Studien, die häufig zitiert wurden, liefern. Dadurch können Sie aus den Fähigkeiten und Fehlern anderer Forschender lernen. Auch Elicit kann ein Forschungspaper nach möglichen methodischen Schwachstellen durchforsten. 78 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="79"?> 5 Step by step-- Sinn und Zweck von Ablaufmodellen (G. Poscheschnik) Empirische Forschung verläuft nicht irgendwie, sondern folgt einem Plan, der eine logische Abfolge von Schritten vorgibt. Ein Schritt folgt dabei immer dem anderen. Empirischer Forschung liegt also - im Unterschied zur Alltagserfahrung - ein systematischer Vorgehensplan zugrunde, der auf bisherigen wissenschaftlichen Erfahrungen aufbaut und Schritt für Schritt durchgeführt wird. Diese Abfolge von Schritten oder »Master-Plan« wird als Ablaufmodell bezeichnet (Hug 2001). Das Ablaufmodell gibt an, wie man ein Forschungsprojekt beginnt, wie man es beendet und was man dazwischen tut. Es funktioniert wie ein Kochrezept und sagt Ihnen, welche Zutaten Sie in welcher Reihenfolge wie verwenden müssen, um etwas Schmackhaftes zu bereiten. Die Devise lautet: step by step! Das heißt aber nicht, dass empirische Forschung immer geradlinig abläuft. Bei jedem Forschungsprojekt treten Schwierigkeiten auf und es wird Ihnen nicht erspart bleiben, hin und wieder auch einen Schritt zurück zu machen. Empirische Forschung läuft also nicht völlig linear ab, sondern enthält auch zirkuläre Elemente. Darauf kommen wir noch am Ende dieses Abschnitts zurück. Das hier vorgestellte Ablaufmodell empirischer Forschung ist für die meisten empirischen Forschungsprojekte anwendbar. Es kann Ihnen auch als Leitfaden für die Planung Ihres Forschungsprojekts dienen. Der Aufbau dieses Buchs folgt übrigens bis zu einem gewissen Grad ebenfalls der Logik so eines Ablaufmodells empirischer Forschung. 1. Vorbereitung: Am Anfang jedes Forschens steht der Forscher mit seinen Stärken und Schwächen, seinen Möglichkeiten und Begrenztheiten. Bevor Sie mit dem Forschen im engeren Sinne loslegen können, müssen Sie sich einmal darüber klar werden, was Sie können, was Sie sich notfalls noch aneignen können und was sie auf keinen Fall können. Sie müssen sich natürlich auch fragen, was Sie überhaupt dürfen und was nicht. Wir haben ja schon festgestellt, dass die völlige Freiheit der Forschung eine Illusion ist. Zur Vorbereitung gehört freilich auch, sich Klarheit über die äußeren Rahmenbedingungen zu verschaffen: Haben Sie genügend Zeit und Geld, um Ihr Forschungsprojekt zu realisieren? Auch eine erste Sichtung der 5 Step by step-- Sinn und Zweck von Ablaufmodellen 79 <?page no="80"?> wissenschaftlichen Literatur wird nötig sein. Vor allem geht es in diesem Schritt auch darum, von den eigenen Ideen zu einem Thema zu gelangen und aus dem Thema eine konkrete Forschungsfrage herauszumeißeln, die mit empirischen Mitteln beantwortbar ist (s.a. Kapitel I und II). Abbildung 3: Ablaufmodell 2. Planung: Bei der Planung geht es nun darum, Forschungsdesigns (s. Abschnitt II.6) und Forschungsmethoden (s. Kapitel III und IV) zu wählen, die für den Gegenstand der Forschung und die Forschungsfrage adäquat, also angemessen und geeignet sind. An dieser Stelle steht für Sie die Entscheidung an, wie groß Ihre Stichprobe sein soll. Legen Sie auch fest, ob Sie ein Experi‐ ment durchführen oder Feldforschung betreiben. Überlegen Sie sich, welche Ziele Sie mit Ihrer Studie verfolgen. Machen Sie sich Gedanken, ob Sie mit quantitativen und/ oder qualitativen Methoden arbeiten (s. Abschnitt II.8). In diesem Schritt geht es um die Konzeption und Begründung des konkreten Forschungsvorgehens. Das Ergebnis dieses Schritts ist dann ein konkreter 80 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="81"?> Plan, der angibt, wie die Untersuchung ablaufen wird. Eine systematische Li‐ teraturrecherche wird Ihnen behilflich sein, den aktuellen Stand der Forschung herauszufinden und mit Ihrem Projekt an bereits bestehende Untersuchungen anzudocken. Auch bei diesem Schritt können Ihnen KI-Assistenten, wie z.B ChatGPT, Trello oder Monday, dienlich sein, indem sie einen Plan erstellen und zu erledigende Schritte visualisieren. Sie werden aber nicht umhinkommen, den standardisierten Plan der KI quasi manuell an Ihre Arbeitsrealitäten zu adaptieren. 3. Erhebung: Bevor Sie mit der Aufbereitung und der Auswertung der Daten anfangen und daraus Ihre Schlüsse ziehen, müssen Sie diese erst einmal erheben. Zu diesem Zweck gibt es so genannte Erhebungsmethoden. Das sind all jene Methoden, die dem Zweck dienen, Daten über Ihren Forschungsgegenstand und zur Beantwortung Ihrer Forschungsfrage zu gewinnen. Wichtige Erhebungsmethoden sind Befragungen und Beobach‐ tungen. Eine andere Möglichkeit besteht hier darin, nicht erst eigene Daten zu erheben, sondern bereits bestehende Daten zu benutzen. Das könnten z. B. Tagebücher, Romane, Autobiographien, Internetdokumente, quantita‐ tive oder qualitative Datensätze anderer Studien sein. Hier besteht dann der Schritt der Erhebung in einer Recherche nach bereits existierenden Daten. Mehr dazu in Kapitel III dieses Bands. 4. Aufbereitung: In diesem Schritt geht es darum, die erhobenen Daten nun so aufzubereiten, dass sie methodisch weiterverarbeitet und interpretiert werden können. Wenn Sie während Ihrer Beobachtungen Notizen gemacht haben, bringen Sie nun Ordnung ins Chaos und systematisieren diese Notizen. Wenn Sie hingegen Interviews durchgeführt und diese audio- oder videoaufgezeichnet haben, schreiben Sie sie erst einmal nieder und produzieren so einen Text daraus. In diesem Schritt können und müssen Sie wohl auch entscheiden, ob Sie wirklich alle erhobenen Daten verwerten oder nur einen Teil davon. Oft wird nämlich mehr Material erhoben als man überhaupt verwenden kann. Überlegen Sie sich also, welche Teile Sie in die Auswertungen einbeziehen möchten und welche nicht. An dieser Stelle des Forschungsprozesses kann es auch nötig werden, die Daten für eine elektronische Weiterverarbeitung in entsprechende Computerprogramme einzutippen. Darauf kommen wir in Kapitel III dieses Bands zurück. 5. Auswertung: Nach der Erhebung und Aufbereitung der Daten beginnen Sie mit deren Auswertung. Die Auswertung der Daten ist wahrscheinlich 5 Step by step-- Sinn und Zweck von Ablaufmodellen 81 <?page no="82"?> das Herzstück jedes empirischen Forschungsprojekts. Dadurch kommt es zu einer Interpretation der Daten. Die Interpretation ist eine Art von Aussage über die Daten, die über ihre unmittelbare Bedeutung hinausgeht. Dazu gibt es eigene Auswertungsmethoden. Jene Auswertungsmethoden, die Sie in der Planungsphase Ihres Forschungsprojekts als geeignet für Ihre Forschungsfrage ausgewählt haben, wenden Sie nun aufs erhobene und aufbereitete Datenmaterial an. Einen Überblick über die Vielzahl von sowohl quantitativen als auch qualitativen Auswertungsmethoden bekommen Sie im Kapitel IV dieses Bands. 6. Präsentation: Der letzte Schritt beschreibt die Präsentation der For‐ schungsergebnisse. Wenn alles ausgewertet ist, bringen Sie Ihre Ergebnisse in eine für andere verständliche Form. Meistens sind dies schriftliche Dar‐ stellungen, wie z. B. eine Bachelorarbeit, eine Masterarbeit, eine Dissertation oder wissenschaftliche Artikel für eine Fachzeitschrift oder ein Buch. Es gibt viele Möglichkeiten die Ergebnisse in den jeweiligen Texten zu präsentieren, darunter abstrakte Beschreibungen, anekdotenhafte Vignetten, mathemati‐ sche Formeln, Tabellen, Graphiken, Listen oder Bilder. Sie haben also viele Möglichkeiten, einen komplexen Sachverhalt auf den Punkt zu bringen. Heutzutage ist es sogar möglich, an eine Audio- oder Videopräsentation der Ergebnisse zu denken. Filme oder Podcasts mausern sich allmählich auch in den Wissenschaften zu anerkannten Medien. Überlegen Sie sich auch, Ihre Forschungsergebnisse auf wissenschaftlichen Tagungen vorzustellen. Mehr dazu in Abschnitt V.1. Ablaufmodelle sind enorm hilfreich. Sie stellen nämlich eine Reihe von Wegweisern zur Verfügung, die uns zeigen, wie wir in der empirischen Forschung von A nach B kommen. Trotzdem haben sie auch ihre Grenzen. So ein Ablaufmodell stellt nämlich nur einen Idealtypus von empirischer Forschung dar, und Idealtypen haben es so an sich, dass sie in Wirklichkeit nicht existieren. Auch empirische Forschung läuft in der Praxis nicht ganz so strukturiert ab, wie uns das Ablaufmodelle suggerieren. Wenn sich die gewählten Methoden zur Beantwortung Ihrer Fragestellung als untauglich erweisen sollten, werden Sie eben andere ausprobieren. Und wenn Sie eines Ihrer »Forschungsobjekte« plötzlich darauf hinweist, dass Sie in Ihrem Fragebogen etwas Wichtiges vergessen haben, ändern Sie ihn eben. Wissenschaftliche Forschung zeichnet sich dadurch aus, dass sie einem Plan folgt; gute wissenschaftliche Forschung dadurch, dass sie flexibel ist. 82 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="83"?> 6 Design matters-- Über Sinn und Zweck von Forschungsdesigns (G. Poscheschnik) Um sich im Dschungel empirischer Forschung besser orientieren zu kön‐ nen, unterscheidet man zwischen Forschungsdesign und Forschungsme‐ thode. Diese Unterscheidung ist auch für die Planung Ihres Forschungspro‐ jekts wichtig. Definition Mit Forschungsdesign bezeichnet man die äußere Form einer em‐ pirischen Studie. Gelegentlich wird auch von Untersuchungsplan, Forschungsarrangement, Forschungstypus, Forschungsstrategie oder Forschungskonzeption gesprochen. Gemeint ist damit jedenfalls der übergeordnete methodologische Plan, nach dem die Studie aufgebaut ist. Mit Forschungsmethoden bezeichnet man konkrete Wege zur Erhe‐ bung, Aufbereitung und Auswertung von Daten (s. Abschnitt III.5). Die Methoden sind dem Design in der Planung logisch nachgeordnet und kommen innerhalb des Designs zum Einsatz. Designs und Methoden dienen dazu Ihre Forschungsfrage in konkretes Forschungsvorhaben umzusetzen. Es gibt verschiedene Arten von For‐ schungsdesigns (Mayring 2001; 2007; 2023). Wenn Sie die wichtigsten Forschungsdesigns näher kennengelernt haben, können Sie entscheiden, welches Forschungsdesign für Ihre Forschungsfrage indiziert ist. 6 Design matters-- Über Sinn und Zweck von Forschungsdesigns 83 <?page no="84"?> Überblick Experiment Feldforschung Aktions- / Praxisforschung Survey Panel Einzelfallanalyse Dokumentenanalyse Evaluationsfor‐ schung Meta-Analyse Tabelle 5: Wichtige Forschungsdesigns Experimente eignen sich zur Überprüfung von kausalen Zusammenhän‐ gen zwischen einer Ursache und einer Wirkung. Ein Beispiel für ein be‐ sonders bekannt gewordenes Experiment ist das Milgram-Experiment, bei dem der Einfluss von Autoritätspersonen auf die Gehorsamsbereitschaft durchschnittlicher Menschen untersucht wurde. Bei Einzelfallanalysen werden nicht mehrere, sondern nur eine einzige Person untersucht. Die Erstbeschreibungen von Krankheiten sind häufig Einzelfallanalysen. So hat der deutsche Psychiater Alois Alzheimer die Symptome und den Verlauf der nach ihm benannten Demenzerkrankung bei nur einer einzigen Patientin beschrieben. Beim Survey wird eine mehr oder weniger große Anzahl von Personen zu bestimmten Themen befragt. Dieses Design wird in der Meinungsforschung vor politischen Wahlen eingesetzt. Beim Panel, einer Sonderform des Surveys, handelt es sich um eine Längsschnittuntersuchung, bei der dieselbe Gruppe von Personen nach einem gewissen Zeitraum zum selben Thema nochmals befragt wird, um die Veränderung der untersuchten Merkmale über die Zeit verfolgen zu können. Bei einer Feldstudie begeben sich die Forschenden in die natürliche Lebensumwelt ihrer Forschungs‐ objekte, um sie dort zu studieren. Berühmte Feldforscherinnen, die das Leben von Menschenaffen in freier Wildbahn beobachtet haben, sind Jane Goodall und Dian Fossey. Ausschnitte aus dem Leben Fosseys wurden sogar verfilmt unter dem Titel »Gorillas im Nebel«. Die Aktions- oder Praxisforschung zeichnet sich dadurch aus, dass die Forschenden hier Teil des Untersuchungsgegenstands sind; sie wollen nicht nur forschen, sondern auch Verbesserungen herbeiführen. Das wäre der Fall, wenn ein wissenschaftlich geschulter Lehrer einen neuen Unterrichtsstil erprobt, um 84 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="85"?> die Lernleistungen und das Wohlbefinden seiner Schüler zu verbessern und seine dabei erzielten Ergebnisse empirisch untersucht. Unter dem Begriff Evaluationsforschung fasst man Studien zusammen, die das Ziel verfolgen, die behauptete Wirksamkeit einer bestimmten Intervention zu überprüfen. Pharmafirmen müssen die Wirksamkeit neuer Präparate zuerst im Tierversuch und dann am Menschen überprüfen bevor eine Substanz als Medikament auf den Markt kommen darf. Bei der Dokumentenana‐ lyse werden nicht erst Daten erhoben, indem man Menschen interviewt oder beobachtet, sondern man benutzt bereits vorhandene Daten. Solche Dokumente können z. B. die Romane eines Autors sein, von denen man versucht Rückschlüsse auf seine Biographie zu ziehen. Es ist strittig, ob die Dokumentenanalyse als eigenes Forschungsdesign gilt, oder ob sie eine spezielle Form der Datenerhebung ist. Wir haben uns entschlossen, die Dokumentenanalyse im Abschnitt II.7 ausführlicher als eine Art der Datenerhebung zu behandeln. Eine Meta-Analyse schließlich bezeichnet eine Übersichtsstudie über viele einzelne Studien. Da eine einzelne wissen‐ schaftliche Untersuchung für sich allein genommen noch nicht besonders aussagekräftig ist, kann es von Zeit zu Zeit nötig werden, die unterschied‐ lichen Studien zu einer Forschungsfrage zusammenzufassen, um empirisch gewichtigere Aussagen treffen zu können. Jedes dieser Forschungsdesigns hat seine Stärken und Schwächen. Prin‐ zipiell unter- oder überlegen ist keines einem anderen. Ein Design kann lediglich für bestimmte Forschungsfragen besser und für andere schlechter geeignet sein. Das Design der Einzelfallanalyse bietet sich beispielsweise immer dann an, wenn ein bestimmter Fall eingehender und tiefgründiger untersucht werden soll als das bei Untersuchungen an größeren Stichproben möglich ist. Das Design der Feldstudie wiederum ist dann indiziert, wenn man befürchten muss, dass die Untersuchungsobjekte im Labor nicht ihr natürliches Verhalten an den Tag legen. Das Design ist lediglich das bloße Skelett der Studie, das erst mit dem Fleisch konkreter Methoden bestückt werden muss. Demzufolge ist das Design den Methoden in der Planung logisch vorgeordnet. Zuerst müssen Sie also ein geeignetes Design für Ihre Fragestellung finden, dann die passende Methode wählen. Welches Design und welche Methoden man für sein Forschungsprojekt als geeignet und passend erachtet, hängt in erster Linie von der Forschungsfrage ab. Innerhalb eines Forschungsdesigns können ganz unterschiedliche For‐ schungsmethoden zum Einsatz kommen; quantitative ebenso wie qualita‐ 6 Design matters-- Über Sinn und Zweck von Forschungsdesigns 85 <?page no="86"?> tive. Sicherlich gibt es zu den einzelnen Forschungsdesigns auch mehr oder weniger gut passende Methoden, allerdings ist das Verhältnis bestimmter Designs und Methoden nicht starr und unveränderlich. So wird bei Einzel‐ fallanalysen in der Regel eher mit qualitativen Methoden gearbeitet und bei Experimenten eher mit quantitativen. Es gibt allerdings auch quantita‐ tive Einzelfallstudien und qualitative Experimente. Mehr als eine gewisse Affinität zwischen bestimmten Designs und bestimmten Methoden ist so gesehen nicht da. Seien Sie also ruhig kreativ. Innerhalb einer Einzelfallana‐ lyse lassen sich durchaus qualitative Methoden, wie z. B. ein narratives Interview, verwenden. Man kann aber auch quantitative Methoden, wie z. B. einen Fragebogen, einsetzen. Oder auch beides. In Experimenten können Sie ebenso schriftliche Befragungen wie Verhaltensbeobachtungen durchführen. Datenmaterial aus Feldstudien können Sie sowohl statistisch verrechnen als auch qualitativ interpretieren. Die endgültige Entscheidung darüber, welche Methoden Sie innerhalb Ihres Forschungsdesigns zum Einsatz bringen, hängt letztlich davon ab, was genau Sie wissen möchten. Auch die Forschungsdesigns selbst können Sie ruhig kombinieren! Ebenso wie bei den Ablaufmodellen empirischer Forschung handelt es sich auch bei Forschungsdesigns um Idealtypen. Da die oben erwähnten Forschungsdesigns in Wirklichkeit kaum in Reinkultur auftreten, lösen wir sie in vier Kontinuen auf. Diese Kontinuen orientieren sich an bestimm‐ ten Fragestellungen, die Sie bei der Planung Ihres Forschungsprojekts zu berücksichtigen haben. Es sind das die Fragen nach erstens der Stichpro‐ bengröße, zweitens dem Ort der Untersuchung, drittens der Intention des Forschers und viertens der Anzahl der Erhebungszeitpunkte. Kontinuum eins erstreckt sich zwischen den Polen Einzelfall und Vollerhebung, Kontinuum zwei zwischen den Polen Labor und Feld, Kontinuum drei zwischen den Polen Beschreibung und Bewertung, Kontinuum vier zwischen den Polen Statuserhebung und Veränderungserfassung. In Summe können Sie die vier Kontinuen als eine Art Koordinatensystem verstehen, auf dem Sie Ihr Forschungsprojekt positionieren können. 86 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="87"?> Abbildung 4: Vier Kontinuen zur Positionierung von Forschungsprojekten Zwischen Einzelfall und Vollerhebung-- Zur Frage nach der Stichprobengröße Eine erste grundsätzliche Frage, die Sie sich bei der Konzeption des For‐ schungsdesigns stellen müssen, ist die nach der Größe Ihrer Stichprobe. Wie viele Personen wollen Sie untersuchen? Hier gibt es ein Kontinuum zwischen Einzelfallanalysen auf der einen Seite und Vollerhebungen auf der anderen Seite. Einzelfallanalyse: Bei der Einzelfallanalyse erforschen Sie - wie der Namen schon andeutet - nur einen einzigen Fall. Die Einzelfallanalyse ist immer dann indiziert, wenn Sie einen bestimmten Fall besonders eingehend und intensiv untersuchen wollen. Dabei kann es sich um besonders extreme, besonders typische, besonders durchschnittliche, besonders häufige oder besonders seltene Fälle handeln. Der Einzelfall muss nicht unbedingt ein einzelner Mensch, sondern kann auch ein soziales System sein, wie eine Fa‐ milie, eine Institution oder eine gesellschaftliche Subgruppe. Entscheidend ist dabei nur, dass dieses als Einzelfall begriffen wird, quasi als organisches Ganzes, das mehr ist als die Summe seiner Teile. Mithilfe von Einzelfallanalysen kann man tiefer in die Komplexität des Falles eintauchen. Man kann den einzelnen Fall in seiner Ganzheit und seinem Facettenreichtum genauer und tiefgreifender erforschen als das bei großen Stichproben überhaupt möglich wäre. Insofern überrascht 6 Design matters-- Über Sinn und Zweck von Forschungsdesigns 87 <?page no="88"?> es nicht, dass aus Einzelfallstudien immer wieder bedeutsame Beiträge zu den Human- und Sozialwissenschaften kommen. Denken Sie an die Patientenanalysen von Sigmund Freud, das Einzelfallexperiment mit dem kleinen Albert von Watson und Reyner, Piagets Beobachtungen an seinen eigenen Kindern, Ebbinghaus` Selbstversuche zum allmählichen Vergessen. In all diesen Fällen hat die Untersuchung an einzelnen Fällen bedeutende Erkenntnisse ans Licht gebracht, von denen sich viele auch im Rahmen von Überprüfungen an größeren Stichproben empirisch erhärten haben lassen. Einzelfallanalysen lassen sich auch ergänzend heranziehen, um die Ergeb‐ nisse von Surveys zu vertiefen. Sie erfahren dann beispielweise, warum ein bestimmter Mensch zu einer bestimmten Einstellung neigt. Das hilft auch, statistische Ergebnisse besser zu verstehen. Die Einzelfallanalyse ist somit ein leistungsstarkes Instrument, egal ob als eigenständiges Forschungsde‐ sign oder als Ergänzung anderer Designs. Aggregierte Einzelfallanalysen: Fließend sind die Übergänge zwischen der Einzelfallanalyse und aggregierten Einzelfallanalysen. Wir haben es jetzt nicht mehr mit einem einzigen Fall zu tun, sondern mit einigen wenigen Fällen, die zusammengefasst und miteinander verglichen werden können. Der Vergleich von Gemeinsamkeiten und Unterschieden erlaubt dann auch vorsichtige und vorläufige Generalisierungen. Gelegentlich spricht man hier auch von komparativer Kasuistik, wenn unterstrichen werden soll, dass einige Fälle genau miteinander verglichen werden. Vereinzelt stößt man in diesem Kontext auch auf den Begriff der Klein-n-Studie, mit dem wissenschaftliche Untersuchungen bezeichnet werden, die nur eine kleine Stichprobe aufweisen. Eine besondere Form eines Forschungsdesigns mit begrenzter Stichprobe ist die nach dem antiken Orakel benannte Delphi-Befragung. Hiebei handelt es sich um eine spezielle Form der Expertenbefragung, bei der jeweils eine Reihe von Menschen mit Expertise auf einem bestimmten Gebiet um eine Einschätzung und Diskussion bestimmter Trends gebeten wird. Diese Diskussionen erfolgen teils in Gruppen, teils einzeln mit Fragebögen oder Interviews. Die Ergebnisse werden dann anonymisiert ausgewertet und den Befragten erneut zur Diskussion vorgelegt. Dadurch lässt sich die Dominanz einzelner Meinungen von stark in den Vordergrund drängenden Persönlichkeiten ausgleichen. Die Befragten sind mehr oder weniger genö‐ tigt ihre ersten Antworten einer nochmaligen Diskussion zu unterziehen. Bei einer Delphi-Befragung kann es mehrerer solcher Runden geben, da 88 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="89"?> durch wechselseitige Beeinflussung in mehreren Erhebungs- und Auswer‐ tungsdurchgängen ein gewisser Konsens über die zu diskutierenden Trends erzielt werden soll. Survey: Ziel eines Surveys ist es, Aussagen über eine Grundgesamtheit von Personen zu machen, ohne alle diese Personen untersuchen zu müssen. Zu diesem Zweck wird aus der Grundgesamtheit aller Personen, über die eine Aussage gemacht werden soll (z. B. alle Deutschen, alle Frauen, alle Männer, alle Jugendlichen, alle Schizophrenieerkrankten etc.), eine Stichprobe gezogen. Eine Stichprobe ist eine begrenzte Anzahl von Personen aus der Grundge‐ samtheit. Damit die Ergebnisse der Stichprobe auf die Grundgesamtheit übertragen werden können, muss die Stichprobe repräsentativ sein. Eine Stichprobe gilt als repräsentativ, wenn sie die Grundgesamtheit hinsicht‐ lich der wichtigsten Merkmale abbildet. Eine Stichprobe sollte also ein Miniaturbild der Grundgesamtheit sein. Erst dann können die Ergebnisse von der Stichprobe auf die Grundgesamtheit übertragen bzw. generalisiert werden. Solche repräsentativen Umfragen sind Ihnen wahrscheinlich alle aus der Meinungsforschung bekannt. Man kann damit das Ergebnis von Wahlen vorhersagen. Dabei werden natürlich nicht alle wahlberechtigten Personen telefonisch befragt, welcher Partei sie ihre Stimme schenken wer‐ den, sondern lediglich eine Stichprobe von ihnen. Diese Stichprobe soll aber hinsichtlich der wichtigsten soziodemographischen Merkmale, wie Alter, Geschlecht, Wohngegend, sozioökonomischer Status, die Grundgesamtheit abbilden bzw. repräsentieren. Das ist insofern wichtig, als ältere Menschen ganz andere Präferenzen an den Tag legen könnten als jüngere. Leute in ländlichen Gegenden wiederum könnten anders denken als Menschen, die in Ballungszentren leben. Manche Einstellungen hängen auch mit dem Grad der Schulbildung und der Höhe des Einkommens zusammen. Um differenzierte und aussagekräftige Daten zu sammeln, müssen Sie also auf die Repräsentativität ihrer Stichprobe achten (mehr dazu in den Abschnitten III.2 und IV.2). Vollerhebung: Bei der Vollerhebung untersuchen Sie alle Personen einer bestimmten Grundgesamtheit. Vollerhebungen werden in der Regel eher selten durchgeführt. Wenn die Grundgesamtheit (z. B. die Gesamtbevölke‐ rung eines Staates, alle Kinder, alle sechs Monate alten Säuglinge, alle Patienten mit einer bestimmten Hauterkrankung, alle Einwohner einer 6 Design matters-- Über Sinn und Zweck von Forschungsdesigns 89 <?page no="90"?> Großstadt) zu groß ist, verbietet sich die Vollerhebung aus ökonomischen Gründen. Selbst Regierungen machen sich nur die Mühe, alle zehn Jahre eine Volkszählung durchzuführen. Und sogar wissenschaftliche Multi-Mil‐ lionen-Euro-Projekte verfügen im Regelfall nicht über die finanziellen Mittel, so viele Daten zu erheben und auszuwerten. Ist allerdings die Gruppe, die Sie untersuchen möchten, nicht allzu groß, dann ist eine Vollerhebung vielleicht sogar im Rahmen eines kleineren Forschungsprojekts möglich. Sie können wahrscheinlich durchaus eine Fragebogenvollerhebung anpeilen, wenn Sie Persönlichkeitseigenschaften und Einstellungen von Menschen mit geschlechtsuntypischer Berufswahl, wie z. B. weiblichen Bauarbeite‐ rinnen in der Schweiz, erheben möchten. Möglich ist eine Vollerhebung vielleicht auch im Rahmen eines größeren Forschungsprojekts, bei dem Sie mitarbeiten und eine Teilauswertung durchführen. Zwischen Labor und Feld-- Zur Frage nach dem Ort der Forschung Das zweite Kontinuum des Forschungsdesigns ist aufgespannt zwischen den Polen Labor und Feld. Gemeint ist damit nicht nur der Ort der For‐ schung im engeren Sinn, also ob sich der Forscher ins Feld zu seinen Untersuchungsobjekten begibt oder ob sich die Untersuchungsobjekte ins Labor zu ihrem Erforscher begeben. Gemeint ist auch das Ausmaß des Naturalismus bzw. der Grad der Kontrolliertheit der Kontextbedingungen. Das natürliche Lebensumfeld von Lebewesen wird durch eine Unzahl von Umgebungsbedingungen beeinflusst, die auch bei allergrößter Anstrengung weder kontrolliert noch vollständig einkalkuliert werden können. Dadurch wird es schwierig zu sagen, wodurch ein bestimmtes Verhalten verursacht wird. Das Labor hingegen bietet die Möglichkeit, den Einfluss ganz be‐ stimmter Bedingungen auf die Untersuchungsobjekte zu studieren, indem Störfaktoren ausgeschaltet werden. Experiment: In der Laborforschung werden künstliche Bedingungen geschaffen. Man kontrolliert störende Einflüsse aus dem Umfeld und kreiert dadurch Mikrowelten, die in der gewöhnlichen Alltagsrealität so nicht vorkommen. Die kontrollierteste und korrekteste Form der Laborstudie ist das Experiment. Obwohl mittlerweile viele Forschungsdesigns als Kinder der Wissenschaft gelten, bleibt das Experiment für viele Wissenschaftlerinnen ihr Kronprinz. Mit einem Experiment kann man Kausalzusammenhänge 90 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="91"?> zwischen zwei Variablen empirisch überprüfen. Die eine Variable wird als unabhängige Variable bezeichnet und ist irgendeine Intervention des Versuchsleiters, von der vermutet wird, dass sie die andere Variable beein‐ flussen und verändern kann. Die andere Variable wird abhängige Variable genannt, weil ihre Veränderung von der unabhängigen Variable abhängt. Wenn es tatsächlich einen Ursache-Wirkungs-Zusammenhang zwischen den beiden untersuchten Variablen gibt, dann müsste eine Veränderung der unabhängigen Variable eine Veränderung der abhängigen Variable nach sich ziehen. Um zu testen, ob die Veränderung der abhängigen Variable wirklich eine Folge der unabhängigen Variable ist, arbeitet man in Expe‐ rimenten meist mit einer Versuchsgruppe und einer Kontrollgruppe. Die Versuchsgruppe erhält die unabhängige Variable »verabreicht« und die Kontrollgruppe eben nicht. Um ausschließen zu können, dass die Ergeb‐ nisse nicht das Resultat der Unterschiedlichkeit der Personen in den beiden Gruppen sind, werden die Versuchspersonen den beiden Gruppen entwe‐ der zufällig zugeordnet (Randomisierung) oder hinsichtlich bestimmter Merkmale wie z. B. Alter, Geschlecht, Persönlichkeit etc. gleich auf die beiden Gruppen verteilt (Parallelisierung). Durch die strenge Kontrolle möglicher Einflussfaktoren auf die Ergebnisse und die Standardisierung, sprich Vereinheitlichung der Untersuchungssituation, soll sichergestellt werden, dass das Experiment von anderen Forschern an anderen Orten der Welt wiederholt und überprüft werden kann. Man spricht hierbei von der Replizierbarkeit des Experiments. Wenn die Wirksamkeit eines neuen Psychotherapieverfahrens zur Behandlung von Depressionen getestet wird, geht man experimentell vor. Man bildet (in Zusammenarbeit mit einer Klinik, wo die neue Therapie erprobt wird) per Zufallsauswahl zwei Grup‐ pen von depressiven Patienten und Patientinnen und erhebt mit entspre‐ chenden Forschungsmethoden den Schweregrad ihrer Krankheitssymptome (abhängige Variable). Dann wird bei der Versuchsgruppe die Psychotherapie (unabhängige Variable) durchgeführt. Die andere Gruppe erhält keinerlei Intervention und kommt auf eine Warteliste. Nach Beendigung der Thera‐ pie erhebt man den Schweregrad der Depressivität bei beiden Gruppen erneut und vergleicht die Ergebnisse. Wenn die Intervention, in dem Fall die neue Psychotherapie, tatsächlich kausal wirkt, dann müsste es in der Versuchsgruppe im Vergleich zur Kontrollgruppe zu einer Verbesserung der Symptomatik gekommen sein. 6 Design matters-- Über Sinn und Zweck von Forschungsdesigns 91 <?page no="92"?> Feldforschung: Das Pendant zur Laborforschung ist die Feldforschung. Bei der Feldforschung werden die Untersuchungsobjekte nicht in ein La‐ bor verpflanzt, sondern die Forschenden begeben sich in die natürliche Lebensumwelt ihrer Untersuchungsobjekte, um sie dort zu erforschen. Dazu gehören unter anderem Baby-Beobachtungen oder Familien-Beobachtun‐ gen im häuslichen Umfeld oder Beobachtungen von Schulklassen während des Unterrichts. Auch weite Teile der ethnologischen Forschung kann man zur Feldforschung zählen. Bei ethnologischen Erkundungen begeben sich die Forschenden in fremde Gefilde, um Angehörige anderer Kulturen in vivo zu studieren. Margret Mead hat beispielsweise in den 30er Jahren Forschungsreisen nach Neuguinea unternommen, wo sie feststellen konnte, dass die uns bekannten Geschlechtsrollen kulturell und nicht biologisch geprägt sind. Die Beobachtungen finden also immer in der natürlichen Umgebung der Betroffenen statt und können sich vorerst auf alle Ver‐ haltensweisen richten. Man bleibt also erstmal offen für überraschende Eindrücke und muss sich nicht schon vorab auf bestimmte Ausschnitte aus dem Verhaltensgesamt begrenzen. Das eröffnet mitunter auch die Chance, solche Aspekte zu studieren, denen eine experimentell orientierte Forschung aufgrund der strengen Kontrolle störender Variablen nur wenig bis gar keine Aufmerksamkeit zollt. Man kann sehen, was die Leute tun, wenn sie nicht direkt von den Versuchsleitenden beeinflusst werden. Und man kann sehen, wie die Leute in vielen verschiedenen Situationen und nicht nur einer einzigen Testsituation handeln. Man kommt so näher an die Lebensrealität der Betroffenen heran und kann Verzerrungen, die durch die fremde Umgebung des Labors zustande kommen, vermeiden. Exkurs Roland Girtlers Methodologie der Feldforschung Eine bekannte und potenziell leistungsstarke Methodologie der Feld‐ forschung stammt vom bekannten Wiener Kultursoziologen Roland Girtler (2002; 2004), der unter anderem am Leben von Obdachlosen teilgenommen hat, um ihre Lebenswelt zu verstehen. Girtler versteht echte Feldforschung als ein Abenteuer. Er meint, Feldforschung hat mehr mit Höhlenforschung, Archäologie und Entdeckertum zu tun als sorgsamem Theoretisieren. Echte Feldforschende verbringen mehr Zeit im Feld als hinter dem Schreibtisch. Für Girtler ist es wichtig, dass man sich den Personen möglichst ohne Hypothesen und Theorien im 92 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="93"?> Hinterkopf nähert und bereit ist, sich überraschen zu lassen. Auch der klassischen Idee, sich dem Feld mit einer Forschungsfrage zu nähern, findet Girtler bedenklich, weil man noch gar nicht wissen kann, welche Fragen sich ergeben, wenn man in eine bestimmte Lebenswelt eintritt. Die Forschung ist also themengeleitet, aber nicht fragen- oder hypothe‐ sengeleitet. Will man Zugang zu Lebenswelten von Leuten gewinnen, die an den Grenzen der bürgerlichen Welt leben, aus der die Forschen‐ den meist stammen, braucht es eine veränderte Haltung der Neugier, Offenheit, Flexibilität und Respekt der Forschenden gegenüber ihren Beforschten. Die Feldforschenden dürfen nicht ihre Wertvorstellungen diesen Milieus überstülpen und entrüstet oder gar empört sein, über Dinge, die im Rotlichtmilieu oder unter Gaunern geschehen. In einem Abenteuer erkunden sie eine fremde Welt, beteiligen sich aber nicht an moralischen Urteilen darüber. Nur mit dieser Haltung war es für Girtler auch möglich, Zugang zu Vagabunden, Polizisten, Ganoven, Fußball‐ fans, Wilderern, Pfarrersköchinnen, Prostituierten usw. zu bekommen. Als ideale Methode gilt dabei die teilnehmende Beobachtung. In seinen 10 Geboten der Feldforschung hat Girtler u. a. empfohlen, man möge in etwa nach den Sitten und Gepflogenheiten der beobachteten Personen leben („Si vivis Romae, Romano vivito more“), unvoreingenommen beobachten und sich nicht abfällig über seine Gastgeber äußern. Man solle sich auch ein fundiertes Wissen über die Geschichte und sozialen Verhältnisse der Leute aneignen, indem man auch ihre gemeinschaft‐ lich visitierten Plätze kennenlernt und beispielsweise Wirtshäuser, Kirchen, Parks, Märkte, Friedhöfe besucht. So lässt sich sowohl das soziale Handeln mit seinen typischen Ritualen und Regeln direkt beob‐ achten, als auch die dafür eingesetzten Gegenstände und Symbole. Das können Kleidung, Tätowierungen, Frisuren, Schmuck, Autos oder auch bestimmte Gebäude sein. Besonderes Augenmerk wird auf Situationen, handelnde Personen, Symbole, Normen, Normbrechende, Sanktionen und Konflikte gelegt. Um die Daten später auszuwerten werden No‐ tizen angefertigt, die nach der Beobachtungsphase zu detaillierteren Protokollen ausgebaut werden. Als spezielle Gesprächsform für die Feldforschung hat Girtler das ero-epische Gespräch entwickelt. Die Bezeichnung leitet sich von den altgriechischen Wörtern erotema (Frage, fragen) und epos (Erzählung, erzählen) ab. Girtler grenzt diese Gesprächsform ganz bewusst vom Interview ab, dessen Konzeption eigentlich aus dem Journalismus stammt und Girtlers Meinung zufolge 6 Design matters-- Über Sinn und Zweck von Forschungsdesigns 93 <?page no="94"?> für die Sozialwissenschaft nicht geeignet ist. Und tatsächlich ist das ero-epische Gespräch kein typisches qualitatives Interview, das sich durch bestimmte Fragetypen auszeichnen würde. Es definiert sich auch eher durch die Haltung, die der Forschende gegenüber den Beforschten einnimmt. Die Beforschten dürfen nicht als bloße Datenlieferanten verstanden werden, sondern müssen als Menschen ernst genommen werden. Man soll sich auch selbst ins Gespräch einbringen, aber ohne sich dem Gegenüber aufzuzwingen. Die Fragen ergeben sich aus dem Gespräch, werden also nicht zuvor qua Interviewleitfaden festgelegt. Den Einstieg ins Gespräch bildet oft eine Erzählung der forschenden Person, wie sie zu dem Thema gekommen ist und was sie daran interessiert, ohne allerdings dem Gegenüber gleich etwas zu suggerieren. Am Anfang des Gesprächs geht es meist um den Aufbau einer Vertrauensbasis, denn in manchen Milieus wird Hoch‐ schulangehörigen mit einer gewissen Skepsis begegnet, die man erst einmal adressieren und auflösen muss, bevor es zu einem ergiebigen Gespräch kommen kann. Die Feldforschenden lassen sich leiten von den Erzählungen ihres Gegenübers. So werden die Forschenden zu Lernenden. Bei so einem Gespräch in ungezwungener Atmosphäre kann auch gegessen und getrunken werden. Die Gespräche werden im Idealfall aufgezeichnet und transkribiert, wenn das nicht möglich ist, im Anschluss sorgfältig protokolliert. Quasi-Experimente und Feldexperimente: Auch was den Ort der For‐ schung anbelangt, sind die Übergänge zwischen den Designs fließend. Es gibt also unterschiedliche Varianten und Mischformen von Experimenten und Feldstudien. So z. B. Quasi-Experimente, bei denen die Zuteilung der Versuchspersonen zu den Versuchsgruppen nicht randomisiert oder parallelisiert ist und man mit natürlichen Versuchsgruppen arbeitet. Oder Feldexperimente, die nicht in einem Labor, sondern der natürlichen Umgebung der Betroffenen stattfinden. Die Versuchspersonen wissen dabei in der Regel nicht, dass sie beobachtet werden, weshalb man davon ausgehen kann, dass sie ihr natürliches Verhalten an den Tag legen. 94 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="95"?> Zwischen Beschreibung und Bewertung - Zur Frage nach der Intention des Forschers Wenn Sie forschen, müssen Sie sich überlegen, welche Ziele Sie mit Ihrer Forschung verfolgen. Wollen Sie einfach nur etwas wissen, eine Antwort auf Ihre Forschungsfrage haben? Wollen Sie mit Ihrer Forschung etwas verändern? In den Wissenschaften gibt es gewichtige Argumente für eine strikte Trennung von Beschreibung und Bewertung. Die Wissenschaft soll wertfrei sein, heißt es auf der einen Seite. Andererseits gibt es aber auch eindringliche Plädoyers dafür, dass wissenschaftliche Forschung nicht in universitären Elfenbeintürmen verkümmern darf, sondern eingesetzt werden soll zum Wohle der Menschheit. Beide Ansichten haben etwas für sich. Wir wollen hier allerdings keine Stellungnahme dazu abgeben, sondern Sie lediglich animieren, sich diesbezüglich Gedanken zu machen und Ihre Position zu finden. Wenn Sie ein Forschungsprojekt designen, müssen Sie sich überlegen, ob Sie den Gegenstand Ihrer Forschung rein beschreiben oder auch bewerten und vielleicht sogar verändern wollen. Das eine muss das andere gar nicht ausschließen, trotzdem gibt es Designs, die näher am Pol der Beschreibung und Wertfreiheit stehen, und solche, die sich näher am Pol der Bewertung und Intervention befinden. Deskriptionsforschung: Viele wissenschaftliche Studien verfolgen das Ziel, Ihren Forschungsgegenstand möglichst genau zu beschreiben und zu analysieren, ohne dabei allerdings eine Bewertung vorzunehmen oder eine Veränderung desselben anzustreben. Der Einfachheit halber werden wir hierbei von Deskriptionsforschung sprechen. Wissenschaftler, die so vorgehen, verfolgen ein Ideal der Objektivität und Neutralität gegenüber ihren Untersuchungsobjekten. Sie wollen möglichst keinen Einfluss nehmen auf den Untersuchungsgegenstand. Sie betrachten sich als Außenstehende, die möglichst unvoreingenommen beobachten. Beliebte Methoden, um sich nicht emotional involvieren zu lassen, sind bei solchen Sozialforscherinnen Einwegspiegel oder versteckte Kameras. Viele psychologische und erzie‐ hungswissenschaftliche Experimente folgen dieser Logik. Gesellschaftliche Probleme, wie z. B. Arbeitslosigkeit, Armut, Extremismus würden in dieser Form von Forschung beschrieben und analysiert werden. Sie würden aller‐ dings nicht bewertet, geschweige denn als Probleme definiert werden, an deren Lösung die empirische Forschung mitwirken könnte. 6 Design matters-- Über Sinn und Zweck von Forschungsdesigns 95 <?page no="96"?> Handlungsbzw. Aktionsforschung, Praxisforschung: Ein gänzlich anderes Forschungsethos vertritt die so genannte Handlungsbzw. Aktions‐ forschung (action research). Hierbei verbindet sich jedenfalls der Impetus zu forschen mit dem Anspruch zu intervenieren und Verbesserungen zu erwirken. Das Ziel der Handlungsforschung ist nicht allein der Erkennt‐ nisgewinn, sondern die Lösung eines konkreten praktischen Problems. Handlungsforschung setzt also nicht so sehr an der Überprüfung einer Hypothese an, sondern an einem konkreten Problem, das es zu lösen gilt. Diese Forschenden möchten positive Veränderungen in Gang setzen. Allein nur Bücher zu schreiben ist dieser Form der Forschung zu wenig. In einem Aktionsforschungsprojekt über die Auswirkungen von Langzeitarbeitslo‐ sigkeit würden Sie nicht nur versuchen, das Befinden solcher Menschen zu erforschen, sondern auch den Versuch unternehmen, etwas zur Verbes‐ serung ihrer Situation zu unternehmen. Als Aktionsforschende könnten Sie mit Personengruppen arbeiten, die sich am Rande der Gesellschaft befinden. So z. B. mit jungen Eltern aus sozial benachteiligten Schichten, die massive Probleme mit ihren Kindern haben. Sie könnten bei diesen psychosoziale Arbeit leisten und sie ein wenig bei der Erziehung unterstützen. Aus den da‐ bei gemachten Beobachtungen und Befragungen könnten Sie dann Theorien ableiten über mögliche Gründe für diese Probleme und Strategien entwi‐ ckeln, wie man zur Problemlösung und Problembeseitigung beitragen kann. Die Ergebnisse der Forschung sollen also bei der Aktionsforschung schon im Prozess der Forschung in die Praxis umgesetzt und so den Beforschten zu Gute kommen. Neuerdings ist aus der Tradition der action research die so genannte Praxisforschung hervorgegangen, die diese Ansprüche fortführt. Der neueste Trend im Bereich dieser Designs wird als partizipative Forschung bezeichnet. Die partizipative Forschung verfolgt fürs Erste eine ähnliche Zielsetzung wie die Aktionsforschung: Sie will mit ihren Forschungsergebnissen den untersuchten Menschen dienlich sein und deren Lebensumstände letztlich verbessern. Darüber hinaus geht sie allerdings noch ein Stück weiter. Während bei der Aktionsforschung die Grenzen zwischen Forschenden und Beforschten gewahrt bleiben, versucht der par‐ tizipative Ansatz die Beforschten selbst zu Forschenden zu machen, indem sie stärker in den Prozess der Forschung involviert werden. Partizipative Forschung versucht also den Beforschten auf Augenhöhe zu begegnen und diese somit als Forschende in den Prozess der Forschung miteinzubeziehen. Forschung mit, statt über Menschen, lautet die Devise, weshalb sie in die Planung, Durchführung und Auswertung aktiv einbezogen werden. 96 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="97"?> Häufig findet sich dieser Forschungsansatz in stark praxisorientierten Dis‐ ziplinen, die ein ausgeprägtes Interesse haben, die Situation ihrer Klientel auf die eine oder andere Art und Weise zu verbessern. Häufig sind deshalb solche Designs in Sozialer Arbeit, Schulforschung, Public Health oder Migrationsforschung. Bei der so genannten Citizen Science oder den Citizen Humanities (das ist die geisteswissenschaftliche Variante) geschieht die Forschung unter Mitwirkung von interessierten Laien. So eine Forschung mit Bürgerbeteiligung kann beispielsweise erfolgen, indem gewöhnliche Durchschnittsmenschen Teile der Rechenleistung ihres Computers zur Verfügung stellen, sich an Vogelzählprojekten beteiligen, der NASA dabei helfen Fotos der Marsoberfläche auswerten oder das Schicksal der jüdischen Bevölkerung während der Zeit des Nationalsozialismus nachverfolgen. Für solche Projekte müssen mitwirkende Personen nicht nur entsprechend motiviert werden, sondern es bedarf auch meist einer Einschulung durch entweder Crashkurse oder gründliche Manuale. Mischformen: Auch hier lassen sich keine ganz sauberen Grenzen ziehen zwischen den Forschungsdesigns. Aktionsforscher wollen immer auch for‐ schen und etwas herausfinden, dass jenseits der unmittelbaren Forschungs‐ situation Geltung hat. Sie wollen also auch irgendwie objektiv sein und nicht nur subjektive Eindrücke zu Papier bringen, quasi Romane schreiben. Und deskriptiven Forschenden ist es oft zu wenig, lediglich Bücher zu pu‐ blizieren, die in den Kellerräumen von Universitätsbibliotheken verstauben; auch sie haben oft eine Mission und wollen gesellschaftliche Veränderungen bewirken. So gesehen kann man Handlungsforschungselemente auch in primär deskriptiv vorgehende Studien einfließen lassen. Eine Möglichkeit besteht z. B. darin, die Ergebnisse eines Forschungsprojekts nicht nur der Scientific community zu präsentieren, sondern auch Texte zu verfassen, die von Laien gelesen werden können. Auch ein leidenschaftliches Plädoyer, das Sie als ethische Forderung aus Ihren Forschungsergebnissen ziehen, könnte ein Element der Aktionsforschung im Rahmen deskriptiver Forschung sein. Wenn Sie z. B. die Biographie von Menschen in Ihrem Bundesland erforschen, die unter dem Existenzminimum leben müssen, könnten Sie die Öffentlichkeit und die Politik wachrütteln, indem Sie einen Artikel für eine lokale Tageszeitung verfassen. Sie könnten auf das Schicksal dieser Leute hinweisen und kritisieren, dass noch immer ein Teil unserer Gesellschaft in Armut leben muss. 6 Design matters-- Über Sinn und Zweck von Forschungsdesigns 97 <?page no="98"?> Selbst diejenigen, die sich gut begründet auf den Pol von Objektivität und Neutralität stellen und im Prozess der Forschung alle Sicherheitsmaßnah‐ men ergreifen, um subjektive Einflüsse möglichst zu eliminieren, kommen meist nicht umhin einzugestehen, dass auch sie und ihre Forschung nicht völlig frei sein können von gewissen subjektiven Einstellungen, Meinungen und Haltungen. Zwischen wissenschaftlichen Daten und daraus gezogenen Schlussfolgerungen existiert nahezu immer eine Kluft, in die auch bestimmte Werte und Ideologien einfließen. Das mögen auch Kleinigkeiten sein, die gar nicht groß auffallen und uns selbstverständlich erscheinen, es von einem streng objektiven Standpunkt aber nicht sind. Wenn Forschende beispiels‐ weise den Bedarf an und die Versorgung mit Kinder- und Jugendlichenpsy‐ chotherapie in Großbritannien erheben und zum Ergebnis kommen, dass die Nachfrage größer als das Angebot ist, wäre die Forderung, es bräuchte mehr entsprechend ausgebildete Therapierende, eine von bestimmten Werten ge‐ tragene Schlussfolgerung. Die objektive Wissenschaft selbst könnte streng‐ genommen bestenfalls die Diskrepanz zwischen Angebot und Nachfrage feststellen, dürfte aber keinerlei Empfehlungen daraus ableiten. Kurzum, überlegen Sie sich erstens genau, wo die objektive Wissenschaft aufhört und wo subjektiv eingefärbte Schlussfolgerungen beginnen. Und zweitens entscheiden Sie sich, wie weit Sie mit ihren subjektiven Ansichten gehen wollen. Zwischen Statusbeschreibung und Veränderungserfassung - Zur Frage nach der Anzahl der Erhebungszeitpunkte Eine vierte Entscheidungsdimension bezüglich Ihres Forschungsdesigns lässt sich auch noch aus den Beschreibungen unterschiedlicher Forschungs‐ designs ableiten. Es wird Ihnen vielleicht aufgefallen sein, dass manche der oben beschriebenen Designs sich dadurch definieren, ob Daten nur einmal oder mehrmals erhoben werden. Dieser Punkt ist zentral bei der in der Entwicklungsforschung häufigen Unterscheidung zwischen Querschnitt- und Längsschnittstudien. Das erstere Design begnügt sich mit einer einma‐ ligen Erhebung und kann demzufolge auch nur eine Aussage über den jeweiligen Zustand eines bestimmten Phänomens zu einem bestimmten Zeitpunkt machen. Das letztere Design hingegen erlaubt es durch mehrma‐ lige Datenerhebung das Vorher und Nachher miteinander zu vergleichen und in Beziehung zu setzen. Man kann Antworten auf die Frage finden, wie sich etwas im Verlauf der Zeit verändert hat. Manchmal spricht man 98 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="99"?> in diesem Zusammenhang auch von prospektiven Untersuchungen, weil sie auf voraussichtliche und mögliche zukünftige Veränderungsprozesse ausgerichtet sind. Natürlich kann man Veränderungs- und Entwicklungs‐ prozesse auch mit retrospektiven Erhebungen bzw. Befragungen gewinnen, indem die untersuchten Personen gebeten werden, einzuschätzen, wie sie sich im Verlauf der Zeit verändert haben. Retrospektive Designs haben den Nachteil, dass die Ergebnisse durch Erinnerungslücken oder Irrtümer verzerrt werden. Deshalb präferiert man für gewöhnlich prospektive Lon‐ gitudinalstudien zur Erfassung von Veränderungsprozessen, weil sie frei von besagten Limitationen sind. Aber auch bei der Wirksamkeitsuntersuchung von z. B. psychotherapeutischen oder pharmakologischen Maßnahmen ist eine Vorher-Nachher-Messung, auch Prä-Post-Messung genannt, fast unabdingbar. Die für die Konzeption ihres eigenen Forschungsdesigns entscheidende Frage lautet also: Möchten Sie einen bestimmten Ist-Zustand bzw. Status quo erheben und damit eine Aussage darüber treffen, wie etwas zu einem bestimmten Zeitpunkt ist, oder möchten Sie Dynamiken und Prozesse untersuchen und damit herausfinden, wie sich etwas über einen bestimmten Zeitraum verändert? Davon hängt letztlich die Entscheidung ab, wie viele Erhebungszeitpunkte Sie in Ihrem Forschungsplan verankern werden. Die Erhebung des Status quo: Es ist völlig legitim, den aktuellen Zustand eines bestimmten Forschungsgegenstands zu erfassen, ohne sich für seine Vorgeschichte oder künftige Entwicklung zu interessieren. In der Entwick‐ lungspsychologie zum Beispiel werden so genannte Querschnittsstudien mit Menschen einer bestimmten Altersgruppe durchgeführt. Dadurch kann festgestellt werden, wodurch Menschen in einer Entwicklungsphase cha‐ rakterisiert sind. Durch Vergleiche mit Personen anderen Alters in früheren oder späteren Entwicklungsphasen kann dann sogar festgestellt werden, wodurch sich selbige von vorherigen oder nachfolgenden unterscheiden. Eine derartige Erhebung des Status quo eines bestimmten Forschungsge‐ genstands kann in vielen Wissenschaften Ziel eines Forschungsprojekts sein. Wie nehmen Arbeitgeber die gegenwärtigen wirtschaftspolitischen Maßnahmen ihres Bundeslandes wahr? Sind Erwachsene mit ADHS ei‐ ner erhöhten Belastung am Arbeitsplatz ausgesetzt? Durch die Untersu‐ chung des Zusammenhangs mit weiteren Variablen können spannende Forschungsergebnisse erzielt werden, ganz ohne dass man längerfristige Trends und Entwicklungen verfolgen müsste: Hängt die Interaktionsquali‐ 6 Design matters-- Über Sinn und Zweck von Forschungsdesigns 99 <?page no="100"?> tät in Lehrenden-Lernenden-Beziehungen mit dem Lernerfolg zusammen? Besteht eine Verbindung zwischen wahrgenommenen gesellschaftlichen Krisen und der Anfälligkeit für extremistische Ideologien? Die Erhebung von Veränderungen, Prozessen, Dynamiken und Ent‐ wicklungen: Um den Prozess der Transformation von Individuen, Grup‐ pen, Organisationen tatsächlich wissenschaftlich untersuchen zu können, bedarf es mehr als einen Erhebungszeitpunkt. Wie viele das sind, hängt von der konkreten Fragestellung der jeweiligen Studie ab. Möchten Sie die Wirkung einer zeitlich befristeten Maßnahme überprüfen, wie zum Beispiel die Effizienz eines neuen Schmerzmedikaments oder einer innovativen Form der psychologischen Therapie brauchen Sie mindestens zwei Erhebungs‐ zeitpunkte; einen ersten, der vor dem Beginn der Maßnahme angesetzt ist, und einen, der nach deren Ende situiert ist. In diesem Zusammenhang wird auch von Prä-Post-Messung gesprochen. Möchten Sie zusätzlich noch herausfinden, ob die Wirkung nachhaltig ist oder sehr rasch verpufft, könnten ein oder auch mehrere weitere Messzeitpunkte indiziert sein. Durch solche katamnestischen Daten verschaffen Sie sich die Möglichkeit längerfristige Trends oder auch Sleeper-Effekte zu erfassen. Beim Panel, einer Erweiterung des Survey wird eine Stichprobe von Personen nach einer gewissen Zeit erneut befragt oder beobachtet. Dieses Vorgehen soll es ermöglichen, Veränderungsprozesse über die Zeit zu erfassen. Damit kann man beispielsweise erfassen, wie sich politische Einstellungen oder Präferenzen für Parteien durch bestimmte, zwischenzeitlich auftretende Erfolge oder Skandale verändern. Eine ähnliche Zielsetzung verfolgt in der Entwicklungsforschung das so genannte Längsschnitt- oder Longitudi‐ naldesign, gegenüber dem Querschnittsdesign. Beim Querschnittsdesign wird eine einmalige Erhebung bei Menschen einer bestimmten Altersstufe durchführt, um zum Beispiel einschätzen zu können, welche Themen Ju‐ gendliche beschäftigen. Beim Längsschnittdesign wird dieselbe Stichprobe nach einer gewissen Zeit erneut untersucht, um Veränderungsprozesse über die Zeit erfassen zu können. Auch die Evaluation von wirtschafts- und sozialpolitischen Maßnahmen, wie beispielsweise eines bedingungslosen Grundeinkommens bedürfte zur Erfassung ihrer langfristigen Auswirkung mehrerer Erhebungszeitpunkte. Der zeitliche Abstand zwischen den Erhe‐ bungen hängt natürlich von der jeweiligen Forschungsfrage ab, und kann nur einige Wochen, oder auch viele Jahre betragen. 100 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="101"?> Misch- und Sonderformen: Um Dynamiken, Prozesse und Entwicklungen zu erfassen gibt es neben den prospektiven Studien so genannte retrospek‐ tive Designs. Hierbei interessieren sich die Forschenden sehr wohl für Dynamiken, Entwicklungen und Veränderungen, allerdings werden diese nicht erfasst durch wiederholte Erhebungen, sondern durch eine einmalige Befragung, bei der die Personen gebeten werden ihre bisherige Entwicklung allgemein oder bezüglich einer bestimmten Thematik einzuschätzen. Solche Designs können sich sowohl qualitativ-biographischer Interviews als auch quantitativer Fragebögen bedienen. Dem Vorwurf, dass solche Studien oft ungenau und unzuverlässig sind, weil das menschliche Gedächtnis Täu‐ schungen unterliegen kann und Erinnerungen dem Vergessen anheimfallen können, lässt sich begegnen, indem der Fokus der erhobenen Berichte auf die letzten Monate, das letzte Jahr oder maximal die letzten fünf Jahre gelegt wird. 6 Design matters-- Über Sinn und Zweck von Forschungsdesigns 101 <?page no="102"?> 7 Der methodische Dreischritt empirischer Forschung: Erhebung, Aufbereitung, Auswertung (G. Poscheschnik) Das Wort Methode leitet sich vom Altgriechischen »methodos« ab und bedeutet so viel wie »der Weg zu etwas hin, Nachgehen«. Forschungsme‐ thoden beschreiben so gesehen eine Art von wissenschaftlichem Weg, den man beschreitet, um empirische Daten zu gewinnen und zu verarbeiten. Daten wiederum sind das empirische Rohmaterial, aus dem mithilfe von Forschungsmethoden Schlüsse gezogen und Theorien gewonnen werden. Das heißt, Methoden geben einen Weg vor, auf dem man von den ersten Rohdaten zum theoretischen Endergebnis kommt. Sie sorgen für die Strin‐ genz einer wissenschaftlichen Untersuchung und machen den Prozess der Forschung auch für Außenstehende nachvollziehbar. Wir möchten nun auf eine Unterscheidung zurückgreifen, die wir bereits in Abschnitt II.5. über das Ablaufmodell empirischer Forschung ins Spiel gebracht haben. Dort wurden im methodischen Vorgehen drei Aspekte von‐ einander unterschieden: Erstens die Erhebung, zweitens die Aufbereitung und drittens die Auswertung (Hug 2001; Mayring 2023). Das methodische Vorgehen in der empirischen Forschung entspricht so gesehen einem Drei‐ schritt. Zuerst müssen die empirischen Daten einmal gewonnen bzw. erho‐ ben werden. Zu diesem Zweck gibt es eigene Erhebungsmethoden, die der Sammlung von Datenmaterial dienen. Danach müssen die erhobenen Daten für weitere Analysen und Interpretationen aufbereitet werden. Hierzu gibt es so genannte Aufbereitungsmethoden. Zu guter Letzt werden die erhobenen und aufbereiteten Daten analysiert und interpretiert. Dafür gibt es spezielle Auswertungsmethoden. 102 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="103"?> Überblick Erhebungsmethoden Aufberei‐ tungsmethoden Auswertungsmethoden Recherche Dokumentenanalyse Beobachtung Befragung etc. Transkription/ Fixierung Selegierung Strukturierung etc. Inhaltsanalyse Grounded the‐ ory Psychoanalyse Typenbildung Diskursanalyse Konversations‐ analyse Metaphernana‐ lyse etc. Häufigkeitsanalysen Korrelationsanalyse Signifikanztest Clusteranalyse Faktorenana‐ lyse Pfadanalyse Varianzanalyse etc. Tabelle 6: Übersicht zu Erhebungs-, Aufbereitungs- und Auswertungsmethoden Welche Forschungsmethoden Sie jeweils wählen, hängt - wie schon die Wahl des Forschungsdesigns - primär von Ihrer Forschungsfrage und Ihrem Forschungsgegenstand ab. Welche Methoden brauchen Sie, um Ihre Forschungsfrage beantworten zu können? Wichtig ist es, die Wahl der Methoden aus Ihrer Forschungsfrage heraus zu begründen: Warum sind die gewählten Methoden für die Beantwortung Ihrer Forschungsfrage geeignet? Wir werden diese drei Methodengruppen nun kurz besprechen. Eine Ver‐ tiefung finden Sie in den Kapiteln III und IV. Erhebungsmethoden Im Großen und Ganzen gibt es drei Gruppen von Erhebungsmethoden in der empirischen Sozialforschung. Erstens die Recherche, zweitens die Beobachtung und drittens die Befragung. 7 Der methodische Dreischritt empirischer Forschung: Erhebung, Aufbereitung, Auswertung 103 <?page no="104"?> Recherche/ Dokumentenanalyse: Die erste Möglichkeit besteht darin, bereits bestehende Daten zu verwenden. In dem Fall brauchen die Daten nicht erst eigens produziert zu werden. Man spricht hierbei entweder von einer Recherche nach bereits bestehenden Daten, gelegentlich auch vom Forschungsdesign der Dokumentenanalyse. In den Human- und Sozi‐ alwissenschaften versteht man unter Dokumenten alle von Menschenhand geschaffenen Gegenstände. Diese lassen sich als Quelle zur Erklärung menschlichen Erlebens und Verhaltens heranziehen. Dokumente in diesem Sinne können also Schriftstücke, Texte, Audioaufzeichnungen, Filme, Foto‐ grafien, Kunstgegenstände, Gemälde, Skulpturen, Bauten, Werkzeuge, Ge‐ brauchsgegenstände usw. sein. Wir haben es also mit einer beeindruckenden Materialvielfalt zu tun, die für wissenschaftliche Zwecke genutzt werden kann. Bei einer Dokumentenanalyse entfällt der Schritt der Datenerhebung bis zu einem gewissen Grad bzw. erschöpft er sich in einem Zusammen‐ tragen von existierenden Daten. Gemeinsam ist diesen Zugängen, dass das Material nicht erst vom Forscher durch Beobachtung oder Befragung erschaffen werden muss, sondern schon vorliegt. Die Dokumentenanalyse bzw. Recherche kommt häufig in der Geschichts‐ wissenschaft, der Medienwissenschaft, der Entwicklungswissenschaft und der Literaturwissenschaft als eigenständiges Forschungsdesign vor. Wenn Sie z. B. etwas über die Lebenswelten von Jugendlichen erfahren möchten, können Sie die Tagebücher von Jugendlichen auswerten. Die Dokumenten‐ analyse kann aber auch als Ergänzung anderer Forschungsdesigns wertvolle Dienste leisten. In der biographischen Forschung können biographische Interviews mit Fotos oder Videos aus dem Leben der Befragten flankiert werden. Sie können aber auch bereits vorhandene Datensätze bestehender Studien verwenden und diese in neuem Licht mit anderen Auswertungs‐ methoden oder einem anderen theoretischen Kontext interpretieren. In so einem Fall spricht man auch von einer Re-Analyse bzw. Sekundäranalyse vorhandener Daten. Sie können dann die Ergebnisse anderer Forschender dadurch kritisieren, bestätigen oder ergänzen. Beobachtung: Eine zweite Möglichkeit der Datenerhebung ist die Beob‐ achtung. Bei der Beobachtung handelt es sich um eine Forschungsmethode zur Erhebung nicht-sprachlicher Daten. Wissenschaftliche Beobachtungen erfolgen im Unterschied zu Alltagsbeobachtungen durch systematischere, geplantere, zielgerichtetere und strukturiertere Wahrnehmung. Das gelingt, indem zwischen dem Beobachtenden und dem Beobachteten quasi eine 104 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="105"?> Methode geschoben wird, die die zu beobachtenden Aspekte der Realität hervorhebt und objektiviert. Dazu werden vorab Kategorien festgelegt, die bestimmen, was beobachtet wird und was nicht. Alle relevanten Aspekte des Forschungsgegenstands sollen dabei möglichst genau und nachvollziehbar erfasst werden. Beobachtungen können sich auf alle Verhaltens- und Inter‐ aktionsweisen von Lebewesen, aber auch Zustände lebloser Materie, richten. Beobachtungen können sich sowohl auf künstlich hergestellte Situationen, wie z. B. Laborexperimente, als auch auf natürliche Situationen beziehen. Der Grad der Standardisierung einer Beobachtung ist unterschiedlich hoch. Mehr darüber in den Abschnitten III.1. und III.2. Befragung: Die dritte wichtige Gruppe von Erhebungsmethoden sind Befragungen. Befragungen zielen darauf ab, Informationen zu erheben, die einer Beobachtung nicht so leicht zugänglich sind. Es kann sich um Meinungen, Einstellungen, Wissen, Gedanken und Gefühle handeln. Auch hier ist der Grad der Standardisierung unterschiedlich groß. Fragen und Ant‐ wortmöglichkeiten können in unterschiedlich starkem Ausmaß festgelegt werden. Befragungen können schriftlich oder mündlich erfolgen. Das heißt, Sie können Ihren Befragten entweder einen Fragebogen vorlegen oder aber mit diesen ein Interview durchführen. Befragungen kommen übrigens, wie auch Beobachtungen sowohl in der qualitativen als auch der quantitativen Forschung häufig vor. Auf unterschiedliche Formen der Befragung kommen wir noch in Abschnitt III.1. und III.2. zu sprechen. Aufbereitungsmethoden Daten liegen nach der Datenerhebung nur selten in so einer Form vor, dass Sie sich gleich in die Auswertung bzw. Interpretation stürzen könnten. Deshalb folgt auf die Datenerhebung ein Schritt der Datenaufbereitung. Zu diesem Zweck gibt es eigene Datenaufbereitungsmethoden. Als Ergebnis dieses Schritts erhalten Sie einen Zwischenstand, von dem aus Sie die Auswertung in Angriff nehmen können. In der Aufbereitung der zuvor er‐ hobenen Daten lassen sich drei Aspekte differenzieren: Erstens die Fixierung der Daten, zweitens die Selegierung der Daten und drittens die Strukturie‐ rung der Daten. Im Rahmen der Aufbereitung können die erhobenen Daten auch in spezielle Software eingespeist werden, die im nächsten Schritt die Auswertung der Daten erleichtert (s. dazu die Abschnitte III.3, III.4, IV.3, V.3). 7 Der methodische Dreischritt empirischer Forschung: Erhebung, Aufbereitung, Auswertung 105 <?page no="106"?> Fixierung: Eine erste wichtige Strategie der Datenaufbereitung ist die Fixierung. Wenn Sie beobachten, bleiben nur ein paar visuelle Eindrücke im Gedächtnis zurück. Und Worte von Interviews sind ja nichts als Schall und Rauch. Deshalb müssen Sie Ihre Beobachtungen und Befragungen irgendwie dingfest machen. Bei Beobachtungen geschieht das meist mit Protokollen, Memos, Beobachtungsbögen oder Videoaufzeichnungen. Mündliche Befra‐ gungen werden für gewöhnlich audio- oder videoaufgezeichnet und dann transkribiert, also niedergeschrieben. Durch die Transkription entsteht aus einem Interview ein Text, der ausgewertet werden kann. Durch die Fixierung werden die mithilfe von Befragung oder Beobachtung erhobenen Daten für die darauffolgende Auswertung überhaupt erst urbar gemacht. Selegierung: Ein zweites wichtiges Element im Rahmen der Datenaufbe‐ reitung ist die Selegierung. Hierbei geht es um die Auswahl der Daten, die in die Auswertung einbezogen werden. Oft werden nämlich mehr Daten erhoben als man überhaupt auswerten kann. Manchmal werden auch Daten miterhoben, die man gar nicht braucht. Jedenfalls haben Sie die Überlegung anzustellen, welche der Daten zur Beantwortung Ihrer Forschungsfrage notwendig sind und welche nicht. Selegieren Sie nun, was brauchbar ist und was nicht. Letzten Endes haben Sie eine begründete Auswahl aus den erhobenen Daten, die Sie in Ihre Auswertung einbeziehen. Strukturierung: Bei der Strukturierung, der dritten Aufbereitungsmetho‐ dik, geht es vereinfacht gesagt darum, Ordnung ins Chaos zu bringen. Ein Zettelsalat von Memos, den Sie während Ihrer Feldbeobachtungen angefer‐ tigt haben, will geordnet werden. Die Zeilen von Interviewtranskriptionen müssen durchnummeriert werden. Das macht es dann leichter, aus dem Interview zu zitieren und sich darin zurechtzufinden bzw. Stellen, auf die man sich in der Auswertung bezogen hat wiederzufinden. Teilweise geht die Strukturierung der Daten schon fließend über in die Auswertung der Daten, wenn Sie bereits die Ergebnisse zusammenfassen, indem Sie Kategorien auf einem höheren Abstraktionsniveau bilden. Auswertungsmethoden Da sich die erhobenen und aufbereiteten Daten nicht von selbst interpretie‐ ren, muss man spezielle Auswertungsmethoden auf sie anwenden. Sowohl in der qualitativen Forschung als auch in der quantitativen Forschung gibt es mittlerweile einen ganzen Reigen von Auswertungsmethoden. 106 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="107"?> In der qualitativen Forschung sind das unter anderem die Grounded theory bzw. gegenstandsbezogene Theoriebildung, die qualitative Inhalts‐ analyse, die psychoanalytische Textinterpretation, die qualitative Typenbil‐ dung, die Konversationsanalyse, die Diskursanalyse, die Metaphernanalyse (s. Abschnitt IV.1.). In der quantitativen Forschung gibt es Häufigkeits‐ analysen, Zusammenhangs- und Korrelationsanalysen, Signifikanztests, Cluster- und Faktorenanalysen, Varianzanalysen und Pfadanalysen (s. Ab‐ schnitt IV.2.). Alle diese Methoden zielen auf unterschiedliche Ergebnisse ab, und welche Auswertungsmethode Sie auf Ihre erhobenen und aufbereiteten Daten anwenden, hängt wiederum davon ab, was Sie überhaupt wissen möchten. 7 Der methodische Dreischritt empirischer Forschung: Erhebung, Aufbereitung, Auswertung 107 <?page no="108"?> 8 Qualitativ oder quantitativ? Die Gretchenfrage in der Wissenschaft (G. Poscheschnik) Dem Anspruch nach ruht die Wissenschaft auf dem Fundament von Logik und Rationalität. Nichtsdestotrotz gleicht gerade die Entscheidung für eine bestimmte wissenschaftliche Methode häufig einem Religionsbekenntnis. Vielleicht haben Sie ja auch schon die Erfahrung gemacht, dass manche Ihrer Lehrenden ein leidenschaftliches Plädoyer für quantitative Methoden abgeben und sich im selben Atemzug über qualitative Vorgehensweisen empören. Umgekehrt können Lehrende der qualitativen Methodik auch nur selten quantitativen Verfahren etwas abgewinnen. Kurzum, wir haben es mit einem Stellungskrieg zu tun, der von gegenseitigem Unverständnis gespeist wird. Wir möchten die strenge Polarisierung zwischen qualitativ und quanti‐ tativ vermeiden und lieber einen pragmatischen Mittelweg einschlagen, denn bei nüchterner Betrachtung haben eigentlich alle Forschungsmetho‐ den gewisse Stärken und gewisse Schwächen. Jede Methode - egal ob qualitativ oder quantitativ - ist für bestimmte Forschungsgegenstände und Forschungsfragen besser und für andere schlechter geeignet. Die Entschei‐ dung für eine qualitative oder quantitative Methode machen Sie neben den Gepflogenheiten, die an Ihrem Institut herrschen (s.a. Abschnitt I.3), in erster Linie am besten von Ihrer Forschungsfrage abhängig. Wenn Sie beispielsweise wissen möchten, wie häufig eine bestimmte Erkrankung in der Bevölkerung auftritt, werden Sie eine quantitativ-epidemiologische Stu‐ die durchführen. Qualitative Methoden helfen Ihnen dabei herzlich wenig. Wenn Sie allerdings wissen möchten, wie eine chronische Erkrankung von den Betroffenen subjektiv erlebt wird und welchen Einfluss sie auf ihren Alltag hat, dann werden Sie mit qualitativen Methoden arbeiten. qualitative Forschung quantitative Forschung Verstehen von Sinn Quantifizierung von Sachverhalten einzelne Fälle große Stichproben, Repräsentativität iterativer, zirkulärer Ablauf linearer Ablauf offenes, flexibles Vorgehen standardisiertes Vorgehen 108 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="109"?> interessiert an subjektiven Sichtweisen interessiert an objektiven Fakten Feldforschung Laborforschung eher hypothesengenerierend eher hypothesentestend Tabelle 7: Übersicht zu qualitativer und quantitativer Forschung Was ist quantitative Forschung? Die Idee einer quantitativen Betrachtung der Welt lässt sich bis in die antike Philosophie zurückverfolgen. Bereits im sechsten vorchristlichen Jahrhundert hat Pythagoras gemeint, das Wesen der Wirklichkeit würde aus Zahlen bestehen und sich in Zahlen ausdrücken. Auch Galileo Galilei (1564- 1642) war der Auffassung, dass das Buch der Natur mit mathematischen Symbolen geschrieben sei. Er gab auch die bis heute für die quantitative Forschung gültige Maxime aus: Alles messen, was messbar ist, und messbar machen, was noch nicht messbar ist! Definition In der quantitativen Forschung geht es darum, empirische Sachver‐ halte als Zahlen darzustellen und diese mittels mathematischer bzw. statistischer Methoden zu verarbeiten. Im Mittelpunkt des Interesses stehen dabei quantitative Angaben wie Mittelwerte, Verteilungen, Prozentränge, Wahrscheinlichkeiten, Zusammenhangsmaße (s.a. Ab‐ schnitte III.2. und IV.2.; Hug 2001; Köhler 2004; Denz / Mayer 2001a; 2001b). Um überhaupt quantitativ forschen zu können, muss sich die erforschte Materie numerisch erfassen lassen. Beim Messen werden empirische Rela‐ tionen so in numerische Relationen umgewandelt, dass die Relationen zwi‐ schen den Zahlen die Relationen zwischen den empirischen Ausprägungen abbilden. Für unterschiedliche Möglichkeiten der Übertragung empirischer Sachverhalte in Zahlenverhältnisse siehe die Ausführungen über Skalenni‐ veaus in Abschnitt III.2. Da die untersuchten Gegenstände und Personen für gewöhnlich nicht mit Zahlen auf dem Rücken durch die Gegend laufen, ist es oft nötig, Operationalisierungen und Quantifizierungen vorzunehmen (s. Abschnitt 8 Qualitativ oder quantitativ? Die Gretchenfrage in der Wissenschaft 109 <?page no="110"?> I.2.). Manchmal kann man direkt messen, indem man z. B. einfach nach dem Alter, dem Geschlecht oder der Schuhgröße fragt. Häufig sind allerdings große gedankliche Anstrengungen nötig, denn komplexe Theorien und Begriffe lassen sich nicht in eine einzige operationale Definition bannen und müssen in ihre Einzelbestandteile seziert werden. Intelligenz ist so ein äußerst vielschichtiges Phänomen. Dazu gehören unter anderem verbale Fähigkeiten, mathematische Fähigkeiten, Abstraktionsfähigkeit. Deshalb bestehen Intelligenztests auch aus einer ganzen Kolonne von Fragen, die sich dann wiederum einzelnen Skalen und Intelligenzdimensionen zuordnen lassen. Auch in die Beurteilung der Schulleistung fließen viele einzelne Schularbeits-, Prüfungs-, und Mitarbeitsnoten ein. Gelegentlich ist die zu erfassende Größe einer direkten Messung gar nicht zugänglich, weshalb man indirekte Wege einschlägt. Man versucht dann einen Indikator zu fin‐ den. Ein Indikator ist eine erfassbare Größe, die das untersuchte Konstrukt zum Ausdruck bringt. Das Ausmaß der Religiosität eines Menschen z. B. lässt sich als Anzahl der jährlichen Kirchenbesuche operationalisieren. Die Stabilität des Familiensystems wurde in einer Studie über die Entwicklung von Persönlichkeitsstörungen als die Anzahl der Umzüge der Familie wäh‐ rend der Kindheit operationalisiert. Wenn sie quantitativ forschen möchten und keine entsprechenden Forschungsmethoden zur Beantwortung Ihrer Forschungsfrage vorhanden sind, werden Sie mitunter erfinderisch sein müssen in der Operationalisierung Ihres Forschungsgegenstands. Quantitative Forschungsmethoden kommen meist im Rahmen von Expe‐ rimenten und Surveys zum Einsatz. Hierbei ist jeder einzelne Schritt sorg‐ fältig geplant. Ein Anspruch quantitativer Forschung ist es auch, allgemein‐ gültige und repräsentative Ergebnisse zu erzielen. Um Aussagen über ganze Kollektive zu machen, untersucht man meist große Stichproben. Quantitativ Forschende meiden auch eher das Feld und arbeiten lieber im Labor, wo die Möglichkeit besteht, störende Einflüsse auszuschalten. Sie frönen dem Ideal der Objektivität und wahren emotionale Distanz zu den Versuchspersonen, um die Ergebnisse nicht zu beeinflussen. Der Forschungsgegenstand wird so sachlich und so neutral wie nur irgend möglich behandelt. Quantitative Forschung ist also im Vergleich zu qualitativer Forschung, auf die wir gleich zu sprechen kommen werden, planvoller und linearer im Ablauf, stärker den Forschungsgegenstand in theoretische Einzelbestandteile zergliedernd, mehr abstrahierend in der Theoriebildung und distanzierter im Verhältnis zu den Versuchsobjekten. Das Methodenspektrum der quantitativen Forschung umfasst formalisierte Beobachtungen, standardisierte Befragungen sowie 110 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="111"?> alle Spielarten der Statistik (mehr dazu in Kapitel III und IV; Hug 2001; Denz-/ -Mayer 2001a; 2001b; Köhler 2004). Was ist qualitative Forschung? Die historischen Vorläufer der qualitativen Sozialforschung lassen sich zurückverfolgen bis zum Werk von Aristoteles. Qualitative Forschung in ihrer modernen Form ist aus der geisteswissenschaftlichen Methodik hervorgegangen: Sie unterscheidet sich aber von der Hermeneutik, der Phänomenologie und der Dialektik durch größere Regelgeleitetheit und höhere Genauigkeit. Mittlerweile haben qualitative Forschungsmethode in allen Human- und Sozialwissenschaften weite Verbreitung gefunden. Qualitative Forschung ist sexy geworden. Definition In der qualitativen Forschung geht es um die Erkundung subjektiver Lebenswelten. Man versucht also die individuellen Weltsichten und Lebensweisen seiner Beforschten zu erfassen. Erforscht werden unter anderem soziale Regeln, kulturelle Orientierungen und individuelle Sinnstrukturen. Häufig geht es nicht nur um die Entwicklung von Theorien, sondern auch um Anwendungen für die Praxis (Mayring 2023; Flick 2004; s.a. Abschnitte III.1 und IV.1). Qualitative Forschung interessiert sich für die Subjektivität der Beforschten. Das bedeutet, es geht um die persönliche Erlebniswelt einzelner Menschen. Um diese Subjektivität überhaupt erforschen zu können, ist eine gewisse Offenheit dem Beforschten gegenüber unabdingbar. Die beforschten Personen sollen die Möglichkeit erhalten, sich möglichst natürlich zu verhalten und ihre Persönlichkeit möglichst ungehindert zu entfalten. Das wiederum erfor‐ dert eine gewisse Orientierung am einzelnen Fall. Das heißt, der einzelne ist nicht nur als Lieferant von Daten zur Berechnung eines Durchschnittswerts interessant, sondern in seiner Besonderheit und Einzigartigkeit. Forschung mit qualitativen Methoden strebt eine Tiefgründigkeit der Untersuchungen an, indem sie sich mehr Zeit nimmt für die Individualität des einzelnen Menschen. Diese Orientierung an einzelnen Fällen geht aber trotzdem Hand in Hand mit Generalisierungsversuchen. Es geht also schon auch um Verallgemeinerungen, diese erfolgen allerdings behutsam und step by step. 8 Qualitativ oder quantitativ? Die Gretchenfrage in der Wissenschaft 111 <?page no="112"?> In der qualitativen Forschung gelten die Forschenden nicht als neutrale und objektive Beobachtende, sondern als Personen, die im Prozess der Forschung präsent sind und auch einen Einfluss auf die Beforschten ausüben. Aus dem Grund reflektieren die Forschenden auch ihren möglichen Einfluss aufs Forschungsobjekt und benutzen ihre eigenen subjektiven Reaktionen auf das Forschungsprojekt als eine zusätzliche Datenquelle, die zusätzlichen Aufschluss über das Beforschte geben können. Interpretationen mit quali‐ tativen Forschungsmethoden richten sich übrigens meist auf Texte, also verschriftlichte Gespräche, Szenen und Beobachtungen. Deshalb lässt sich qualitative Forschung auch als eine Textwissenschaft begreifen (Mayring 2023; Flick 2007; Krell/ Lamnek 2024). Qualitative Forschungsmethoden kommen häufig im Rahmen von Ein‐ zelfallanalysen und der Aktionsforschung zum Einsatz. Typisch sind sie also für Forschungsdesigns mit einem mehr iterativen und zirkulären Ablauf, bei dem Vorannahmen immer wieder von Neuem hinterfragt und korrigiert werden. Trotzdem weisen natürlich auch qualitativ orientierte Studien einen klaren Ablaufplan auf. Im Unterschied zur quantitativen Forschung ist qualitative Forschung tendenziell offener und kontextorientierter gegen‐ über ihrem Forschungsgegenstand, flexibler im Ablauf, stärker auf einzelne Fälle und subjektive Sinnstrukturen ausgerichtet. Qualitative Forschung interessiert sich für die natürlichen Lebensumwelten der untersuchten Personen. Aus dem Grund werden die Leute meist unter naturalistischen Bedingungen im Feld untersucht und künstliche Laborsituationen eher gescheut. Qualitative Forschung will oft nicht nur beschreiben, sondern strebt auch Bewertungen an und will verändern. Das Methodenspektrum reicht von offenen Interviewformen und teilnehmenden Beobachtung bis hin zu verschiedenen Auswertungsverfahren (mehr dazu in Kapitel III und IV; Mayring 2023; Flick 2007; Flick et al. 2004; Krell/ Lamnek 2024). Qualitativ oder quantitativ? -- Qualitativ und quantitativ! Mittlerweile wird mehr und mehr klar, dass die strenge Trennung zwischen quantitativer Forschung auf der einen und qualitativer Forschung auf der anderen Seite ziemlich unsinnig ist. Obwohl es teilweise noch immer unüberwindlich erscheinende Gegensätze zwischen qualitativen und quan‐ titativen Forschern bzw. Forscherinnen gibt, wächst doch die Anzahl der Leute, die sich bemühen, diese Kluft zu überbrücken. In der Praxis der 112 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="113"?> empirischen Forschung wird der kombinierte Einsatz von qualitativen und quantitativen Methoden immer häufiger. - So eine Kombination kann auch für Ihr Forschungsprojekt überaus fruchtbar sein. Als Resultat erhalten sie vertiefte Erkenntnisse, die eine Methode allein nicht liefern kann. Wenn Sie beispielsweise Interviews mit Bewohnern eines Altenheims über deren Lebenszufriedenheit führen und diesen dann zusätzlich einen quantitativen Fragebogen zur Lebenszufrie‐ denheit vorlegen, lassen sich die Ergebnisse hier gegenseitig empirisch erhärten. Wenn Sie ein statistisches Survey durchführen und dann bei einigen ausgewählten Probanden zusätzlich Interviews durchführen, dann lassen sich die statistischen Ergebnisse durch die qualitativen Daten aus den Interviews ergänzen und vertiefen (Mayring 2001; Kelle-/ -Erzberger 2004). Qualitative und quantitative Forschung lassen sich auf verschiedenen Ebenen des Forschungsprozesses miteinander in Verbindung bringen. Auf der Ebene von Forschungsdesigns gibt es vier verschiedene Kombinations‐ modelle qualitativer und quantitativer Methoden (Mayring 2001; s.a. Flick 2007; Kelle-/ -Erzberger 2004): Definition Die Kombination qualitativer und quantitativer Forschungsmethoden im Rahmen eines Forschungsdesigns oder Forschungsprojekts nennt man Mixed Methodologies. Die Methoden werden dabei parallel oder sukzessive eingesetzt und die Resultate aufeinander bezogen. Die Ergebnisse der Methodentypen können sich dann gegenseitig validieren oder einander ergänzen. Vorstudienmodell: Beim Vorstudienmodell wird zuerst eine qualitative Erhebung durchgeführt, um Hypothesen zu generieren, die in einem quan‐ titativen Teil der Studie überprüft werden. Qualitative Methoden werden hier also eingesetzt, um Neuland zu erkunden, und quantitative Methoden, um es dann zu vermessen. Sie könnten z. B. Probeinterviews oder Gruppen‐ diskussionen mit jugendlichen Drogenabhängigen führen und die hierbei gewonnenen Ergebnisse in die Konstruktion eines Interviewleitfadens oder Fragebogens einfließen lassen. 8 Qualitativ oder quantitativ? Die Gretchenfrage in der Wissenschaft 113 <?page no="114"?> Verallgemeinerungsmodell: Das Verallgemeinerungsmodell startet eben‐ falls mit einem qualitativen Analyseschritt. Der qualitative Teil beschränkt sich hier aber nicht auf die Hypothesengenerierung, sondern ist ein vollwer‐ tiger Teil der Studie. Die qualitative Studie wird komplett durchgeführt und ihre Ergebnisse werden dann mithilfe einer quantitativen Studie an einer größeren Stichprobe abgesichert und verallgemeinert. Um die Umsetzung eines Verallgemeinerungsmodells würde es sich handeln, wenn Sie z. B. den Prozess einer Psychotherapie empirisch-qualitativ an einem Einzelfall untersuchen und die Ergebnisse dann an einer größeren Stichprobe von vielen psychotherapeutischen Prozessen überprüfen. Vertiefungsmodell: Genau umgekehrt verhält es sich beim Vertiefungs‐ modell. Hier beginnt man mit einer quantitativen Studie an einer größeren Stichprobe. Danach wird die qualitative Untersuchung an ausgewählten Fällen oder einer kleineren Teilstichprobe durchgeführt, um die quantitati‐ ven Ergebnisse zu vertiefen und zu interpretieren. Man versteht dann die gefundenen Korrelationen besser und kann die Ergebnisse mit Fallbeispielen illustrieren. Die Umsetzung eines Vertiefungsmodells wäre die Untersu‐ chung einer großen Stichprobe von Lehrenden mit Fragebögen, wobei dann eine kleinere Stichprobe daraus vertiefend mit Interviews befragt wird. Triangulationsmodell: Das vierte und letzte Modell ist das Triangulati‐ onsmodell. Hierbei wird ein Forschungsgegenstand mit unterschiedlichen Methoden aus mehreren Blickwinkeln untersucht, um die Forschungsfrage möglichst differenziert zu beantworten. Die mit den einzelnen Methoden erzielten Resultate werden miteinander verglichen, um der Komplexität und Vielschichtigkeit der Materie Rechnung zu tragen. Das Triangulationsmo‐ dell sorgt auf diese Weise für ein vollständigeres und valideres Bild des Forschungsgegenstands. Auf das Konzept der Triangulation, das auch als ein Gütekriterium in der empirischen Forschung gilt, kommen wir noch in Abschnitt II.9 zu sprechen. Eine Einzelfallstudie über einen depressiven Menschen, bei der die Entstehung der Krankheit mit mehreren verschiede‐ nen quantitativen und qualitativen Methoden untersucht wird, entspräche einem Triangulationsmodell. Fazit: Quantitative Forschung versucht, empirische Sachverhalte in Zahlen umzuwandeln und Berechnungen anzustellen. Qualitative Forschung ver‐ sucht, subjektive Weltsichten zu erheben und zu verstehen. Obwohl es nach wie vor Verfechter eines Methodenpurismus gibt, wächst die Anzahl der 114 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="115"?> Forschenden, die eine Verbindung der beiden Methodentypen einfordern und auch praktizieren. Sie sind gut beraten, wenn Sie sich fundierte Grund‐ kenntnisse sowohl in Statistik als auch qualitativer Sozialforschung aneig‐ nen, denn dann haben Sie die Möglichkeit, die Methoden zu verwenden, die für Ihren Forschungsgegenstand und Ihre Forschungsfrage am passendsten sind. Von der Art der angewandten Methode allein hängt es nämlich nicht ab, ob Forschung gehaltvolle Ergebnisse oder nur Banales hervorbringt, denn sowohl in der qualitativen als auch in der quantitativen Forschung gibt es gute und schlechte Studien. 8 Qualitativ oder quantitativ? Die Gretchenfrage in der Wissenschaft 115 <?page no="116"?> 9 Es ist nicht alles Gold, was glänzt-- Über Gütekriterien empirischer Forschung (G. Poscheschnik) Definition Um die Qualität wissenschaftlicher Studien einschätzen zu können, gibt es Gütekriterien. Solche Gütekriterien definieren Mindestanfor‐ derungen, denen ein empirisches Forschungsprojekt zu genügen hat, wenn es als wirklich gute wissenschaftliche Forschung gelten möchte. Gütekriterien sind Prüfsteine empirischer Forschung, die Ihnen be‐ hilflich sind einzuschätzen, wo die Stärken und wo die Schwächen einer wissenschaftlichen Untersuchung liegen (Steinke 2004; Mayring 2002; Flick 2004a; 2004b; Flick et al. 2004; Poscheschnik 2005). Es gibt mittlerweile auch KI-gestützte Tools, die Ihnen helfen können, die Qualität wissenschaftlicher Studien einzuschätzen. Dazu gehören u. a. Open AI Codex/ ChatGPT oder Covidence. Aber hier nochmals unsere Warnung: Auch wenn die Verlockung dazu groß sein mag, sollten Sie nicht das ganze Denken einer KI überlassen. Gerade aus der systematisch-kritischen Auseinandersetzung mit wissenschaftlichen Untersuchungen anhand von Gütekriterien können Sie sehr viel ler‐ nen. In der methodologischen Literatur wird eine Vielzahl unterschiedlicher Gütekriterien diskutiert. Es gibt Gütekriterien, die speziell für bestimmte Methoden entwickelt wurden. Man spricht dann von methodenspezifi‐ schen Gütekriterien. Manche davon beanspruchen primär Gültigkeit für quantitative Methoden, andere wiederum sind stärker auf qualitative Methoden zugeschnitten. Ein methodenspezifisches Gütekriterium für die qualitative Methode der teilnehmenden Beobachtung in der Feldforschung ist die Glaubwürdigkeit der Versuchspersonen. Es geht also um die Frage, ob diese offen und ehrlich sind oder ob sie eventuell versuchen, die Forscherin zu täuschen. Und ein methodenspezifisches Gütekriterium für quantita‐ tiv-psychologische Tests wäre die die Auswertungsobjektivität. Damit ist gemeint, dass die Auswertung eines Fragebogens so normiert sein muss, dass 116 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="117"?> unterschiedliche Forschende zum selben Ergebnis kommen. Meist können Sie die methodenspezifischen Gütekriterien der Literatur über die jeweilige Methode entnehmen. Neben diesen Gütekriterien existieren noch Gütekriterien, die nicht speziell für eine bestimmte Forschungsmethode adaptiert sind, sondern den Anspruch erheben, für alle Methoden und den gesamten Forschungsprozess zu gelten. Hierbei handelt es sich um allgemeinere Leitlinien, die Ihnen eine Orientierung bieten können, was bessere und was schlechtere Forschung ausmacht. In dem Fall spricht man von allgemeinen Gütekriterien. Überblick Objektivität Transparenz Reliabilität Indikation / Adäquatheit Validität Reflexivität Triangulation Diskussion von Limitationen Tabelle 8: Allgemeine Gütekriterien empirischer Forschung Objektivität: Objektivität bedeutet in der empirischen Forschung das Bemühen, eine Studie so durchzuführen, dass die Ergebnisse möglichst wenig durch Vorurteile des Forschers verzerrt werden. Da eine völlige Ent‐ subjektivierung - sprich Reinigung von subjektiven Meinungen, Wünschen, Gefühlen, Neigungen und Interessen - de facto unmöglich ist, bemüht man sich wenigstens um intersubjektive Übereinstimmung. Dazu werden Forschungsmethoden so konstruiert, dass sie unabhängig vom Einfluss der Forschenden angewandt werden können. In der quantitativ-psycho‐ logischen Testtheorie unterscheidet man drei Formen von Objektivität bzw. intersubjektiver Nachvollziehbarkeit: Die Durchführungsobjektivi‐ tät meint eine möglichst große Standardisierung in der Durchführung der Methode, wobei die sozialen Kontakte zwischen den Forschenden und den Beforschten minimiert werden. Gäben die Forschenden nämlich das Ziel ihrer Untersuchung preis, könnte das die Reaktionen der Versuchsperso‐ nen in eine bestimmte Richtung lenken. Die Auswertungsobjektivität 9 Es ist nicht alles Gold, was glänzt-- Über Gütekriterien empirischer Forschung 117 <?page no="118"?> verlangt, dass eine Methode so konstruiert ist, dass unterschiedliche For‐ schende zum selben Ergebnis kommen. Die Interpretationsobjektivität schließlich fordert, dass die mithilfe der Methode gewonnenen Werte von unterschiedlichen Forschenden gleich interpretiert werden. Kurzum, das Gütekriterium der Objektivität will, dass die Ergebnisse einer Untersuchung nicht Ausdruck der persönlichen Vorlieben und Ansichten der Forschenden sind, sondern von anderen Forschenden ebenso gewonnen werden könnten. Reliabilität (Zuverlässigkeit): Unter Reliabilität versteht man die Genau‐ igkeit, mit der ein bestimmtes Merkmal durch eine Methode gemessen wird. Als reliabel gilt eine Methode dann, wenn sie Ergebnisse liefert, die relativ frei von Zufallseinflüssen sind. Das heißt, die Wiederholung einer Untersuchung mit einer reliablen Methode würde unter den gleichen Rahmenbedingungen auch ungefähr das gleiche Ergebnis zeitigen. Dement‐ sprechend überprüft man die Reliabilität, indem man dieselbe oder eine vergleichbare Methode wiederholt bei denselben Versuchspersonen anwen‐ det und die Ergebnisse vergleicht. Je ähnlicher sich die Ergebnisse sind, umso höher ist die Reliabilität. Wenn Sie beispielsweise mit einer Person einen Persönlichkeitstest durchführen und dieser bei einer Wiederholung zwei Wochen später völlig andere Ergebnisse erbringt, ist der Test nicht reliabel. Was Sie gemessen hätten, wäre vielleicht die Tagesverfassung dieser Person gewesen, nicht aber ihre Persönlichkeit, die definiert ist als zeitstabile Muster des Erlebens und Verhaltens eines Menschen. So gesehen ist die Reliabilität ein Kriterium, das auch etwas über die Replizierbarkeit einer Untersuchung verrät. Validität (Gültigkeit): Die Validität gibt an, inwiefern eine Methode auch wirklich das misst, was sie zu messen vorgibt. Eine valide Methode ist so konstruiert, dass sie alle relevanten Aspekte des zu untersuchenden Phänomens erfasst. Dabei soll sie ähnliche bis gleiche Ergebnisse wie andere Methoden erzielen, die ebenfalls ähnliche bis gleiche Merkmale erfassen (konvergente Validität). Das heißt, zwei unterschiedliche Intel‐ ligenztests sollten vergleichbare Ergebnisse zeitigen. Gleichzeitig sollen die Zusammenhänge mit Methoden, die andere Merkmale untersuchen, nur gering sein (diskriminante Validität). Die Übereinstimmung der Ergebnisse eines Intelligenztests mit einem Persönlichkeitstest sollte also eher gering sein. Die Beurteilung der Validität kann auch über den Vergleich mit einem Außenkriterium erfolgen (Kriteriumsvalidität). Man überprüft 118 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="119"?> dann beispielsweise, ob die durch einen Test gemessene Intelligenz mit dem Außenkriterium Schulnoten oder Berufserfolg korreliert. Transparenz: Dieses Gütekriterium gehört traditionell eher in den Bereich der Qualitativen Sozialforschung, schlägt aber in dieselbe Kerbe wie die Objektivität. Die Transparenz verlangt, dass man den gesamten Prozess der Forschung akkurat dokumentiert und auf diese Weise intersubjektiv nachvollziehbar macht. Intersubjektive Nachvollziehbarkeit meint, dass der Weg, den die Forschenden von der Auswahl der Stichprobe und der Erhebung der Daten über die Aufbereitung bis hin zur Interpretation der Daten zurücklegen, möglichst genau dokumentiert wird. Außenstehende müssen prinzipiell in der Lage sein, alle Schritte des Forschungsprozesses nachzuverfolgen und zu verstehen; vorausgesetzt natürlich sie sind willens, sich die dafür notwendigen Fachkenntnisse und Methodenkenntnisse anzu‐ eignen. Die einzelnen Schritte des Forschungsprozesses müssen jedenfalls benannt und argumentiert werden. Dazu gehört die Begründung für die Auswahl der Stichprobe, die Dokumentation der Erhebung und Aufberei‐ tung der Daten sowie die Durchführung der Auswertung (s.a. Abschnitt II.4). Besondere Bedeutung kommt hierbei der Verwendung von regelgeleiteten und kodifizierten Methoden zu, die die Interpretationen Schritt für Schritt aus dem Datenmaterial ableiten. Indikation/ Adäquatheit: Der Begriff der Indikation stammt aus der Me‐ dizin und thematisiert die Frage, ob eine bestimmte Behandlung für eine bestimmte Erkrankung angebracht ist. Aspirin ist beispielsweise gut gegen Kopfweh, hilft aber nur wenig, wenn man sich eine Oberschenkelknochen‐ fraktur zugezogen hat. Ähnlich ist es in der Forschung. Das gewählte Forschungsdesign und die gewählten Forschungsmethoden haben zum Forschungsgegenstand und zur Forschungsfrage zu passen. Die Frage lautet also: Which method for which question? Um die Designs und Methoden auszuwählen, die zur Beantwortung Ihrer Forschungsfrage am geeignetsten sind, müssen Sie um die Stärken und Schwächen, die Möglichkeiten und Grenzen bestimmter Designs und Methoden Bescheid wissen. Nur dann können Sie aus dem Pool all jener Methoden, die potenziell zur Verfügung stehen, jene wählen, die geeignet sind, um Ihre Forschungsfragen zu be‐ antworten. Um subjektiven Sinn zu erforschen, sind qualitative Methoden besser geeignet. Geht es allerdings um bestimmte operationalisierbare Merkmale, sind quantitative Methoden indiziert. 9 Es ist nicht alles Gold, was glänzt-- Über Gütekriterien empirischer Forschung 119 <?page no="120"?> Reflexivität: Die Gefahr, dass die Subjektivität, insbesondere die persön‐ lichen Vorlieben, Vorurteile und Intentionen der Forschenden, die For‐ schungsergebnisse in die eine oder andere Richtung verzerren, sind groß. Dieses Problem tritt speziell dann auf, wenn man sich diese Subjektivität nicht bewusst macht und blind darauf vertraut, dass man allein schon objektiv genug ist, wenn man eine wissenschaftliche Methode verwendet. Dann steigt die Wahrscheinlichkeit, dass die Ergebnisse völlig unkontrolliert in gewisse Richtungen verzerrt werden, sprunghaft an. Deshalb ist es für eine gute empirische Forschung auch unabdingbar, die Reflexion der eigenen Subjektivität, der eigenen methodischen und paradigmatischen Präferenzen, in den Prozess der Forschung einzubeziehen. Folgende Fragen können dabei hilfreich sein: Welche Ergebnisse möchten Sie gerne erhalten und wie sehr wünschen Sie sich das? Welche Methoden mögen Sie gerne und welche mögen Sie gar nicht und warum ist das so? Welche theoretischen Modelle sprechen Sie an und welche stoßen Sie ab? Wann und wo reagieren Sie irritiert auf Ihren Forschungsgegenstand und fühlen sich unbehaglich? Es geht hierbei also zum einen um die Reflexion des eigenen theoretischen und methodologischen Standpunkts und zum anderen um die Reflexion der eigenen emotionalen und kognitiven Reaktionen auf den Untersuchungsge‐ genstand. Triangulation: Der Begriff Triangulation stammt ursprünglich aus der Landvermessung und meint dort die exakte Bestimmung eines Ortes durch die Messung von zwei bekannten Punkten aus. In die Human- und Sozial‐ wissenschaften importiert ist damit die Idee gemeint, sich ein und denselben Forschungsgegenstand von mehreren Seiten anzuschauen. Einerseits ver‐ folgt die Triangulation den Zweck, die Ergebnisse gegenseitig abzusichern, andererseits dient sie dazu, durch die Ergänzung verschiedener Perspektiven eine vollständigere Sicht auf die Dinge zu erlangen. Vier Formen der Triangulation werden unterschieden (Denzin 1978): 1. Daten-Triangulation: Hierbei werden Daten miteinander kombiniert, die verschiedenen Quellen entspringen. Diese Daten werden zu ver‐ schiedenen Zeitpunkten, an verschiedenen Orten oder bei verschiede‐ nen Personen erhoben. 2. Investigator-Triangulation: Damit ist der Einsatz unterschiedlicher Beobachtender oder Interviewender gemeint. Das hat den Sinn, subjek‐ tive Einflüsse der einzelnen Person auszugleichen. Das wäre der Fall, wenn man Interviewdaten in einer Gruppe auswerten würde, um die 120 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="121"?> subjektiven Sichtweisen der Einzelnen entweder zu korrigieren oder zu ergänzen. 3. Theorien-Triangulation: Darunter versteht man die Untersuchung des Forschungsgegenstands von verschiedenen theoretischen Perspek‐ tiven und Hypothesen aus. Unterschiedliche theoretische Blickwinkel eröffnen oft völlig neue Verständnishorizonte. 4. Methodologische Triangulation: Hierbei handelt es sich wohl um die bedeutendste Form der Triangulation, bei der ein und derselbe For‐ schungsgegenstand mit unterschiedlichen Methoden untersucht wird. Die beiden Methodentypen können gegenseitig blinde Flecken der jeweils anderen Methoden kompensieren. Diskussion von Limitationen: Es ist auch ein Qualitätsmerkmal empiri‐ scher Forschung, die Grenzen des eigenen Forschungsprojekts benennen und diskutieren zu können. In diesem Kontext ist es auch wichtig, zu erörtern, welchen Weg die zukünftige Forschung einschlagen muss, um diese Begrenzungen zu überwinden. Für gewöhnlich geschieht das im Dis‐ kussionsteil von wissenschaftlichen Veröffentlichungen. Sie können unter anderem im Zuge dessen die Frage aufwerfen, welche Aussagen auf der Grundlage Ihrer Stichprobe gemacht werden können und welche nicht. Ist die Stichprobe repräsentativ? Ist es zulässig die Ergebnisse zu generalisie‐ ren? Es ist auch ratsam, zu überlegen, wo die Stärken und Schwächen der angewandten Methoden liegen. Welche Aspekte der Wirklichkeit können mit den eingesetzten Forschungsmethoden untersucht werden und welche nicht? Lohnenswert ist auch die Diskussion von widersprüchlichen Daten, die nicht so recht zu den Endergebnissen zu passen scheinen. Warum fügen sich gewisse Daten Ihrer Studie nicht ins Gesamtbild der Ergebnisse? Eine weitere wichtige Frage im Zuge der Überlegung über die Begrenzungen einer Studie lautet, welche Argumente ganz allgemein gegen die Durchfüh‐ rung und die Ergebnisse ins Feld geführt werden könnten und wie sich diese entkräften lassen. In der Rhetorik nennt man diese Strategie Prokatalepsis. Darunter versteht man die Vorwegnahme und Widerlegung von kritischen Einwänden und Alternativdeutungen. Offen gebliebene Punkte, ungelöste Fragen und unauflösbare Widersprüche sollten allerdings einfach offenge‐ legt und nicht verheimlicht werden. 9 Es ist nicht alles Gold, was glänzt-- Über Gütekriterien empirischer Forschung 121 <?page no="122"?> Literaturtipps Heiser, Patrick (2024): Meilensteine der qualitativen Sozialforschung: Eine Einführung entlang klassischer Studien. 2. Aufl. Wiesbaden: Springer. Hug, Theo (2001): Erhebung und Auswertung empirischer Daten: Eine Skizze für AnfängerInnen und leicht Fortgeschrittene. In: Hug, Theo (Hrsg.): Wie kommt Wissenschaft zu Wissen? Band 2: Einführung in die Forschungsme‐ thodik und Forschungspraxis. Hohengehren: Schneider, S. 11-29. Köhler, Thomas (2012): Statistik.: Ein kurz gefasstes Lehrbuch für das Bache‐ lorstudium der Psychologie, Pädagogik und Sozialwissenschaften. Heidel‐ berg: Asanger. König, Eckard & Bentler, Annette (2013): Konzepte und Arbeitsschritte im qualitativen Forschungsprozess-- ein Leitfaden. In: Friebertshäuser, Bar‐ bara; Langer, Antje & Prengel, Annedore (Hrsg.): Handbuch qualitative For‐ schungsmethoden in der Erziehungswissenschaft. 4. Aufl. Weinheim / Mün‐ chen: Juventa, S. 173-182. Mayring, Philipp (2001): Kombination und Integration qualitativer und quan‐ titativer Analyse. Forum Qualitative Sozialforschung 2 (1). http: / / www.q ualitative-research.net/ index.php/ fqs/ article/ view/ 967/ 2111. Download am 15.04.2019. Mayring, Philipp (2007): Designs in qualitativ orientierter Forschung. Journal für Psychologie 15, Ausgabe 2. https: / / journal-fuer-psychologie.de/ article/ view/ 127/ 111. Download am 09.07.2025. Mayring, Philipp (2023): Einführung in die Qualitative Sozialforschung. 7. Aufl. Weinheim, Basel: Beltz. Mörtl, Kathrin; Lamott, Franziska (2010): Wie wird Veränderung in der Psycho‐ therapieforschung gemessen? Ein Plädoyer für triangulierende Forschung. Psychotherapie und Sozialwissenschaft 12 (2), S.-95-102. Poscheschnik, Gerald (2012): Macht und Ohnmacht des Szientismus. Oder: Die Chance qualitativer Forschung. Psychotherapie und Sozialwissenschaft 14 (2), S.-13-36. Steinke, Ines (2015): Gütekriterien qualitativer Forschung. In: Flick, Uwe; von Kardorff, Ernst & Steinke, Ines (Hrsg.): Qualitative Forschung. Ein Handbuch. 11. Aufl. Reinbek bei Hamburg: Rowohlt, S. 319-331. 122 II Erste Schritte: Die Planung eines Forschungsprojekts <?page no="123"?> III Datenerhebung und Datenaufbereitung 1. Qualitative Erhebungsmethoden (G. Poscheschnik) 2. Quantitative Erhebungsmethoden (B. Lederer, F. Reiter) 3. Aufbereitungsmethoden (I. Andreitz) 4. Die Rolle der Medien in der Erhebung und Aufbereitung von Daten (T. Hug) Dieses Kapitel ist der Erhebung und Aufbereitung von Daten gewidmet. Im ersten Abschnitt erhalten Sie einen Überblick über die wichtigsten Erhebungsmethoden in der qualitativen Forschung. Dieser startet mit einer Vorstellung der bekanntesten Interviewformen. Anschließend werden die qualitativen Erhebungsmethoden der teilnehmenden Beob‐ achtung und der Gruppendiskussion erläutert. Im zweiten Abschnitt werden Ihnen ausgehend von einer kurzen Wiederholung der wich‐ tigsten Merkmale quantitativer Forschung die wichtigsten beiden Erhebungsmethoden quantitativer Sozialwissenschaft detaillierter vor‐ gestellt: die Beobachtung und die Befragung. Im dritten Abschnitt erfahren Sie, wie man erhobene Daten aufbereitet, um sie anschließend auswerten zu können. Sie lernen, wieso die Aufbereitung von Daten wichtig ist und was Sie dabei beachten müssen. Das Kapitel schließt mit einem eigenen Abschnitt über wichtige medienbezogene Aspekte und deren Bedeutung im Forschungszusammenhang. <?page no="124"?> 1 Qualitative Erhebungsmethoden (G. Poscheschnik) In der qualitativen Forschung können unterschiedliche Erhebungsmethoden zum Einsatz kommen. Die drei wichtigsten Arten der Datenerhebung in der qualitativen Forschung sind das Interview, die Gruppendiskussion und die teilnehmende Beobachtung. Das qualitative Interview Definition Ein Interview ist eine besondere Form des Gesprächs, das von der Forscherin mit einer zu beforschenden Person geführt wird. Interviews dienen der wissenschaftlichen Datenerhebung. Im Gegensatz zu einem Alltagsgespräch, bei dem man nur zu leicht vom hundertsten ins tausendste kommt, sind Interviews systematischer und kreisen stär‐ ker um ein bestimmtes, von der Forschungsfrage definiertes Thema. Qualitative Interviews werden in vielen Wissenschaften eingesetzt, darunter Psychologie, Soziologie, Pädagogik, Soziale Arbeit, Ethnolo‐ gie, Geschichte und Medienwissenschaft. Qualitative Interviews lassen sich hinsichtlich der Strukturiertheit bzw. Unstrukturiertheit der Fragen und der Offenheit bzw. Geschlossenheit der Antwortmöglichkeiten untergliedern. Bei vollkommen strukturierten Interviews sind alle Fragen genau vorgegeben. Abweichungen sind nicht vorgesehen. Das Gegenstück dazu ist ein völlig offenes, unstrukturiertes Gespräch, das keinen bestimmten Fokus verfolgt und sich ohne bestimmtes Ziel von einem Thema zum nächsten schlängelt. In der qualitativen Forschung schlägt man meist einen Mittelweg ein. Hier sind halbbzw. teilstrukturierte Interviews typisch, bei denen ein Interviewleitfaden entwickelt wird, der dem Gespräch als roter Faden dient. Dieser Interviewleitfaden enthält jene Fragen, die nötig sind, um all die Themen zur Sprache zu bringen, die für die Forschungsfrage von Relevanz sind. Meist behält man sich bei qualitativen Leitfadeninterviews 124 III Datenerhebung und Datenaufbereitung <?page no="125"?> die Möglichkeit vor, nachzufragen, wenn die Interviewerin das Gefühl hat, dass die Interviewte noch nicht genug Informationen zu einer Frage preisgegeben hat. Es ist also zwar ein Katalog von Fragen vorgegeben, dieser kann aber bei Bedarf auch verlassen werden, um beispielsweise ein besonders interessantes Thema zu vertiefen. Während sich der Grad der Strukturiertheit auf die Freiheit der Interview‐ enden bezieht, richtet sich das Ausmaß der Offenheit bzw. Geschlossen‐ heit eines Interviews auf die Freiheit der Interviewten. Bei einem völlig geschlossenen Interview sind alle Antwortmöglichkeiten vorgegeben. Eine solche Form des Interviews wird in der qualitativen Forschung eigentlich nicht verwendet. Hier sind nämlich eher offene Interviews angezeigt, bei denen den Interviewten die Möglichkeit eröffnet wird, ihre Subjektivität zu entfalten und die gestellten Fragen möglichst frei und ungehindert zu beantworten. Überblick Die wichtigsten Interviewformen in der qualitativen Forschung Narratives Interview: Offene, unstrukturierte Befragung für die Erhe‐ bung von biographischen Erzählungen. Episodisches Interview: Offene, teilstrukturierte Befragung für die Er‐ hebung von biographischen Erzählungen und von Regelwissen. Problemzentriertes Interview: Offene, teilstrukturierte Befragung für die Erhebung subjektiver Einstellungen in Bezug auf ein gesellschaftliches Problem. Fokussiertes Interview: Offene, mehr strukturierte Befragung für die Erhebung subjektiver Sichtweisen in Bezug auf einen bestimmten Stimulus. Halbstandardisiertes Interview: Offene, teilstrukturierte Befragung für die Erhebung subjektiver Theorien über den Forschungsgegenstand. Experteninterview: Befragung von Personen, die sich durch eine beson‐ dere Expertise über den Forschungsgegenstand auszeichnen. Tiefeninterview: Offene, nur wenig strukturierte Befragung zur Aufde‐ ckung unbewusster Strukturen. 1 Qualitative Erhebungsmethoden 125 <?page no="126"?> Narratives Interview: Beim narrativen Interview handelt es sich um einen nur sehr wenig strukturierten und offenen Interviewtypus (Schütze 1983). Die Interviewten werden dabei nicht mit bestimmten standardisierten Fragen konfrontiert, sondern animiert, möglichst frei zu erzählen. Entweder werden die Interviewten aufgefordert über ihr gesamtes Leben zu erzählen oder eine Geschichte zu einem bestimmten Thema aus ihrem Leben zu erzählen. Je nach Forschungsfrage kann sich das Interview aber auch auf ausgewählte Aspekte des Lebens oder besonders relevante Lebensphasen konzentrieren. Die Eingangsfrage ist dabei möglichst breit formuliert und könnte beispielsweise lauten: »Erzählen Sie mir bitte alles über die Ge‐ schichte Ihres Lebens. Beginnen Sie am besten mit der Geburt und der Zeit als Sie ein ganz kleines Kind waren und erzählen Sie dann alles was sich von da an im Laufe Ihres Lebens so ereignet hat. Sie können sich ruhig Zeit nehmen, auch für Details. Mich interessiert alles, was Ihnen wichtig ist«. Je nach Forschungsfrage könnte auch ähnlich erzählgenerierend nach Phasen der Arbeitslosigkeit, Erfahrungen als Patientin einer bestimmten Erkran‐ kung, beruflichen Karrierewegen, der Jugendzeit usw. gefragt werden. Die Interviewenden sollen den Fluss der Erzählung nicht durch Zwischenfragen beeinträchtigen und lediglich am Laufen halten, indem sie wiederholt Interesse bekunden. Am Ende des Interviews können jene Bereiche, die in der Haupterzählung nur gestreift wurden, durch vertiefende Fragen exploriert werden. So eine Frage könnte lauten: »Sie haben erwähnt, dass Sie in Ihrer Jugend Mitglied einer Gang waren. Können Sie mir mehr davon erzählen? «. Zum Schluss könnte auch noch nach Gründen, Argumenten und Erklärungen für bestimmte biographische Muster gefragt werden. So eine Frage könnte lauten: »Was denken Sie, welche Rolle haben die Erfahrungen, die Sie in Ihrer Jugendzeit gemacht haben, für Ihr weiteres Leben gespielt? « Das narrative Interview könnte man auch biographisches Interview nennen, weil es auf die Erhebung autobiographischer Informationen abzielt. Problemzentriertes Interview: Eine weitere Interviewform ist das prob‐ lemzentrierte Interview (Witzel 2000). Das problemzentrierte Interview ist etwas stärker strukturiert als das narrative Interview. Bei dieser Interview‐ form dreht sich der Leitfaden um biographische Fragen zu einer relevanten gesellschaftlichen Problemstellung, ansonsten lässt man die Interviewten aber möglichst ungehindert zu Wort kommen. Um den Leitfaden zu konstru‐ ieren, ist es nötig, sich bereits vorab mit der Thematik auseinandergesetzt zu haben. Man beschäftigt sich mit der wissenschaftlichen Literatur und 126 III Datenerhebung und Datenaufbereitung <?page no="127"?> leitet daraus seine Fragen ab. Das Ergebnis ist ein Interviewleitfaden, der die Aufmerksamkeit der Interviewten auf bestimmte Thematiken lenkt, über die sie dann offen erzählen können. Im Rahmen von problemzentrierten In‐ terviews kommen allgemeine Fragen zum Gesprächseinstieg sowie diverse Sondierungen zum Einsatz. Ein Gesprächseinstieg in einer Untersuchung über Studienwahlmotive könnte lauten: »Sie haben sich fürs Studium der Medizin entschieden. Wie sind Sie darauf gekommen? Erzählen Sie doch einfach mal! « Sondierungen erfolgen durch gezieltes Nachfragen, wie z. B. »Wie genau war denn das damals? « Flankiert wird das problemzentrierte Interview häufig von einem Kurzfragebogen, mit dem alle wichtigen sozio‐ demographischen Daten erhoben werden. Dadurch erspart man sich das Abfragen dieses Bereichs im Interview und kann den Leitfaden reduzie‐ ren. In einem Postscriptum sollen die Interviewenden im Anschluss ans Interview alle wichtigen Eindrücke über die interviewte Person und die Interviewsituation festhalten, um Kontextinformationen zu konservieren, die für die spätere Auswertung relevant werden könnten. Fokussiertes Interview: In eine ähnliche Richtung geht das fokussierte Interview, das ursprünglich für die Medienforschung entwickelt wurde (Merton / Kendall 1945). Nach der Präsentation eines bestimmten Reizes, beispielsweise eines Films oder einer Radiosendung, wird mithilfe eines Interviewleitfadens dessen Wirkung auf die Probanden erfasst. Um den vorgegebenen Reiz an sich mit dessen Wirkung aufs Publikum vergleichen zu können, wird dieser zuvor einer Inhaltsanalyse unterzogen. Der Leitfaden sollte alle für die Forschungsfrage wichtigen Aspekte thematisieren. Er enthält unspezifischere Fragen, die sich ganz allgemein auf die Wirkung des Stimulus beziehen (z. B. Was ist Ihnen an dem Film, den Sie eben gesehen haben, besonders aufgefallen? ). Zudem gibt es noch spezifischere Fragen, die sich auf bestimmte Elemente des Stimulus beziehen (z. B. Was empfanden Sie bei den Szenen des Films, in denen Neo realisiert, dass die Wirklichkeit nicht so ist, wie sie ihm erschien? ). Da beim fokussierten Interview eine gewisse Tiefgründigkeit erwünscht ist, wie die Interviewten das Reizmaterial erlebt haben, sind vertiefende Nachfragen möglich. Halbstandardisiertes Interview: Das so genannte halbstandardisierte Interview ist eine weitere Form des Leitfadeninterviews und dient speziell der Rekonstruktion subjektiver Theorien (Scheele / Groeben 1988). Unter subjektiven Theorien versteht man die persönlichen Annahmen und den Wissensbestand der Interviewten über einen bestimmten Gegenstand. Diese 1 Qualitative Erhebungsmethoden 127 <?page no="128"?> Annahmen sind entweder direkt verfügbar und können auf entsprechende Fragen geäußert werden, oder aber sie sind mehr implizit, können aber durch spezielle Frage- und Auswertungstechniken ans Licht gehoben werden. Ergänzt wird das eigentliche Interview durch einen zweiten Termin, in dem die Aussagen des ersten Interviews gemeinsam mit den Interview‐ ten strukturiert und geordnet werden. Im Zuge dieser so genannten »Struktur-Lege-Technik«, bei der die einzelnen Aussagen auf Kärtchen festgehalten und mit den Interviewten in eine logische Ordnung gebracht werden, kommt es zu einer kommunikativen Validierung der Ergebnisse. Damit ist gemeint, dass hierbei die Zustimmung der Interviewten zu den Ergebnissen eingeholt wird. Sie haben die Möglichkeit, die Aussagen nun umzuformulieren oder auch herauszunehmen. Im Rahmen des halbstandar‐ disierten Interviews kommen offene Fragen, theoriegeleitete Fragen und Konfrontationsfragen zum Einsatz. Eine offene Frage zielt auf das direkt verfügbare Wissen der Interviewten über den Gegenstand der Untersuchung ab (z. B.: Warum erkranken Ihrer Meinung nach Menschen überhaupt an Multipler Sklerose? ). Die theorie- oder hypothesengeleitete Frage erhebt die Einstellung zu bestimmten Überlegungen, die der wissenschaftlichen Lite‐ ratur entnommen wurden (z. B.: Glauben Sie, dass Multiple Sklerose durch den Einfluss von Umweltgiften entstehen kann oder halten Sie diese Idee für eher abwegig? ). Sinn und Zweck von Konfrontationsfragen ist es, die subjektiven Theorien des Interviewten mit alternativen Annahmen kritisch zu hinterfragen (z. B.: Sie haben gesagt, mit MS ist ein normales Leben unmöglich. Es gibt allerdings auch Berichte von Patienten, die zwischen den Krankheitsschüben ein sehr glückliches und zufriedenes Leben führen. Was meinen Sie dazu? ). Episodisches Interview: Das episodische Interview geht davon aus, dass der Wissensbestand einer Person zu einem bestimmten Thema in zwei Formen vorliegen kann (Flick 1996). Zum einen sind die Erfahrungen der Subjekte in narrativ-episodischer Form gespeichert; das sind Erinnerungen an konkrete Situationen, die erzählt werden können. Zum anderen kann Wissen auch in semantischer Form vorliegen; damit sind abstrakte und verallgemeinerte Annahmen gemeint. Um diese Wissensformen bei der Befragten anzuzapfen, werden diese immer wieder zum Erzählen von bestimmten Situationen aufgefordert (z. B.: Wenn Sie sich einmal zurück‐ erinnern, was war Ihre erste Begegnung mit dem Internet? Können Sie mir die entsprechende Situation erzählen? ). Daneben wird aber auch nach 128 III Datenerhebung und Datenaufbereitung <?page no="129"?> allgemeineren, abstrakteren Zusammenhängen gefragt, um den semantisch organisierten Wissensfundus zur Sprache zu bringen (z. B.: Was verbinden Sie mit dem Wort »Internet«? Welche Bedeutung hat das für Sie? ). Experteninterview: Das Experteninterview definiert sich in erster Linie durch den Status, der den Interviewten zugeschrieben wird (s. Bogner et al. 2014). Beim Experteninterview wird eine Person befragt, die über eine Expertise auf einem bestimmten Gebiet verfügt. Sie wählen also Personen, von denen Sie annehmen dürfen, dass diese über ein besonderes Wissensre‐ servoir über das Gebiet Ihres Forschungsinteresses verfügen. Das Interesse der Forschenden besteht nur an der Expertise der Person, nicht aber an der Person selbst. Wenn Sie die Managementkultur einer großen Firma untersuchen wollen, dann wären Managende die Experten (z. B.: Was hat ein Manager zu tun, wenn Probleme mit Mitarbeitern im Betrieb auftauchen? ). Wenn Sie die Andersheit männlicher Kindergartenpädagogen im Vergleich zu weiblichen Kindergartenpädagoginnen untersuchen wollen, könnten Sie z. B. deren weibliche Kolleginnen interviewen und diese als »Expertinnen« betrachten (z. B.: Was denken Sie, wo liegen die wichtigsten Unterschiede zwischen weiblichen Pädagoginnen und ihren männlichen Kollegen im Umgang mit kleinen Kindern? ). Tiefeninterview: Das Tiefeninterview ist ein Interviewverfahren, das von der Psychoanalyse inspiriert ist (s. Salcher 1995; Banaka 1971). Insofern ist es eine wichtige Erhebungsmethode für Auswertungen mit der Psycho‐ analytischen Textinterpretation (s. Kapitel IV.1). Es handelt sich um ein nur sehr wenig strukturiertes, offenes Interview, das angewandt wird, um verborgene, normalerweise nur schwer zu erfassende, unbewusste Motive und Einstellungen der interviewten Personen zu Tage zu fördern. Das Tiefeninterview folgt somit dem Prinzip der freien Assoziation. Das heißt, dem Interviewten wird der Raum gelassen, seine Subjektivität möglichst ungehindert zu entfalten und alles zur Sprache zu bringen, was er für erzählenswert hält. Zur Aufdeckung unbewusster Einstellungen kommen im Tiefeninterview unterschiedliche Frageformen zum Einsatz. Darunter befinden sich allgemeine erzählgenerierende Fragen, welche die als relevant definierten Themen anschneiden (z. B. Erzählen Sie mir doch einfach mal, was Ihnen so zu Ihrer Kindheit einfällt). Sprechen die Interviewten Gebiete an, die nicht im Interviewleitfaden enthalten sind, aber vielversprechend erscheinen, besteht die Möglichkeit zu vertiefenden Fragen (z. B. Sie haben gesagt, mit Ihrem Bruder hatten Sie es nicht immer so leicht. Wie meinen 1 Qualitative Erhebungsmethoden 129 <?page no="130"?> Sie das? ). Zusätzlich können spezielle Fragetechniken, wie beispielsweise Assoziationsfragen oder projektive Fragen zum Einsatz kommen. Eine As‐ soziationsfrage ist eine Aufforderung der Interviewenden, alles zu erzählen, was einem zu einem bestimmten Stimulus-Wort einfällt (z. B. Was fällt Ihnen spontan zum Begriff Weiblichkeit ein? ). Eine projektive Frage bezieht sich auf einen visuellen Reiz, der zu den besprochenen Inhalten passt und vom Interviewer ins Gespräch eingebracht wird (z. B. Was denken Sie über dieses Werbeinserat aus einer regionalen Tageszeitung? ). Zusammenfassung Werkzeugkiste zur Konstruktion von Interviewleitfäden Wie schon erwähnt, ist es nicht unbedingt nötig, sich für einen der oben erwähnten Interviewtypen zu entscheiden. Vielmehr können Sie einen Interviewleitfaden »Marke Eigenbau« enwickeln, der auf Ihre Forschungsfragen zugeschnitten ist. Die folgende Werkzeugkiste stellt Ihnen Fragetypen vor, die Sie in Ihrem Leitfaden bei Bedarf verwenden können. Erzählgenerierende Fragen: Erzählgenerierende Fragen sind offen for‐ mulierte Fragen, die auf Wissen abzielen, das in Form von Episoden vorliegt und narrativ berichtet werden kann. Solche Fragen können sich auf die gesamte Biographie (Lebensgeschichte), bestimmte biogra‐ phische Abschnitte (z. B. Kindheit, Jugend, Erwachsenenalter, letzte Woche etc.) oder bestimmte biographische Kontexte (z. B. Schule, Ehe, Beziehung zu Eltern etc.) richten. Beispielfrage: »Könnten Sie mir die Geschichte Ihrer Volksschulzeit erzählen? Welche Erfahrungen haben Sie mit Lehrern und Mitschülern gemacht? Erzählen Sie doch bitte einfach alles, was Ihnen wichtig erscheint! « Abstraktionsgenerierende Fragen: Abstraktionsgenerierende Fragen sind offen zu stellen und zielen auf Wissen ab, das in semantisch allgemeiner abstrakter Form vorliegt. Solche Fragen beziehen sich auf die Bedeutung von Begriffen oder Konzepten für die interviewte Person. Beispielfrage: »Was verbinden Sie persönlich mit dem Begriff ›Tod‹? Welche Bedeutung hat der Tod für Sie? « Problemzentrierte Fragen: Problemzentrierte Fragen sollen - wie alle Fragen qualitativer Interviews - möglichst offen gestellt werden. Im Unterschied zu den ersten beiden Fragetypen geht es jetzt allerdings 130 III Datenerhebung und Datenaufbereitung <?page no="131"?> weniger um subjektive Erfahrungen und Theorien über Themen, die unmittelbar das eigene Leben der Interviewten betreffen, sondern um gesellschaftliche oder institutionelle Themen und Problemfelder und deren Einfluss auf bzw. Zusammenhang mit dem eigenen Leben. Beispielfrage: »Was denken Sie über Soziale Medien? Welche Rolle spielen sie in Ihrem Leben? Was denken Sie, welche gesellschaftliche Bedeutung sie haben? « Reaktionsfragen: Reaktionsfragen richten sich auf die subjektiven Ein‐ drücke, die ein bestimmter Stimulus in der interviewten Person ge‐ weckt hat. Bei diesem Stimulus kann es sich um einen Film, einen Text, ein Bild oder ähnliches handeln. Beispielfrage: »Welche Eindrücke hat Paul Celans Gedicht ›Todesfuge‹ in Ihnen beim Lesen geweckt? « Konfrontationsfragen: Konfrontationsfragen sind Fragen, die die beste‐ henden Annahmen des Interviewten gezielt herausfordern, indem sie eine Stellungnahme zu Ansichten einfordern, die der bisher artikulier‐ ten Sichtweise der Interviewten zuwiderlaufen. Konfrontationsfragen müssen taktvoll und mit Respekt geäußert werden und dürfen keines‐ falls vorwurfsvoll klingen. Beispielfrage: »Sie haben erwähnt, dass Sie als Manager in Ihrem Unternehmen von den Mitarbeitern sehr geschätzt werden. Trotzdem hört man immer wieder, dass Manager den Unmut ihrer Belegschaft auf sich ziehen und dafür auch mediale Schelte ernten. Wie erklären Sie sich das? « Assoziationsfragen: Assoziationsfragen sind Aufforderungen der Inter‐ viewenden an die Interviewten, alles zu sagen, was diesen spontan zu einem bestimmten Stimulus einfällt. Dieser Fragentypus ist von der psychoanalytischen Grundregel der freien Assoziation abgeleitet, alles zu sagen, was einem in den Sinn kommt, selbst dann, wenn es einem belanglos oder peinlich erscheint. Beispielfragen: »Sprechen Sie bitte alles aus, was Ihnen spontan zum Begriff ›Angst‹ einfällt! «, »Was fällt Ihnen spontan ein, wenn Sie dieses Bild sehen? « Reflexionsfragen: Mit Reflexionsfragen lädt man die Interviewten ein, über den Einfluss bestimmter biographischer Ereignisse auf ihr Leben nachzudenken. Solche Fragen zielen auf die Fähigkeit der Interviewten ab, sich selbst und ihr eigenes Leben, aber auch ihnen nahestehende Menschen zum Gegenstand des Nachdenkens zu machen. Reflexions‐ fragen könnten sein: »Was denken Sie, welchen Einfluss hatten die 1 Qualitative Erhebungsmethoden 131 <?page no="132"?> häufigen Konflikte Ihrer Eltern während Ihrer Kindheit auf Ihr heuti‐ ges Leben? «, »Was für ein Mensch sind Sie, wie würden Sie sich selbst beschreiben? «, »Welchen Einfluss hat dieses Verhalten Ihrer Partnerin auf Sie? « Theorie-/ Hypothesengeleitete Fragen: Theoriebzw. hypothesengelei‐ tete Fragen lassen sich mehr oder weniger gut in jede der bereits erwähnten Frageformen packen. Gemeint ist damit nur, dass die inhaltliche Ausrichtung der Frage aus der wissenschaftlichen Literatur abgeleitet wird. Gefragt wird dabei nach subjektiven Einstellungen zu bereits existierenden wissenschaftlichen Theorien. Beispielfrage: »In der wissenschaftlichen Literatur werden sowohl Neurotransmitte‐ rentgleisungen im Gehirn als auch negative Kognitionen und emotio‐ nale Konflikte für die Entstehung einer Depression verantwortlich gemacht. Wie sehen Sie als depressiver Patient diese Erklärungsan‐ sätze? « Vertiefende Fragen: Vertiefende Fragen können alle bisher genannten Fragetypen ergänzen und definieren sich dadurch, dass der Interviewte gebeten wird, zusätzliche Informationen und Details zu einem noch offen gebliebenen oder ungenügend besprochenen Themen preiszuge‐ ben. Solche Vertiefungsfragen können sich spontan im Interviewver‐ lauf ergeben oder notiert und später gestellt werden, um den Fluss der Erzählung nicht zu unterbrechen. Beispielfrage: »Erzählen Sie doch mehr über Ihr Verhältnis zu Ihrem Bruder! Sie haben erwähnt, die Beziehung zu ihm war nicht immer glücklich. Was bedeutet das genau? « Interview ≠ Interview-- Über Interviewführung und die Qualität qualitativer Daten Jenseits der Interviewtypologie und der Technik der Leitfadenentwicklung liegt die hohe Kunst der Interviewführung. Diese ist mindestens ebenso wichtig für die Qualität der Resultate wie die Wahl der Erhebungsmethode an sich. Interview ist nicht gleich Interview. Wenn Sie Suggestivfragen stellen und Ihren Interviewten jedes Wort in den Mund legen, ist das zwar eine tolle Bestätigung Ihrer Vorannahmen, der wissenschaftliche Wert solcher Erhebungen geht aber gegen null. Und wenn Sie jede Antwort, 132 III Datenerhebung und Datenaufbereitung <?page no="133"?> die nur im Geringsten vom Thema abweicht, abwürgen, werden sich Ihre Interviewten alles andere als respektiert fühlen und auch nicht offen erzählen. Fehlt es Ihnen umgekehrt aber an der Fähigkeit, das Interview zu steuern, kann es leicht sein, dass Ihr Gegenüber vom Hundertsten ins Tausendste kommt und Sie alles Mögliche erfahren, nur eben das nicht, was Sie wissen wollen. Insofern ist es wichtig, bei der Interviewführung eine Reihe von Punkten einzuhalten, deren Befolgung erst die Qualität qualitativer Daten garantiert. Die Interviewführung erfordert ebenso wie die Datenauswertung eine gewisse Übung. Das Fingerspitzengefühl kommt erst mit der Zeit. Trotzdem gibt es eine Reihe von Daumenregeln, deren Beachtung empfehlenswert ist. Überblick Sechzehn goldene Regeln der Interviewführung 1. Technik beherrschen: Machen Sie sich mit der Technik vertraut, bevor Sie mit dem Interview beginnen. Studieren Sie die Bedie‐ nungsanleitung des Aufzeichnungsgeräts und überprüfen Sie, ob alles funktioniert. Erstens wirkt es peinlich, wenn sie vor dem Start verzweifelt und ahnungslos auf den Knöpfen herumdrücken, und zweitens sollten Sie sich sicher sein können, dass nach dem Interview alles im Kasten ist und Sie nicht nur weißes Rauschen aufgezeichnet haben. 2. Ungestörtheit schaffen: Achten Sie auf eine entspannte und un‐ gestörte Atmosphäre bei der Durchführung des Interviews. Ein Gasthaus mit lauter Musik beispielsweise wird die Aufnahme stören. Räume, in denen ständig Leute ein- und ausgehen, werden den Interviewfluss immer wieder unterbrechen. Störungen sind kontraproduktiv für ein gutes Interview und sollten ausgeschaltet werden. 3. Vertrauen aufbauen: Wichtig bei Interviews ist es, eine Vertrauens‐ basis aufzubauen, damit der Interviewte auch wirklich erzählt, was ihn bewegt. Dazu müssen Sie ernsthaftes Interesse an den Befragten und ihren Antworten vermitteln. Die Befragten dürfen sich weder ausgehorcht noch kritisiert fühlen. Bemühen Sie sich, die Erzählungen Ihrer Interviewten zu akzeptieren, selbst dann, wenn sie Ihrem eigenen Weltbild zuwiderlaufen. 1 Qualitative Erhebungsmethoden 133 <?page no="134"?> 4. Verständlichkeit beachten: Es geht nicht nur darum, dass Sie die Interviewten verstehen, sondern auch darum, dass die Interview‐ ten Sie verstehen. Das heißt, Ihre Fragen müssen so formuliert sein, dass die Interviewten verstehen, was gemeint ist und worauf die Frage abzielt. Sie sollten Fachausdrücke eher vermeiden, es sei denn es handelt sich bei den Interviewten um Leute vom Fach. Die eigene Sprache muss an die Sprache der Interviewten angepasst werden 5. Gespräch steuern: Als interviewende Person müssen Sie das Ge‐ spräch auf jene Bereiche lenken, die für Ihre Fragestellung relevant sind, ohne allerdings den Interviewten die Antworten in den Mund zu legen, die Sie gerne hören würden. Vermeiden Sie also Sugges‐ tivfragen. Wenn jemand abschweift, führen Sie ihn behutsam zum Thema zurück. 6. Geduld haben: Haben Sie Geduld im Abwarten von Antworten. Ein Interview ist kein Alltagsgespräch. Wenn Pausen entstehen, bemühen Sie sich, diese auszuhalten und nicht gleich mit der nächs‐ ten Frage vorzupreschen oder das Schweigen mit persönlichen Anekdoten zu überbrücken. Bleiben Sie zurückhaltend und lassen Sie den Interviewten Zeit zum Antworten. Wenn Ihnen jemand allerdings generell eine Antwort verweigert, respektieren Sie das; ein Interview ist auch kein Verhör. 7. Flexibel bleiben: Bleiben Sie flexibel in der Interviewführung. Wenn etwas Ihre Aufmerksamkeit oder Ihr Interesse weckt, lassen Sie sich die Möglichkeit offen, nachzufragen, auch wenn das Thema oder die Frage im Interviewleitfaden noch nicht berücksichtigt wurde. Sonst laufen Sie Gefahr, Opfer Ihrer eigenen Leitfadenbü‐ rokratie zu werden und wichtige Aspekte zu übersehen. 8. Zustimmung erbitten: Bevor Sie mit dem Interview loslegen kön‐ nen, sollten Sie die Erlaubnis zur Aufzeichnung des Gesprächs von den Interviewten einholen und ihnen völlige Anonymität zusichern. 9. Einstiegsfrage finden: Bedenken Sie, dass Sie in den meisten Fällen - abgesehen von einem kurzen telefonischen oder schriftlichen Kon‐ takt im Vorfeld des Interviews zur Terminvereinbarung - für die interviewte Person fremd sind. Finden Sie deshalb eine so genannte Einstiegsfrage (auch Warm-up- oder Aufwärmfrage genannt), die nicht zu persönlich oder intim ist, trotzdem aber schon behutsam 134 III Datenerhebung und Datenaufbereitung <?page no="135"?> zum Thema des Gesprächs hinlenkt. Die Einstiegsfrage soll den Anfang erleichtern. 10. Fragen formulieren: Um passende Fragen für Ihren Interviewleitfa‐ den zu formulieren, ist es geschickt, wenn Sie sich selbst fragen, wonach Sie wie fragen müssen, um Antworten zu erhalten, de‐ ren Auswertung letztlich eine Beantwortung Ihrer leitenden For‐ schungsfrage(n) ermöglicht. Ihre Fragen sollen zielgerichtet sein, sprich darauf abzielen, die von Ihnen gesuchten Informationen zu ermitteln. 11. Offene Fragen stellen: Versuchen Sie Ihre Fragen generell möglichst so zu formulieren, dass Sie den Interviewten keine Antworten in den Mund legen, und sie die Gelegenheit erhalten, möglichst frei zu erzählen. Geben Sie die Chance, dass die Interviewten selbst eine Antwort finden. Sonst finden Sie nur Ihre selbstversteckten Oster‐ eier und produzieren Daten, die wissenschaftlich wertlos sind. Wenn Sie etwas nicht verstehen oder genauer wissen möchten, fragen Sie nach, und lassen Sie sich mehr erzählen. Nehmen Sie sich und Ihre Privatmeinungen aber zurück, ein Interview ist kein Kaffeekränzchen. 12. Reihenfolge finden: Eine Leitfadenbürokratie im Sinne eines strik‐ ten Abhandelns einer Frage nach der anderen ist dem Gesprächs‐ klima nicht gerade förderlich. Trotzdem empfiehlt es sich, eine sinnvolle Reihenfolge der Fragen zu finden, um nicht völlig will‐ kürlich von einem Thema zum anderen zu springen. 13. Interview beenden: Zum Abschluss eines Interviews können Sie noch die Frage in den Raum stellen, ob etwas Wichtiges vergessen wurde. Sie können die Interviewten darauf hinweisen, wo sie sich über Ergebnisse Ihrer Studie informieren können werden. Auf alle Fälle sollten Sie sich für das Gespräch bedanken! 14. Interviewleitfaden ausprobieren: Ein Probedurchgang Ihres Inter‐ viewleitfadens - als »Opfer« bietet sich z. B. eine kritische Freundin an - wird Ihnen helfen, Schwachstellen zu eruieren, unverständliche oder mehrdeutige Fragen aufzuspüren und eine unlogische Abfolge der Fragen zu entdecken. Aufgrund dieser Ergebnisse können Sie Ihren Interviewleitfaden modifizieren! Be‐ vor Sie dann mit den eigentlichen Interviews loslegen, sollten Sie sich intensiv mit Ihrem Leitfaden beschäftigen, ihn möglichst auswendig lernen, um nicht hölzern und emotionslos Fragen von 1 Qualitative Erhebungsmethoden 135 <?page no="136"?> einem Stück Papier abzulesen, denn das würde den emotionalen Rapport empfindlich beeinträchtigen. 15. Kurzfragebogen erwägen: Wenn Sie auch objektive Daten, wie z. B. soziodemographische Variablen für Ihre Studie erheben müssen, können Sie diese auch in einen Kurzfragebogen auslagern. Ein sol‐ cher kann den Interviewleitfaden und damit die Interviewten vor einer wahren Fragenflut schützen. Sie können den Kurzfragebogen vor oder nach dem Interview ausfüllen lassen. 16. Reflexion schreiben: Unmittelbar nach dem Interview können Sie eine kurze Reflexion zu Papier bringen, um von Ihnen als wichtig erachtete Beobachtungen objektiver oder subjektiver Natur zu fi‐ xieren. Diese Notizen über beispielsweise die Dynamik der sozialen Interaktion während des Interviews, besondere Vorkommnisse, Eindrücke über die interviewte Person usw. können die spätere Aufbereitung und Auswertung der Interviewdaten erleichtern und ergänzen. Gruppendiskussionen und Fokusgruppen Definition Die Gruppendiskussion bzw. Fokusgruppe ist ein Gespräch von mehreren Personen über ein bestimmtes Thema, das von Forschenden moderiert wird (Flick 2004; Lamnek 2010; Mayring 2002; Przybor‐ ski/ Riegler 2010). Auch hier kann man - ähnlich wie bei Interviews - stärker strukturiert oder mehr offen vorgehen. Gruppendiskussionen sind immer dann geeignet, wenn man nicht nur an der Meinung und dem subjektiven Erleben von Einzelnen interessiert ist, sondern etwas über den sozialen Aushandlungscharakter von Meinungen er‐ fahren möchte. Gruppendiskussionen sind ideal, um das Wechselspiel unterschiedlicher Meinungen zu untersuchen. Gut geeignet ist die Methode auch, wenn man das Meinungsspektrum zu einer bestimmten Frage erheben möchte ohne gleich eine systematisch repräsentative Erhebung durchzuführen. Zudem eignen sie sich zur Exploration eines bisher nur wenig untersuchten Forschungsgegenstands. 136 III Datenerhebung und Datenaufbereitung <?page no="137"?> Viele subjektive Sinnstrukturen sind so stark in soziale Kontexte eingebettet, dass sie überhaupt erst in Gruppendiskussionen zum Vorschein kommen. Einzelinterviews über rassistische Vorurteile werden wahrscheinlich nur wenig ergiebig sein, lässt man jedoch eine Gruppe von Menschen diskutie‐ ren, kann es leicht vorkommen, dass sich das Gespräch hochschaukelt und Attitüden offenbar werden, die vom Einzelnen noch leicht hinter einer Fassade von Rationalität und Besonnenheit verborgen werden konnten. Gruppendiskussionen erschaffen ein alltagsnahes Diskussionsklima, das es Ihnen erlaubt, zu beobachten, wie Meinungen gebildet, verändert, un‐ terdrückt und durchgesetzt werden. Die Gruppendiskussion ist vor allem geeignet, um kollektive Einstellungen, öffentliche Meinungen, Ideologien und Vorurteile zu explorieren. Nicht die Person an sich ist hierbei die Datenquelle, sondern die Diskussion über ein bestimmtes Thema. Zur Auswertung wird man hierbei eher auf psychoanalytische oder diskursana‐ lytische Methoden setzen (s. Kapitel IV). Darüber hinaus erweisen sich Gruppendiskussionen und Fokusgruppen in der empirischen Forschung aber auch dann als nützlich, wenn es darum geht, sich im Forschungsfeld zu orientieren und erste Hypothesen zu ge‐ winnen. Mithilfe von Gruppendiskussionen lassen sich nämlich Meinungen und Ansichten zu einem bestimmten Forschungsgegenstand sammeln. Auf diese Weise kann man reichhaltiges Datenmaterial für die Entwicklung von Interviewleitfäden und Fragebögen gewinnen. In dem Fall würden Sie bei der Auswertung wahrscheinlich am ehesten auf thematische oder inhaltsanalytische Verfahren bauen (s. Kapitel IV). Bedeutsam ist natürlich die Zusammensetzung der Gruppe. Bei solchen Gruppendiskussionen kann man je nach Zielsetzung mit natürlichen Grup‐ pen, die auch außerhalb der Forschungssituation existieren (z. B. eine Familie oder ein Team), und künstlichen Gruppen, die eigens für die Gruppendiskussion zusammengestellt werden (z. B. mehrere Fließbandar‐ beiterinnen aus unterschiedlichen Betrieben), arbeiten. Auch die Frage, ob man eine homogene Gruppe von Menschen, die sich anhand bestimmter Merkmale ähneln (z. B. Studienabbrecher der Studienrichtung Physik), oder eine heterogene Gruppe, bei der sich die Teilnehmenden hinsichtlich der für die Forschungsfrage relevanten Merkmale unterscheiden (z. B. Studierende aus unterschiedlichen Fachrichtungen in unterschiedlichen Semestern), wählt, ist zu bedenken. Den Auftakt zur Gruppendiskussion bildet in den meisten Fällen die Präsentation eines (oft provokanten) Reizes. Das kann ein kurzer Film, 1 Qualitative Erhebungsmethoden 137 <?page no="138"?> eine provokante These oder ein kleiner Text sein. In einer Studie über rechtsextremistische Tendenzen bei Jugendlichen wurde diesen im Vorfeld der Gruppendiskussion ein kurzer Filmzusammenschnitt mit Interviewaus‐ schnitten von rechtsorientierten Musikgruppen vorgespielt. Der Reiz soll die Diskussion jedenfalls in Gang setzen. Um sicher zu gehen, dass in der Diskussion wirklich alle für Sie relevanten Themen zur Sprache kommen, empfiehlt sich doch auch die Erstellung eines Interviewleitfadens oder einer Checkliste. Damit können Sie dafür Sorge tragen, dass Sie nichts übersehen, das für die Beantwortung Ihrer Forschungsfrage wichtig wäre. Wichtig ist es auch, sich zu überlegen, wie Sie Ihre Rolle als Gruppenlei‐ tung anlegen. Der Gruppenleitung obliegt grundsätzlich die Aufgabe, die Diskussion in Gang zu halten und dafür zu sorgen, dass alle relevanten Aspekte auch zur Sprache kommen. Die Gruppenleitung kann je nach Zielsetzung mehr oder weniger stark in die Diskussion eingreifen. Sie kann eher direktiv sein, viele Fragen vorgeben und die Diskussion stark moderie‐ ren. Sie kann aber auch eher non-direktiv sein und der Gruppendynamik ihren Lauf lassen, ohne zu intervenieren. Welchen Stil die Gruppenleitung wählt, wird auch von der Fragestellung und der Zielsetzung abhängen. Will man möglichst viele Meinungen sammeln oder die Art der Diskussion untersuchen? Die Moderation bzw. Gruppenleitung kann formal eingreifen, indem sie beispielsweise eine Rednerliste führt. Sie kann aber auch thema‐ tisch intervenieren, indem sie zusätzliche Fragen stellt und dafür sorgt, dass die Diskussion nicht ausschweift und beim Thema bleibt. Und sie kann auch dynamisch steuern, indem sie die Gruppendynamik ein wenig lenkt, z. B. Polarisierungen anspricht und auflöst oder provokante Fragen einwirft, um Polarisierungen zu erzeugen. Man kann auch schweigende Teilnehmende auffordern, ihre Meinung kundzutun. Ebenso kann man Aspekte ansprechen, die bisher ignoriert wurden. Die möglichen Einsatzgebiete für Gruppendiskussionen sind also man‐ nigfaltig. Man kann sie in der Medien- und Kulturwissenschaft einsetzen, um beispielsweise die Reaktion auf Filme oder Fernsehserien zu untersu‐ chen. Wie reagieren Zuschauer auf einen Film, eine Fernsehserie oder ein Gemälde? Auch in der Markt- und Meinungsforschung werden oft Gruppendiskussionen verwendet. Wie kommt eine vorgeschlagene politi‐ sche Maßnahme bei den Leuten an? Was verbinden potenzielle Kunden mit einem bestimmten Produkt oder einer Werbung für ein Produkt? Auch in der Entwicklungspsychologie können solche Gruppen verwendet werden, um beispielsweise die Kommunikationsprozesse jugendlicher Peers 138 III Datenerhebung und Datenaufbereitung <?page no="139"?> zu untersuchen. Auch im Rahmen der Evaluationsforschung können Grup‐ pendiskussionen eine hilfreiche Methode darstellen. Teilnehmende Beobachtung Definition Die teilnehmende Beobachtung ist eine für die qualitative For‐ schung typische Form der Beobachtung (Flick 2004; Mayring 2002). Hierbei nehmen die Forschenden - wie der Name schon andeutet - bis zu einem gewissen Grad selbst am Alltag der beforschten Subjekte teil, um deren Handlungen wahrnehmen zu können. Die teilnehmende Beobachtung richtet ihren Fokus nicht nur auf verbalsprachliche Daten, sondern auch auf die Verhaltensweisen und Handlungen der Menschen. Durch die Beobachtung im natürlichen Umfeld wollen die Forschenden verstehen, welche Bedeutung Alltagssituationen für die Beteiligten haben. Die Forschenden sind bei der teilnehmenden Beobachtung also keine au‐ ßenstehenden Beobachtenden, sondern stehen in direkter persönlicher Beziehung zu den beforschten Personen. Sie nehmen teil am Leben der Beforschten und sammeln währenddessen ihre Daten. Diese Nähe zum Forschungsgegenstand hilft dabei, gehaltvolle und tiefgründige Daten zu erhalten. Die Beobachtung von Handlungsabläufen allein sagt nämlich noch nichts über die subjektive und kollektive Bedeutung für deren Akteure aus. Um die Innenperspektive der Beteiligten rekonstruieren zu können, muss man sich einerseits zwar den Status als Fremder bewahren, andererseits aber gleichzeitig die kritische Außenperspektive aufgeben und selbst die Innenperspektive übernehmen (»going native«). Die teilnehmende Beobachtung zählt zum Standardrepertoire qualitativer Erhebungsmethoden und wird im Rahmen der Feldforschung (s. Abschnitt II.6) angewandt. Viele bedeutende Ethnologen haben ausgedehnte For‐ schungsreisen unternommen, um bestimmte Kulturen »in vivo« zu studie‐ ren. Dabei haben sie oft lange Zeiträume im natürlichen Lebensumfeld dieser Ethnien verbracht, mit diesen Menschen gelebt und wurden zum Teil sogar von diesen in die Gemeinschaft integriert und in die Familien »adoptiert«. Die teilnehmende Beobachtung kommt aber auch häufig zur Erforschung 1 Qualitative Erhebungsmethoden 139 <?page no="140"?> von Subkulturen und Randgruppen innerhalb der eigenen Gesellschaft zum Einsatz. Sie können z. B. delinquente Jugendliche, vornehme Leute oder Theologiestudenten mithilfe teilnehmender Beobachtungen untersuchen. Die teilnehmende Beobachtung ist insbesondere dann indiziert, wenn die Studie eher explorativ ausgerichtet ist, der Forschungsgegenstand in soziale Kontexte eingebettet ist oder aus sozialen Kontexten besteht und von außen nur schwer beobachtbar ist. Nachdem Sie Ihre Fragestellung und diverse Beobachtungsdimensionen festgelegt haben, müssen Sie Zugang zum Feld finden, was je nach unter‐ suchter Subkultur unterschiedlich schwierig ist. Hilfreich können hierbei Schlüsselpersonen sein, die Sie in die jeweilige Kultur einführen bzw. dort vorstellig machen. Mit dem Eintauchen in die fremde Umgebung ist häufig ein gewisser kultureller Schock für die Beobachtenden verbunden. Vertrautheiten, Routinen, Werte und Selbstverständlichkeiten der eigenen Kultur verlieren ihre Normalität und zerbröseln einfach in der Konfrontation mit den fremden Werten, Gepflogenheiten, Normen und Idealen. Gerade zu Beginn kann es schwierig sein, die Andersheit der anderen zu ertragen. Die Irritation darüber ist aber eine wichtige Erkenntnisquelle, die nicht nur etwas über die unhinterfragten Annahmen der anderen Kultur, sondern auch die der eigenen Kultur verrät. Man kann zwischen systematischeren und unsystematischeren Formen der Beobachtung unterscheiden. Im ersteren Fall richten Sie Ihren Auf‐ merksamkeitsfokus nicht schon vorab auf bestimmte Verhaltensweisen, sondern machen alle möglichen Handlungen zum Gegenstand ihrer Be‐ obachtung. Die Beobachtung erfolgt in dem Fall sehr offen. Richten Sie allerdings Ihre Aufmerksamkeit auf ganz bestimmte, vorab festgelegte Verhaltensweisen und erfassen nur diese, spricht man von systematischer oder strukturierter Beobachtung. Qualitative Forschung hat eine Affinität zu offenen, teilnehmenden Beobachtungen im Feld. Das heißt, es gibt wohl einen Beobachtungsleitfaden, der in groben Zügen vorgibt, worauf sich der Fokus der Beobachtung richten soll. Einen exakten Beobachtungsbogen, der operationalisierte Beobachtungseinheiten definiert, gibt es allerdings nicht. 140 III Datenerhebung und Datenaufbereitung <?page no="141"?> Exkurs Autoethnographie als Sonderform der Beobachtung Die Autoethnographie ist eine Sonderform der qualitativen Beobachtung, bei der die forschende Person nicht primär andere Personen beobachtet, sondern sich selbst (s. Ellis et al. 2010; Ploder/ Stadlbauer 2013). Die sub‐ jektiven Erfahrungen, Gefühle und Handlungen der forschenden Person werden beobachtet und analysiert, um dadurch kulturelle, gesellschaftli‐ che und politische Kontexte zu verstehen. Grundlage dieses Zugangs ist die Überlegung, dass individuelle Biographien stets in intersubjektive und kulturelle Kontexte eingebettet sind. Dadurch erhofft man sich, Aussagen über jenes Kollektiv machen zu können, dem die betreffende Person angehört. Dazu bedarf es freilich einer gewissen Reflexionsbereitschaft und Reflexionsfähigkeit. Man könnte auch sagen, Autoethnographie baut auf reflektierter Introspektion auf. Das ist zugleich die Stärke als auch die Schwäche dieses Ansatzes: Einerseits erlaubt die Autoethnographie einen privilegierten Zugang zu emotionalen Reaktionen, Assoziationen und Bedeutungszuschreibungen, die vielleicht einer Befragung Dritter weniger leicht zugänglich wären. Andererseits können all diese subjek‐ tiven Impressionen gewissen unbewussten Verzerrungen unterliegen, die es schwierig machen, sie als neutrale und unverfälschte Forschungs‐ daten zu begreifen. Kurzum, autoethnographische Forschung kann eine spannende Methode in einer Vielzahl von Disziplinen sein, von der Kul‐ turanthropologie über die Psychologie bis hin zur Soziologie. Die Qualität der Erkenntnisse hängt dabei allerdings davon ab, ob die Selbstbeobach‐ tung schonungslos ehrlich ist und ob die so gewonnenen Daten auch systematisch reflektiert werden. Hierzu können wiederum Methoden der Gegenübertragungsanalyse aus der Ethnopsychoanalyse verwendet werden. Für gewöhnlich schreiben die Forschenden über besonders markante, kritische oder sonst wie merkwürdige Lebensereignisse und verstehen diese auch als Reaktion und/ oder Ausdruck kultureller Ein‐ flüsse. Diese intensiven Erlebnisse werden dann meist hinsichtlich der auf sie einwirkenden Einflüsse und ihrer Folgen und Konsequenzen analysiert. Im Zuge dessen können auch weitere Quellen, wie z. B. Fotografien, Videos, Zeitungsartikel, sonstige kulturelle Artefakte oder auch flankierende Interviews mit anderen Personen herangezogen wer‐ den. Zum Teil ist es auch nötig, die eigenen Erkenntnisse mit anderen Forschungsergebnissen zu vergleichen. Autoethnographie ist also kein 1 Qualitative Erhebungsmethoden 141 <?page no="142"?> simpler Bericht übers eigene Leben, wie z. B. eine Autobiographie oder die Erzählung eines kritischen Lebensereignisses in einer Talkshow, sondern hat einen wissenschaftlichen Anspruch. Um selbigen zu erfüllen, müssen die beschriebenen Daten eben kontextualisiert und methodisch systema‐ tisch interpretiert werden. Die möglichen Themen von Autoethnographie sind mannigfaltig: Die Erfahrung der Zugehörigkeit oder Nicht-Zugehö‐ rigkeit zu einer kulturellen Majorität oder Minorität, Erfahrungen in und mit bestimmten Gruppen oder Familien, Erfahrung und Umgang mit Geschlecht, psychischen Erkrankungen, virtuellen Welten, Social Media usw. Manchmal kann autoethnographische Forschung sowohl für die Forschenden als auch die Lesenden eine kurative Wirkung haben, indem sie belastende Erfahrungen schreibend und forschend verarbeiten bzw. sich in den Schicksalen anderer wiederfinden. Bei der Autoethnographie legt man auf Basis der Forschungsfrage zuerst fest, was im Rahmen der autoethnographischen Studie als primäres Datenmaterial (Introspek‐ tion, Selbstbeobachtung, Tagebücher etc.) und sekundäres Datenmaterial (Zeitung, Internet, Artefakte, Interviews usw.) gilt. Die Beobachtungen werden dann dokumentiert, meist indem schriftliche Berichte erstellt werden. Diese werden dann unter Hinzuziehung kontextueller Informa‐ tionen reflektiert und analysiert. Abschließend werden die erstellten Texte überarbeitet und die Ergebnisse verschriftlicht. Literaturtipps Flick, Uwe (2017): Qualitative Sozialforschung. Eine Einführung. 8. Aufl. Rein‐ bek bei Hamburg: Rowohlt. Girtler, Roland (2009): Methoden der Feldforschung. 4. Aufl. Stuttgart: utb. Helfferich, Cornelia. (2019): Die Qualität qualitativer Daten. Manual für die Durchführung qualitativer Interviews. 5. Aufl. Wiesbaden: VS Verlag für Sozialwissenschaften. Krell, Claudia; Lamnek, Siegfried (2024): Qualitative Sozialforschung. 7. Aufl., Weinheim: Beltz. Mayring, Philipp (2023): Einführung in die Qualitative Sozialforschung. 7. Aufl., Weinheim, Basel: Beltz. Pzryborski, Aglaja & Wohlrab-Sahr, Monika (2021): Qualitative Sozialfor‐ schung: Ein Arbeitsbuch. 5. Aufl. München-/ -Wien: Oldenbourg. 142 III Datenerhebung und Datenaufbereitung <?page no="143"?> 2 Quantitative Erhebungsmethoden (B. Lederer, F. Reiter) Womöglich bekommen manche von Ihnen bereits ein mulmiges Gefühl, wenn sie das Wort »quantitativ« nur hören, klingt es doch allzu sehr nach Mathematik und formallogischem Denken, was bekanntlich nicht nach je‐ dermanns Geschmack ist. Wie Sie nachfolgend sehen werden, erfordert aber selbst die statistische Auswertung quantitativer Forschungsergebnisse keine höhere Mathematik. Und die Durchführung einer quantitativ orientierten Datenerhebung hat zwar nach bestimmten Gesetzmäßigkeiten zu erfolgen, bedarf aber ebenfalls keiner höheren Logik. Eine erste und zugegeben knappe Einführung in die Materie soll Sie hier mit den allerwichtigsten Ansätzen, Begriffen und statistischen Größen vertraut machen, um Ihnen zu einem späteren Zeitpunkt ein selbständiges Vertiefen der einzelnen Vorgehensweisen zu erleichtern. Vorab aber eine ganz kurze Zusammenfassung für den Fall, dass Sie dieses Buch nicht von Anfang an gelesen haben: Eine Forschungsmethode ist das planmäßige und systematische Vorgehen, das zur Gewinnung wis‐ senschaftlicher Erkenntnisse erforderlich ist. Methodisch meint also, auf eine planmäßige, zielgerichtete, systematische und überlegte Art und Weise vorzugehen (im Gegensatz etwa zu einem rein intuitiven Vorgehen oder gemäß dem Prinzip »Versuch und Irrtum«). Zum methodischen Arbeiten gehört natürlich auch die Auswertung der erhobenen Daten auf eine Art und Weise, die hinsichtlich der Fragestellung Ihrer Forschung aussagekräftige und nachvollziehbare Ergebnisse liefert. Bei der quantitativen empirischen Sozialforschung geht es darum, Phänomene in Form von Modellen, Zusammenhängen und insbesondere zahlenmäßigen Ausprägungen auf möglichst objektivierte Weise zu be‐ schreiben, grundlegende Gesetzmäßigkeiten und Zusammenhänge zu ent‐ decken und überprüfbar zu machen. Quantitative Methoden in der empi‐ rischen Sozialforschung umfassen alle Praktiken zur numerischen, d. h. zahlenmäßigen, also bspw. auf Prozentangaben fußenden Darstellung empi‐ rischer (auf Beobachtungen der Realität gründender) Sachverhalte. Es geht somit nicht um die planmäßige und strukturierte Darstellung von einzelnen Untersuchungseinheiten (wie bei der qualitativen Forschung), sondern stets um größere Fallzahlen, die dann mit geeigneten statistischen Methoden 2 Quantitative Erhebungsmethoden 143 <?page no="144"?> ausgewertet werden, um letztlich zu nachvollziehbaren und überprüfbaren Schlussfolgerungen zu gelangen. Der quantitative Ansatz beinhaltet sowohl die Stichprobenauswahl, die Datenerhebung (»Messung«) selbst als auch die Auswertung (»Analyse«) des Datenmaterials. Hier noch einmal kurz die wichtigsten Merkmale sowie Unterschiede zwischen quantitativer und qualitativer Sozialforschung im Überblick (s.a. S. 86): Im Gegensatz zu einem rein qualitativen Vorgehen haben wir es bei der quantitativen Forschung immer mit größeren Fallzahlen zu tun, die einen Anspruch auf Repräsentativität erheben. D.h.: Die Auswahl (Stichprobe) der von Ihnen befragten oder beobachteten Personen (bzw. beobachteten Phänomene) sollte so gewählt sein, dass diese Auswahl (z. B.: 75 Gymnasi‐ asten zwischen 15 und 18 Jahren, die an einem entsprechenden Versuch teilnehmen) bezüglich eines interessierenden Merkmals (z. B.: Verhalten in Stresssituationen) im Wesentlichen Rückschlüsse auf die Gesamtheit einer Untersuchung (z. B.: alle Gymnasiasten eines Landes) zulassen. Die Beobachtungsstichprobe ist also dann repräsentativ für eine größere Unter‐ suchungseinheit (die sog. »Population«), wenn sie diese hinsichtlich der untersuchten Merkmale und Eigenschaften widerspiegelt, weshalb sich die Ergebnisse einer Untersuchung verallgemeinern (»generalisieren«) lassen. Mehr zum Kriterium der Repräsentativität finden Sie weiter unten, wenn es um die Auswertung statistischer Daten geht. Merkmale quantitativer Forschung Merkmale qualitativer Forschung hingegen ● systematische, standardi‐ sierte Messung von empiri‐ schen (auf realen Fakten grün‐ denden) Sachverhalten ● Verfahren zum Testen von Hy‐ pothesen ● meistens Untersuchung gro‐ ßer Fallzahlen / großer Stichproben ● Objektive Messung und Quantifizierung von Sachver‐ halten ● Messung zählbarer Eigen‐ schaften ● Auswertung durch statistische Instrumente, Analyse statisti‐ scher Zusammenhänge ● dienen oft der Entwicklung neuer Hypothesen (oft auf relativ neuen For‐ schungsgebieten) ● Relativ offenes und flexibles Vorge‐ hen (oft ist nur ein grober thematischer Leitfaden gegeben) ● kleine Zahl von Untersuchungs‐ personen, dafür tiefer gehende Be‐ trachtungen und Einzelfallanalysen ● meistens kein Anspruch auf Reprä‐ sentativität ● keine statistische Auswertung ● auf das Verstehen von Sinn (etwa von persönlichen Handlungsmotiven, Absichten) bezogen 144 III Datenerhebung und Datenaufbereitung <?page no="145"?> ● subjektive Faktoren stehen im Vorder‐ grund, die nicht gemessen, sondern in‐ terpretiert werden Tabelle 9: Merkmale quantitativer und qualitativer Forschung Die quantitative Beobachtung Bei der quantitativen Beobachtung handelt es sich um eine vielschichtige Forschungsmethode, die sich sehr stark von einer Alltagsbeobachtung unterscheidet. Ausgehend von einigen wichtigen Vorüberlegungen werden zunächst die unterschiedlichen möglichen Arten einer Beobachtung vorge‐ stellt, bevor Sie mit den wichtigsten Schritten und Begriffen für die Durch‐ führung einer wissenschaftlichen Beobachtung vertraut gemacht werden. Sie planen eine wissenschaftliche Untersuchung in Form einer Beobach‐ tung. Womöglich fragen Sie sich dabei zunächst: Was ist an so etwas Selbstverständlichem wie einer Beobachtung eigentlich das Besondere? Anders gefragt: Wieso bzw. wann handelt es sich dabei um eine wissen‐ schaftliche Methode? Als Menschen beobachten wir schließlich ständig die uns umgebende Welt, die darin stattfindenden Prozesse und die Menschen in ihr. Was also unterscheidet eine Beobachtung mit wissenschaftlichem Anspruch von solch alltäglichen Beobachtungen und was kennzeichnet speziell eine quantitative Beobachtung? Eine erste Definition hilft sicher weiter: Definition Bei einer wissenschaftlichen Beobachtung handelt es sich um ein systematisches Verfahren, das auf die zielorientierte Erfassung sinnlich wahrnehmbarer Tatbestände gerichtet ist, wobei der Beobachter sich passiv gegenüber dem Beobachtungsgegenstand verhält und gleichzei‐ tig versucht, seine Beobachtung zu systematisieren und die einzelnen Beobachtungen zu kontrollieren. Wie alle anderen wissenschaftlichen Methoden auch, ist Beobachtung also systematisch und zielorientiert (im Gegensatz etwa zu einem Vorgehen nach der Methode »Versuch und Irrtum«) und sie ist selbstverständlich empirischer Natur, die Beobachtung wird also in überprüfbarer Weise (und nicht etwa in der Phantasie oder nach dem »Hörensagen«) vorgenommen. 2 Quantitative Erhebungsmethoden 145 <?page no="146"?> Zu Beginn jeder wissenschaftlichen Beobachtung steht somit das Gleiche, wie zu Beginn jeder quantitativen wissenschaftlichen Untersuchung, näm‐ lich die Formulierung von Hypothesen (Hypothesen sind Vermutungen über die Beschaffenheit der sozialen Welt in Form von Sätzen über Ursachen und ihre Wirkungen mit klar definierten Begriffen). Diese Aussagen über Ursa‐ chen und Wirkungen (sog. »Wenn-Dann-Sätze«) gilt es dann methodisch zu überprüfen. Was müssen Sie vor einer Beobachtung bedenken und entscheiden? Bevor Sie Ihre Beobachtung beginnen, sind eine Reihe von Vorüberlegungen erforderlich. Diese betreffen den Gesamtplan Ihres methodischen Vorge‐ hens, also die gesamte Abfolge aller Schritte von der Hypothesenformulie‐ rung und den Begriffsdefinitionen, über die Festlegung der Inhalte und Reihenfolge der einzelnen Arbeitsschritte, bis zur letztlichen Auswertung und Veröffentlichung der Ergebnisse. Sie müssen also zunächst Ihr »Forschungsdesign« planen und entwerfen: Damit wird der gesamte Vorgang der empirischen Überprüfung theoreti‐ scher Hypothesen an der Praxis bezeichnet, also die Gesamtheit aller ein‐ zelnen, systematisch durchgeführten und jeweils nachvollziehbaren Schritte Ihres Forschungsablaufs (s. Kapitel III). Los geht’s! Vor Beginn der Beobachtung steht somit zunächst einmal die Formulierung eines Forschungsbzw. Erkenntnisinteresses in Form einer Hypothese. Deren Grundlage können etwa Einzelbeobachtungen sein, die noch nicht weitergehend wissenschaftlich untersucht wurden. Auch das Studium der Fachliteratur kann Sie auf interessante Fragestellungen stoßen. Ist Ihr forschungsleitendes Interesse einmal abgesteckt, haben Sie die folgenden Punkte abzuarbeiten: 1. Einen Beobachtungsplan erstellen Eine wissenschaftliche Beobachtung ist grundsätzlich eine strukturierte, planmäßige Beobachtung und kein reines »Drauflosbeobachten«. Ihr liegen ein vorab erstelltes Beobachtungsschema zugrunde, das Informationen 146 III Datenerhebung und Datenaufbereitung <?page no="147"?> darüber enthält, »was, wann, von wem und wie« beobachtet werden soll. Es existieren also noch vor Beginn der Durchführung der Beobachtung bereits präzise Angaben darüber, was, wie lange und auf welche Art und Weise beobachtet werden soll. Dazu wird ebenfalls vorab ein möglichst konkreter Beobachtungsplan erstellt. Natürlich sind diese Beobachtungspläne nicht »in Stein gemeißelt«. Sie können - und sollen! - stets den gegebenen Um‐ ständen und Schwierigkeiten angepasst werden. (Stellt sich bspw. während einer Beobachtung von Reaktionen von Menschen auf bestimmte Hinweis‐ schilder heraus, dass diese Schilder gar nicht richtig wahrgenommen werden können, ist natürlich eine Änderung des Beobachtungsprocederes nötig). Wichtig ist aber, dass der Beobachtung ein planmäßiges Schema zugrunde liegt, welches Sie aber natürlich erst einmal auf Basis von (Vor)Erfahrungen entwickeln (»designen«) müssen. Beim Beobachtungsplan handelt es sich also um ein Schema, in wel‐ chem alle relevanten Beobachtungskriterien angeführt sind oder an vorgegebener Stelle leicht angegeben werden können (Uhrzeit, Ort, Anzahl beobachteter Personen und - wenn nötig und möglich - Angaben zu einzelnen Merkmalen wie Geschlecht, Alter etc.), Anzahl der »Treffer« an vorher festgelegten Beobachtungsvariablen und Indikatoren (s. u.) für ein bestimmtes zu beobachtendes Verhalten oder Ereignis, zudem weitere Besonderheiten, besondere Vorkommnisse usw.. Diese Art von Beobach‐ tungsprotokoll muss somit alle relevanten Komponenten der Beobachtung beinhalten. Es lenkt die Wahrnehmung des Forschers sprachlich und inhalt‐ lich und erleichtert entsprechende Aufzeichnungen, die letztlich der Ergeb‐ nisauswertung zugrunde liegen. (Wer sich schon einmal mitten in einem Beobachtungsfeld befand und darin eine große Zahl gleichzeitig auftretender Beobachtungsereignisse wahrzunehmen hatte und diese zudem auch noch möglichst zeitnah schriftlich festzuhalten gefordert war, der weiß um den Wert möglichst vollständiger und einfach zu handhabender Beobachtungs‐ pläne! ) 2. Mögliche Formen der Beobachtung Bei einer wissenschaftlichen Beobachtung gibt es verschiedene Durchfüh‐ rungsvarianten, die sich hinsichtlich der Rolle der Beobachterin und nach dem Grad der Einflussnahme auf das zu beobachtende Geschehen unter‐ scheiden lassen. Bezüglich des Beobachters stellt sich Ihnen also die Frage, welchen Beobachterstatus der Beobachter einnimmt und inwieweit er an 2 Quantitative Erhebungsmethoden 147 <?page no="148"?> der sozialen Situation, die beobachtet wird bzw. in der die Beobachtung stattfindet, teilnimmt bzw. eingreift. Grundsätzlich lassen sich die teilneh‐ mende und die nicht-teilnehmende Beobachtung unterscheiden. Nichtteilnehmende Beobachtung: Bei dieser tritt der Beobachter nicht in den Verlauf der Handlungen ein und hat deshalb auch keinen direkten Kontakt mit den Personen und / oder Prozessen, die beobachtet werden sol‐ len (man spricht auch von »Forschungsobjekt«). Die Beobachterin befindet sich also in persönlicher und räumlicher Distanz zum Beobachtungsfeld (das ist der Bereich, in dem sich das Beobachtungsgeschehen abspielt), wodurch persönliche Unvoreingenommenheit und Neutralität durch die Forscherin gewährleistet ist. Die teilnehmende Beobachtung lässt sich wiederum in zwei Versionen unterscheiden: Teilnehmend-offene Beobachtung: Der Beobachter nimmt hier am zu beobachtenden Geschehen aktiv teil. Sie befinden sich als Beobachterin also mitten im selben sozialen, räumlichen und zeitlichen Umweltbereich, wie auch die Beobachtungspersonen. Diesen wiederum ist die Rolle des Beobachters bekannt. Sie wissen also, dass sie beobachtet werden (wenn‐ gleich nicht unbedingt weshalb und woraufhin! ). Stellen Sie sich bspw. vor, Sie nehmen im Rahmen einer Feldforschung selbst an einer Weiterbildungs‐ maßnahme teil. Sie unterziehen sich denselben Übungen und Gesprächen wie die übrigen Kursteilnehmer auch. Diese und die Dozentinnen wissen aber, dass Ihre Teilnahme nicht eigener Weiterbildung, sondern vielmehr einem wissenschaftlichen Interesse dient. Bei diesem Beobachterstatus ist zu berücksichtigen, dass es zu dem Phänomen der »Reaktivität« kommen kann. D.h.: Das Wissen, beobachtet zu werden, ändert womöglich das Verhalten der beobachteten Personen (oder kann es ändern), was dann die ganze Beobachtung zu verfälschen droht. Oder haben Sie Ihr Verhalten noch nie geändert, nachdem Sie bemerkt haben, gerade fotografiert oder gefilmt zu werden? Teilnehmend-verdeckte Beobachtung: Wiederum ist hierbei die Beob‐ achterin Teil des zu beobachtenden Geschehens im definierten Beobach‐ tungsfeld, diesmal aber, ohne dass die beteiligten Personen davon informiert sind, dass sie beobachtet werden (geschweige denn, wozu und woraufhin). Selbstverständlich wirft ein solches Vorgehen sehr schnell ethische Fragen auf, wenn Menschen womöglich in absichtlich herbeigeführten Situationen 148 III Datenerhebung und Datenaufbereitung <?page no="149"?> als - noch dazu unfreiwillige! - »Versuchskaninchen« herhalten müssen (klassisch sind etwa Beobachtungen aus dem Bereich der Sozialpsychologie, in welchen die Reaktion von Passanten auf Übergriffe im öffentlichen Raum untersucht wurden, wobei sich die unfreiwilligen Versuchsteilnehmer zu authentischen (Stress-)Reaktionen gezwungen sahen). Prinzipiell gilt auch bei teilnehmend-verdeckten Beobachtungen das forschungsethische Prinzip der »informierten Einwilligung«! Auch die nichtteilnehmende Beobachtung lässt sich in zweierlei Variationen durchführen: Nichtteilnehmend-offene Beobachtung: Der Beobachter beobachtet von außerhalb des Beobachtungsfeldes und ist somit nicht Teil des Gesche‐ hens. Jedoch wissen die Beobachteten, dass sie beobachtet werden und »Gegenstand« einer Untersuchung sind. Sie nehmen zum Beispiel als Beobachterin an einem innovativen Unterrichtsgeschehen teil. Schüler und Lehrkraft wissen, dass Sie etwas über Vor- und Nachteile dieser Unterrichts‐ variante in Erfahrung bringen wollen. Auch hier treffen wir wieder auf das Problem der Reaktivität. Ein berühmtes Beispiel aus der Forschungsgeschichte für diese Reaktivität ist etwa der sog. »Hawthorne-Effekt«. Er ist nach einer gleichnamigen Fabrik in den USA benannt, in der in den 20er Jahren des letzten Jahrhun‐ derts Beobachtungen zur Motivation und Produktivität der Arbeitskräfte und deren jeweilige Einflussfaktoren stattfanden. Dabei zeigte sich, dass allein schon das Wissen der Arbeiter, beobachtet zu werden, die Motivation und Leistungsbereitschaft erhöhten, was die ursprüngliche Absicht der Untersuchung natürlich unterlief (nämlich den Zusammenhang zwischen den Umgebungsbedingungen des Arbeitsplatzes wie etwa den Lichtverhält‐ nissen sowie zwischen den sozialen Beziehungen in der Arbeit und der dadurch jeweils bedingten Arbeitsproduktivität herauszufinden). Nichtteilnehmend-verdeckte Beobachtung: Die Forscherin beobachtet in diesem Fall das Beobachtungsfeld von außen, wobei die Beobachteten aber nichts von ihrem »Glück« wissen, woraus natürlich wiederum das Problem fehlender Einwilligung und Information erwächst. Ein typisches Beispiel wäre etwa, vom Fenster aus ein bestimmtes Geschehen auf einem Platz unter Ihnen zu beobachten, ohne dabei wahrgenommen zu werden. Neben den genannten Unterscheidungen gibt es natürlich jede Menge mögliche Mischformen. Diese beinhalten auch den Sonderfall, dass Ihr 2 Quantitative Erhebungsmethoden 149 <?page no="150"?> Beobachterstatus sich zeitlich wandelt. So könnten Sie etwa kurzfristig an einer sozialen Handlung teilnehmen, um diese zunächst einmal anzustoßen, danach ziehen Sie sich dann aber zurück und das Geschehen wird mit einer Kamera festgehalten. (Ist diese versteckt - was ein schwerwiegendes forschungsethisches Problem darstellt - handelt es sich um eine verdeckte Beobachtung, andernfalls um eine offene). Letztlich hängt Ihre Wahl der Beobachtungsart von Ihrem Erkenntnisinteresse und der Frage ab, wie Sie die besten Ergebnisse erzielen: In der Regel ist bei einer quantitativen Beobachtung im Interesse möglichst geringer Reaktivität und möglichst hoher Objektivität ein nicht-teilnehmendes und verdecktes Vorgehen an‐ zustreben. Jedoch kann es manchmal auch nötig und geboten sein, sich einzubringen, um aus nächster Nähe zu beobachten oder um ein bestimmtes Prozessgeschehen zu starten. 3. Wahl und Eingrenzung des Beobachtungsfeldes Das Beobachtungsfeld umfasst zumeist mehr als nur den definierten räum‐ lichen Bereich, in welchem sich ein zu beobachtendes Geschehen ereignet. Vielmehr gibt das Beobachtungsfeld über das wo hinaus auch Auskunft darüber, wer, wann und unter welchen Rahmenbedingungen beobachtet wird. Beobachtungseinheiten bezeichnen somit denjenigen Teilbereich eines so‐ zialen Geschehens, der konkreter Gegenstand der Beobachtung sein soll. Sie geben Antwort auf die Frage: Wer und was (z. B. Gespräche und Abläufe) werden wann beobachtet? Alle diese verschiedenen Beobachterrollen finden in (oder nahe an) einem Beobachtungsfeld statt, dass Sie im Beobachtungs‐ plan klar definieren sollten. Beobachten Sie z. B. das Spielverhalten von Kleinkindern und sondieren hierfür einen Kinderhort, ist Ihr Beobachtungs‐ feld der besseren Erfassung wegen der Spielbereich des Hortes und nicht dessen Gesamtfläche. 4. Bestimmung der Beobachtungseinheiten, Variablen und Indikatoren Der formale und planmäßige Charakter einer quantitativen wissenschaftli‐ chen Beobachtung wird v. a. darin deutlich, dass Sie benennen müssen, was neben Ihrem Beobachtungsfeld zudem Ihre Beobachtungseinheiten sowie Ihre zugehörigen Variablen, Kategorien und Indikatoren sind. 150 III Datenerhebung und Datenaufbereitung <?page no="151"?> Die Beobachtungseinheiten sind die konkret zu beobachtenden bzw. beobachtbaren Personen(gruppen) oder Gegenstände oder Prozesshaftigkei‐ ten einer Beobachtung. In obigem Beispiel der Beobachtung des Spielverhal‐ tens im Kinderhort sind es also ggf. sowohl die Kinder als auch die von Ihnen jeweils verwendeten Spielzeuge als auch unterscheidbare Spielphasen. Die Qualität Ihrer Beobachtung steht und fällt nun mit der Qualität Ihrer gewählten Beobachtungsvariablen und der sie auszeichnenden In‐ dikatoren (»Anzeiger«). Dazu ein Beispiel: Angenommen, Sie planen eine passive, nicht-teilnehmende Beobachtung zum Phänomen »Ehrlichkeit« von Studierenden. Sie formulieren die Hypothese: »Eine qualifizierte Mehr‐ heit der Studierenden der Universität XYZ ist ehrlich« und bestimmen den abstrakten Begriff Ehrlichkeit dahingehend, dass das Aufheben einer (von Ihnen absichtlich) auf den Boden gelegten Geldbörse und das Zurückbringen derselben (entweder zum Fundamt, zum Pförtner der Uni, zur Polizei oder auch mittels Beförderung in den nächsten Briefkasten) als »ehrliches Verhalten« zu verstehen ist. Sie legen sich sodann »auf die Lauer« und beobachten Ihr Beobachtungsfeld (z. B. dem Uni-Campus) und die darin stattfindenden Beobachtungseinheiten (die passierenden Studenten). Sie tun dies im Interesse höherer Verallgemeinerbarkeit (»Repräsentativität«) der Stichprobe an verschiedenen Tagen, zu verschiedenen Uhrzeiten und an verschiedenen Orten (z. B. Caféteria, Eingangsbereiche von Bibliotheken verschiedener Fachbereiche) und halten die Ergebnisse auf einem Beobach‐ tungsbogen (im allereinfachsten Fall eine simple Strichliste) fest. Ein methodisch scheinbar narrensichereres Vorgehen? Von wegen! Was ist etwa in all den Fällen, in denen die Brieftasche mitsamt Ausweisen, Papieren etc. zwar in den Briefkasten wandert, das darin befindliche Geld aber zuvor entnommen wurde? Wie verhält es sich in den Fällen, in denen sich Versuchspersonen beobachtet wähnen (was evtl. durch ein verunsichertes und verlegenes Schauen auf vorbeikommende Gruppen von Studentinnen bemerkbar ist)? Und was schließlich passiert in all den Fällen, wo die Geldbörse zwar eingesteckt wird (was einen entsprechen‐ den Vermerk als »unehrlich« zeitigt), aber dann Tage später (wenn die Beobachtung längst abgeschlossen ist) vielleicht doch noch und sogar per‐ sönlich abgeliefert wird? Sie merken schon: Ganz offensichtlich waren die Beobachtungsvariable (»Ehrlichkeit«) und die sie anzeigenden Indikatoren (Abgabe bei Polizei, Pförtner, Briefkasten etc.) keinesfalls lückenlos und widerspruchsfrei! Auch das Beobachtungsfeld war nicht sauber definiert (zählen lediglich Studierende, die sich »allein auf weiter Flur« befinden 2 Quantitative Erhebungsmethoden 151 <?page no="152"?> und sich unbeobachtet wähnen, oder doch auch Studierende, die in aller Öffentlichkeit einen Geldbeutel einstecken, oder beide? ). Damit Sie sich solcher methodischen Lücken und Ungereimtheiten noch rechtzeitig (d. h.: noch bevor Sie Ihre Beobachtung mit mehr oder weniger großem Aufwand durchführen) gewahr werden, ist es hilfreich (bzw.: unverzichtbar! ), vorab einen Probedurchgang Ihres Forschungsdesigns mit zunächst einmal relativ wenigen Beobachtungseinheiten durchzuführen (der Fachausdruck hierfür ist »Pre-Test«). Ungereimtheiten können so noch rechtzeitig erkannt und Ihr Ablaufplan entsprechend revidiert werden. Ein zweites Beispiel soll Ihnen die Wichtigkeit brauchbarer Variablen / In‐ dikatoren verdeutlichen: Sie unternehmen eine Beobachtung zum Thema »geschlechtsspezifisches Einkaufsverhalten«. Als teilnehmender, passiver Beobachter registrieren Sie an repräsentativen Orten (z. B. im Ausgangsbe‐ reich von Einkaufszentren als ihrem Beobachtungsfeld) nun das Einkaufs‐ verhalten von Männern und Frauen. Ihre Hypothese lautet bspw.: »Männer kaufen gleich viel ein wie Frauen« und haben so Ihren ersten Fehler schon begangen, denn das »gleich viel« (bzw. »mehr« und »weniger«) ist ja nicht spezifiziert (geht es um gleich viel Geld oder um gleich viel Güter - und was ist eigentlich mit Dienstleistungen? ). Als Indikator für die Einkaufsmenge legen Sie (auf nicht sehr originelle Weise) die Anzahl der Einkaufstaschen bei Verlassen des Einkaufsbereiches fest. Der entscheidende Denkfehler dabei - Sie ahnen es sicher selbst schon-- ist nun die Gleichsetzung von Tütenzahl und Einkaufswert, könnte sich doch vielleicht herausstellen, dass Männer mitunter zwar mehr (an Geldwert) einkaufen, aber in Form wenigerer Einheiten (z. B. teure Unterhaltungselektronik), wohingegen Frauen zwar mehrere unterschiedliche Sachen erwerben, die wertmäßig aber jeweils einen geringeren Wert bilden-- oder natürlich auch umgekehrt. 5. Auswertung und Publikation Nehmen wir an, Sie haben schließlich auf methodisch saubere Weise Ihre Be‐ obachtung durchgeführt und die Beobachtungsereignisse (also die Beobach‐ tungseinheiten und ihr Verhalten) penibel in einem Beobachtungsprotokoll festgehalten (keine Angst: methodisches »Lehrgeld« ist von Anfängerinnen dabei fast immer zu zahlen - es ist eben noch kein Meister vom Himmel der empirischen Sozialforschung gefallen! ): dann verfügen Sie letztlich über eine Vielzahl empirischer Daten in Form bestimmter Auswertungskategorien (etwa: »trifft zu« / »trifft nicht zu«; »hebt Gegenstand auf / hebt Gegenstand 152 III Datenerhebung und Datenaufbereitung <?page no="153"?> nicht auf«; »zeigt aggressive Verhaltensauffälligkeiten / zeigt keine aggres‐ siven Verhaltensauffälligkeiten; »bleibt stehen / geht weiter«; »Ja / Nein« usw.usf.). Wie Sie diese angefallenen Daten statistisch auswerten und auch darstellen können, erfahren Sie weiter unten. Den Schlusspunkt Ihrer quan‐ titativen Beobachtung - ebenso wie jeder anderen Forschungsbemühung - bildet schließlich die Veröffentlichung Ihrer Ergebnisse und die ausführliche und nachvollziehbare Darlegung Ihres schrittweisen methodischen Vorge‐ hens in Form eines Forschungsberichts. Zusammenfassung Eine wissenschaftliche Beobachtung bedarf zunächst eines For‐ schungsdesigns, in dem sämtliche Arbeitsschritte und deren Rei‐ henfolge festgelegt sind, mit denen letztlich die erkenntnisleitende Hypothese bestätigt oder abgelehnt werden kann. Der zugehörige Beobachtungsplan liefert die Antwort auf die Frage, »was, wann, von wem und wie« beobachtet wird und enthält zudem die Beobachtungs‐ variablen (das, was konkret beobachtet wird) und deren Indikatoren (Anzeiger). Der Beobachtungsplan legt auch fest, welcher Beobach‐ tungsstatus dem Beobachter zukommt und legt damit die Form der Be‐ obachtung fest. Unterschieden werden können dabei die teilnehmende und die nicht-teilnehmende Beobachtung (je nach Beteiligung bzw. Nicht-Beteiligung an einem sozialen Geschehen), die beide wiederum auf offene und auf verdeckte Weise (d. h. mit erkennbarem oder nicht-erkennbarem Beobachter) durchgeführt werden können. Nach der Bestimmung und Eingrenzung des Beobachtungsfeldes und ei‐ nem Probedurchgang (»Pre-Test«) werden die Beobachtungseinheiten und -ereignisse in einem Beobachtungsprotokoll festgehalten, dessen angefallene Daten letztlich auf quantitative Weise ausgewertet und dargestellt werden. Die quantitative Befragung Diese kurze Einführung in die Methode der quantitativen Befragung soll Sie mit den wichtigsten Aspekten und Begriffen dieser Methode bekannt machen und Ihnen die Vor- und Nachteile einer mündlichen und einer schriftlichen Befragung benennen helfen. Sie lernen einige Spezialformen 2 Quantitative Erhebungsmethoden 153 <?page no="154"?> kennen und sollen insbesondere an die »Kunst« der Fragebogengestaltung herangeführt werden. Vorüberlegungen Wenn Sie an Informationen über andere Menschen »aus erster Hand« interessiert sind (z. B. was deren Einstellungen oder Erfahrungen angeht) ist eine Befragung in der Regel das naheliegendste methodische Mittel. Es handelt sich deshalb auch um diejenige Methode, die in den empiri‐ schen Sozialwissenschaften am häufigsten angewandt wird. Es vergeht wahrscheinlich kein Tag, an dem wir nicht auf irgendeine Art und Weise andere Menschen zu irgendeinem Thema befragen (und wenn es nur die aktuelle Uhrzeit oder Sportergebnisse betrifft). Eine Befragung, die hingegen wissenschaftlichen Ansprüchen genügt, unterscheidet sich aber, wie Sie sich schon denken können, in vielerlei Hinsicht von Alltagsbefragungen. Als Methode der empirischen Datengewinnung ist die Befragung (zu der auch das »Interview« als Sonderform zählt, siehe unten) zielgerichtet und hochgradig strukturiert. Neben der planmäßigen Vorbereitung einer Befra‐ gung ist v. a. die methodische Kontrolle jeder einzelnen Phase der Befragung ein wichtiges Kennzeichen wissenschaftlich-methodischen Vorgehens. Überblick Die einzelnen Phasen einer quantitativen Befragung sind: ● Hypothesenformulierung ● Planung des Forschungsdesigns inklusive Fragebogendesign ● Durchführung der Befragung ● Auswertung der Ergebnisse ● Datenpräsentation Die Antwortmöglichkeiten bei einer quantitativen Befragung sind weitge‐ hend vorgegeben (ganz im Gegensatz zur qualitativen Befragung, bei der auch in loser und unstrukturierter Form erzählt werden kann und darf). Vor allem bei schriftlichen Befragungen sind die Fragen »geschlossen« formu‐ liert, d. h.: alle Antwortmöglichkeiten sind vorgegeben. Zusammenfassend lässt sich eine empirische Befragung somit definieren als ein planmäßiges Vorgehen mit wissenschaftlicher Zielsetzung, bei der eine, i. d. R. aber eine 154 III Datenerhebung und Datenaufbereitung <?page no="155"?> größere Anzahl an Personen (wie in der quantitativen Forschung üblich) durch ein Reihe gezielter Fragen zu mündlichen oder schriftlichen Informa‐ tionen veranlasst werden. Diese Informationen (Antworten) umfassen etwa erlebte oder erinnerte Erlebnisse, Meinungen oder Bewertungen. Analog zur quantitativen Beobachtung sind auch bei der Befragung zunächst einige Vorüberlegungen anzustellen und wichtige Entscheidungen zu fällen. Diese betreffen wiederum das »Forschungsdesign«, also den Ge‐ samtplan aller in einer bestimmten Reihenfolge zu durchlaufenden Arbeits‐ schritte, von der Hypothesenformulierung bis zur Ergebnispräsentation. Wie bei anderen quantitativ-empirischen Methoden auch, müssen Sie zual‐ lererst natürlich einmal Ihr Forschungsinteresse bestimmen: Was wollen Sie durch eine Befragung eigentlich in Erfahrung bringen? Was interessiert Sie und warum? Den Ausgangspunkt Ihres weiteren Vorgehens bildet also die von Ihnen zu formulierende Forschungshypothese, die es durch die von Ihnen durchgeführte Befragung auf nachvollziehbare Weise entweder zu belegen oder aber zu widerlegen gilt. Zunächst aber müssen Sie sich für eine der unterschiedlichen Befragungsarten entscheiden. Wählen Sie die Art Ihrer Befragung! Je nach Forschungsfrage und der zu befragenden Anzahl von Menschen und vor allem je nach vorhandenen Ressourcen (Zeit, Geld, Personal), haben Sie sich erst einmal für eine der unterschiedlichen Formen der Befragung zu entscheiden, und zwar grundsätzlich zwischen: ● mündlicher Befragung in Form des Interviews sowie einer ● schriftlichen Befragung mithilfe von Fragebögen. Das Telefoninterview und die Online-Befragung stellen Sonderformen dar, wobei die Befragung per Internet eher dem schriftlichen Fragebogen ent‐ spricht, wohingegen das Telefoninterview zur mündlichen Befragung zählt (auch wenn die Anwahl der Nummern dabei oft nach dem Zufallsprinzip per Computer erfolgt, wie es etwa in der Marktforschung heute üblich ist. Finden hingegen Fragestellung und Auswertung der Antworten vollelektronisch statt, lässt sich die Methode auch als eigene Befragungstechnik zwischen schriftlich und mündlich charakterisieren). Sowohl schriftliche als auch mündliche Befragungen lassen sich hinsicht‐ lich zweier wichtiger Kriterien unterscheiden: 2 Quantitative Erhebungsmethoden 155 <?page no="156"?> 1. »Freiheitsgrad« des Befragten: Ist dieser in seinen Antwortmöglichkei‐ ten frei (bzw. in welchem Ausmaß), kann also im Extremfall erzählen solange und so viel er will, oder sind hingegen ganz klare Antworten vorgegeben, etwa »ja«/ »nein«/ »egal«? Ersteres ist bei (manchen) qua‐ litativen Befragungen der Fall, letzteres bei quantitativen Befragungen, dazwischen gibt es Übergangsformen. 2. »Freiheitsgrad« der Fragenden: Kann diese ihre Fragen weitgehend spontan stellen (wie im sog. »narrativen Interview« als Methode der qualitativen Befragung) oder sind die Fragen bereits vorgegeben und können höchstens noch erläutert werden, wie für quantitative Befra‐ gungen typisch? Speziell bei mündlichen Befragungen gibt es zudem noch ein drittes Krite‐ rium: 3. Verhalten des Interviewers: Ist dieser in seinem Frageverhalten »hart« und nachfragend, gar nachbohrend, oder eher »weich« und zuhörend? In grundsätzlicher Hinsicht gilt also: quantitative Befragungen verfügen über einen geringen Freiheitsgrad sowohl der Fragerin als auch des Befrag‐ ten, der Interviewstil (bei mündlichen Befragungen) ist direkt und neutral. Sie sind, im Gegensatz zu qualitativen Befragungen (oder gar Alltagsbefra‐ gungen) in sehr hohem Maße strukturiert. Stärken und Schwächen der Befragungsarten Welche Befragungsart zum Einsatz gelangt, hängt wie gesagt von der jeweiligen Themenstellung und den Rahmenbedingungen der Forschung ab (v. a. Zeit und Geld, Zahl und Art der Interviewpartner, aber auch Grad der erforderlichen Anonymität etc.). Das Anfertigen eines Fragebogens, seine Verteilung / Versendung, das Warten auf den (hoffentlich hohen! ) Rücklauf sowie die statistische Auswertung der Ergebnisse ist sicherlich aufwendiger und erfordert mehr Vorkenntnisse als mündliche Interviews (die, wie Sie gleich sehen werden, aber auch etwas ganz anderes bedeuten als bloßes Fragenstellen! ). Dafür liefert die schriftliche Befragung in der Regel aber auch quantitativ aussagekräftigere Daten, schon allein wegen der i. d. R. größeren Zahl der Befragten und der meist eindeutigeren Antwortvorgaben. Die Vorteile einer schriftlichen Befragung, vor allem einer Online-Be‐ fragung, sind natürlich deren relativ geringe Kosten, weil Sie mit ein und 156 III Datenerhebung und Datenaufbereitung <?page no="157"?> derselben Vorlage, die dann vervielfältigt wird, viele Menschen auf einmal kontaktieren können. Auch ist der Organisationsaufwand i. d. R. geringer. Sie lässt sich mit wenigen Befragern (oder gar nur einem Frager) durchfüh‐ ren, weil die Befragten ja selbständig ausfüllen und niemand persönlich anwesend sein muss, um die Antworten zu registrieren. Ein womöglich störender und verzerrender Einfluss des Befragers entfällt somit. Nur so ist auch absolute Anonymität gewährleistet, denn auch bei einem Verzicht auf Namen und Adresse können sich Befragte bei einer »face-to-face-Befra‐ gung« schließlich nie wirklich sicher sein, ob sie nicht vielleicht doch »vom Sehen her« identifizierbar sind. (Sie kennen das vielleicht selbst aus vielen Beispielen von heiklen persönlichen Fragen, wo es auch einem persönlich unbekanntem Befrager gegenüber als unangenehm oder peinlich empfun‐ den wird, wahrheitsgemäß zu antworten, weshalb eben mit »Notlügen«, Abschweifungen oder Halbwahrheiten etc. operiert wird). Wie Sie sich bestimmt denken können, besteht der große Nachteil einer schriftlichen Befragung aber darin, dass Sie als Befragende den Antwort‐ prozess nicht kontrollieren können. Sie wissen also nicht: Hat die befragte Person den Fragebogen wirklich selbständig ausgefüllt oder vielleicht zu‐ sammen mit anderen, die hierbei »beratend« tätig waren (ein gerade bei politischen Befragungen schwerwiegendes Problem! ). Bei eventuellen Un‐ klarheiten oder Missverständnissen, die womöglich trotz »Pre-Test« noch vorhanden sind, können Sie hier keinerlei Auskünfte geben und vor allem haben sie keinen Einblick, ob die befragte Person auch wirklich ernsthaft und konsequent ihren Fragebogen durchgeackert hat. Vielleicht wurden die Fragen ja vielmehr unter Zeitdruck und / oder abgelenkt durch etwas anderes bearbeitet. Oder vielleicht auch nur »just for fun« und ohne wo‐ möglich auch nur einen Blick auf die Fragen geworfen zu haben. Eventuell wurde nur deshalb (und vordergründig) kooperiert, um an eine bestimmte ausgelobte Belohnung für die Teilnahme an der Befragung zu gelangen, oder um der Pflicht zur Teilnahme nachzukommen. (Lehrerinnen wissen ein Lied davon zu singen, welche teils haarsträubenden Antworten auf ernst gemeinte Fragen gegeben werden, wenn die Teilnahme an einer anonymen Befragung verpflichtend ist. Häufig geschieht dies, um zu provozieren oder aus einer Trotzreaktion heraus.) Die mündliche Befragung hat dort ihre Stärken, wo die Zahl der zu Befragenden überschaubar bleibt und eine persönliche Befragung somit überhaupt erst möglich ist. Außerdem ist sie von Vorteil gegenüber einer Fragebogen-Befragung, wenn vereinzeltes Nachfragen und Erläuterungen 2 Quantitative Erhebungsmethoden 157 <?page no="158"?> 1 Wenig strukturierte Interviews, wie etwa offene Gruppendiskussionen, narrative Inter‐ views (Sie geben ein Stichwort oder eine »Impulsfrage vor und lassen den Befragten dann weitgehend frei reden) oder auch Leitfadeninterviews (die Antwortmöglichkeiten sind frei, der Interviewer orientiert sich lediglich an einem thematischen Leitfragen) sind deshalb auch klassischer Gegenstand qualitativer Befragungen. sinnvoll oder unverzichtbar scheinen (was allerdings Fragen nach der Qua‐ lität des Fragebogens aufwirft, siehe unten). Das Problem welches sich Ihnen bei der mündlichen Befragung im Rahmen einer empirisch-quantitativen Methode stellt, ist das der gegenseitigen Beeinflussung. Befragender und Befragte befinden sich immer in einer bestimmten sozialen Situation (z. B., indem sie sich gegenübersitzen), in der sie sich wechselseitig beeinflussen (können). Das (kann) sich dann negativ auf das Kriterium der Objektivität und der möglichst hohen Strukturiertheit der Fragen und Antworten aus‐ wirken. Stellen Sie sich z. B. vor, ein Befragter stellt eine Verständnisfrage oder eine Rückfrage: Die Gefahr ist dann groß, dass Sie die Antwort (mit)beeinflussen oder sich vom vorgegebenen Schema des Fragebogens entfernen. 1 Mündliche Befragung Sie haben sich nach Abwägung der jeweiligen Stärken und Schwächen der Befragungsarten für eine mündliche Befragung entschieden. Eine mündli‐ che quantitative Befragung ist ein stark strukturiertes Interview anhand eines abzuarbeitenden standardisierten Fragebogens. Standardisiert meint, dass alle Befragten die jeweils gleichen Fragen in jeweils gleicher Formu‐ lierung und jeweils gleicher Reihenfolge von einem Interviewer gestellt bekommen. Das heißt in der Praxis, dass Sie als Befragerin anhand eines vorab erstellten Interviewschemas in Form eines schriftlichen Fragebogens vorgehen. Sie haben sich dabei exakt an die Vorgaben zu halten und müssen zudem strikt neutral bleiben. Bevor Sie ein stark strukturiertes Interview durchführen, sollten Sie aber vorher ein gering bzw. teil-strukturiertes Interview führen, das Ihnen im Sinne eines Probedurchlaufs (des sog. »Pre-Tests«) zunächst einmal diejenigen Fragen herausfiltern hilft, auf die in der Praxis der Interviewsituation auch wirklich sinnvolle Antworten gegeben werden (können). Oft genug stellt sich nämlich erst mitten im Interviewverlauf und damit zu spät heraus, dass bestimmte Fragen missverständlich formuliert, mehrdeutig oder sonstwie nicht oder kaum sinnvoll beantwortbar sind. Da sich ein solcher Fehler im 158 III Datenerhebung und Datenaufbereitung <?page no="159"?> Interview selbst kaum noch beheben lässt, kann Ihnen ein Vorab-Interview dabei helfen, einen strukturierten Interviewerfragebogen zu entwerfen. Dabei müssen Sie präzise und sorgfältig vorgehen, weil der Fragebogen später die Befragungssituation stark einschränkt und reglementiert (siehe unten). Ein Improvisieren im Sinne eines kurzfristigen Austauschs von Fragen oder einer freien Interpretation missverständlicher Fragen verbietet sich im standardisierten Interview. Auch bei der quantitativen mündlichen Befragung können Sie zwischen verschiedenen Formen wählen. Zu unterscheiden sind: Einzelinterview: Dabei handelt es sich um die am häufigsten verwen‐ dete Form der Befragung. Sie wird anhand des bereits erläuterten stark strukturierten Fragebogens durchgeführt, der von Befragenden schrittweise vorgelesen wird. Panelbefragung: Dabei handelt es sich um eine Befragung (die auch - und meistens - in schriftlicher Form durchgeführt werden kann), die eine Auswahl von Menschen zu einem ganz bestimmten Thema in regelmäßiger Reihenfolge über einen bestimmten (oft auch längeren) Zeitraum hinweg befragt. Man spricht deshalb auch von einer »Längsschnittbefragung« oder »Längsschnittstudie«. Sie ist besonders gut geeignet, wenn Sie z. B. Verän‐ derungen bestimmter Einstellungen und Meinungen in Erfahrung bringen wollen (so könnte ein Lehrer bspw. seine Schüler über mehrere Jahre hinweg einmal jährlich zu ihren Freizeitinteressen oder zu ihrer Mediennutzung befragen). Expertenbefragung: Bei diesem Verfahren (das ebenso schriftlich durch‐ geführt werden kann) werden gezielt erwiesene Expertinnen eines Fachge‐ bietes zu einem bestimmten Sachverhalt befragt. Delphi-Methode: Einer Gruppe von zu Befragenden werden die Ergebnisse und Kernaussagen einer vorangegangenen Befragungsrunde vorgelegt. Je‐ der, der an solchen wiederholten schriftlichen Befragungen teilnimmt, muss die eigenen Antworten mit denen anderer vergleichen. (In diesem Fall sind in aller Regel Rückfragen und Erläuterungen angebracht, weshalb sich die Delphi-Befragung eher für eine nicht- oder teil-strukturierte Befragung eignet, also einem eher qualitativen Vorgehen entspricht. Telefoninterview: Das Telefoninterview stellt einen Sonderfall der münd‐ lichen Befragung dar (während die Online-Befragung wie gesagt zur schrift‐ 2 Quantitative Erhebungsmethoden 159 <?page no="160"?> lichen Befragung zählt). Wie Sie wahrscheinlich selber schon erlebt haben (oder erleben mussten), greifen vor allem Markt- und Meinungsforschungs‐ institute auf dieses Erhebungsinstrument zurück. Um das Kriterium der Re‐ präsentativität zu erfüllen, werden zu befragende Personen meist nach dem Zufallsprinzip (i. d. R. durch ein Computersystem) angerufen. Interessieren hingegen nur bestimmte Zielgruppen, wird auf Sozialdaten zurückgegriffen, die sich aus unterschiedlichsten Quellen speisen (Einwohnermeldeämter, Adressregister) und etwas über die soziale Situation oder die Interessen von Personen aussagen. (Nicht selten werden solche personenbezogenen Daten auch illegal von kommerziellen Adressenhändlern besorgt). Die Probleme einer Telefonbefragung können Sie sich sicher denken: Abgesehen davon, dass die Teilnahme meistens nicht freiwillig erfolgt (und deshalb oft auf eine Weise geantwortet wird, die eher einem »Abwimmeln« des Anrufers gleichkommt, weil man zum Auflegen dann doch zu feige oder zu höflich ist), können die Befragenden auch nicht überprüfen, wer am Telefon sitzt; den Befragten können keine schriftlichen »Denkhilfen« (Fragebogen) angeboten werden, entsprechend müssen die Fragen sehr einfach gehalten sein und sind deshalb mitunter nicht sehr aussagekräftig. Schließlich muss im Sinne der quantitativen Forschung das ganze Interview stark strukturiert sein und erlaubt deshalb den Befragten wenig Freiraum für Antworten, was als demotivierend empfunden werden kann. Schriftliche Befragung mit Fragebogen Eine schriftliche Befragung bedeutet, dass die Befragten einen schrift‐ lichen Fragebogen ausfüllen sollen. Dabei können Sie als Befragende beim Ausfüllen anwesend sein, oder aber Ihre Funktion »beschränkt« sich darin, den Fragebogen anzufertigen (zu »designen«) und zu verteilen. Die Rücksendung des ausgefüllten Fragebogens erfolgt dann entweder per Post oder - in zunehmendem Maße - per Email im Falle einer Online-Befragung. Die Hauptschwierigkeit bei der Durchführung schriftlicher Befragungen wurde vorher schon genannt: Wer garantiert Ihnen eigentlich, dass die befragte Personengruppe die Fragebögen tatsächlich 1.: wahrheitsgemäß ausfüllt und (ggf.) 2.: auch noch zurückschickt? Letzteres, das Zurückschi‐ cken des ausgefüllten Fragebogens, sollte deshalb so »niedrigschwellig« wie irgend möglich erfolgen. D.h.: Ein ausgefüllter und frankierter Rückum‐ schlag ist auf alle Fälle beigelegt (zumindest dann, wenn die Befragten kein großes Eigeninteresse an einer bestimmten Befragung haben). Einfacher 160 III Datenerhebung und Datenaufbereitung <?page no="161"?> gestaltet sich das natürlich im Falle einer Online-Befragung; gleichzeitig besteht die Kunst hier aber zunächst schon mal darin, die kontaktierte Person überhaupt dazu zu bewegen, die Mail zu öffnen und nicht gleich als Spam zu löschen. Wie Sie bestimmt aus eigener (oft genug leidvoller) Erfahrung wissen, versuchen viele Marktforschungsinstitute, aber auch wissenschaftliche Institutionen mit allerlei Anreizsystemen (Teilnahme an Preisausschreiben etc.), Sie zur Mitarbeit zu motivieren. Dass dergleichen Strategien meist nur bei bestimmten Zielgruppen anschlagen und deshalb auf Kosten der Repräsentativität gehen, zudem auch keinerlei Garantie bieten, dass tatsächlich wahrheitsgemäße Antworten geliefert werden (die Teilnahme an der Verlosung ist schließlich unabhängig von der Qualität der Antworten), ist klar. Tatsächlich gibt es für eine hohe Rücklaufwahr‐ scheinlichkeit leider kein Patentrezept: Zu sehr hängt diese an der Art der Befragung und am dahinterstehenden Erkenntnisinteresse. Den höchsten Erfolg haben Sie diesbezüglich erfahrungsgemäß bei der Befragung geschlossener, gleichartiger Gruppen, die zudem einen Sinn in der durchgeführten Studie erkennen können, vielleicht deshalb, weil sie selber Betroffene sind: Eine anonyme Befragung von alleinerziehenden Müttern (denen die Fragebögen bspw. in einer Beratungsstelle ausgehändigt wurden) zu deren sozialer Situation (sowie Möglichkeiten ihrer Verbesse‐ rung) hat bestimmt einen weitaus höheren Rücklauf als eine in der Hauspost befindliche Befragung zu persönlichen Reisegewohnheiten, für deren Beant‐ wortung eine Teilnahme an einer Verlosung winkt (über deren Modalitäten ich zu allem Überfluss meist nichts weiß). Die »Kunstfertigkeit« der Fragebogengestaltung Wenn es um die Gestaltung eines Fragebogens geht, ist die Bezeichnung »Kunst« durchaus angebracht, auch darf beim Fragebogendesign von einer »Wissenschaft für sich« gesprochen werden. Schließlich hat ein brauchbarer Fragebogen gleich einer ganzen Reihe von Ansprüchen zu genügen: ● Er muss die Fragen klar und unmissverständlich formulieren. ● Seine Handhabung sollte leichtfallen (es bedarf also keiner »Betriebsan‐ leitung«, um ihn bearbeiten zu können). ● Die Anleitung zum Ausfüllen muss exakt sein. ● Die Struktur der Fragen sollte einer inneren Logik folgen 2 Quantitative Erhebungsmethoden 161 <?page no="162"?> ● Die Antwortvorgaben sollten sowohl dem Inhalt angemessen als auch einer späteren Auswertung dienlich sein. Der letzte Punkt meint Folgendes: Es gibt genügend Beispiele für interes‐ sante Fragestellungen, die sich einer statistischen Auswertung aber entzie‐ hen: Wenn Sie etwa bestimmte Einstellungen von Menschen an jeweils verschiedenen Orten und zu verschiedenen Zeiten in Erfahrungen bringen wollen, ist dies sicher eine lobenswert differenzierte Vorgehensweise, die Auswertung der Ergebnisse erfordert aber eine entsprechend komplexe mehrdimensionale Darstellungsweise. Umgekehrt ist eine Darstellung der Art »X% sagen Ja, Y% sagen Nein« statistisch einfach darzustellen, bezogen auf viele Fragen aber nur wenig aussagekräftig und »unterkomplex«. Bei manchen Fragestellungen werden die Antwortmöglichkeiten »ja«, »nein«, »egal« dem Forschungsinteresse nicht entsprechen bzw. ihm nicht gerecht werden. Bei der Frage: »Sind Sie zufrieden mit dem Lehrangebot Ihrer Fakultät? « wäre ein so genanntes »Polaritätsprofil« sicher aussage‐ kräftiger als eine rein geschlossene Antwort im Sinne von ja / nein: Die Antwort wäre dann vielmehr in einer Skala mit den Polen »Sehr« und »Überhaupt nicht« anzusiedeln und beinhaltet dazwischen etwa auch die Antwortmöglichkeiten »Ein wenig«, »Sowohl als auch« und »Kaum«. An‐ dererseits ist ein solches Antwortschema natürlich ein wenig aufwendiger auszuwerten als das bei einer bloßen Auszählung von Jas und Neins der Fall wäre. Nicht nur die Antwortvorgaben, sondern auch - und vor allem! - die Art und Weise, wie Sie Ihre Fragen formulieren, entscheidet in ganz erheblichem Maße darüber, ob ein Fragebogen überhaupt ausgefüllt wird und zudem auch wahrheitsgemäß (das gilt natürlich auch für mündliche Befragungen). So macht es etwa einen gravierenden Unterschied, ob Sie die Frage stellen: »Gehen Sie manchmal fremd? « oder ob Sie denselben Sachverhalt wie folgt formulieren: »Würden Sie jemanden moralisch verurteilen, der manchmal fremd geht? « Zwar ist damit nicht das Gleiche gefragt, dennoch lassen sich Rückschlüsse auf ein tatsächliches Verhalten ziehen. Genau darin besteht aber nun besagte Kunstfertigkeit des Fragebogendesigns: Fragen (gerade heikle Fragen, die etwas über die Persönlichkeit aussagen) so zu formulieren, dass sich niemand in die Enge getrieben fühlt und dabei dennoch aussagekräftige Ergebnisse erzielt werden! Noch ein Beispiel: Wenn Sie fragen würden: »Sind Sie ein Ausländer‐ feind? « werden Sie mit Sicherheit ganz andere Ergebnisse erzielen als mit 162 III Datenerhebung und Datenaufbereitung <?page no="163"?> der Frage »Wäre es Ihnen Recht, wenn Ausländer in Ihrer Nachbarschaft leben oder wäre es Ihnen lieber, wenn das nicht der Fall wäre? « Wer sich für letztere Antwortvorgabe entscheidet, ist sicher noch nicht zwangsläufig und automatisch ein Ausländerfeind. Dennoch lässt eine solche Frage womöglich substantiellere Rückschlüsse zu als die direkte Frage, die wo‐ möglich viele nicht mit »ja« beantworten wollen, weil sie sich selber nicht so einschätzen, obwohl ihr Denken von entsprechenden Stereotypen und Vorurteilen bestimmt ist. Es gibt noch eine ganze Reihe weiterer Tipps und Tricks für die Gestaltung möglichst »wasserdichter« Fragebögen: z. B. gilt es zu berücksichtigen, dass Befragte gegen Ende des Antwortprozesses sowohl ihre Aufmerksamkeit als auch ihr Interesse zu verlieren drohen. Deshalb sollten gegen Ende des Fragbogens die Fragen kürzer gefasst sein. Nachfolgend finden Sie einige wichtige Grundsätze für die Gestaltung von Fragebögen zusammengefasst. Es versteht sich von selbst, dass die konkrete Fragestellung und das Interesse Ihrer Befragung über die Gewichtung der einzelnen Punkte entscheidet. Wichtig Regeln für das Design Ihres Fragebogens ● Fragen müssen immer so einfach, eindeutig und verständlich und zudem so kurz wie möglich formuliert sein. Komplexe Sätze, dop‐ pelte Verneinungen, Fremd- und Fachwörter sind zu unterlassen. Entsprechend sollten sich die Fragen auch eher an der Umgangs‐ sprache orientieren (sofern es sich um keine Expertenbefragung handelt). ● Die Fragen müssen so konkret wie möglich sein, Unklarheiten bzw. Mehrdeutigkeiten sind zu vermeiden. (Die Frage: »Sind Sie mit den gesellschaftlichen Verhältnissen der Gegenwart zufrieden? « ist natürlich viel zu unspezifisch. Auch eine Frage der Art: »Sind Sie für oder gegen die Hochschulreformen in Europa? « ist zu mehrdeutig). ● Die Fragen sollten so neutral wie möglich formuliert sein, weshalb die Antwortvorgaben qualitativ entsprechend ausgewogen sein müssen. (Dies ist z. B. nicht der Fall, wenn auf die Frage: »Sind Sie mit dem Studium zufrieden? « einerseits mit »Ja«, andererseits mit »Keinesfalls« antworten können). 2 Quantitative Erhebungsmethoden 163 <?page no="164"?> ● Suggestivfragen sind zu unterlassen, ebenso rhetorische Fragen. (»Sind Sie auch der Meinung …? «, »Sind Sie wie die meisten Studierenden auch der Ansicht, dass-…? «). ● Die Anzahl der Antwortvorgaben muss überschaubar und doch aussagekräftig sein. (Bei einem Polaritätsprofil mit den beiden »Außenposten«: »bin absolut dafür-/ -bin absolut dagegen« bedarf es zwingend innerer Abstufungen. Andererseits muss die Anzahl an Antwortkategorien aber überschaubar bleiben, da sonst die Auswertung wenig Substanz liefert). Speziell bei Polaritätsprofilen sollten links und rechts von der mittleren Position gleich viel Antwortmöglichkeiten vorhanden sein, da sonst erfahrungsgemäß die Seite mit der Überzahl an Kategorien bevorzugt wird. ● Die Fragen dürfen nicht überfordern. Das gilt zum einen für Expertenwissen, das Nicht-Experten abverlangt wird (»Was halten Sie von der aktuellen Gesetzesnovelle der EU-Kommission? «), zum anderen für überfordernde Schätzungen (»Wie viele Stunden verbringen Sie im Semester an der Uni? «). ● Der Fragebogen muss die Messeinheiten und Relationen beinhal‐ ten, auf die sich die Frage bezieht. (Die Frage »Wie viel lesen Sie in der Woche durchschnittlich? « muss sinnvollerweise eine Minuten- oder Stundenskala enthalten). Zudem ist es angebracht, Skalen sinnvoll zu untergliedern. (Die Frage nach der Lesedauer kann etwa in der Form »unter einer Stunde, 1-2 Stunden …, mehr als 8 Stunden« o. ä. kategorisiert werden. Ein Pre-Test kann dabei Auskunft über die sinnvolle Anzahl und den Umfang der einzelnen Kategorien liefern). ● Die Reihenfolge der Fragen muss bedacht werden: Weder darf diese zu lang sein (weil dann die Gefahr der Demotivation besteht), noch sollte die Reihenfolge eine versteckte Wertung zum Ausdruck bringen. Nicht zu vergessen sind Ihrem Fragebogen natürlich Angaben zur Per‐ son hinsichtlich der Sie interessierenden Eigenschaften (diese Angaben werden meist zu Beginn des Fragebogens erhoben). Dabei müssen Sie natürlich darauf achten, dass solche Angaben evtl. nicht auf Kosten der Anonymität gehen. Durchaus üblich sind etwa Angaben zum Geschlecht und Alter, evtl. auch zur Ausbildung oder zur Herkunftsre‐ gion. 164 III Datenerhebung und Datenaufbereitung <?page no="165"?> Bei der Anfertigung eines Fragebogens gilt eben wie überhaupt: Nur Übung macht den Meister! Aufbereitung quantitativer mündlicher Befragungen Nach Beendigung Ihrer schriftlichen oder mündlichen Befragung verfügen Sie (hoffentlich! ) über jede Menge ausgefüllter Fragebögen bzw. Befragungs‐ protokolle, die es nun nach den Regeln der quantitativen Sozialforschung auszuwerten gilt. In Abschnitt IV.2 finden Sie eine Einführung in die üblichen Ansätze einer statistischen Auswertung quantitativer empirischer Daten. An dieser Stelle geht es deshalb nur kurz um einige Besonderheiten im speziellen Zusammenhang der Auswertung von Befragungen. Grundsätzlich gilt, dass Sie jedes Interview in irgendeiner Weise »fest‐ halten«, also verschriftlichen müssen. Bei einer schriftlichen Befragung haben Sie die Antworten ohnehin schon vorliegen. Bei einer mündlichen Befragung müssen Sie die zuvor per Video oder Tonträger mitgeschnitte‐ nen Interviews transkribieren, d. h.: wörtlich protokollieren (Sie haben übrigens - leider - Recht, wenn Sie sich gerade denken sollten: »Ohne Zehn-Finger-System ist sowas ja mitunter eine Menge Arbeit! «). Dabei lassen sich verschiedene Formen der Verschriftlichung unterscheiden (s.a. Abschnitt III.3): ● Wörtliche Transkription: Die erhobenen Antworten werden voll‐ ständig in Schriftform übertragen ● Kommentierte Transkription: Auch nicht-mündliche Bestandteile eines Interviews (Pausen, Lachen, Grübeln, Betonungen etc.) werden (meistens in Klammern) angeführt. (Sie kennen das sicherlich aus Zeitungen und Zeitschriften und wissen deshalb, dass eine Antwort mit der Einfügung [»überlegt lange, dann grinsend: «] die Interpretation und die Aussagekraft einer Aussage deutlich erhöhen kann). ● Zusammenfassendes Protokoll: Wenn lediglich inhaltliche Teilas‐ pekte interessieren, kann ein Interview auch systematisch (mit Blick auf die interessierenden Aspekte) zusammengefasst werden. Dabei ist zu berücksichtigen, dass unterschiedliche Aspekte / Themen auch nach der Zusammenfassung gleichgewichtig angeführt werden, da andernfalls der Inhalt verzerrt würde. 2 Quantitative Erhebungsmethoden 165 <?page no="166"?> ● Selektives Protokoll: Auch hier geht es darum, anhand vorher festge‐ legter Auswahlkriterien nur ganz bestimmte Textstellen anzuführen, die für eine bestimmte Fragestellung von Bedeutung sind (z. B. in der Form, dass nur die Textstelle einer ausführlichen Transkription berücksichtigt werden, in denen bestimmte Schlüsselbegriffe [sog. »Ankerbegriffe«] und auf sie verweisende Begriffe berücksichtigt werden). Überblick Die einzelnen Arbeitsschritte einer Befragung Wie Sie sehen konnten, handelt es sich bei der Methode der Befragung angesichts der unterschiedlichen Befragungstypen und Auswertungs‐ möglichkeiten um eine komplexe Angelegenheit. Abschließend des‐ halb hier nochmal eine kompakte Zusammenfassung der typischen Vorgehensweise bei einer Befragung in Form von 10 Stichpunkten (die Reihenfolge gibt lediglich eine grobe Struktur an, im Einzelnen überlappen sich die Punkte durchaus): 1. Sammlung von Unterlagen zum Forschungsthema, Einlesen in die Untersuchungsmaterie, Vorüberlegungen, Formulierung der Arbeitshypothese 2. Zielgruppendefinition (abhängig von der Forschungsfrage), Ent‐ scheidung für die Erhebungsmethodik (mündlich / schriftlich? Telefon, Internet, Brief ? ) sowie erste Kontaktanbahnung mit mög‐ lichen Interviewpartnern-/ zu Befragenden. 3. Entwicklung des Erhebungsinstrumentes (Design des Fragebogens bzw. des Interviewleitfadens). 4. Zusammenstellung der Stichprobe(n) / Stichprobenauswahl (ist die Stichprobenziehung repräsentativ? ) 5. Einrichtung einer Datenbank-/ -eines Erhebungsprotokolls 6. Auswahl und Schulung der Interviewerinnen / der Mithelferinnen. 7. Durchführung der Befragung, wenn möglich nach einem voran‐ gehenden Probedurchlauf mit geringer Stichprobe. (Findet die Befragung »vor Ort«, also im »sozialen Feld« statt, spricht man auch von der »Feldphase«). 8. Überprüfung und Auszählung der Antworten. 9. Statistische Auswertung und Analyse des Datenmaterials (siehe nachfolgend). 166 III Datenerhebung und Datenaufbereitung <?page no="167"?> 10. Anfertigung des Forschungsberichts. In diesem wird das gesamte methodische Vorgehen vorgestellt und ggf. auch kritisch disku‐ tiert. Er beinhaltet also die Forschungshypothese, die Begründung und Darstellung des Erhebungsinstrumentes (z. B. die Art des Fragebogens), das methodische Vorgehen und die Durchführung im Einzelnen (»wer hat wann und wo wen über was befragt«? ) sowie letztlich die Darstellung, Auswertung und (selbstkritische! ) Interpretation der Daten. Jede Menge Arbeit? Stimmt! Und doch werden Sie sehen, dass eine methodisch sauber durchgeführte Befragung auch sehr viel Spaß machen kann. Nur Mut! Vor der Durchführung einer quantitativen Befragung müssen Sie sich zunächst entscheiden, ob Sie eine schriftliche oder eine mündliche Befra‐ gung (oder auch beides) durchführen wollen. Beide Verfahren haben Vor- und Nachteile, die Sie mit Blick auf Ihre Forschungsfrage(n) abwägen müssen. Sowohl bei Fragebogenbefragungen als auch bei Interviews gibt es wiederum spezielle Durchführungsmöglichkeiten, die mit je eigenen Anforderungen einhergehen. In allen Fällen der Befragung steht und fällt die Qualität der Ergebnisse mit dem Design des zugehörigen Fragebogens, bei dem eine Reihe wichtiger Grundsätze zu berücksichtigen sind. Letztlich gilt es dann, die erhobenen Antworten in auswertbare Kategorien zu überführen und diese dann nach quantitativen Kriterien auszuwerten. Literaturtipps Atteslander, Peter; Ulrich, Georges-Simon; Hadjar, Andreas & Lenk, Manuela (2023): Methoden der empirischen Sozialforschung. 14. Aufl. Berlin u. a.: ESV. Diekmann, Andreas (2023): Empirische Sozialforschung: Grundlagen, Metho‐ den, Anwendungen. Reinbek: Rowohlt. Kromrey, Helmut; Roose, Jochen & Strübing, Jörg (2016): Empirische Sozial‐ forschung. Modelle und Methoden der standardisierten Datenerhebung und Datenauswertung. 13. Aufl. Konstanz: UVK. Mayer, Horst Otto (2012): Interview und schriftliche Befragung. Grundlagen und Methoden empirischer Sozialforschung. 6. Aufl. München-/ -Wien: Oldenbourg. 2 Quantitative Erhebungsmethoden 167 <?page no="168"?> Raithel, Jürgen (2008): Quantitative Forschung: Ein Praxiskurs. Wiesbaden: VS. Die quantitative Inhaltsanalyse Die quantitative Inhaltsanalyse ist eine Methode zur systematischen Unter‐ suchung von Kommunikationsinhalten. Anders als bei der quantitativen Befragung oder der quantitativen Beobachtung stehen hier manifeste In‐ halte im Mittelpunkt. Das sind jene Inhalte, die explizit erkennbar und direkt messbar sind, wie etwa Wörter, Sätze, Bilder oder Symbole. Dieses Kapitel beschäftigt sich mit der manuellen quantitativen In‐ haltsanalyse. Bei Interesse finden Sie weiterführende Literatur und On‐ line-Tutorials zur automatisierten quantitativen Inhaltsanalyse am Ende dieses Kapitels. Im folgenden Abschnitt sollen kurz die Grundlagen der quantitativen Inhaltsanalyse und die einzelnen Arbeitsschritte erläutert werden. Grundlagen Die quantitative Inhaltsanalyse untersucht Kommunikationsinhalte nach einem systematischen Verfahren. Sie folgt also einer klar festgelegten, geordneten Vorgehensweise. Ziel der quantitativen Inhaltsanalyse ist es, generalisierende Schlussfolgerungen über die zu untersuchenden Inhalte zu ziehen. Dafür werden alle ausgewählten Inhalte nach einem vorab festgelegten Schema untersucht. Dieses Schema wird im so genannten Co‐ debuch festgehalten. Der Vorgang der Datenerhebung wird als Codierung bezeichnet. Die zu untersuchenden Inhalte sind hauptsächlich textuell und visuell. Textuelle Inhalte sind all jene Inhalte, die in schriftlicher Form vorliegen. Visuelle Inhalte liegen dagegen in Form von Bildern oder Videos vor. Die quantitative Inhaltsanalyse ist daher für eine große Spanne an Inhalten ge‐ eignet. Das reicht von Zeitungsartikeln, TV-Sendungen oder Radioinhalten bis hin zu Social-Media-Posts, Videos oder Podcasts. Historisch gesehen hat die quantitative Inhaltsanalyse ihre Wurzeln in den 1920er und 1930er Jahren. Ab den 1950er Jahren wurde die Methode zunehmend systematisiert und damit der Grundstein für die weitere Ent‐ wicklung gelegt. Seit den 1970ern wurde die quantitative Inhaltsanalyse 168 III Datenerhebung und Datenaufbereitung <?page no="169"?> insbesondere durch Computertechnologien erweitert, die vor allem die Datenerhebung deutlich erleichtert haben. In der heutigen Zeit hat sich neben der manuellen quantitativen Inhaltsanalyse eine zweite, noch stärker computergestützte Variante herausgebildet: die automatisierte quantitative Inhaltsanalyse. Während bei der manuellen quantitativen Inhaltsanalyse die Codierung durch Menschen erfolgt - auch wenn diese die Codierung am Computer durchführen können - übernimmt bei der automatisierten quantitativen Inhaltsanalyse der Computer die Codierung. Künstliche Intel‐ ligenz spielt hier zunehmend eine Rolle, indem mithilfe von Algorithmen und maschinellem Lernen große Datenmengen codiert werden können. Die zentralen Schritte Die quantitative Inhaltsanalyse umfasst fünf Phasen: Die Ausarbeitung der Forschungsfrage, die Entwicklung des methodischen Designs, die Erstellung des Codebuchs, die Datenerhebung und die Datenanalyse. 1. Die erste Phase umfasst den Weg von einer Idee zum Thema bis hin zur Forschungsfrage (s. Kapitel I und Kapitel II). Ist die Forschungsfrage einmal ausgearbeitet, sollten Sie Hypothesen ableiten und formulieren (s. Kapitel III). 2. Sind diese Punkte einmal abgeschlossen, können Sie mit der Entwick‐ lung des konkreten methodischen Designs beginnen. Zunächst müssen Sie festlegen, welche Inhalte Sie überhaupt untersuchen wollen. Anschlie‐ ßend müssen Sie eine Stichprobe auswählen, die ein repräsentatives Abbild der Grundgesamtheit darstellt. Stellen Sie sich vor, Sie wollen die Social-Me‐ dia-Posts von politischen Parteien in Österreich untersuchen. Hier könnten Sie Parteien auswählen, die ein Mandat im Nationalrat erlangt haben. Damit würden Sie relevante Parteien abdecken und die österreichische Parteienlandschaft möglichst breit repräsentieren. Die Indikatoren für eine repräsentative Stichprobe hängen zumeist von der jeweiligen Forschungs‐ frage ab und lassen sich daher nicht generalisieren. Im nächsten Schritt müssen Sie den Zeitraum Ihrer Untersuchung und die Anzahl der Fälle festlegen. Der Zeitraum hängt in erster Linie davon ab, ob Sie eine Vollerhebung oder eine Zufallserhebung durchführen wollen. Eine Vollerhebung umfasst alle Fälle in einem eher kurzen Zeitraum von zumeist vier bis acht Wochen. Eine Zufallserhebung kann dagegen einen längeren Zeitraum umfassen. Diese hat allerdings den Nachteil, dass nicht 2 Quantitative Erhebungsmethoden 169 <?page no="170"?> alle Fälle abgedeckt sind. Ein praktischer Aspekt muss zudem bedacht werden: nämlich der Zugang zu den Fällen. Oft ist dieser Zugang nicht uneingeschränkt möglich oder mit finanziellen Kosten verbunden. 3. Das Herzstück der quantitativen Inhaltsanalyse ist die Erstellung des Codebuchs. Das Codebuch ist wie ein Handbuch. Es enthält sozusagen eine Anleitung welche Codes den Inhalten zugeordnet werden sollen. Wenn also alle Inhalte nach derselben Anleitung untersucht werden, kann man generalisierende Aussagen über diese Inhalte treffen. Für jede Variable sollte das Codebuch eine Definition, Beispiele, Klarstellungen und die Codierentscheidung enthalten. Beim Beispiel Social-Media-Posts von politischen Parteien könnten Sie die Themen dieser Posts untersuchen. Jedes Thema würde im Codebuch eine eigene Variable darstellen. Angenommen eine Variable ist das Thema Um‐ weltpolitik. Sie müssen also Umweltpolitik definieren und dafür Beispiele angeben. Zudem müssen Sie klarstellen, welche Punkte als Umweltpolitik codiert werden sollen und welche Punkte nicht darunter fallen. Dazu gehört auch die Abgrenzung zu anderen Themen, wie etwa Energiepolitik oder Landwirtschaftspolitik. Bei der Klarstellung ist es sehr wichtig Grauzonen zu präzisieren und eine klare Abgrenzung vorzunehmen, damit es zu keinen Missverständnissen in der Codierung kommt. Anschließend müssen Sie die Codierentscheidung für jede Variable festlegen. Wie bei quantitativen Methoden üblich, wird die Codierentscheidung mit Zahlen versehen, um diese quantifizieren zu können. Jede Ausprägung einer Variable entspricht in den Daten also einer bestimmten Zahl. Beim Thema Umweltpolitik gibt es etwa folgende Codierentscheidung: 0 = Thema Umweltpolitik trifft nicht zu und 1 = Thema Umweltpolitik trifft zu. Bei der Erstellung des Codebuchs ist es wichtig, dass Sie über den Teller‐ rand hinausblicken - also ‘think out of the box‘. Was für Sie vielleicht klar und eindeutig erscheinen mag, kann für eine andere Person unklar sein und zu Missverständnissen führen. Daher ist es entscheidend, bei der Erstellung des Codebuchs Unklarheiten zu vermeiden. 4. Ist das Codebuch erstellt, muss ein Reliabilitätstest durchgeführt werden (für Gütekriterien, s. Abschnitt II. 9). Dabei werden zufällig zwischen 10 % bis 25 % an Fällen aus der Stichprobe ausgewählt, die von allen Codierer und Codiererinnen codiert werden. Anschließend wird die Über‐ einstimmung zwischen den Codierungen überprüft. Wenn nur Sie codieren, müssen Sie dennoch einen Reliabilitätstest mit einer zweiten oder dritten 170 III Datenerhebung und Datenaufbereitung <?page no="171"?> Person durchführen. Es gibt verschiedene Reliabilitätskoeffizienten, die auf unterschiedlichen Berechnungsformeln basieren. Gängige Reliabilitäts‐ koeffizienten in der quantitativen Inhaltsanalyse sind etwa Krippendorffs Alpha oder Brennan und Predigers Kappa. Grundsätzlich kann ein Reliabi‐ litätskoeffizient einen Wert von 0 (keine Übereinstimmung) bis 1 (perfekte Übereinstimmung) annehmen. Als Ziel für den Reliabilitätstest gilt ein Wert von mindestens 0,80. Ein Wert von 0,67 gilt als noch akzeptabel. Liegen die Werte jedoch darunter, so empfiehlt es sich beim Codebuch nachzuschärfen. Anschließend muss erneut ein Reliabilitätstest durchgeführt werden. Ist der Reliabilitätstest erfolgreich, so kann mit der Datenerhebung - also der Codierung der gesamten Stichprobe - begonnen werden. In der Praxis erfolgt die Codierung mittels einer Codiermaske am Computer, die für jeden Fall der Stichprobe ausgefüllt wird. Die Codes werden automatisch in den Datensatz übertragen. 5. Die Datenanalyse erfolgt nach gängigen statistischen Verfahren. In der quantitativen Inhaltsanalyse sind dies in der Regel deskriptive Statistiken bis hin zu multivariaten Verfahren wie der binären logistischen Regression (s. Abschnitt IV.2). Literaturtipps Hase, Valerie (2021): Introduction to Automated Content Analysis in R. https : / / bookdown.org/ valerie_hase/ TextasData_HS2021/ introduction-to-autom ated-content-analysis-in-r.html Rössler, Patrick (2017): Inhaltsanalyse. 3. Aufl. Konstanz: UVK. 2 Quantitative Erhebungsmethoden 171 <?page no="172"?> 3 Aufbereitungsmethoden (I. Andreitz) Herzlichen Glückwunsch! Ihre Erhebung ist nun abgeschlossen und Sie sitzen vor einer Fülle an Daten. Diese können in Papierform (z. B. als ausgefüllte Fragebögen), als Tonaufnahmen von Interviews und Gruppen‐ diskussionen, als Protokolle von Beobachtungen oder als digitaler Datensatz (z. B. nach einer Online-Befragung) vorliegen. Bevor Sie loslegen und Ihre Forschungsfragen beantworten können, müssen Sie den nächsten zentralen Schritt im empirischen Forschungsprozess gehen: Ihre Daten aufzubereiten. Der Zeitaufwand dafür wird oft unterschätzt. Er hängt von Umfang und Art Ihrer Daten ab: Qualitative Daten sind in der Regel aufwendiger in der Aufbereitung als quantitative. Auch Ihre Vorkenntnisse beim Umgang mit bestimmter Software spielen eine Rolle. Es empfiehlt sich, großzügig Zeit dafür einzuplanen. Wir empfehlen, ca. 15 bis 25 % der Gesamtzeit für die Aufbereitung zu reservieren. Dies ist allerdings kein festgelegter Wert, sondern basiert auf praktischer Erfahrung. Da die Datenaufbereitung einen direkten Einfluss auf die Qualität Ihrer Forschungsergebnisse hat, ist sie ein sehr wichtiger Schritt im Forschungs‐ prozess. Schlecht aufbereitete Daten können Ergebnisse verfälschen und dadurch die Qualität Ihrer Ergebnisse gefährden. Eine gute Aufbereitung erspart Ihnen außerdem im späteren Prozess viel Zeit und Ärger: Je gründ‐ licher sie durchgeführt wird, desto reibungsloser und präziser verläuft die anschließende Auswertung. Ethische sowie datenschutzrechtliche Richtli‐ nien spielen ebenfalls eine Rolle: Nicht ausreichend anonymisierte Daten können zur Identifizierbarkeit einzelner Personen führen. Übersicht über das Vorgehen Die Datenaufbereitung erfolgt anhand verschiedener Schritte, die teilweise ineinander übergehen bzw. nicht immer eindeutig voneinander getrennt werden können: 1. Erstellung des Datensatzes: Darin sammeln Sie die Rohdaten in ent‐ sprechender Form, z. B. durch die Eingabe der Fragebögen in ein Auswer‐ tungsprogramm (quantitativer Datensatz) oder durch Transkription Ihrer Interviews oder Abtippen Ihrer handschriftlichen Beobachtungsprotokolle (qualitativer Datensatz). Dadurch ermöglichen Sie eine spätere Auswertung. 172 III Datenerhebung und Datenaufbereitung <?page no="173"?> 2. Dieser Datensatz wird mit weiteren Informationen versehen: Bei quantitativen Datensätzen fügen Sie hinzu, was die Zahlen bedeuten, z. B. 1 steht für „stimme gar nicht zu“. Bei qualitativen Datensätzen können Sie z. B. das Datum des Interviews hinzufügen, wie es durchgeführt wurde (z. B. persönlich oder online) oder wie lange es gedauert hat. 3. Daten bereinigen: In einem quantitativen Datensatz korrigieren Sie dabei z. B. Tippfehler, die beim Eingeben der Fragebögen entstanden sind und entscheiden darüber, wie Sie mit fehlenden oder extremen Werten umgehen. Bei einem qualitativen Datensatz nehmen Sie Änderungen vor, um die Auswertung zu erleichtern. Je nach Fragestellung der Studie können Sie bei Interviews z. B. Dialekt in Hochsprache umschreiben („i bin“ → „ich bin“) oder Gesprächsteile entfernen, die offensichtlich nichts mit dem Thema zu tun haben (z. B. Small Talk über das Wetter). Bei Beobachtungsprotokollen formulieren Sie unklare Notizen verständlicher, z. B. „? ? Schüler unruhig“ wird zu „Schüler wirkt unruhig - genaue Ursache unklar“). 4. Um die Daten später auswerten zu können, müssen diese teilweise umgewandelt werden. Bei Fragebogendaten (quantitativer Datensatz) fassen Sie z. B. einzelne Items zu Skalen zusammen. Bei qualitativen Daten gehen die Bereinigung und die Umwandlung oft ineinander über: Wenn Sie beispielsweise Dialekt umschreiben oder unklare Stellen verständlicher machen, bereinigen Sie die Daten und wandeln sie gleichzeitig um. 5. Ein weiterer Schritt, der parallel zu den anderen durchgeführt werden muss, ist die Dokumentation Ihrer Vorgehensweise. Entscheidungen, die Sie während des Prozesses treffen - etwa der Ausschluss bestimmter Daten - beeinflussen die Ergebnisse und müssen in Ihrer Arbeit transparent gemacht und begründet werden. Sie sollten vor allem Folgendes dokumen‐ tieren: Wie wurden die Daten erhoben? Wer wurde befragt, beobachtet usw.? Wann und wo fand die Erhebung statt? Wie wurden die Daten aufbereitet und analysiert? Was bedeuten die Variablen und Werte? Was wurde weg‐ gelassen oder verändert? Der Sinn hinter einer genauen Dokumentation ist, dass andere (aber auch Sie selbst) zu einem späteren Zeitpunkt Ihre Forschungsergebnisse nachvollziehen, die Daten nochmals nutzen oder Analysen wiederholen können. Dafür ist es notwendig, zu verstehen, wie genau die Daten aufbereitet und verändert wurden, da die Ergebnisse davon wesentlich beeinflusst werden. 3 Aufbereitungsmethoden 173 <?page no="174"?> Nachfolgend beschreiben wir die einzelnen Schritte abhängig von der Art der Rohdaten. Dabei werden wir auf die Aufbereitung von Rohdaten aus Interviews (als Beispiel für qualitative Daten) und Fragebögen (als Beispiel für quantitative Daten) detailliert eingehen. Was Sie dabei dokumentieren sollten, führen wir beim jeweiligen Punkt an. Aufbereitung qualitativer Daten Qualitative Rohdaten können u. a. in Form von Tonaufnahmen, Videoauf‐ nahmen, Beobachtungsprotokollen, Notizen, Bildern oder Tagebüchern vorliegen. Wenn diese Daten nicht bereits in digitaler Form existieren, empfiehlt es sich, Feldnotizen, Tagebücher usw. einzuscannen und somit eine Sicherungskopie aller Materialien zu erstellen. 1. Aufbereitung von Daten aus einem Interview Die als Audiodatei vorliegenden Interviews müssen zunächst transkri‐ biert, das heißt verschriftlicht werden. Sie fragen sich jetzt vielleicht, ob eine Transkription wirklich notwendig ist oder ob es ausreicht, sich die Interviews anzuhören. Diese Frage können wir folgendermaßen beantwor‐ ten: Das bloße Anhören eines Interviews reicht nicht aus, um es präzise analysieren zu können. Anhand eines Transkripts können Sie systematisch Textstellen vergleichen, Passagen aus dem Interview codieren oder gezielt Zitate heraussuchen. Das ist in dieser Qualität, nur durch das Anhören einer Tonaufnahme, so gut wie unmöglich. Bevor Sie mit der Transkription beginnen, müssen Sie einige Entschei‐ dungen treffen, die wir hier auflisten: 1.1 Treffen Sie eine Entscheidung über den Umfang der Transkrip‐ tion: Werden die Interviews vollständig oder nur teilweise transkribiert? Eine vollständige Transkription ist umfassender, aber auch zeitintensiver. Eine Teiltranskription, bei der Sie nur relevante Passagen verschriftlichen, spart Zeit. Gleichzeitig steigt dabei aber die Gefahr, dass Sie wichtige Infor‐ mationen, die in der Tonaufnahme enthalten sind, übersehen. Manchmal ist das Treffen dieser Entscheidung einfach, etwa wenn der Interviewpartner am Anfang über ein irrelevantes Thema wie das Wetter spricht. In anderen Fällen kann es schwieriger sein, die Relevanz zu beurteilen. Eine sinnvolle Richtlinie kann sein, sich an den Forschungsfragen zu orientieren: Passagen, die direkt mit der Beantwortung dieser Fragen zusammenhängen könnten, sollten in jedem Fall transkribiert werden. 174 III Datenerhebung und Datenaufbereitung <?page no="175"?> 1.2 Wahl des Transkriptionsschemas: Es gibt unterschiedliche Möglich‐ keiten, das Gehörte in Schrift zu übertragen. Das gewählte Schema legt fest, auf welche Art und wie detailliert die Verschriftlichung von Ihnen durchgeführt wird. Ein einfaches Schema erfasst nur die gesprochenen Worte, während komplexere Schemata beispielsweise auch Pausen, Tonhö‐ hen, Betonungen oder non- und paraverbale Elemente (Lachen, »mhm«) berücksichtigen. Für welches Schema Sie sich entscheiden, hängt maßgeb‐ lich von Ihrer Forschungsfrage sowie von der Methode ab, mit der Sie Ihre Daten auswerten wollen. Bei einer thematischen Analyse, einer qualitativen Inhaltsanalyse oder einer Metaphernanalyse reicht in der Regel ein einfa‐ ches Schema. Wenn Sie aber z. B. eine psychoanalytische Textinterpretation oder eine Konversationsanalyse durchführen wollen, müssen Sie sich für ein komplexeres Schema entscheiden, das mehr Informationen erfasst. Wenn Sie in Ihrer Forschung beispielsweise den Zusammenhang von Sprachge‐ brauch und Persönlichkeitsmerkmalen untersuchen, werden Sie sich für ein Transkriptionsschema entscheiden, das lautmalerische Ausdrücke wie „ah“ und „mhm“ abbildet. Oder: In einer Studie zur Kommunikationsstruktur innerhalb von Lehrendenteams könnte die Erfassung von Sprechpausen oder gleichzeitigen Redebeiträgen entscheidend sein, um Interaktionen besser zu verstehen. Ein Transkriptionsschema, das diese Merkmale igno‐ riert, würde wichtige Informationen ausblenden. Konzentriert sich Ihre Forschung aber auf die Frage, welche Motive Lehramtsstudierende für die Wahl ihres Studiums angeben, reicht ein weniger komplexes Schema aus. Um die richtige Auswahl zu treffen, zahlt sich auch eine Suche auf der Website Ihrer jeweiligen Hochschule aus: In manchen Fällen geben Institute Richtlinien für die Transkription vor, an denen Sie sich orientieren können oder müssen. Wie diese Beispiele zeigen, bedeutet die Aufbereitung von Rohdaten immer auch eine Veränderung (Transformation) der Daten (Döring, 2023). Für die Qualität Ihrer Arbeit ist es wichtig, die Art der Veränderung transparent zu machen und zu argumentieren, warum Sie sich für die jeweilige Art entschieden haben. Interviews, bei denen bestimmte Passagen ohne Begründung weggelassen werden, können den Eindruck erwecken, dass Daten bewusst manipuliert wurden. Aus diesem Grund ist es wichtig, dass Sie Ihr Vorgehen bei der Datenaufbereitung genau dokumentieren. 3 Aufbereitungsmethoden 175 <?page no="176"?> 1.3 Anfertigen des Transkripts (Erstellung des Datensatzes): Für die Transkription von Interviews benötigen Sie im Prinzip nichts weiter als einen Computer und ein Abspielgerät. Fußtasten, die Sie an den Compu‐ ter anschließen und mit denen Sie die Wiedergabegeschwindigkeit der Aufnahme steuern können, erleichtern den Prozess der Transkription, sind aber nicht zwingend notwendig. Der Einsatz von KI-gestützter Trans‐ kriptionssoftware kann den Prozess ebenfalls erheblich beschleunigen. Bei der Nutzung solcher Tools, sind datenschutzrechtliche Überlegungen wichtig: Sie müssen sicherstellen, dass die verwendete Software den Da‐ tenschutzbestimmungen entspricht und keine sensiblen Informationen an Dritte weitergegeben werden. Dazu gehört, dass Sie personenbezogene Daten (z. B. Namen, Ortsangaben) vor dem Hochladen anonymisieren oder pseudonymisieren (siehe nächster Punkt). Falls eine Anonymisierung oder Pseudonymisierung aufgrund Ihrer Forschungsfragen nicht möglich ist, benötigen Sie eine rechtliche Grundlage (z. B. die Einwilligung der Teilneh‐ menden zur KI-gestützten Verarbeitung) und müssen sicherstellen, dass der KI-Dienstleister die Datenschutzanforderungen der DSGVO erfüllt, etwa durch einen geeigneten Serverstandort und einen Vertrag zur Auftragsver‐ arbeitung. KI-gestützte (Transkriptions-)Software entwickelt sich derzeit rasant weiter. Deshalb ist es schwierig, konkrete Empfehlungen für eine Software auszusprechen. Wichtig für Sie ist, dass Sie sich vor der Nutzung über Datenschutzstandards und Serverstandorte informieren und sich für eine datenschutzkonforme, lokal installierte Lösung entscheiden. Wenn das Transkript fertig ist, sollten Sie es durch paralleles Durchlesen und Anhören überprüfen. KI ist (derzeit) noch fehleranfällig, insbesondere bei Dialekten, undeutlicher Aussprache oder Hintergrundgeräuschen. KI kann auch keine sprachlichen Nuancen erkennen, etwa wenn eine Person während eines Interviews sehr emotional reagiert. Diese Informationen können aber für Ihre Auswertung entscheidend sein. 1.4 Bei der Transkription von Interviews müssen sensible Daten anonymisiert oder pseudonymisiert werden: Anonymisieren bedeutet, dass Sie die Namen, Orte oder andere relevante Merkmale Ihrer Interviewten so verändern, dass keinerlei Rückschlüsse auf einzelne Personen mehr möglich sind. Bei einer Pseudonymisierung ersetzen Sie die Angaben zur Person durch Platzhalter (z. B. ersetzen Sie den vollen Namen durch „Person A“), behalten aber intern eine Zuordnungsmöglichkeit. 176 III Datenerhebung und Datenaufbereitung <?page no="177"?> Am Ende des Aufbereitungsprozesses der Interviewdaten liegt Ihnen ein Dokument (Datensatz) vor, das Sie nun weiter auswerten können. Die Auswertung können Sie „am Papier“ oder digital vornehmen. Falls Sie dabei spezielle Auswertungssoftware für qualitative Daten verwenden (z. B. MAXQDA, ATLAS.ti), empfiehlt es sich, dass Sie sich mit den Anfor‐ derungen der Software an die Daten vertraut machen, um diese in die entsprechende Form zu bringen. 2. Protokollierung, Feldnotizen und Forschungstagebücher Neben Interviews gehören Protokolle, Feldnotizen und Forschungs‐ tagebücher zu den wichtigsten qualitativen Datenquellen. Sie entstehen während oder unmittelbar nach einer Beobachtung und beinhalten wichtige Details und Eindrücke, die für die spätere Analyse von Bedeutung sind. Moderne Forschungsmethoden setzen zunehmend auf die Digitalisie‐ rung von Feldnotizen und Protokollen. Softwaretools wie MAXQDA oder ATLAS.ti erlauben es, Notizen zu organisieren, zu kategorisieren und thematisch zu analysieren. Dabei findet oft schon eine erste Strukturie‐ rung der Daten statt, die den Übergang zur Auswertung erleichtert. Weiterführende Literaturhinweise zur Aufbereitung dieser Datenquellen finden Sie am Ende dieses Beitrags. Aufbereitung quantitativer Daten Ziel der Aufbereitung ist es, Ihre quantitativen Forschungsdaten für statis‐ tische Analysen nutzbar zu machen, um z. B. Mittelwerte, Zusammenhänge oder Unterschiede berechnen zu können. Quantitative Daten lassen sich in zwei Hauptkategorien einteilen: ● Selbst erhobene Daten: Daten, die durch eigene Forschung, etwa mittels standardisierter Fragebogenerhebungen, Experimenten oder Messungen gewonnen wurden. ● Externe Datenquellen: Daten, die aus fremden Quellen stammen, z. B. Statistiken, Daten aus anderen Studien. Diese Daten können je nach Quelle in Form von Tabellen, ausgefüllten Fra‐ gebögen oder anderen Messwerten vorliegen. Da Studierende im Rahmen von Seminar- und Abschlussarbeiten oftmals standardisierte Fragebögen als Erhebungsinstrument einsetzen, gehen wir im Folgenden auf die Auf‐ bereitung dieser Art von Daten genauer ein. Um das Vorgehen für Sie 3 Aufbereitungsmethoden 177 <?page no="178"?> leichter nachvollziehbar zu machen, beziehen wir uns in der Folge auf einen Beispielfragebogen, der die Motivation von Studierenden verschiedener Studiengänge erhebt. In diesem Beispielfragebogen wurden das Alter und das Geschlecht (soziodemographische Daten) sowie der Studiengang abgefragt. Die Motivation wird mit einer fünfstufigen Skala erfasst, bei der die Befragten angeben, wie sehr sie einzelnen Aussagen zustimmen. Eine der Aussagen, die der intrinsischen Motivation zugeordnet ist, lautet: „Es macht mir richtig Spaß, mich mit Inhalten aus dem Studium zu beschäftigen.“ Die Antwortmöglichkeiten sind: „stimme sehr zu“ - „stimme eher zu“ - „teils-teils“ - „stimme eher nicht zu“ - „stimme gar nicht zu“. Es findet sich außerdem folgende offene Frage im Fragebogen: „Warum haben Sie sich für Ihr Studium entschieden? “ Der Vorgang, bei dem Sie Ihre ausgefüllten Fragebögen nun in eine strukturierte und analysierbare Form bringen, nennt man Codierung. Ziel ist es, die Informationen aus den Fragebögen in einer Datenmaske zu organisieren, die systematisch auswertbar ist. Für unser Beispiel können wir uns vorstellen, dass Sie anhand von Mittelwertsunterschieden herausfinden wollen, ob eine Gruppe bei den Motivationsfragen im Durchschnitt höhere Werte angibt als die andere. Entscheidung über die eingesetzte Software Für die Datenaufbereitung benötigen Sie eine spezielle Software - je nach Komplexität der statistischen Analysen z. B. Excel, SPSS oder R. Auch ein Übertrag zwischen den einzelnen Programmen ist möglich. Dabei empfiehlt es sich, dass Sie bereits bei der Eingabe darauf achten, die Daten so aufzubereiten, dass sie zumindest vom Programm Ihrer Wahl gelesen und verwendet werden können. Für den weiteren Prozess ist es notwendig, alle wichtigen Informationen zu Ihrem Datensatz in einem Dokument zu sammeln. Diese Codierungsüber‐ sicht ist das „Bindeglied“ zwischen Ihrem Fragebogen und Ihrem Datensatz. Vorbereitung: Erstellen einer Codierungsübersicht Im ersten Schritt erstellen Sie dafür ein (digitales) Textdokument, in dem Sie sämtliche Variablen Ihres Fragebogens auflisten, in derselben Reihenfolge, in der sie im Fragebogen erscheinen. Vergeben Sie anschließend eine Bezeichnung für jede dieser Variablen. Sie muss kurz und eindeutig sein, darf 178 III Datenerhebung und Datenaufbereitung <?page no="179"?> aus Buchstaben, Zahlen und Unterstrichen bestehen und sollte immer mit einem Buchstaben beginnen. Umlaute, Leerzeichen oder andere Sonderzei‐ chen außer dem Unterstrich sind nicht erlaubt. Achten Sie darauf, dass die Variablenbezeichnungen aus maximal acht Zeichen bestehen. Diese Regeln sind wichtig, da sie sicherstellen, dass Sie Ihre Daten später problemlos zwischen Programmen wie z.-B. Excel und SPSS übertragen können. Zusätzlich zu den Variablen aus dem Fragebogen tragen Sie auch solche ein, die für die Organisation und spätere Analyse wichtig sind. Dazu gehört zum Beispiel die Fragebogennummer. Auch die Zugehörigkeit zu einer bestimmten Befragungsgruppe (z. B. Medizinstudierende, Lehramtsstudie‐ rende) kann relevant sein. Ebenso andere Variablen, mit denen Sie Ihre Daten später gruppieren oder kategorisieren möchten. Orientieren wir uns wieder an unserem Beispielfragebogen. Nachfolgend finden Sie eine tabellarische Übersicht, so wie Sie sie in Ihrer Codierungs‐ übersicht erstellen: Variablenname Bedeutung Codierung / Werte Itemtext fbnr Fragebogennum‐ mer - - studium Studiengang 1 = Lehramt, 2 = Medizin - gesch Geschlecht 1 = weiblich, 2 = männlich, 3 = di‐ vers - age Alter in Jahren - - Tabelle 10: Tabellarische Übersicht wie sie in Codierungsübersicht erstellt wird Variablen, die zu einer gemeinsamen Skala verrechnet werden, versehen Sie mit einer gemeinsamen Bezeichnung und einer fortlaufenden Nummer. Achten Sie dabei auf Einheitlichkeit: 3 Aufbereitungsmethoden 179 <?page no="180"?> Variablenname Skala Itemtext Codierung / Werte inmot_1 Intrinsische Moti‐ vation Es macht mir rich‐ tig Spaß, mich mit Inhalten aus dem Studium zu be‐ schäftigen. „stimme sehr zu“ = 1 „stimme eher zu“ = 2 „stimme teils-teils zu“ = 3 „stimme eher nicht zu“ = 4 „stimme gar nicht zu“ = 5 missing = 99 inmot_2 Intrinsische Moti‐ vation [Hier den genauen Itemtext einfügen] s.o. exmot_1 Extrinsische Moti‐ vation Ich studiere vor al‐ lem, um später ein gutes Einkommen zu haben. s.o. motiv Offene Frage: Warum haben Sie sich für Ihr Stu‐ dium entschie‐ den? - Offene Texteingabe Tabelle 11: Tabellarische Übersicht zu Variablen, die zu einer gemeinsamen Skala verrech‐ net werden Für die spätere Eingabe der Fragebögen in das Statistikprogramm ist es wichtig, die Antwortoptionen von links nach rechts bzw. von oben nach unten (auf jeden Fall in Leserichtung) zu codieren. Sollten dadurch - wie in unserem Beispiel - hohe Merkmalsausprägungen mit niedrigen Werten einhergehen, können Sie diese später mithilfe des Programms umcodieren. So können hohe Werte für hohe Zustimmung und niedrige Werte für geringe Zustimmung stehen. Diese intuitive Wertezuordnung ist für die spätere Interpretation der Ergebnisse wichtig. Codierung fehlender Werte Es wird vorkommen, dass nicht alle Fragebögen vollständig ausgefüllt sind. Es ist wichtig, diese „missings“ im Zuge der Auswertung eindeutig zu kennzeichnen. Sie können die Felder auch leer lassen - ein Programm wie SPSS erkennt sie dann als fehlend und lässt sie bei Berechnungen weg. Leere Felder sind allerdings unübersichtlich und können bei späteren Auswertun‐ gen oder beim Export in andere Programme Probleme machen. Deshalb 180 III Datenerhebung und Datenaufbereitung <?page no="181"?> empfehlen wir, fehlende Werte mit einem Platzhalter zu codieren (z.-B. 99). Wichtig dabei ist, dass Sie das Programm dann darüber informieren, dass diese Zahl einen fehlenden Wert darstellt. Ansonsten kann es passieren, dass diese Zahl versehentlich in eine Berechnung einfließt und das Ergebnis verfälscht. Wenn SPSS „99“ als echtes Alter zählt, würde das den berechneten Altersdurchschnitt Ihrer Studienteilnehmenden massiv erhöhen. Erweiterung der Codierungsübersicht zur Skalendokumentation Erweitern Sie Ihre Codierungsübersicht zu einer Skalendokumentation. So behalten Sie den Überblick über zentrale Informationen zu Ihren Skalen und sparen sich später mühsames Nachschlagen. Dafür legen Sie ein Dokument in z. B. Excel oder Word an und erstellen eine Tabelle. In dieser halten Sie die folgenden Informationen fest: ● Fragebogenposition / Itemnummer z. B. „Frage 3“ oder „Item B5“ ● Itemtext (Kurzfassung) z. B. „Mein Studium macht mir richtig Spaß.“ ● Zuordnung zur Skala z. B. „Intrinsische Motivation“ ● Antwortformat und Codierung z. B. „1 = stimme gar nicht zu … 5 = stimme voll zu“ ● Quelle z. B. „Fragebogen zur Studienmotivation“ inklusive der genauen Quelle ● Eigene Änderungen: falls Items übersetzt oder geändert wurden; falls Items aus Skalen gestrichen wurden ● Recodierungen: Müssen Items umgepolt werden (z. B. 5 wird zu 1)? ● Reliabilität z. B. Cronbachs Alpha aus der Originalpublikation sowie aus Ihren eigenen Berechnungen Tabelle 12 zeigt Ihnen ein mögliches Beispiel: 3 Aufbereitungsmethoden 181 <?page no="182"?> Variab‐ len‐ name Skala Item‐ text Codie‐ rung / Werte Quelle Ände‐ rungen Reco‐ dierung Reliabi‐ lität exmot_1 Ext‐ rinsi‐ sche Moti‐ vation Ich stu‐ diere vor al‐ lem, um später ein gu‐ tes Ein‐ kom‐ men zu ha‐ ben. s.o. eigene For‐ mulie‐ rung - nein - inmot_1 Intrin‐ sische Moti‐ vation Es macht mir richtig Spaß, mich mit In‐ halten aus dem Stu‐ dium zu be‐ schäf‐ tigen. 1 = stimme sehr zu 2 = stimme eher zu 3 = stimme teils-teils zu 4 = stimme eher nicht zu 5 = stimme gar nicht zu 99 = mis‐ sing Frage‐ bogen zur Studi‐ enmo‐ tiva‐ tion (Rain‐ field et al., 2024) über‐ setzt ins Deut‐ sche nein Origi‐ nal: α = .85Ei‐ gene: α = .83 Tabelle 12: Beispiel für eine Skalendokumentation Diese Übersicht kann sowohl bei der späteren Auswertung wie auch beim Schreiben des Methodenteils hilfreich sein, da Sie schnell auf alle wichtigen Informationen zugreifen können. 182 III Datenerhebung und Datenaufbereitung <?page no="183"?> Erstellung der Datenmaske und Codierung Nachdem Sie die Variablennamen in Ihrer Codierungsübersicht bzw. in Ihrer Skalendokumentation gekennzeichnet haben, erstellen Sie die Daten‐ maske. Sie ist die Grundlage für die Eingabe Ihrer Rohdaten. In dieser Datenmaske definieren Sie alle benötigten Variablen und geben (z. B. bei SPSS) die dazugehörigen Werte an (diese werden als Wertelabels be‐ zeichnet). Da sich die einzelnen Programme in ihrer Darstellungsweise unterscheiden, können wir hier keine konkrete Anleitung für die Erstellung der Datenmatrix geben. Folgende Punkte sind programmunabhängig und helfen Ihnen, die Struktur Ihrer Daten zu planen: ● Eindeutige Identifikationsnummer: Beginnen Sie mit einer Variable für die Identifikations- oder Fragebogennummer (z. B. „fbnr«). Diese ermöglicht Ihnen die Zuordnung der Fragebögen zu den entsprechenden Daten in Ihrem Datensatz. Falls Sie später im Rahmen der Datenberei‐ nigung oder zur Kontrolle erneut auf die Originalfragebögen zugreifen müssen, erleichtert diese Nummer die Zuordnung erheblich. Wie oben ausgeführt, können Sie hier nun auch Variablen mit weiteren wichtigen Informationen zur Befragungsgruppe (z.-B. Studiengang) erstellen. ● Reihenfolge der Fragen: Nun erstellen Sie für alle anderen Varia‐ blen im Fragebogen eine dazugehörige Variable in Ihrer Datenmaske. Behalten Sie dabei die Reihenfolge der Fragen aus dem Fragebogen bei. So können die Antworten schnell und systematisch übertragen werden, ohne den Überblick zu verlieren. Falls nötig, können Sie die Variablen später umsortieren, um die Übersichtlichkeit im Datensatz zu verbessern. ● Definition von Werten: Nun definieren Sie die einzelnen Wertelabels. Das bedeutet, dass Sie die Zahlen im Datensatz mit einer Bedeutung versehen. Je nach Skalenniveau sind die Zahlen in Ihrem Datensatz unterschiedlich zu verstehen. ● Nominalskala: Hier geht es nur um die Unterscheidung von Katego‐ rien, z. B. 1 = ja, 2 = nein oder 1 = Pädagogik, 2 = Psychologie. Auch Geschlecht wird häufig nominal codiert, z. B. 1 = weiblich, 2 = männlich, 3 = divers. ● Ordinalskala: Bei der Ordinalskala besteht zusätzlich eine feste Rei‐ henfolge, z. B. wenn Sie Bildungsabschlüsse in gestufter Reihenfolge erhoben haben (1 = Pflichtschule, 2 = Höhere Schule, 3 = Hochschule) oder wenn Sie die Zustimmung zu Aussagen erfassen (z. B. 1 = stimme 3 Aufbereitungsmethoden 183 <?page no="184"?> gar nicht zu, 2 = stimme eher nicht zu, 3 = stimme eher zu, 4 = stimme voll zu). ● Intervallskala: Bei Intervallskalen sind die Abstände zwischen den gemessenen Werten gleich groß, aber es gibt keinen natürlichen Null‐ punkt. Beispiele dafür sind die Temperatur in Grad Celsius (dabei wird der Gefrierpunkt von Wasser willkürlich als Null definiert) oder die erzielte Punktzahl bei standardisierten Tests, etwa in Schulleistungstests oder Aufnahmetests. Sie können die Abstände zwischen Ihren Werten sinnvoll interpretieren (z. B. ist der Unterschied zwischen 30 und 40 Punkten genauso groß wie zwischen 70 und 80 Punkten). Typische Codierung: z. B. 65, 72, 84 Punkte. ● Bei Verhältnisskalen gibt es zusätzlich einen natürlichen Nullpunkt (z. B. Alter, Einkommen, Punktzahl). Hier werden die Werte meist direkt als Zahlen übernommen - eine zusätzliche Beschriftung ist in der Regel nicht nötig. Beispiel: Alter in Jahren, z. B. 18, 19, 20. ● Wie genau Sie bei der Eingabe der Werte vorgehen, hängt vom verwendeten Programm ab. Schauen Sie dafür in die jeweilige Anleitung oder nutzen Sie ein passendes Online-Tutorial. Denken Sie daran, auch die fehlenden Werte mit Labels zu versehen (z.-B. 99 = fehlender Wert). ● Offene Fragen: Legen Sie offene Fragen ebenfalls als Variable an. Die Antworten können Sie zunächst als Freitext eingeben und später codie‐ ren. Beispiel: Eine Person gibt auf die Frage nach den Gründen für das Studium folgende Antwort: „Weil ich es immer schon wichtig gefunden habe, anderen Menschen zu helfen.“ Für die Analyse können solche Antworten später in Kategorien codiert werden, z. B. „Altruismus“ mit der numerischen Codierung 3. Eingabe der Daten Nun können Sie mit der Eingabe loslegen und die Antworten aus den Frage‐ bögen in die vorbereitete Eingabemaske eintragen. Dieser Schritt erfordert Konzentration, um Fehler zu vermeiden. Wir empfehlen, dabei eine Tastatur mit Nummernblock zu verwenden, da dies die Eingabe erleichtert und beschleunigt. Nummerieren Sie während der Eingabe die Papier-und-Blei‐ stift-Fragebögen durch. Die Nummer tragen Sie in die Datenmaske ein, was Ihnen eine genaue Zuordnung ermöglicht (siehe oben). Bei Studienprojekten, die im Rahmen von Seminaren durchgeführt wer‐ den, übernehmen Studierende die Eingabe meist selbst. Der Vorteil der 184 III Datenerhebung und Datenaufbereitung <?page no="185"?> eigenhändigen Eingabe liegt darin, dass unplausible Antworten bzw. Ant‐ wortmuster bereits bei der Eingabe auffallen. Wenn in einem Fragebogen beispielsweise sehr viele Antworten fehlen oder die Antworten offensicht‐ lich nicht ernst gemeint sind, können Sie diesen Fragebogen aussortieren und müssen ihn nicht eingeben. Dieses Vorgehen gehört zur Datenberei‐ nigung und ist unbedingt zu dokumentieren (wie viele Fragebögen Sie aufgrund welcher Kriterien aussortiert haben). Manchmal fällt es leicht, unbrauchbare Fragebögen auszusortieren. Dies ist z. B. der Fall, wenn Antwortmuster zeigen, dass die Befragten nicht ernsthaft teilgenommen haben. Mögliche Hinweise darauf können sein: ● durchgehend identische Antworten auf unzusammenhängende Fragen, ● wenn eine Person bei allen Variablen durchgängig dieselbe Antwortop‐ tion gewählt hat, wie etwa „stimme gar nicht zu“, ohne erkennbare Variation, ● wenn die Antworten durchgehend nach einer auffällig simplen Rei‐ henfolge gegeben wurden, wie etwa „1, 2, 3, 4“, unabhängig von der Fragestellung. In anderen Fällen ist die Entscheidung schwieriger, z. B. wenn eine Person nur in einem bestimmten Abschnitt unplausible Antworten gegeben hat oder wenn es sich um Extremwerte (Ausreißer) handelt. Eine weitere Mög‐ lichkeit ist, alle Fragebögen einzugeben und die begründete Entscheidung über ihren Verbleib im Datensatz erst später zu treffen, wenn Sie Ihren Datensatz bereinigen. Bevor Sie mit der Datenbereinigung oder -umwandlung starten, speichern Sie den ursprünglichen Datensatz (den Rohdatensatz) separat ab. So bleiben die Daten genau so erhalten, wie sie eingegeben wurden. Das ist wichtig, falls Sie später überprüfen möchten, ob Ihre späteren Änderungen richtig waren, oder wenn Sie die Daten auf andere Weise auswerten wollen. Auf diese Weise stellen Sie sicher, dass Ihr Vorgehen transparent ist und Sie Fehler vermeiden. Plausibilitätskontrolle und Datenbereinigung Eine fehlerfreie Datenaufbereitung ist die Basis für eine fehlerfreie Analyse und für korrekte Ergebnisse. Etwas praktischer ausgedrückt: Datenbereini‐ gung ist wie das Entfernen fauler Früchte vor dem Marmeladekochen: Nur mit geeigneten Zutaten gelingt ein genießbares Ergebnis. Deshalb müssen 3 Aufbereitungsmethoden 185 <?page no="186"?> Sie nach der Eingabe der Fragebögen den Datensatz kontrollieren und ggf. eine anschließende Bereinigung vornehmen. Wir schließen uns hier der Empfehlung von Döring (2023, S. 581) an, der zufolge die folgenden Punkte kontrolliert werden sollten: ● Wertebereich: Das Alter sollte (je nach Zielgruppe) z. B. zwischen 18 und 99 Jahren liegen. Ein Eintrag wie 123 wäre außerhalb dieses Bereichs und ist gesondert zu prüfen. ● Häufigkeitsverteilung: Bei einer Skala von 1 (stimme nicht zu) bis 5 (stimme voll zu): Wenn 90 % der Antworten „3“ sind, könnte das auf ein Problem (z. B. eine falsch verstandene Frage) hindeuten. ● Wertelabels: Wenn die Ausprägung „1“ als „männlich“, „2“ als „weib‐ lich“ und „3“ als divers definiert ist, aber im Datensatz zusätzlich „8“ vorkommt. Dadurch können Sie unplausible/ falsche Antworten (z. B. 123 Jahre beim Lebensalter), Tippfehler (22 statt 2) und Ausreißer identifizieren. Am ein‐ fachsten funktioniert diese Kontrolle mit Häufigkeitstabellen oder einfachen Grafiken wie Histogrammen oder Streudiagrammen, die Sie mit dem Statis‐ tikprogramm Ihrer Wahl erstellen können. Falls Sie alle Fragebögen eingegeben haben (auch ungeachtet fehlender Werte oder offenbar nicht ernst gemeinter Antworten), ist nun der Zeitpunkt gekommen, eine Entscheidung über den Verbleib dieser Daten im Datensatz zu treffen. Da Sie klug vorgearbeitet und Ihre Fragebögen sowie die dazu‐ gehörigen Daten mit einer eindeutigen Identifikationsnummer versehen haben, können Sie diese Fragebögen nun problemlos im Datensatz finden und Korrekturen gezielt durchführen. Auch bei der Aufbereitung quantitativer Daten gilt: Transparenz und Nachvollziehbarkeit sind entscheidend. Dokumentieren Sie deshalb alle Schritte der Datenaufbereitung sorgfältig, insbesondere: ● Welche Werte als fehlend codiert wurden. ● Wie Sie mit Ausreißern umgegangen sind. ● Welche Anpassungen an der Datenmaske vorgenommen wurden. Diese Protokollierung ist nicht nur für Ihre eigene Arbeit hilfreich, sondern ermöglicht es auch Dritten, wie z. B. Betreuer und Betreuerinnen, Ihr Vorgehen nachzuvollziehen. Sie trägt damit wesentlich zur Qualität und Vertrauenswürdigkeit Ihrer Arbeit bei. 186 III Datenerhebung und Datenaufbereitung <?page no="187"?> Weitere Verarbeitungsschritte Die hier genannten Schritte fallen in den Bereich der Datentransformation (Döring, 2023). Umpolen von Variablen: Das ist ein notwendiger Schritt, wenn Sie z. B. negativ formulierte Items in einer Skala haben, die mit positiv formulierten Items verrechnet werden sollen. Beispiel: In unserem Beispielfragebogen gibt es die positiv formulierte Aussage „Ich habe Freude an den Inhalten meines Studiums“ und die negativ formulierte Aussage „Die Inhalte im Studium langweilen mich.“ Um eine konsistente Skala zu bilden, müssen die Werte des negativ formulierten Items umcodiert werden. Eine Umpolung der Variablen ist ebenfalls sinnvoll, wenn die eingegebenen Werte nicht zur gewünschten Interpretation passen. Beispiel: Wenn „stimme sehr zu“ als 1 codiert wurde, aber eigentlich die höchste Zustimmung ausdrücken soll, müssen die Werte umgekehrt werden. In diesem Fall wird „stimme sehr zu“ zu 5 und „stimme gar nicht zu“ zu 1. Bildung neuer Variablen: Ein passendes Beispiel für eine Skala wäre: Sie haben drei verschiedene Variablen, die jeweils einzelne Aussagen zur intrinsischen Motivation messen („Ich finde Freude an meinem Studium“, „Ich studiere, weil mich die Themen interessieren“, „Das Lernen ist für mich spannend“). Diese Variablen werden zur gemeinsamen Skala „intrinsische Motivation“ verrechnet. Strategien im Umgang mit fehlenden Werten In Ihrer empirischen Untersuchung werden Sie, wie bereits erwähnt, auch auf fehlende Werte stoßen - also auf unbeantwortete Fragen oder unvollständige Angaben. Durch sie kann die Analyse beeinflusst und die Ergebnisse verzerrt werden. Bitte entscheiden Sie sorgfältig, wie Sie mit diesen Werten umgehen wollen. Wie Sie konkret dabei vorgehen, hängt von mehreren Faktoren ab: der Größe Ihrer Stichprobe, der Art der fehlenden Werte (z. B. ob die Untersuchungsteilnehmer Fragen systematisch oder zufällig ausgelassen haben) und den geplanten Analysen. Dokumentieren Sie Ihre Entscheidungen sorgfältig und begründen Sie diese im Hinblick auf Ihre Forschungsziele. Folgende Verfahren (vgl. Döring 2023) sind für Sie wichtig: 3 Aufbereitungsmethoden 187 <?page no="188"?> Fallweiser Ausschluss Die Methode des Ausschließens kann problematisch sein, insbesondere wenn Sie mit einer kleinen Stichprobe arbeiten. Das Entfernen von Fällen mit fehlenden Werten kann die Datenbasis so stark reduzieren, dass Ihre Analyse verzerrt wird oder gar nicht mehr aussagekräftig ist. Variablenweiser Ausschluss Das Entfernen von Variablen, bei denen ein erheblicher Anteil der Werte fehlt, kann in bestimmten Situationen sinnvoll sein. Allerdings ist dies problematisch, wenn die entfernten Variablen zentrale Konstrukte Ihrer Untersuchung betreffen. Auch kann es dazu führen, dass wichtige Zusam‐ menhänge in den Daten übersehen werden. Statistische Verfahren zum Umgang mit fehlenden Werten Bei der Imputation werden fehlende Werte durch Schätzwerte ersetzt, um den Verlust von Daten zu vermeiden. Häufig wird dazu der Mittelwert, der Median oder ein anderer statistisch sinnvoller Wert, herangezogen. Eine Gefahr dabei ist jedoch, dass diese Methoden die Variabilität in den Daten reduzieren und systematische Verzerrungen verstärken können. Eine weitere Möglichkeit ist der Einsatz modellbasierter Verfahren, bei denen fehlende Werte mithilfe von Regressionsmodellen oder der Maximum-Like‐ lihood-Methode geschätzt werden. Diese Methoden sind oft genauer, erfor‐ dern aber ein tiefergehendes methodisches Verständnis. Statistikprogramme wie z. B. SPSS oder R beinhalten Verfahren, die Sie für die Verarbeitung fehlender Werte verwenden können. Strategien im Umgang mit Ausreißern Stellen Sie ungewöhnliche Werte in Ihrem Datensatz fest, lohnt sich ein genauer Blick: Diese so genannten Ausreißer sind Werte, die stark von den übrigen Daten abweichen und deshalb die Ergebnisse deutlich beeinflussen können. Sie können entweder auf Fehler bei der Datenerhebung, bei der Eingabe der Daten oder auf außergewöhnliche, aber reale Beobachtungen hinweisen. Um entscheiden zu können, wie Sie mit solchen Extremwerten umgehen, müssen Sie diese einzeln prüfen: 188 III Datenerhebung und Datenaufbereitung <?page no="189"?> ● Können die Ausreißer auf eine falsche Angabe der Teilnehmenden zurückgeführt werden? Beispiel: Ein Teilnehmer gibt bei der Frage nach seinem Alter „150 Jahre“ an. Da dies offensichtlich nicht korrekt ist, sollte der Wert als fehlerhaft erkannt und entsprechend korrigiert oder ausgeschlossen werden. ● Wurde der Ausreißer versehentlich beim Übertrag der Daten aus den Fragebögen falsch eingetippt bzw. übernommen? ● Stellen die Ausreißer reale Werte dar, die besonders interpretiert werden sollten? In manchen Fällen können Ausreißer tatsächlich richtige Daten darstellen, die besondere Aufmerksamkeit verdienen. Beispiel: In unse‐ rer Motivationsstudie gibt eine Person bei der Frage „Wie viele Stunden pro Woche investieren Sie in Ihr Studium? “ den Wert „50 Stunden“ an. Dieser Wert liegt deutlich über den Angaben der anderen Befragten und könnte entweder auf einen Eingabefehler oder aber auf eine besonders engagierte Person hinweisen. Wenn es sich um eine Fehleingabe handelt, können Sie den Wert löschen. Ist er plausibel, können Sie ihn im Datensatz belassen. Wichtig ist, dass Sie den Umgang mit jedem einzelnen Ausreißer gut dokumentieren. Falls Sie den Ausreißer im Datensatz belassen, müssen Sie das bei der späteren Auswertung berücksichtigen. Was ist bei Datensätzen zu tun, die bereits in digitaler Form vorliegen? Wenn Ihre Daten bereits in einem Datensatz vorliegen, z. B. weil Sie Ihre Erhebung online durchgeführt haben, entfällt die manuelle Eingabe der Fra‐ gebögen. Das spart Zeit, aber die weiteren Schritte der Datenaufbereitung bleiben dieselben wie oben beschrieben. Überprüfen Sie Ihren Rohdatensatz auf: ● Konsistenz: Sind die Daten logisch und plausibel (Widersprüche, offen‐ sichtliche Fehler)? ● Vollständigkeit: Gibt es fehlende Werte und wurden Sie korrekt gekenn‐ zeichnet? Wie gehen Sie mit fehlenden Werten um? ● Ausreißer: Gibt es Ausreißer und wie gehen Sie damit um? Speichern Sie auch für den Fall, dass Ihre Daten schon von Beginn an digital vorliegen, einen Rohdatensatz ab. 3 Aufbereitungsmethoden 189 <?page no="190"?> Literaturtipps Informationen zur Aufbereitung qualitativer Forschungsdaten finden Sie in den folgenden Werken: Fuß, Susanne & Karbach, Ute (2019): Grundlagen der Transkription: Eine praktische Einführung. 2. Aufl. Leverkusen: Verlag Barbara Budrich. Weischer, Christoph & Gehrau, Volker (2017): Die Beobachtung als Methode in der Soziologie. Konstanz: UVK. Detaillierte Erklärungen vom Vorgehen bei der Aufbereitung insbesondere quantitativer Daten finden Sie in Döring, Nicola (2023): Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften. 6. Aufl. Berlin: Springer. 190 III Datenerhebung und Datenaufbereitung <?page no="191"?> 4 Die Rolle der Medien in der Erhebung und Aufbereitung von Daten (T. Hug) In den vorigen Abschnitten dieses Kapitels haben wir Sie mit qualitativen und quantitativen Erhebungsmethoden sowie mit Methoden der Daten‐ aufbereitung bekannt gemacht. Abschließend wollen wir Sie in diesem Zusammenhang auf die Bedeutung der Medien aufmerksam machen. Dabei finden historische Dimensionen, Anregungen zur Selbstreflexion sowie systematische und praktische Überlegungen Beachtung. Historische und systematische Überlegungen Medien spielen in der empirischen Forschung seit jeher eine wichtige Rolle. Das gilt nicht nur für naturwissenschaftliche Experimente, sondern auch für die ältesten Formen der zählenden Datenerhebung und der Aufzeichnung über fremde Kulturen in vorchristlichen Jahrhunderten, sowie für die Staatsbeschreibungen der Neuzeit und die Vorläufer im 19. Jahrhundert (Bsp. Bevölkerungs- und Kriminalstatistik, ethnographische Forschungen). Die Frage nach der Bedeutung der Medien und ihren Wirkungen im ge‐ sellschaftlichen Zusammenhang wurde zwar bereits Anfang des 20. Jahr‐ hunderts intensiv diskutiert. Ihre Bedeutung für die empirische Forschung ist allerdings erst in jüngster Zeit ein Thema geworden. Dabei zeichnet sich insgesamt eine Neubestimmung medialer Aspekte für Erkenntnis- und Wissensprozesse ab. Neubestimmung meint hier freilich nicht, dass altbekannte Fragen und Motive nicht wichtig wären. Ganz im Gegenteil: Auch in der aktuellen Diskussion sind Fragen wie die nach den Möglichkeiten der Schaffung von Wahrheit und Wissen von Belang. Was die Medien betrifft, so finden wir auch hier wie in der gesamten Geschichte des Nachdenkens über Medien und ihre Wirkungen tendenziell optimistische und pessimistische Sichtweisen. Es geht uns an dieser Stelle aber nicht nur um Stimmungen und Bewertungstendenzen, sondern auch um die Bedeutung der Medien für unsere Wahrnehmung und unsere Bemühungen um Erkenntnisgewinnung. Erinnern wir uns zunächst an Alltagsdiskussionen, in denen verfälschte Medienwirklichkeiten der unverfälschten »wahren« Wirklichkeit gegen‐ übergestellt werden. Auf den ersten Blick scheinen die Beispiele entlarvter 4 Die Rolle der Medien in der Erhebung und Aufbereitung von Daten 191 <?page no="192"?> Lügengeschichten weiterzuhelfen. Bei näherer Betrachtung stellen wir aber schnell fest, dass es Fälle gibt, die sich nicht so leicht entscheiden lassen, und dass es mit der einen »wahren« Wirklichkeit nicht so einfach ist. Es sind nicht alleine die »subjektiven Einfärbungen«, die eine einfache Antwort problematisch erscheinen lassen. Es kommen Fragen nach dem Status und den Eigenheiten der Gegenstände und nicht zuletzt nach der Bedeutung der Vermittlungsinstanzen hinzu. Reflexion Rufen Sie Gespräche in alltagsweltlichen Zusammenhängen in Erin‐ nerung, in denen es um Themen wie »Medien und Wirklichkeit«, »Medien und Objektivität« oder »Medien und Wahrheit« ging: ● Welche Positionen haben Sie dabei vertreten? ● Wie schätzen Sie die Bedeutung Ihrer Positionen und die anderer Sichtweisen, die Sie kennen gelernt haben, für die empirische Forschung ein? ● Welche Ebenen und Aspekte spielen dabei eine Rolle? Diskutieren Sie das Resultat Ihres Nachdenkens mit Studien- oder Arbeitskollegen. Überlegen Sie weiters, in welcher Weise die Interaktionsdynamik im Forschungsprozess und auch die Ergebnisse variieren können, wenn zum Beispiel »printsozialisierte« Forscherinnen auf Jugendkulturen treffen, die sich durch einen »digital Lifestyle« auszeichnen. Nehmen Sie zum Beispiel die Forschungen von Galileo Galilei (1564-1642). Er verwendete als einer der ersten Menschen ein Fernrohr zur Himmels‐ beobachtung. Dies bedeutete eine Revolution in der Erforschung der Him‐ melskörper, denn bis dahin waren die Menschen auf Beobachtungen mit dem bloßen Auge angewiesen. Mit ihm begann die Teleskop-Astronomie. Im Zuge seiner Beobachtungen kam er zum Schluss, dass die Erde keine Sonderstellung unter den Planeten einnimmt, und dass es auf dem Mond Berge geben musste und in der Sonne bemerkenswerte Flecken. Er bestätigte u. a. die Beobachtungen von Nicolaus Kopernikus (1473-1543) und dessen Überlegungen zur Bewegung der Himmelskörper um die Sonne. Galilei lag damit im Widerstreit zu den damaligen kirchlichen Lehren und hielt 192 III Datenerhebung und Datenaufbereitung <?page no="193"?> sich angesichts der Inquisitionsverfahren mit öffentlichen Äußerungen zum kopernikanischen System zurück. Es geht uns aber nicht in erster Linie um das Problem von Irrlehren und deren Korrektur, sondern um die paradoxe Bedeutung der Verwendung von Beobachtungsinstrumenten: Galilei wollte der Sache näher kommen, indem er ein Hilfsmittel zwischen Auge und Gegenstand »schaltete«. Einmal abgesehen von der Bedrohung, die die Hypothesen von Kopernikus und Galileo für die lieb gewonnen Auffassungen und das ptolemäische Weltbild bedeuteten, konnte in den Augen der Kirchenväter mit so einer Verfremdung sozusagen nichts von Bedeutung gesehen werden. Solcherart verfälschte Erkenntnis konnte und durfte die Wahrheit der Heiligen Schrift nicht tangieren. Auch wenn der Einsatz von Instrumenten nicht nur in der naturwissen‐ schaftlichen, sondern auch in der sozial- und kulturwissenschaftlichen Forschung längst selbstverständlich geworden ist, so sollten wir dabei zwei Aspekte nicht übersehen: (1) Die Annahme, dass die Forschungsgegenstände durch den Einsatz von technischen Hilfsmitteln gleichsam unberührt blei‐ ben, und (2) die Annahme, dass wir durch verbesserte Instrumentierungen den Dingen an sich näher kommen können. Beide Annahmen sind proble‐ matisch. Mit dem Einsatz von unterschiedlichen Technologien ergeben sich vielmehr jeweils andere, mitunter neue Perspektiven der Betrachtung, neue Themenhorizonte und Fragestellungen, und nicht zuletzt neue Methoden der Untersuchung. Die Tatsache, dass wir dabei Messfehler eingrenzen und teilweise auch ausgleichen können, bedeutet nicht, dass wir damit die Rea‐ lität ein für allemal richtig erfasst hätten und unbedingte Geltungsansprüche gerechtfertigt wären. Sie bedeutet nicht mehr und nicht weniger, als dass es uns gelungen ist, einen Phänomenbereich medial und kommunikativ so zu stabilisieren, dass wir intersubjektiv brauchbare und vielleicht auch nützliche Ergebnisse hervorgebracht haben - Ergebnisse, für die wir bis auf weiteres und eingedenk der jeweiligen Reichweiten Geltung beanspruchen können. Ob wir dafür dann in einer Teildisziplin oder der »wissenschaftli‐ chen Gemeinde« eine gewisse Anerkennung bekommen, steht noch einmal auf einem anderen Blatt. Halten wir als Zwischenergebnis fest: 1. Die Rolle der Medien bei der Erhebung und Aufbereitung von Daten wird gerne im Sinne eines blinden Flecks verkannt. Der zu einer 4 Die Rolle der Medien in der Erhebung und Aufbereitung von Daten 193 <?page no="194"?> bestimmten historischen Zeit in einer spezifischen Forschungskultur selbstverständliche Gebrauch von Hilfsmitteln täuscht allzu leicht dar‐ über hinweg, dass Forschungsergebnisse in aller Regel in Abhängigkeit von Technologien, Apparaten und Instrumenten zustande gebracht und kritisch überprüft werden können. 2. Die besagte Rolle der Medien ist weiters in zweierlei Hinsicht diskussi‐ onswürdig: Einmal geht es um die Bedeutung technischer Hilfsmittel bei der Gewinnung, Verarbeitung, Speicherung und Übermittlung von Daten; und zum Zweiten geht es um mediale Aspekte der Interaktions- und Kommunikationsprozesse im Sinne der Verwendung von Zeichen und ihrer Bedeutung. Medientheorie und Medienpraxis Harry Pross hat 1972 eine Unterscheidung eingeführt, die medientechnische Dimensionen und gesellschaftlich und kulturell bedeutsame Aspekte media‐ ler Wirklichkeitserzeugung zusammen in den Blick nimmt. Er differenziert entlang von Graden der Technisierung primäre, sekundäre und tertiäre Medien wie folgt: Definition von Medien nach Pross (1972, S. 10 ff) ● Zu den primären Medien zählen Sprache und nichtsprachliche Vermittlungsinstanzen wie Mimik, Gestik oder Körperhaltung. Die Kommunikationspartnerinnen verständigen sich hier ohne Geräte und technische Hilfsmittel. ● Zu den sekundären Medien zählen jene Medien, die auf Produk‐ tionsseite Geräte und Technologien erfordern (Bsp. Rauchzeichen, verschriftlichte Produkte, Druckerzeugnisse). Techniken der ma‐ teriellen Speicherung und Übertragung sind hier zwar auf der Angebotsseite, nicht aber auf Seiten der Empfänger erforderlich. ● Unter tertiären Medien versteht Pross jene Kommunikationsmit‐ tel, die sowohl auf Senderals auch auf Empfängerseite technische Mittel erfordern (Bsp. Telekommunikationseinrichtungen, elektro‐ nische Massenmedien wie Radio, Fernsehen, AV-Technologien). 194 III Datenerhebung und Datenaufbereitung <?page no="195"?> Kurz vor der Milleniumswende wurde eine vierte Option ins Spiel gebracht: Die quartären Medien (Faßler 1997, S. 147). Diese zeichnen sich entspre‐ chend dadurch aus, dass die Kommunikationspartner und -patnerinnen vernetzte Computer verwenden und neue interaktive Möglichkeiten haben. Letztere beziehen sich auf variable Integrationsmöglichkeiten der drei anderen Typologien sowie auf räumliche und zeitliche Entgrenzungen tradi‐ tioneller Begrenzungen von Kommunikations- und Interaktionsprozessen. Hand in Hand mit den Momenten der Digitalisierung und Vernetzung werden auch die traditionellen Rollenaufteilungen von Sender- und Emp‐ fänger-Instanzen variiert und modifiziert. In neuerer Zeit ist auch von quintären Medien die Rede (Krüger 2021, S.-125-225). Zweifellos können wir im 21. Jahrhundert in weiten Teilen der Welt und in vielen Lebensbereichen neue Formen der Algorithmisierung, Digi‐ talisierung, Datafizierung und Medialisierung beobachten, die eine neue historisch-mediale Konstellation markieren. Das bedeutet nicht, dass Algo‐ rithmen im Kontext primärer und sekundärer Medien keine Rolle gespielt hätten. Die Geschwindigkeit und die teilweise maschinelle Autonomie, mit der heute enorm große und komplexe Datensätze verarbeitet werden können, ermöglichen jedoch neue Formen der Überwindung raumzeitlicher Begrenzungen von Kommunikation und Interaktion. Dabei spielen so ge‐ nannte “smarte” Technologien, “Big Data” und nicht zuletzt jene Entwick‐ lungen der technischen Daten- und Informationsverarbeitung eine zentrale Rolle, die gemeinhin mit den Metaphern „maschinelles Lernen” und „künst‐ liche Intelligenzen“ (KI) charakterisiert werden. Die Ambivalenzen solcher KI-Technologien werden schnell deutlich, wenn wir uns Spannungsfelder wie die folgenden vor Augen führen: ● Sichere und klar regulierte, ökologisch reflektierte und tendenziell gemeinwohlorientierte KI-Anwendungen vs. unsichere und schwach re‐ gulierte KI-Anwendungen im Dienste digitalkapitalistischer Interessen weniger Megakonzerne unter Ausblendung von Nachhaltigkeitskrite‐ rien und Ressourcenverbrauch. ● Demokratisch legitimierte und rechenschaftspflichtige KI-Systeme vs. technofeudalistische KI-Systeme mit diffuser Verantwortung und hege‐ monialen Ansprüchen. ● Glaubhafter Umgang mit sensiblen Benutzerdaten vs. Missachtung von Privatsphäre und Datenschutzbestimmungen sowie KI-Anwendungen 4 Die Rolle der Medien in der Erhebung und Aufbereitung von Daten 195 <?page no="196"?> auf der Basis massenhaft gestohlener Daten und Arbeitsausbeutung (Stichwort „Clickworker“). ● Möglichst transparente KI-Systeme samt nachvollziehbarer und legaler Erstellung von Datenpools vs. undurchsichtige KI-Systeme und illegale Anwendungen einschließlich so genannter „Dark Large Language Mo‐ dels“ (LLM) (vgl. Fire et al. 2025). ● Ermöglichung barrierefreier Kommunikation und Zugang zu Informa‐ tionen vs. Beförderung von Ungleichheitsdynamiken und systematisch verzerrte Reproduktion von individuellen und kollektiven Voreinge‐ nommenheiten (Stichworte „KI-Bias“ und „algorithmischer Bias“). Diese Auswahl von Ambivalenzen mag hier als Reflexionsanregung ge‐ nügen, wenn Sie eigene differenzierte Einschätzungen zur Relevanz ak‐ tueller sozio-technischer, medienkultureller und wissensgesellschaftlicher Entwicklungen erarbeiten. Im Zuge einer näheren Befassung mit solchen und ähnlichen Spannungsfeldern, werden Sie schnell sehen, dass die Navi‐ gation zwischen Skylla und Charybdis, zwischen euphorischen Versprechen der Effizienzsteigerung, Entbindung von Routinearbeiten und verbesserten Lebensqualität einerseits und dystopischen Aussichten auf totalitäre Über‐ wachung, kontrollorientierte Medieninnovationen und techno-faschistische Gesellschaftsordnungen andererseits mit einigen Herausforderungen ver‐ knüpft ist. Überall dort, wo der Geist der Automatisierung und Optimierung besonders heftig durch die gesellschaftlichen Teilsysteme der Bildung, der Politik, der Wirtschaft, des Rechts, usw. weht, können wir nicht nur Lösun‐ gen, sondern auch Probleme beobachten und nicht selten auch Probleme, die als Lösungen angepriesen werden. Das Wissenschaftssystem macht da keine Ausnahme. Ob und inwieweit in naher Zukunft auch sextäre Medien eine Rolle spielen werden, soll an dieser Stelle offen bleiben. So eine Charakterisie‐ rung müsste entlang medienanthropologischer, ethischer, technologischer, kultureller und gesellschaftlicher Aspekte erst einmal analysiert und ausdif‐ ferenziert werden, wenn es mehr als Label für die akademische Selbstver‐ marktung oder für begriffspolitische Interventionen sein soll. Insofern es dabei um neue Symbiosen zwischen Mensch und Maschine sowie zwischen menschlichen und nicht-menschlichen Intelligenzen gehen würde (Stich‐ wort „Cyborgs“), kann dabei auch auf historische Motive, Vorstellungsbilder und technologische Entwicklungen Bezug genommen werden. Insofern dabei Metaphern der „Fusion“, der „Verschränkung“ oder der „Verschmel‐ 196 III Datenerhebung und Datenaufbereitung <?page no="197"?> zung“ von Menschen mit Technologien im Hinblick auf eine nächste Evo‐ lutionsstufe wichtig werden (Stichwort „Transhumanismus“), stehen damit gleichsam primäre Medien zweiter Ordnung zur Debatte. Welche Rolle dabei die Verwendung gentechnischer oder nanotechnologischer Verfahren im Allgemeinen oder der Einsatz elektronischer Gehirn-Implantate im Besonderen spielen mögen, kann aktuell unter zukunftswissenschaftlichen, theoretisch und technologisch informierten Perspektiven erforscht werden. Überblick primäre Medien teilnehmende Beobachtung, face-to-face-Befragung, Gruppengespräch, etc. sekundären Medien Fragebogenerhebung in Schriftform, Projektjournal, Forschungstagebuch, Fotodokumentation, Audio- oder Videoaufzeichnung, etc. tertiäre Medien »klassische« Telefonumfrage, Selbstevaluationen mittels AV-Technologien, etc. quartäre Medien - Online-Befragung, Erhebungen mittels Chat-Kom‐ munikation, Kommunikationsforen auf der Basis digitaler Technologien, etc. quintäre Medien automatisiertes Extrahieren von Online-Daten zwecks Analyse bekannter Muster mit Machine Learning Methoden, algorithmenbasiertes Auffin‐ den von neuen Mustern oder verborgenen Zusam‐ menhängen (“Data-Mining”) mittels Gruppierung von Objekten aufgrund von Ähnlichkeiten (“Cluste‐ ring”), etc. Tabelle 13: Medien bei der Erhebung und Aufbereitung von Daten Diese und auch andere Medien-Einteilungen werden meistens im Zusam‐ menhang medientheoretischer, kommunikationswissenschaftlicher oder gesellschaftskritischer Fragestellungen verwendet. Sie sind aber auch bei 4 Die Rolle der Medien in der Erhebung und Aufbereitung von Daten 197 <?page no="198"?> der Reflexion und Diskussionen von Forschungsprozessen und Methoden‐ anwendungen wichtig. Diese exemplarischen Hinweise im Lichte des Modells von Harry Pross geben eine erste Idee von der Tragweite der Rollen, die Medien bei der Erhebung und Aufbereitung von Daten haben. Ihre Aufgabe ist es nun zu überlegen, welche Auswahl an Instrumenten im Lichte Ihrer For‐ schungsfragen, der wissenschaftlichen Kommunikationskultur, in der Sie sich bewegen, der Bedeutung der Medien für Sie selbst und die Beforschten, und der verfügbaren Ressourcen angemessen erscheint. In jedem Fall sollte als Basisausstattung ein funktionsfähiger Computer mit Internetanschluss und Drucker samt Software für Text- und Bildbearbeitung verfügbar sein. Eine solche werden Sie auch dann brauchen, wenn Sie mit gedruckten Ma‐ terialien arbeiten (Bsp. Beobachtungsraster, Fragebögen, vorstrukturierte Bögen für Feldnotizen, Journale, Mitschriften und Gedächtnisprotokolle). Je nach Ausrichtung der Forschung können weitere Geräte wie ein mobiles Gerät für digitale Audio-Aufzeichnungen samt externem Mikrofon und Kopfhörer, eine Digitalkamera, ein Camcorder, Mobiltelefone, Scanner, externe Festplatten etc. hinzu kommen. Machen Sie sich ggf. mit den Geräten und Apparaten sowie mit der zugehörigen Software vertraut, bevor Sie den Forschungsprozess starten. Nachdem empirische Forschung heute in vielen Bereichen mit digitalen Hilfsmitteln durchgeführt wird, wollen wir Sie abschließend auf einige nützliche Werkzeuge und Internetquellen hinweisen. Beachten Sie dabei, dass in den Forschungseinrichtungen mitunter nur bestimmte Produkte unterstützt oder favorisiert werden, und dass praktisch hier jede Woche neue Angebote verfügbar werden, sodass einschlägige Recherchen sehr lohnend sein können (vgl. Niedermair 2023). Beachten Sie weiters auch standortspezifische sowie allgemeine Standards guter wissenschaftlicher Praxis insbesondere zum Umgang mit KI-Systemen. Werkzeuge zur Datenaufbereitung sind häufig auch bei Werkzeugen zur Datenanalyse integriert. Weitere Hinweise zur Thematik finden Sie im fünften Kapitel. 198 III Datenerhebung und Datenaufbereitung <?page no="199"?> Qualitative Forschung Ähnlich wie bei den diversen Aufnahmegeräten (AV-Recorder, Fo‐ toapparat, etc.), die offline eingesetzt werden, sind bislang für qua‐ litative Forschungen kaum eigene Werkzeuge entwickelt worden. Insofern nicht ohnedies bestehende Medienangebote untersucht werden, eignen sich für Erhebungszwecke je nach Fragestellung auch frei verfügbare Software-Anwendungen. Wer zum Beispiel ein eigenes Online-Forum als Werkzeug in der qualitativen Sozialforschung einsetzen will, findet hierfür u. a. auf den folgenden Internetseiten hilfreiche Werkzeuge: https: / / www.forumieren.de/ https: / / github.com/ awesome-selfhosted/ awesome-selfhosted Wer Interaktionsdynamiken dokumentieren will und dafür Mit‐ schnitte von Bildschirm-Aktivitäten braucht, kann z. B. auf die folgenden Software-Pakete zurückgreifen: https: / / www.nchsoftware.com/ https: / / www.wisdom-soft.com/ products/ screenhunter.htm https: / / www.techsmith.com/ camtasia/ Für das Aufnehmen und Editieren von Tondokumenten hat sich insbesondere Audacity ® bewährt (unterstützt WAV, AIFF, Ogg Vor‐ bis, MP3-Formate): https: / / sourceforge.net/ projects/ audacity/ Digital Replay System (DRS) ermöglicht die Kombination von Systemlog-Dateien mit Audio- und Videoaufzeichnungen sowie die simultane Betrachtung mehrerer synchronisierter Aufzeichnungen (PC & MAC) https: / / thedrs.sourceforge.net/ Transkriptionssoftware: f4 - Audiotranskription: https: / / www.audiotranskription.de/ f4/ manuelle-transkription-kor rektur/ ELAN - Language Archiving Technology: https: / / archive.mpi.nl/ tla/ elan MoViQ - Movies and Videos in Qualitative Social Research: https: / / ikus.cc/ coaching-videointerpretation/ Transcriber unterstützt die händische Kommentierung von Sprach‐ aufzeichnungen (Bsp. Rundfunksendungen): https: / / trans.sourceforge.net/ Feldpartitur - Zur Transkription von Videodaten (Moritz 2011) (under construction: www.feldpartitur.de) Quantita‐ tive For‐ schung In der quantitativen Forschung sind inzwischen zahlreiche Erhe‐ bungsinstrumente verfügbar. Wir wollen uns hier auf einige ausge‐ wählte Beispiele beschränken, die alle das Erstellen von Fragebögen und die Durchführung von Online-Befragungen unterstützen: SoSci Survey: www.soscisurvey.de/ GrafStat: www.grafstat.de/ Limesurvey: www.limesurvey.org/ SurveyMonkey: https: / / de.surveymonkey.com/ Statistische Datenauswertungen mit R: www.r-project.org/ Comprehensive R Archive Network (CRAN): https: / / cran.r-project .org/ 4 Die Rolle der Medien in der Erhebung und Aufbereitung von Daten 199 <?page no="200"?> SPSS (Statistische Datenauswertungen): https: / / www.ibm.com/ de -de/ products/ spss-statistics Spezielle Werkzeuge zur Datenaufbereitung stehen bei proprietä‐ ren Software-Paketen für professionelle Anwendungen wie zum Beispiel SPSS zur Verfügung. Dort gibt es u.-a. Tools zur Data Pre‐ paration, mit dem zweifelhafte oder ungültige Fälle sowie Variablen und Datenwerte ermittelt werden und die Muster fehlender Daten angezeigt werden können (vgl. https: / / www.ibm.com/ products/ sps s-statistics/ data-preparation). -SIMSTAT (https: / / provalisresearch.com/ products/ simstat/ ) Provalis Research bietet etliche weitere nützliche Analyse-Werk‐ zeuge an. Tabelle 14: Beispiele für digitale Werkzeuge zur Erhebung und Aufbereitung von Daten Literaturtipps Chapinal-Heras, Diego & Carlos Díaz-Sánchez (2024): A review of AI applica‐ tions in human sciences research. In: Digital Applications in Archaeology and Cultural Heritage, Vol. 32, e00323. https: / / doi.org/ 10.1016/ j.daach.2024 .e00323 Crawford, Kate (2024): Atlas der KI: Die materielle Wahrheit hinter den neuen Datenimperien. München: C.H. Beck. Irion, Thomas (2002): Einsatz von Digitaltechnologien bei der Erhebung, Auf‐ bereitung und Analyse multicodaler Daten [61 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 3(2), Art. 16, www.q ualitative-research.net/ index.php/ fqs/ article/ view/ 855/ 1859. Download am 06.06.2025. Kahlert, Peter et al. (2024). Künstliche Intelligenz: Eine Methode für alles? Sozi‐ alwissenschaftliche Methodologie der KI-Forschung, ihre Herausforderun‐ gen und Möglichkeiten. In: Heinlein, Michael & Huchler, Norbert (Hrsg.): Künstliche Intelligenz, Mensch und Gesellschaft. Wiesbaden: Springer VS, S.-501-530. https: / / doi.org/ 10.1007/ 978-3-658-43521-9_19 Kinder-Kurlanda, Katharina (2020): Big Social Media Data als epistemolo‐ gische Herausforderung für die Soziologie. Soziale Welt, Sonderband 23 „Soziologie des Digitalen - Digitale Soziologie? “ S.-109-133. DOI: 10.5771/ 97 83845295008-109 Kurtz, Thomas; Meister, Dorothee M. & Sander, Uwe (2024): Digitale Medien und die Produktion von Wissenschaft: Wissenschaftliches Forschen, Schreiben und Publizieren in den Geistes- und Sozialwissenschaften unter den Bedingun‐ 200 III Datenerhebung und Datenaufbereitung <?page no="201"?> gen des digitalen Wandels. Wiesbaden: Springer VS. URL: https: / / doi.org/ 10 .1007/ 978-3-658-42542-5 Lewins, Ann & Silver, Christina (2014): Using Software in Qualitative Research: A Step-by-Step Guide. 2. Aufl. London: Sage Publications. Ortner, Gerhard (2025): Künstliche Intelligenz im wissenschaftlichen Arbeiten. In: Hug, Theo & Niedermair, Klaus (Hrsg.) (2025): Handreichung Wissen‐ schaftliches Arbeiten. Innsbruck: Studia Universitätsverlag, S. 33-50. https : / / ulb-dok.uibk.ac.at/ ulbtirolfodok/ download/ pdf/ 11835701 4 Die Rolle der Medien in der Erhebung und Aufbereitung von Daten 201 <?page no="203"?> IV Datenauswertung 1. Qualitative Auswertungsmethoden (G. Poscheschnik) 2. Quantitative Auswertungsmethoden (B. Lederer, F. Reiter) 3. Zum Einsatz von Medien bei der Auswertung von Datensätzen (T. Hug) Auf den folgenden Seiten finden Sie eine Einführung in die gängigs‐ ten Auswertungsmethoden in der empirischen Forschung. Im ersten Abschnitt erhalten Sie einen Überblick über die wichtigsten Auswer‐ tungsmethoden in der qualitativen Forschung. Das sind die Qualita‐ tive Inhaltsanalyse, die Grounded theory bzw. Gegenstandsbezogene Theoriebildung, die Qualitative Typenbildung, die Psychoanalytische Textinterpretation, die Diskurs- und die Konversationsanalyse und schließlich die Metaphernanalyse. Der zweite große Abschnitt dieses Kapitels führt Sie in die Auswertung quantitativer Daten, wie sie etwa bei einer Beobachtung, einer Befragung oder einem Experiment anfallen, ein. Hierbei lernen Sie die allerwichtigsten Kenngrößen und Vorgehensweisen sowohl der beschreibenden als auch der ver‐ gleichenden Statistik kennen. Der dritte Abschnitt befasst sich mit wichtigen medientheoretischen und medienpraktischen Aspekten im Auswertungszusammenhang. Dabei machen wir Sie auf die Bedeutung von Computerprogrammen bei der Auswertung empirischer Daten und eine Auswahl entsprechender nützlicher Instrumente aufmerksam. <?page no="204"?> 1 Qualitative Auswertungsmethoden (G. Poscheschnik) Qualitative Auswertungsmethoden dienen der verstehenden Interpreta‐ tion von Texten, Situationen, Gesprächen und Gegenständen. Gemeinsam ist den qualitativen Auswertungsmethoden, dass die Auswertung in einem mehrgliedrigen, regelgeleiteten Prozess erfolgt. Man gelangt also Schritt für Schritt von den Daten zur Theorie. Damit wird völliger Interpretations‐ willkür ein Riegel vorgeschoben. Die gängigsten qualitativen Auswertungs‐ methoden sind die Qualitative Inhaltsanalyse, die Thematische Analyse, die Grounded Theory, die qualitative Typenbildung, die Psychoanalytische Textinterpretation, die Konversationsanalyse, die Diskursanalyse, die Nar‐ rationsanalyse, die Objektive Hermeneutik, die Dokumentarische Methode, die Metaphernanalyse und die Psychoanalytische Beobachtung. Teilweise sind diese Methoden (z. B. Grounded Theory, Psychoanalytische Beobach‐ tung oder Diskursanalyse) mehr als nur Auswertungsmethoden und bilden fast schon ein eigenes Forschungsdesign (s. Abschnitt II.6). Der Einfachheit halber handeln wir sie aber hier ab. Qualitative Inhaltsanalyse Definition Wie der Name schon andeutet, ist die qualitative Inhaltsanalyse eine Methode zur inhaltlichen Analyse von Texten (Mayring 2023; 2022). Hierbei wird das Textmaterial zunächst in Sinn-Einheiten zergliedert. Diesen Einheiten werden dann abstraktere Kategorien zugeordnet, die deren Inhalte prägnant beschreiben. Ausgehend von dem, was eine bestimmte Person ganz konkret gesagt hat, wird also eine etwas abstraktere Kategorie gebildet. Diesen Kategorien lassen sich dann ähnliche Aussagen derselben Person oder anderer Personen zuordnen. Durch die qualitative Inhaltsanalyse erzielt man eine große Reduktion der Datenmenge und ein System abstrakterer Kategorien, das ein Verständ‐ nis des Textmaterials erlaubt. Das funktioniert etwas vereinfacht gesagt, 204 IV Datenauswertung <?page no="205"?> indem längere Aussagen auf ihre Quintessenz reduziert werden. Nehmen wir folgende Aussage eines Psychotherapeuten aus einem Interview über seine professionelle Entwicklung: »Naja, irgendwann wirft man die ganzen schönen Theorien aus der Ausbildung auf den Müll, weil man merkt, dass die Praxis doch ganz anders ist. Man macht seine Erfahrungen und fängt dann an, seiner Intuition zu trauen.« Diese Aussage lässt sich in einem ersten Schritt paraphrasieren als »Verwerfen von Theorien aus der Ausbildung / Erfahrungen machen, auf Intuition vertrauen«. Schließlich ließe sich das auf die Kategorie »Erfahrung und Intuition ersetzen Theorie« reduzieren. Die qualitative Inhaltsanalyse ist ein stark regelgeleitetes Verfahren, das einen hohen Strukturiertheitsgrad aufweist. Das heißt, die einzelnen Schritte sind relativ genau definiert. Zur Kategorienbildung sind zwei Strategien denkbar: Erstens eine deduktive Kategorienanwendung und zweitens eine induktive Kategorienbildung. Bei der deduktiven Kategori‐ enanwendung wird schon vor der Durchsicht des Textmaterials mithilfe von elaborierten Theorien ein Kategoriensystem entwickelt, dem dann die konkreten Aussagen des Interviews oder des Texts zugeordnet werden. Und bei der induktiven Kategorienbildung verfährt man genau umgekehrt, indem man sein Kategoriensystem Schritt für Schritt aus den konkreten Aussagen des Texts ableitet. Deduktive Kategorienanwendung und induk‐ tive Kategorienbildung können natürlich einander ergänzen. Tatsächlich wird in den meisten Forschungsprojekten auch mit einer Kombination der beiden Strategien gearbeitet. Bei der qualitativen Inhaltsanalyse lassen sich mehrere Grundformen unterscheiden. Wir stellen hier die zusammenfassende Inhaltsanalyse, die strukturierende Inhaltsanalyse und die explizierende Inhaltsanalyse vor. Qualitative Inhaltsanalyse ist darüber hinaus vielfach mit anderen Metho‐ den, beispielsweise der Typenbildung (siehe unten), kombinierbar. Zusammenfassende Inhaltsanalyse: Ziel einer zusammenfassenden In‐ haltsanalyse ist es, das gesamte Textmaterial auf die wesentlichen Inhalte zu reduzieren. Durch die abstrakte Zusammenfassung oft langer, konkreter Textpassagen entsteht ein Miniaturbild des Ganzen, in dem sich die zentra‐ len Aussagen des Gesamtmaterials wiederspiegeln. Bei der zusammenfas‐ senden Inhaltsanalyse arbeitet man in erster Linie mit induktiver Kategori‐ enbildung. Man geht das Textmaterial Zeile für Zeile durch und sucht nach solchen Textstellen, die für die Untersuchung als relevant festgelegt wurden. 1 Qualitative Auswertungsmethoden 205 <?page no="206"?> Hat man so eine Textstelle gefunden, versucht man eine Kategorie zu bilden. Eine Kategorie ist ein Begriff oder ein Satz, der den Inhalt der Aussage vereinfacht wiedergibt, also paraphrasiert. Wird im Verlauf der weiteren Analyse eine Textstelle gefunden, die zu dieser Kategorie passt, wird sie ihr subsumiert. Eine Textstelle, die sich bestehenden Kategorien nicht zuordnen lässt, erfordert die Konstruktion einer neuen Kategorie. Wenn keine neuen Kategorien mehr gefunden werden können, wird das Kategoriensystem überprüft und überarbeitet. Das Resultat einer zusammenfassenden Inhalts‐ analyse ist ein System von Kategorien, das das Gesamtmaterial en miniature abbildet. Eine lange Aussage einer Interviewten über ihre Erfahrungen mit der beruflichen Weiterbildung, in der sie sich ausgiebig über ihre Lehrenden mokiert, könnte zusammengefasst werden als »Unzufriedenheit mit den Lehrenden«. Strukturierende Inhaltsanalyse: Bei der strukturierenden Inhaltsanalyse schließlich geht es darum, aus dem Textmaterial eine bestimmte Struk‐ tur herauszuschälen. Unter Struktur werden hier inhaltliche Aspekte, be‐ stimmte Typen oder auch Skalierungen verstanden. In einer Untersuchung zur Lehrerarbeitslosigkeit (Ulich et al. 1985) mit qualitativer Inhaltsanalyse wurde z. B. eine Skala zur Ausprägung der subjektiven Belastung konstru‐ iert. Diese war unterteilt in »keine Belastung«, »schwache Belastung« und »starke Belastung«. Das aus den Strukturierungsdimensionen bestehende Kategoriensystem muss so exakt präzisiert werden, dass jede Textstelle ganz eindeutig einer Kategorie zugeordnet werden kann. Um das zu bewerkstel‐ ligen, wird ein Kodierleitfaden entwickelt, der genaue Regeln enthält, wann eine bestimmte Textstelle einer bestimmten Kategorie zugeordnet wird und wann nicht. Dazu werden erstens die Kategorien möglichst exakt definiert. Das heißt, man gibt genau an, welche Textstellen einer bestimmten Katego‐ rie zuordenbar sind. Zweitens werden so genannte Ankerbeispiele benannt. Ankerbeispiele sind konkrete Textpassagen, die zu einer bestimmten Kate‐ gorie gehören und als prototypische Beispiele für die Kodierung fungieren. Drittens werden Kodierregeln ausformuliert, die insbesondere dann eine unmissverständliche Zuordnung der Textstellen zu bestimmten Kategorien erlauben, wenn es Abgrenzungsprobleme zwischen verschiedenen, aber ähnlichen Kategorien gibt. Der so entwickelte Kodierleitfaden dient als Richtlinie für die Auswertung. Explizierende Inhaltsanalyse: Eine Sonderform der qualitativen Inhalts‐ analyse ist die explizierende Inhaltsanalyse. Hierbei geht es darum, eine 206 IV Datenauswertung <?page no="207"?> fragliche oder sonstwie unverständlich gebliebene Textstelle mithilfe zu‐ sätzlichen Materials zu erklären. Dazu kann man sich entweder des direkten Textumfelds der fraglichen Stelle bedienen oder Material aus anderen Texten verwenden. Im ersten Fall wird zusätzliche Information eingeholt, die sich im Text selbst befindet und das zu klärende Element erhellt. Im zweiten Fall zieht man Informationen heran, die über den Text an sich hinausgehen. Das könnten beispielsweise je nach Fragestellung Informationen sein über den Autor des Texts, die Rezipierenden des Texts oder auch das historische und kulturelle Umfeld, in dem der Text entstanden ist. Wenn Sie z. B. biographi‐ sche Informationen von Shakespeare heranziehen, um seine Stücke besser verstehen zu können, wäre das eine Form von explizierender Inhaltsanalyse. Die explizierende Inhaltsanalyse ist so gesehen eine Kontextanalyse. Thematische Analyse Die Thematische Analyse erfreut sich zunehmender Beliebtheit in der qualitativen Sozialforschung (s. Braun/ Clarke 2006; 2022). Die Methode richtet sich - hierin der Qualitativen Inhaltsanalyse nicht unähnlich - auf inhaltlich-thematische Aspekte von Interviews, Grup‐ pendiskussionen oder sonstigen Texten. Das Verfahren ist offen für unterschiedliche Theorien. Grundsätzlich versucht die Thematische Analyse Themen in einem Datenset zu identifizieren, zu analysieren und zu dokumentieren. Als „Thema“ gelten Muster und Bedeutungen in den Daten, die in Beziehung zur Forschungsfrage stehen. Wie weit oder groß dieses Thema ist, ist dabei von geringerer Bedeutung als die Frage, ob das Thema etwas Wichtiges im Textmaterial in Bezug zur Forschungsfrage einfängt. Der Fokus der Auswertung kann sich dabei entweder auf das gesamte erhobene Datenmaterial beziehen oder ausgewählte Aspekte davon. Die Themen bzw. Muster innerhalb der Daten können mit zwei möglichen Strategien gewonnen werden. Die eine Strategie ist induktiv und funktio‐ niert bottom-up. Dabei werden die Themen aus dem Text heraus gewonnen, ohne dass ein vorab existierender Interpretationsrahmen angewandt wird. Im Unterschied dazu ist die zweite Strategie deduktiv und funktioniert stär‐ ker theorieorientiert. Gesteuert wird die deduktiv-theoriegeleitete Version 1 Qualitative Auswertungsmethoden 207 <?page no="208"?> durch ein schon vorher bestehendes und erworbenes theoretisches Wissen. Letztere Analysestrategie ergibt für gewöhnlich eine weniger reichhaltige Beschreibung des Datenmaterials, dafür aber eine detailliertere Analyse bestimmter Aspekte desselben. Wichtig in der Thematischen Analyse ist zudem die Frage, auf welcher Ebene die Themen identifiziert werden. Hier unterschiedet man eine semantisch-explizite Ebene und eine latent-inter‐ pretative Ebene. Richtet sich die Analyse auf semantisch-explizite Themen, werden explizite Bedeutungen auf der Oberfläche der Daten identifiziert, während Aspekte, die jenseits des von der untersuchten Person Gesagten liegen, ausgeklammert bleiben. Im Kontrast dazu sucht die Thematische Analyse auf der latenten Ebene die zugrundeliegenden Ideen, Annahmen, Strukturen, Konzeptualisierungen und Ideologien, von denen vermutet wird, dass sie den semantisch-expliziten Inhalt formen und beeinflussen. Hier sind die entdeckten Themen nicht bloß Resultat einer Beschreibung des Vorgefundenen, sondern Ergebnis interpretativer Auswertungsarbeit. Dazu orientiert man sich stärker an diskursanalytischen oder psychoanaly‐ tischen Vorgehensweisen (siehe die entsprechenden Abschnitte unten). Die Thematische Analyse läuft in sechs Schritten ab. 1. Vertrautmachen mit den Daten: Zu Beginn machen sich die Forschen‐ den mit den Daten vertraut, indem sie selbige beispielsweise wiederholt lesen. Bei diesem aktiven Lesen wird bereits nach Bedeutungen und Mustern gesucht. Bereits in dieser Phase kann man Notizen machen oder bedeutsame Stellen markieren, auf die man dann in den weiteren Schritten der Analyse zurückkehren kann. Auch wenn die Transkription von Daten (siehe Kapitel III) oft als frustrierend empfunden wird, ist sie gerade in der Thematischen Analyse ein hilfreicher Weg, um sich mit den erhobenen Daten vertraut zu machen. Als Resultat dieses Schritts gewinnt man eine tiefere Kenntnis des Datenmaterials und verfügt über eine Liste von Ideen, um was es in den Daten geht und was interessant daran ist. 2. Generieren anfänglicher Codes: In der zweiten Phase werden erste Codes entwickelt. Codes identifizieren eine bestimmte Eigenschaft der Daten auf semantischer oder latenter Ebene. Sie beziehen sich auf konkrete Textstellen und heben deren Bedeutung hervor. Zu diesem Zweck arbeitet man sich systematisch durchs Datenmaterial und überlegt, welche interes‐ santen Aspekte in den einzelnen Datenelementen vorhanden sind. Es ist durchaus möglich, dass sich einzelne Codes in einem kontradiktorischen Spannungsverhältnis befinden. Die Codes sind im Unterschied zu den später 208 IV Datenauswertung <?page no="209"?> zu gewinnenden Themen noch sehr kleinteilig, bilden dann aber die Basis für ebendiese. 3. Suche nach Themen: Nun geht es darum, die im vorherigen Schritt gewonnenen Codes, zu sortieren und zu Themen zu verdichten. In dieser Phase werden die unterschiedlichen Codes zu übergeordneten Themen kombiniert. Visuelle Repräsentationshilfen, wie Mind-maps, Themenstapel oder Netzwerke von Moderationskarten, sind in diesem Schritt hilfreich, um einen Überblick über die Themen zu gewinnen. An dieser Stelle ist auch die Relation von Codes und Themen sowie übergeordneten Hauptthemen und Subthemen zu beschreiben. Einige anfängliche Codes werden zu Hauptthe‐ men, während andere in Subthemen einfließen. Es mag sein, dass einzelne Codes in dieser Phase auch noch unzugeordnet oder doppelzugeordnet bleiben. Als Ergebnis dieses Schritts erhält man jedenfalls eine Kollektion von Hauptthemen und Subthemen, einschließlich den ihnen über Codes zugeordneten Daten. 4. Überprüfen der Themen: In dieser Phase werden die bisher gefundenen Themen überprüft und verfeinert. Zuerst werden die kodierten Datenaus‐ züge von jedem Thema gesichtet, um zu prüfen, ob sie ein kohärentes Thema ergeben. Im Zuge dessen können manche Themen suspendiert werden, weil es zu wenig verfügbare Daten gibt, um sie zu stützen. Andere Themen werden aufgrund ihrer inhaltlichen Überlappung zusammengelegt. Wieder andere Themen können wegen ihrer Fülle in separate Themen aufgespalten werden. Zusätzlich werden die gesamten Daten nochmals dahingehend durchgeschaut, ob die Themen die in den Daten enthaltenen Bedeutungen akkurat widerspiegeln. Das Ergebnis dieses Schritts soll eine zufriedenstellende Themenkarte sein, die alle relevanten Bedeutungen des Materials wiedergibt. Man muss allerdings aufpassen, dass man diese Über‐ arbeitungsschleifen nicht ad infinitum fortsetzt. 5. Definieren und benennen der Themen: Nun soll das Wesentliche der einzelnen Themen identifiziert werden. Die einzelnen Themen sollten nicht zu komplex sein und halbwegs einfach auf den Punkt gebracht werden können. Dabei geht es nicht um eine simple Paraphrase des Themas, sondern darum kurz und knackig zu benennen, was daran interessant ist und warum das so ist. Für jedes Thema wird eine detaillierte Analyse verfasst. Welche Message bzw. Story transportiert dieses Thema und wie verhält es sich zur Gesamt-Message bzw. Story? Zum Schluss hat man eine finale Sammlung 1 Qualitative Auswertungsmethoden 209 <?page no="210"?> von Themen und Subthemen, deren zentrale Bedeutung und Verhältnis zu- und untereinander geklärt ist. In diesem Schritt werden den Themen und Subthemen auch passende und griffige Namen gegeben. 6. Den Bericht verfassen: Im abschließenden Bericht wird die anfängliche Forschungsfrage beantwortet. Es werden alle Themen vorgestellt. Der Be‐ richt erzählt mehr oder weniger die Geschichte des gesamten Datenmateri‐ als in thematischer Gliederung. Beispiele aus dem Datenmaterial illustrieren die Bedeutung der identifizierten Themen. Grounded Theory bzw. Gegenstandsbezogene Theoriebildung Definition Die Grounded Theory bzw. gegenstandsbezogene Theoriebil‐ dung (Glaser / Strauss 1998; Flick 2004) ist eine Methode, die mithilfe der schrittweisen Interpretation von Texten oder Situationen Theorien generiert. Das Auswertungsverfahren der Grounded Theory nennt sich theoretisches Kodieren. Dazu werden einzelnen Elementen des Textmaterials Begriffe bzw. Codes zugeordnet, die den Text anfangs möglichst konkret, später zunehmend abstrakter beschreiben und interpretieren. Insofern ist die Grounded Theory der qualitativen Inhaltsanalyse nicht ganz unähnlich. Das theoretische Kodieren der Grounded Theory besteht aus drei Schrit‐ ten, dem offenen, dem axialen und dem selektiven Kodieren. Diese drei Schritte sind im Prozess der Forschung nicht unbedingt klar voneinander unterscheidbar, allerdings beginnt die Forschung mit offenem Kodieren und nähert sich dem Ende hin mehr dem selektiven Kodieren. Die gefundenen Codes werden im Prozess der Forschung miteinander verknüpft und zu Oberbegriffen zusammengefasst, ein Vorgang, der als Kategorisierung be‐ zeichnet wird. 1. Offenes Kodieren: Bei diesem ersten Schritt der Grounded Theory wird der Text bzw. das Datenmaterial in einzelne Sinneinheiten zergliedert und mit Begriffen bzw. Codes versehen. Meistens macht man das aufgrund des hohen Arbeitsaufwands nicht mit dem ganzen Text, sondern nur mit 210 IV Datenauswertung <?page no="211"?> besonders signifikanten oder unklaren oder einleitenden Passagen. Im Zuge dessen entstehen oft hunderte von Codes, die dann in einem nächsten Aus‐ wertungsschritt zu für die Fragestellung besonders wichtigen Kategorien gebündelt werden. Die dadurch entstandenen Kategorien werden erneut mit Codes versehen, die nun aber auf einem höheren Abstraktionsniveau liegen als die im ersten Schritt verwendeten. In einem Interview über seine berufliche Laufbahn sagt ein älterer Angestellter über seine Versetzung in eine andere Abteilung: »Ja das musste damals so sein, da kann man gar nichts machen.« Diese Aussage lässt sich kodieren als »Hinnehmen der Verände‐ rung« und / oder »Unterwerfung, kein Handlungsspielraum«. Das Ergebnis des offenen Kodierens ist eine Liste von Codes und Kategorien, die das Datenmaterial strukturieren und erläutern. Hilfreich bei der Entwicklung von Codes und Kategorien sind die W-Fragen: Was passiert hier? Wer ist beteiligt? Wie wird gesprochen? Wann und wo ereignet es sich? Wie viel und wie stark sind die Erfahrungen? Warum ist das so? Wozu ist das passiert? Womit wurde das erreicht? 2. Axiales Kodieren: Das axiale Kodieren dient der Differenzierung und Verfeinerung der Kategorien, die beim offenen Kodieren gewonnen wurden. Beim axialen Kodieren werden diejenigen Kategorien ausgewählt, deren Weiterverfolgung am vielversprechendsten erscheint. Diese fungieren dann als Achsenkategorien, die mit möglichst vielen passenden Stellen aus dem Text angereichert werden. Wichtig ist in diesem Auswertungsschritt, dass die Beziehungen zwischen den Kategorien und Unterkategorien herausge‐ arbeitet werden. Beim axialen Kodieren wird also versucht, die gefundenen Codes in Beziehung zueinander zu setzen, um die Ursachen und Kontextbe‐ dingungen eines Phänomens zu identifizieren. So kann man Ursache-Wir‐ kungs-, Mittel-Zweck- oder Zeit-Raum-Relationen auf die Spur kommen. In einer Studie über die medizinische Versorgung in Altenpflegeheimen könnte sich z. B. herauskristallisieren, dass oft dann Medikamente verabreicht werden, wenn die Heimbewohner Kummer und Sorgen aussprechen. 3. Selektives Kodieren: Das selektive Kodieren setzt das axiale Kodieren auf einem höheren Abstraktionsniveau fort. Ziel ist es hier, eine so genannte Kernkategorie herauszuarbeiten, um die sich alle anderen Kategorien grup‐ pieren lassen. Diese soll einen kurzen Überblick über das gesamte Material bieten, aber nicht mehr als ein paar Zeilen Umfang haben. Ergebnis dieses Schritts ist eine zentrale Kategorie und ein Phänomen, das das Zentrum der ganzen Theoriebildung darstellt. Letztendlich soll sich jedenfalls eine 1 Qualitative Auswertungsmethoden 211 <?page no="212"?> zentrale Theorie ausformulieren und durchs Material überprüfen lassen. Hat sich z. B. in biographischen Interviews mit pensionierten Managern, die viel Anerkennung aus ihrem Beruf geschöpft haben, ergeben, dass diese sich nach einer verantwortungsvollen Arbeit sehnen, ließe sich als Kernkategorie »Wunsch nach Vertrautheit und Kontinuität im Leben« bilden. Qualitative Typenbildung Angenommen Sie finden heraus, dass manche Leute ihre Biographie so erzählen als hätten Sie überhaupt keinen Einfluss darauf, was in ihrem Leben mit ihnen passiert; und andere erzählen ihre Biographie so, als würden sie durch die Entscheidungen, die sie treffen, die Kontrolle über ihr Leben haben; dann können Sie hinsichtlich des Kriteriums der Kontrollüberzeu‐ gung zwei Biographietypen beschreiben und sie beispielsweise »Das Opfer des Schicksals« und »Des Schicksals Schmied« nennen. Typen werden auch im Bereich der Persönlichkeitsforschung konstruiert. Bestimmte Arten von Verhaltens- und Erlebensweisen im beruflichen und privaten Bereich lassen sich zu bestimmten Charaktertypen zusammenfassen. Denken Sie z. B. an introvertierte und extravertierte Persönlichkeiten. Es ist dabei unvermeidlich, dass gewisse Gesichtspunkte einseitig gesteigert und andere im selben Atemzug unterschlagen werden. Eine Typologie unterschlägt also die Komplexität und Einzigartigkeit jedes Falls und sucht nach gewissen Ähnlichkeiten, sprich nach dem, was typisch ist. Typologische Analysen laufen für gewöhnlich in drei Schritten ab: Definition Die qualitative Typenbildung versucht hinsichtlich bestimmter Merkmale eine Reihe von Typen zu eruieren, denen sich einzelne Fälle dann zuordnen lassen. Die Typenbildung rekurriert dabei auf Max Weber, der Idealtypen gebildet hat, um soziokulturelle Unter‐ schiede erklären zu können (z. B. die typisch katholische und die typisch protestantische Ethik, der typische Unternehmer, der typische Arbeiter). Man geht also davon aus, dass es unterschiedliche Typen von Menschen gibt, die sich in Bezug auf bestimmte Merkmale von anderen Typen unterscheiden (s.z. B. Bohnsack 2021; Kelle / Kluge 2010; Mayring 2023). 212 IV Datenauswertung <?page no="213"?> 1. Herausfiltern von Typisierungsmerkmalen: In einem ersten Schritt wird bei der Typenbildung ein Korpus an Datenmaterial, meist eine Vielzahl von Fällen, in Bezug auf bestimmte Merkmale durchforstet. Diese zuvor festgelegten Merkmale (z. B. Persönlichkeitseigenschaften, ethische Haltun‐ gen, Erzählstile etc.) werden von einer vorab festgelegten Forschungsfrage definiert. Alle relevanten Formen und Ausprägungen dieses Merkmals, die sich im Datenmaterial finden lassen, werden dokumentiert. Als Endergebnis des ersten Schritts erhält man dann eine Liste mit einer begrenzten Anzahl von Formen und Ausprägungen des untersuchten Merkmals. Bei der typo‐ logischen Analyse des Datenmaterials kann man zwischen Typisierungska‐ tegorien und Typisierungsdimensionen unterscheiden. Erstere meinen klar abgegrenzte Merkmale, die auf einen Fall zutreffen oder nicht zutreffen; Letztere beschreiben das Ausmaß der Ausprägung eines Merkmals. 2. Konstruktion einer Typologie: Danach werden die einzelnen Fälle mithilfe der gefundenen Typisierungskategorien und Typisierungsdimensi‐ onen analysiert. Durch die Suche nach Gemeinsamkeiten und Unterschie‐ den zwischen den Fällen gelangt man zu einem Set von Typen. Dabei zeichnet sich jeder einzelne Typus durch das Vorhandensein bestimmter Typisierungsmerkmale und das gleichzeitige Nicht-Vorhandensein anderer Typisierungsmerkmale aus. Man filtert aus dem Gesamtmaterial also eine Gruppe von Typen heraus, die sich untereinander jeweils genügend ähneln, um sie zusammenzufassen; zugleich müssen sich diese aber von anderen Typen aufgrund ihrer Unterschiedlichkeit abgrenzen lassen. 3. Zuordnung weiterer Fälle: Wenn das System von Typen einmal steht, kann man in weiteren Untersuchungsdurchgängen neue Fälle aufgrund ih‐ rer Merkmale einem oder mehrerer dieser Typen zuordnen. Die bestehende Typologie fungiert dann als Orientierungspunkt, um ihr weitere ähnliche Fälle zuzuordnen. Tauchen allerdings widersprüchliche und nicht-zuorden‐ bare Fälle auf, so kann die Typologie auch ergänzt werden. 1 Qualitative Auswertungsmethoden 213 <?page no="214"?> Psychoanalytische Textinterpretation Definition Die psychoanalytische Textinterpretation geht von der Annahme aus, dass sich hinter dem gesprochenen Wort eine unbewusste Bedeu‐ tung verbirgt. Diese latente, unbewusste Struktur ist zwar nicht direkt erkennbar, kann aber erschlossen werden, da sie den manifesten Inhalt des Texts determiniert. Die psychoanalytische Textinterpretation zielt darauf ab, diese latenten Strukturen ans Licht zu bringen, indem sie sich Schritt für Schritt von der Oberfläche des Textmaterials an diese herantastet (Leithäuser-/ -Volmerg 1979). Da menschliches Verhalten ohne seine unbewusste Dimension oft nicht völlig verständlich ist, können Sie die psychoanalytische Text‐ interpretation einsetzen, um die verborgenen Strukturen hinter den Erzählungen aufzudecken. Um die unbewussten Sinnstrukturen zu entschlüsseln, wird der ursprüngliche Text in einem mehrgliedrigen Prozess analysiert. 1. Logisches Verstehen: Im ersten Schritt der Analyse, der sich logisches Verstehen nennt, geht es darum, den manifesten Inhalt der Erzählungen zu erfassen. Hier geht es vereinfacht gesagt um die Frage, was die Leute sagen und was sie tun. Der erste Kodierungsschritt besteht in nichts anderem als der Anfertigung einer Paraphrase, die die wesentlichen Aspekte des Gesagten wiedergibt. Trotzdem beginnt bereits jetzt eine erste Suche nach Widersprüchlichkeiten und Auffälligkeiten im Text, die einen Hinweis auf unbewusste Determinanten liefern. Das können z. B. freudsche Versprecher, offensichtliche Widersprüche, Irritationen oder auch ausdrucksstarke Me‐ taphern sein. Wenn ein Vorsitzender eine Sitzung eröffnet mit den Worten, »Ich begrüße alle Anwesenden und erkläre die Sitzung für beendet«, darf man vermuten, dass seine Worte etwas verraten über seine Einstellung zu dieser Sitzung. 2. Psychologisches Verstehen: Der nächste Kodierungsschritt ist das psychologische Verstehen. Dabei geht es nun nicht mehr darum, über was die Leute sprechen und was sie sagen, sondern wie sie sprechen und wie sie es sagen. Man versucht nun das innere Erleben, vor allem die Emotionen des Probanden zu erfassen. Dazu achtet man sowohl auf Mimik, Gestik 214 IV Datenauswertung <?page no="215"?> und Intonation, als auch auf Aussagen, die sich unmittelbar aufs subjektive Erleben beziehen. Besonders interessant sind nun Widersprüche zwischen dem Inhalt des Gesagten und dem Affekt. Stellen Sie sich jemanden vor, der mit weinerlicher Stimme und Tränen in den Augen sagt: »Mir geht es sehr gut, total super, alles ist bestens.« In dem Fall wird man wohl zu Recht vermuten, dass es demjenigen alles andere als gut geht. Hilfreich kann es bei diesem Schritt der Auswertung sein, sich zu fragen, wie es einem selbst gehen würde, wenn man einem anderen genau diese Mitteilung auf diese Art und Weise macht. 3. Szenisches Verstehen: Beim dritten Schritt, dem szenischen Verstehen, werden nun die ersten beiden Schritte zusammengebracht. Es geht nun um die Frage, was wird wie gesagt und / oder getan? Dabei lassen sich dann Szenen identifizieren. Unter Szenen versteht die Psychoanalyse unbewusste Interaktionsmuster, die als Schablonen für die Gestaltung von zwischen‐ menschlichen Beziehungen dienen. Diese artikulieren sich in Sprechakten und Handlungen. Die zentrale Szene können Sie herausarbeiten, indem Sie verschiedene vom Interviewten berichtete Beziehungsepisoden miteinander vergleichen und so sich wiederholende Muster erkennen. Wenn jemand wutentbrannt schreit, dass er sich nichts als Frieden und Verständnis wünscht, und dabei auch noch mit der Faust auf den Tisch schlägt, dann mag es schon sein, dass sich derjenige bewusst Frieden wünscht, unbewusst al‐ lerdings eine gewisse Feindseligkeit kommuniziert. Hilfreich zur Erfassung der Szene ist es, seine eigene Gegenübertragung zu konsultieren: Wie würde ich reagieren, wie würde es mir gehen, wenn jemand zu mir so etwas sagt? 4. Rekonstruktiv-tiefenhermeneutisches Verstehen: Im letzten Schritt, dem rekonstruktiven Verstehen geht es um die Aufdeckung von verdrängten und abgewehrten Inhalten. Die leitende Frage hierbei lautet: Was wurde verdrängt? Oder präziser noch: Warum wurde was verdrängt und / oder abgewehrt? Der abgewehrte Sinn und der Sinn der Abwehr lassen sich nur unter Einbezug aller vorhergehenden Analyseschritte verstehen. Beson‐ ders wichtig ist dabei das nochmalige Aufgreifen der im Text gefundenen Auffälligkeiten und Widersprüche. Als Beispiel folgende mit verbittertem Unterton getätigte Aussage: »Ich brauch überhaupt keine Menschen! Auf die ist sowieso kein Verlass! « Unter Einbezug weiterer Kontextinformationen ließe sich die Vermutung anstellen, dass hinter der Aussage ganz stark verdrängte Wünsche nach Nähe und Ängste vor Enttäuschung stecken. Nun lassen sich auch Parallelen zwischen der gegenwärtigen Beziehungs‐ 1 Qualitative Auswertungsmethoden 215 <?page no="216"?> szene und Beziehungsszenen aus der biographischen Vergangenheit der interviewten Person ziehen. Diskurs- und Konversationsanalyse Bei den konversations- und diskursanalytischen Methoden geht es im Ver‐ gleich zu den anderen Auswertungsmethoden weniger darum, was Einzelne denken und erleben, sondern um den Austausch zwischen den Menschen. Es geht hierbei also stärker um Prozesse des Sozialen. Definition Die Konversationsanalyse geht davon aus, dass soziale Interaktio‐ nen eine permanente Koordination des eigenen Tuns mit dem Tun des Anderen erfordern, um funktionieren zu können. Kommunikative Ordnung wird im Gespräch Zug um Zug hergestellt. Die Konversa‐ tionsanalyse untersucht diesen Ablauf von Interaktionshandlungen (Deppermann 2008; Flick 2007). Ziel ist es, die Ordnung und die Ordnungsmechanismen von Gesprächen zu entdecken. Wie werden Gespräche begonnen? Wie werden Gespräche aufrechterhalten? Wie werden Gespräche beendet? Wenn sich zwei Menschen miteinander unterhalten, regulieren sie mithilfe feiner, bewusst kaum wahrnehmbarer Zeichen, wie Betonungen und kurzen Pausen, ihr Gespräch und die Sprecherwechsel. Beide Interaktionspartner haben dabei die Aufgabe, Signale fürs gegenüber auszusenden und die Si‐ gnale des Gegenübers zu interpretieren. Die Konversationsanalyse versucht diese impliziten Kommunikationsregeln, die die Konversationen zwischen Menschen steuern, zu identifizieren. Es geht der Konversationsanalyse also weniger um die Inhalte von Gesprächen und mehr um die formalen Regeln, nach denen Gespräche ablaufen. Teilweise werden dabei Alltagsgespräche untersucht. In so einem Fall kann es dann unter anderem um die Organisation von Sprecherwechseln oder auch die Eröffnung und die Beendigung von Gesprächen gehen. Teilweise werden auch spezielle Formen von Alltagsgesprächen untersucht, darunter Klatsch und Tratsch, Familiengespräche und Telefongespräche. Neuerdings wird speziellen, auch asymmetrischen Gesprächsformen ver‐ mehrt Aufmerksamkeit von Seiten der Forschung geschenkt. Das wären z. B. 216 IV Datenauswertung <?page no="217"?> Arzt-Patient-Interaktionen, Gerichtsverhandlungen oder psychotherapeu‐ tische Gespräche. Psychotherapeutische Gespräche beispielsweise werden meist von der Therapeutin mit einem unspezifischen Starter in Gang gesetzt, der dem Gegenüber auch signalisiert, dass das Organisationsprinzip von Alltagsgesprächen, über alles Mögliche reden zu können, nun außer Kraft gesetzt ist. Solche Starter sind z. B. »Was führt Sie zu mir? « oder »Worum geht es denn? «. Gleichzeitig werden damit auch die Rollen festgelegt: derjenige, der die Frage stellt, ist der Zuhörer; der andere ist der Erzähler. Mittlerweile werden auch schriftliche Produkte wie Gutachten oder Medi‐ enberichte konversationsanalytisch ausgewertet. Konversationsanalysen verlangen in einem ersten Schritt eine Aufzeich‐ nung der zu analysierenden Daten. Das Transkript dieser Daten muss akribisch genau angefertigt werden. Jede Pause, jedes noch so unbedeutend erscheinende Füllwort und jede Betonung können bedeutsam sein. In einem nächsten Schritt werden solche Textstellen identifiziert, die ein Element der Ordnung im jeweiligen Gesprächstyp darstellen. Dann wird nach ähnlichen Stellen gefahndet, um eine Kollektion von solchen Ordnungselementen zu erhalten. Anschließend wird untersucht, wie das jeweilige Element verwendet wird, um Ordnung in der Interaktion herzustellen. Definition Die Diskursanalyse untersucht die Entstehung und Veränderung von Meinungen im sozialen Vollzug (Keller 2010). Dieser vollzieht sich im sozialen Bereich und erfolgt über den mehr oder weniger kontroversen Austausch von Perspektiven unterschiedlicher Personen und Perso‐ nengruppen. Die Diskursanalyse versucht diesen Prozess empirisch zu untersuchen, wobei sie der Konstruktion von unterschiedlichen Ver‐ sionen eines Geschehens in Berichten und Darstellungen besonderes Augenmerk schenkt. Unter einem Diskurs versteht man die Erörterung eines bestimmten Themas in der Gesellschaft. Es ist der Prozess der Konstruktion von Meinungen. Der Diskurs ist die institutionalisierte, gesellschaftliche Redeweise über eine Thematik, die die Handlungen der Menschen bestimmt. Diskurse spielen sich nur teilweise in direkten Gesprächen zwischen zwei oder mehreren Menschen ab und werden hauptsächlich über die Medien vermittelt. Deshalb werden in Diskursanalysen nicht nur Interviews und Gruppendiskussionen, 1 Qualitative Auswertungsmethoden 217 <?page no="218"?> sondern auch Fernseh-, Radio-, Internet- und Zeitungsberichte einbezogen. In den Medien und im Alltag lassen sich Diskurse über legale und illegale Drogen, Diskurse über Umweltschutz, Diskurse über Kriminalität, Diskurse über Gesetzesänderungen, Diskurse über Rassismus, Diskurse über Kriege beobachten. Mit der Diskursanalyse kann man diese und andere Diskurse wissenschaftlich untersuchen. Das methodische Vorgehen von Diskursanalysen wird nur selten exakt dargelegt. Meist handelt es sich um ein Sammelsurium von unterschiedli‐ chen Erhebungs-, Aufbereitungs- und Auswertungsmethoden, die um das Ziel kreisen, den Diskurs über ein bestimmtes Thema zu analysieren. Die Methoden müssen dabei an die jeweilige Fragestellung adaptiert werden. Hilfreiche Fragestellungen bei Diskursanalysen sind: Wann taucht ein be‐ stimmter Diskurs auf und wann verschwindet er wieder? Welche Strategien werden angewandt, um Standpunkte im Diskurs gegenüber anderen durch‐ zusetzen? Wie verändern sich bestimmte Diskurse im Laufe der Zeit? Wer ist Träger, wer Adressat und wer Publikum eines bestimmten Diskurses? Wer verfügt über Machtressourcen (Geld, Prestige etc.) im Diskurs, die es ihm ermöglichen, seine Perspektive gegenüber anderen durchzusetzen? Bei der Diskursanalyse wird in einem ersten Schritt der zu untersuchende Diskurs spezifiziert. Daran anschließend wird eine möglichst genaue Fra‐ gestellung expliziert. Daraus folgt eine Festlegung der zu untersuchenden Daten und eine Auswahl probater Erhebungsmethoden. Nach der entspre‐ chenden Aufbereitung werden die Daten mithilfe von Auswertungsmetho‐ den analysiert. Die gewählten Methoden müssen für die zur Untersuchung des Diskursfeldes und die Beantwortung der Forschungsfragen geeignet sein. Wie schon angedeutet, gibt es keine kanonisierte diskursanalytische Methode. In Diskursanalysen ist es eher so, dass die Texte, die audiovisuellen Formate (Werbung, Fernsehnachrichten, Filme usw.) und die Artefakte (Gebäude, Maschinen usw.) auf ihre Rolle und Bedeutung im jeweiligen Diskurs befragt und qualitativ-hermeneutisch interpretiert werden. Dabei kommen unterschiedliche Auswertungsmethoden wie z. B. Inhaltsanalyse, Psychoanalyse oder Grounded theory zum Einsatz. Metaphernanalyse Das Wort »Metapher« leitet sich vom Altgriechischen metaphorein ab und bedeutet so viel wie »von einem Ort zum anderen tragen, hinübertragen«. Bereits Aristoteles hat sich sprachphilosophisch mit Metaphern beschäftigt 218 IV Datenauswertung <?page no="219"?> und diese definiert als die Übertragung eines Begriffs in einen anderen Kontext, in dem er dann in uneigentlichem Sinne verwendet wird. Wenn wir von einem Tischbein sprechen, meinen wir das Gestänge, auf dem die Tischplatte ruht, erwarten uns aber nicht, dass es sich um ein Bein im eigentlichen Sinne handelt, das gehen könnte. Definition Unter Metaphernanalyse versteht man den wissenschaftlichen Ver‐ such, Metaphern zu verstehen und zu erklären (Schmitt 2000; 2003). Welche Metaphern zur Beschreibung welcher Phänomene verwendet werden, soll Aufschluss geben, wie dieses Phänomen von den Men‐ schen erlebt und gedacht wird. Die Metaphernanalyse baut dabei auf der allgemeinen menschlichen Sprachkompetenz auf, dem situativen Kontext entnehmen zu können, wann etwas wörtlich gemeint ist und wann etwas metaphorisch gemeint ist. Die neuere kognitionswissenschaftliche Metapherntheorie hat der Meta‐ phernanalyse auch in der qualitativen Forschung Auftrieb verschafft. Ihr zufolge funktioniert menschliches Denken, Handeln und Sprechen nach metaphorischen Mustern (Lakoff / Johnson 2007). Menschen denken, ob‐ gleich ihnen das meist nicht bewusst ist, in Metaphern. Und dieses Denken wiederum artikuliert sich im Sprechen und prägt das Handeln. Nutzt man beispielsweise zur Beschreibung von Diskussionen bevorzugt militärische Metaphern (»Zweifrontenkrieg«, »Angreifen von Schwachpunkten«, »Po‐ sitionen beziehen«), dann wird Argumentieren implizit als Krieg angese‐ hen. Die Verdichtung von gleichsinnigen Redewendungen zu einem so genannten metaphorischen Konzept lässt sich als Ausdruck einer kognitiven Tiefenstruktur verstehen. Diese wiederum wird geprägt durch die jeweilige Kultur. Bei der Metaphernanalyse werden zuerst der Forschungsgegenstand, die Forschungsfrage und das Datenmaterial bestimmt. Die Metaphernanalyse kann sich unter anderem auf Metaphern in politischen Reden, Metaphern im Management oder Metaphern in der Wissenschaftssprache richten. Es lassen sich auch interkulturelle Unterschiede in der Verwendung von Metaphern untersuchen, z. B. die AIDS-Metaphorik in europäischen und afrikanischen Staaten. Auch die typische Metaphorik von Subgruppen, z. B. Punks, lässt sich wissenschaftlich erforschen. In der Biographiefor‐ 1 Qualitative Auswertungsmethoden 219 <?page no="220"?> schung lässt sich die Metaphernanalyse zur Untersuchung individueller Metaphern heranziehen; und in der Psychotherapieforschung lassen sich Metaphern als Mittel der Kommunikation beschreiben. In einem zweiten Schritt wird das Datenmaterial in einer Wort-für-Wort-Analyse nach meta‐ phorisch gebrauchten Begriffen durchforstet. Das Resultat dieses Vorgehens ist ein »Lexikon« von Metaphern, die für die untersuchten Fälle typisch sind. Diese gefundenen Metaphern können dann in einem dritten Schritt zu metaphorischen Konzepten zusammengefasst werden. Die Metaphern und metaphorischen Konzepte können anschließend auch mit anderen qualitativen und / oder quantitativen Methoden weiter analysiert und mit typischen Metaphoriken anderer Fälle oder Gruppen verglichen werden. In der Metaphernanalyse kommen ebenso wie auch in der Diskursanalyse un‐ terschiedliche Forschungsmethoden zum Einsatz, die speziell zum Zwecke der Analyse von Metaphern adaptiert werden. Narrationsanalyse Definition Unter Narrationsanalysen (s. z. B. Lucius-Hoene & Deppermann 2004; Przyborski & Wohlrab-Sahr 2021, S.-285-350) versteht man eine Gruppe von qualitativen Auswertungsmethoden zur Untersuchung von Erzählungen bzw. Narrationen über Lebensereignisse. Narrati‐ onsanalysen sind insbesondere für die Auswertung biographischer Interviews geeignet. Ziel ist es, über die Inhalte sowie die Art und Weise der Erzählung Rückschlüsse auf die Person des Erzählers anzustellen. Neuerdings gewinnen hierbei insbesondere die den Erzählungen der Probandinnen immanenten Identitätskonstruktionen an Bedeutung. Das heißt, die Narration über ein Ereignis wird nicht als Tatsachen‐ bericht verstanden, sondern als subjektiv gefärbte Konstruktion. Das ursprüngliche »objektive« Ereignis wird vom Probanden auf eine be‐ stimmte Art und Weise »subjektiv« erlebt; und dieses Erlebnis gelangt im Prozess des Erzählens zur Darstellung. Die Erzählung enthält also in gewisser Weise einen Informationsüberschuss; sie liefert nicht nur Informationen über den Tatbestand an sich, sondern transportiert und verrät etwas über das Erleben, die Identität, die Persönlichkeit, das Selbstverständnis des Sprechers. Somit geht es nicht um die Ermittlung von Fakten, sondern um die Rekonstruktion von Lebensentwürfen. 220 IV Datenauswertung <?page no="221"?> Dementsprechend spielt die Unterscheidung von ereignetem Leben, erlebtem Leben und erzähltem Leben eine wichtige Rolle. 1. Definition des Datenmaterials: Die Narrationsanalyse kann sich ent‐ weder lediglich auf die reinen Narrationen richten (in dem Fall werden alle nicht-narrativen Elemente, wie z. B. kommentierende Einschübe und abstrakte Reflexionen über die erzählten Erlebnisse, aus dem Text eliminiert) oder auf den Text als Ganzes, wobei dann auch die in einem engeren Sinn nicht-narrativen Passagen in die Analyse einbezogen werden. 2. Segmentierung: Für gewöhnlich wird der zu untersuchende Text in einem ersten Schritt in Segmente untergliedert. 3. Inhaltliche und prozessuale Narrationsanalyse: Die eigentliche Ana‐ lyse geht dann Schritt für Schritt vor. Dabei kann sowohl der Inhalt der Erzählung als auch der Prozess, sprich die Art und Weise der Erzählung, zum Gegenstand gemacht werden. Was erzählt jemand (Freudiges, Trauriges, Überraschendes ) und wie erzählt er es (lebendig, nüchtern, distanziert)? Es gibt einige Fragen, die man an den Text richten kann, um ihn verstehen zu können: Warum wird dieses Thema genau an dieser Stelle des Inter‐ views eingeführt? Weshalb wird ein bestimmter Lebensabschnitt gar nicht erwähnt? Welche Themen werden besprochen und welche nicht? Warum wird dieses Thema so ausführlich behandelt? Warum wird dieses Thema so spärlich behandelt? Warum wird über dieses Thema flüssig gesprochen? Warum gerät der Erzähler bei diesem Thema ins Stocken? 4. Überprüfung der Interpretationen an weiteren Textstellen: Anhand der Analyse eines Interviewsegments lassen sich Hypothesen über den zu erwartenden Verlauf der Erzählung machen, die dann an konkreten weiteren Stellen überprüft und gegebenenfalls falsifiziert werden können. Bleibt beispielsweise am Beginn eines biographischen Interviews die Kindheit unerwähnt und die Erzählerin startet stattdessen mit einem detaillierten Bericht über ihre schulische und berufliche Karriere, könnte man die Hypo‐ these aufstellen, die Probandin meidet das Thema, weil die Erinnerungen daran zu belastend wären. Erzählt sie allerdings später ausführlich über schöne Kindheitserlebnisse, kann die Hypothese fallengelassen werden. 5. Ergebnis und Generalisierung: Als Ergebnis kann man je nach Ziel‐ setzung der Studie einen einzelnen Lebensentwurf rekonstruieren, einen 1 Qualitative Auswertungsmethoden 221 <?page no="222"?> Typus bilden oder allgemeine Aussagen über eine bestimmte Gruppe von Menschen wagen. Objektive Hermeneutik Definition Die Objektive Hermeneutik ist eine qualitative Datenauswertungs‐ methode, die von Ulrich Oevermann (Oevermann 2002; Oevermann et al. 2010) begründet wurde. Ursprünglich entwickelt für die Analyse natürlicher Interaktionen, hat sich die Domäne der Objektiven Her‐ meneutik mittlerweile auf alle Arten von Texten und Dokumenten ausgedehnt. Die Objektive Hermeneutik zielt darauf ab, die hinter den subjektiven Bedeutungen verborgenen objektiven Sinn-Strukturen zu dechiffrieren. Das heißt, ähnlich wie bei der Psychoanalytischen Textinterpretation geht es um die Entdeckung von Strukturen, die das Datenmaterial in seiner vorliegenden Form bestimmen. Man könnte auch sagen, die Objektive Hermeneutik rekonstruiert die zugrundelie‐ genden Strukturen eines Textes. Die Objektive Hermeneutik (s.a. Flick 2004; Mayring 2023; Wernet 2009) differenziert zwischen zwei Ebenen des Textes: zum einen die subjektiven Bedeutungen, die eine Handlung für die erzählenden bzw. handelnden Akteure hat, zum anderen die dahinter liegenden objektiven Bedeutungs‐ strukturen, also die latente Sinnstruktur der Handlung. Für gewöhnlich werden letztere vom Subjekt auch nicht unbedingt erkannt, können aber mithilfe der Objektiven Hermeneutik erschlossen werden. Der Objektiven Hermeneutik geht es also darum, den latenten Sinn bzw. die Struktur des Textes zu erschließen. Zu diesem Zweck wird soziales Handeln in einen Text transformiert, der dann auf handlungsgenerierende latente Sinnstrukturen untersucht wird. Das Ziel besteht darin, die objektiven Be‐ deutungsstrukturen zu rekonstruieren. Den Kern des Verfahrens bildet ein sukzessiver Vergleich von möglichen Bedeutungsfacetten einer Handlung mit seinem tatsächlichen Bedeutungsgehalt. Entscheidend für die Objektive Hermeneutik ist somit das Verhältnis zwischen den möglichen Bedeutungen und der tatsächlichen Bedeutung, denn aus diesem Spannungsfeld wird im Prozess der Analyse schrittweise die objektive Bedeutungsstruktur des 222 IV Datenauswertung <?page no="223"?> Falles herausgefiltert. Grundlage der Interpretation ist die Annahme, dass die Sprache ein System intersubjektiv geteilter Regeln und Bedeutungen ist, das zwar nicht immer offensichtlich ist, sich aber rekonstruieren lässt. Vor dem Beginn der eigentlichen Analyse müssen eine Reihe von Erkennt‐ nishindernissen aus dem Weg geräumt werden: So muss der unmittelbare Interpretationsdruck aufgehoben werden zugunsten einer zeitintensiven Reflexion über den Sinn von Handlungen. Zudem müssen neurotische oder ideologische Tendenzen des Interpreten, die die Auswertung verzerren könnten, ausgeschaltet werden. Und zu guter Letzt müssen die Interpreten kundige Mitglieder der Sprachgemeinschaft sein, um überhaupt potenzi‐ ell verstehen zu können. Die Objektive Hermeneutik kann sinnvoll dort eingesetzt werden, wo es um die Aufdeckung von Strukturen geht, die hin‐ ter dem Textmaterial stehen. Eine objektiv-hermeneutische Interpretation sollte immer von einer Gruppe mehrerer Interpretinnen, die gemeinsam an einem Text arbeiten, vorgenommen werden. Ob die Objektive Hermeneutik auch für kleinere wissenschaftliche Studien geeignet ist, sei dahingestellt, denn das Verfahren ist sehr zeitaufwändig. Das konkrete Vorgehen bei der Objektiven Hermeneutik ist äußerst differenziert und komplex, weshalb die vorliegende Darstellung zwangsläufig vereinfachend bleiben muss: 1. Forschungsfrage festlegen: In einem ersten Schritt müssen Forschungs‐ frage und Forschungsgegenstand festgelegt werden. Ist der Gegenstand des Interesses die Persönlichkeitsstruktur des Interviewten oder seine Iden‐ titätskonstruktionen? Geht es um die Interaktionen zwischen Interviewerin und Interviewtem oder vielleicht um die Struktur eines Sozialsystems, über das der Interviewte erzählt? 2. Grobanalyse: Dem folgt eine Grobanalyse, in der die Rahmenbedingun‐ gen des Datenmaterials analysiert werden. Hierbei werden die äußeren Kontexte, in die die jeweiligen Handlungen eingebettet sind, analysiert. Diese soll offenbaren, wie der zu analysierende Text überhaupt entstanden ist. Eine Interaktion zwischen einem Psychotherapeuten und einem Patien‐ ten gehorcht einer anderen Logik als ein gewöhnliches Experteninterview. Die Rahmenbedingungen bilden den Kontext des Datenmaterials und sind somit auch Referenzpunkt des folgenden Analyseschritts. 3. Sequenzielle Feinanalyse: Der nächste und eigentliche Schritt der Ob‐ jektiven Hermeneutik ist die so genannte Sequenzielle Feinanalyse. Hierbei wird das Material in einzelne Interakte bzw. Sequenzen zergliedert, die 1 Qualitative Auswertungsmethoden 223 <?page no="224"?> nacheinander analysiert werden. Der Text wird Zug um Zug interpretiert. Dabei werden in einer Art Gedankenexperiment alle möglichen Bedeutun‐ gen einer Handlung exploriert. An die zu analysierende Textstelle wird die Frage gerichtet: Was könnte das bedeuten? Hierbei ist es wichtig dem Text quasi einen Sinnüberschuss zu unterstellen und möglichst viele, auch unwahrscheinliche Lesarten zu bedenken. Im Unterschied zum Alltagsver‐ stehen wird also das Geschehen nicht nur auf eine einzige Art und Weise interpretiert, sondern viele verschiedene, auf den ersten Blick auch weniger wahrscheinliche Lesarten erwogen. Daraus lassen sich dann sukzessive allgemeine Struktureigenschaften des Materials ableiten. Aus dem vorhe‐ rigen Interakt werden dann mögliche Konsequenzen für den folgenden Interakt analysiert. Das geschieht unter anderem, indem man versucht gedankenexperimentell zu erwägen, wie es mit dem Interaktionsprozess nun weitergehen könnte. Die tatsächliche nächste Äußerung wird dann kontrastiert mit den gefundenen Lesarten, was zu einem schrittweisen Aus‐ schluss unzutreffender Lesarten führt. Durch den sukzessiven Ausschluss alternativer Lesarten des Geschehens kristallisiert sich allmählich eine Bedeutungsstruktur heraus. 4. Strukturgeneralisierung: Im letzten Schritt der Objektiven Hermeneu‐ tik werden Strukturgeneralisierungen angestrebt. Dabei werden verschie‐ dene Fälle, die sich auf die anfangs definierte Fragestellung beziehen, miteinander verglichen. Um von singulären Aussagen (Einzelfallstrukturre‐ konstruktion) zu allgemeinen Aussagen (Strukturgeneralisierung) zu gelan‐ gen, arbeitet man mit dem so genannten Falsifikationsprinzip. Das heißt, die am einzelnen Fall entwickelte Interpretation wird als zu falsifizierende Heuristik verwendet, um weitere Fälle zu analysieren. Man kann also aus der objektiv hermeneutischen Fallanalyse Hypothesen ableiten, die an weiteren Fällen geprüft werden können. Stimmt eine Textpassage mit der aufgestellten Hypothese nicht überein, gilt diese als falsifiziert. Die Struk‐ turgeneralisierung strebt die Aufdeckung von Strukturgesetzlichkeiten an, die sowohl einzelfallspezifisch als auch allgemein sind. 224 IV Datenauswertung <?page no="225"?> Dokumentarische Methode Die Dokumentarische Methode nach Ralf Bohnsack basiert auf der Annahme, dass in sozialen Situationen und Gesprächen nicht nur explizites Wissen kommuniziert wird, sondern auch implizites, unbe‐ wusstes Wissen enthalten ist (Bohnsack et al. 2013; Nohl 2017). Die Dokumentarische Methode möchte dieses implizite Wissen rekonstru‐ ieren - also sichtbar und verstehbar machen. Dabei geht es weniger um die Inhalte von Aussagen allein, sondern vor allem darum, wie etwas gesagt oder getan wird. In mehreren Schritten bewegt sie die Methode von der Oberfläche dessen, was konkret gesagt und getan wird, in die Tiefe der dahinterliegenden Sinnstrukturen und Orientierungsprinzi‐ pien. Die Dokumentarische Methode eignet sich insbesondere für Forschungsfragen, bei denen das implizite Wissen, die Orientierungen oder der Habitus von Individuen oder Gruppen im Mittelpunkt stehen. Sie wird vor allem eingesetzt, um Gruppendiskussionen, Interviews und Beobachtungen auszuwerten. Die Dokumentarische Methode folgt einem mehrstufigen Auswertungsprozess. 1. Materialauswahl und Sequenzierung: Zu Beginn wird das für die Forschungsfrage relevante Material ausgewählt. Das sind meist Transkripte von Interviews oder Gruppendiskussionen. Danach wird das Material in sinnvolle Abschnitte, so genannte Sequenzen, untergliedert. Diese Sequen‐ zen umfassen jeweils einen inhaltlich zusammenhängenden Teil des Text‐ materials. Bei der Sequenzierung hilft es, auf thematische Brüche, Wechsel im Gesprächsverlauf oder besonders dichte, aussagekräftige Passagen zu achten. In einer Studie über den Umgang mit Fehlern, könnten das all jene Passagen einer transkribierten Gruppendiskussion sein, in denen die Teilnehmenden über Fehler sprechen. 2. Formulierende Interpretation: In einer ersten interpretativen Annä‐ herung an das Material wird zusammengefasst, was in den einzelnen Sequenzen gesagt wird. Die leitende Frage lautet: Was wird hier gesagt? Hierbei geht es darum, den manifesten Inhalt zu erfassen, ohne bereits eine tiefer gehende Analyse vorzunehmen. Die formulierende Interpretation bildet das Fundament der weiteren Auswertungsschritte. In der Studie über den Umgang mit Fehlern könnte jemand beispielsweise sagen: „Wenn mir 1 Qualitative Auswertungsmethoden 225 <?page no="226"?> ein Fehler passiert, versuche ich ihn so schnell wie möglich zu beseitigen, bevor mein Vorgesetzter das mitkriegt“. Diese Sequenz ließe sich dann in etwa so zusammenfassen: „Der Lehrling berichtet, Fehler möglichst schnell und selbstständig zu korrigieren, bevor höherstehende Personen den Fehler bemerken“. 3. Reflektierende Interpretation: Im nächsten Schritt, der reflektieren‐ den Interpretation, wird nun das Hauptaugenmerk auf die Art und Weise gelegt, wie etwas gesagt wird. Die entscheidende Frage dabei lautet: Wie wird etwas gesagt und was dokumentiert sich darin? Dazu werden auch Betonungen, Pausen, nonverbale Hinweise, sprachliche Muster und Erzählstrategien miteinbezogen. Auf diese Weise versucht man sich den impliziten Orientierungen, Haltungen und Sinnstrukturen zu nähern, die das Handeln der Befragten leiten. Ziel ist die Rekonstruktion des impliziten Orientierungswissens. Die reflektierende Interpretation obiger Aussage des Lehrlings, der danach trachtet, Fehler möglichst rasch selbst zu beseitigen, könnte eventuell ergeben, dass es im Unternehmen einen hohen Perfekti‐ onsanspruch gibt und eine strenge Haltung gegenüber Auszubildenden herrscht. 4. Kontrastierung und Vergleich von Sequenzen: Nach der Analyse einzelner Sequenzen werden diese miteinander verglichen. Dadurch will man Gemeinsamkeiten und Unterschiede im Material herausarbeiten. Gibt es unterschiedliche Umgangsweisen mit, und verschiedenartige Einstellun‐ gen zu einem Thema? Kann man also Kontraste feststellen? Lassen sich auch Gemeinsamkeiten finden? Dieser Schritt dient dazu, verschiedenartige Orientierungen bzw. Handlungslogiken sichtbar zu machen. Berichtet bei‐ spielsweise ein anderer Lehrling, er würde bei einem Fehler sofort seinen Vorgesetzten informieren, macht der Vergleich erkennbar, dass es in den Unternehmen vielleicht unterschiedliche Fehlerkulturen gibt. 5. Fallbeschreibung: Nun werden die Ergebnisse der Interpretationen zu einer Fallbeschreibung verdichtet. Die zentralen Orientierungen, Werte und Handlungslogiken eines Falls werden dargestellt und mit Zitaten aus den Interviews illustriert. So erhält man eine Zusammenfassung der wichtigsten Orientierungen und Sinnstrukturen eines Falls. Die Fallbeschreibung könnte festhalten, dass im ersten Betrieb eine Kultur der Intoleranz gegenüber Fehlern herrscht, während im zweiten Betrieb eine Kultur der Offenheit gegenüber Fehlern praktiziert wird. 226 IV Datenauswertung <?page no="227"?> 6. Fallvergleich und Typenbildung: Wenn mehrere Fälle vorliegen, können diese systematisch verglichen werden. Ziel ist es dann, Typologien oder theoretische Modelle zu bilden, die verschiedene Orientierungen oder Handlungsweisen repräsentieren. Diese Typen- oder Modellbildung erfolgt auf der Grundlage der analysierten Fälle. Im obigen Beispiel ließen sich die Typen „offene Fehlerkultur“ und „verbergende Fehlerkultur“ beschreiben. Diese Typen müssten dann durch typische Merkmale und Beispiele charak‐ terisiert werden. Psychoanalytische Beobachtung Die Methode der Psychoanalytischen Beobachtung wurde ursprünglich von Esther Bick als Verfahren zur Säuglingsforschung (infant observation) ent‐ wickelt. Durch das wiederholte Beobachten eines Säuglings im familiären Umfeld sollten angehende Kinderpsychotherapeuten für das psychische Erleben von Kleinkindern sensibilisiert werden. Mittlerweile wird die Psy‐ choanalytische Beobachtung auch in vielen anderen Bereichen angewandt: bei älteren Kindern und Jugendlichen, in Altenheimen, in Kindergärten und Schulen, in der Arbeitswelt und Organisationsberatung (s. Diem-Wille/ Turner 2009; 2012). Die Methode der Psychoanalytischen Beobachtung soll es Forschenden ohne psychoanalytische Ausbildung und Selbsterfahrung ermöglichen, die eigenen emotionalen Reaktionen zum Verständnis der beobach‐ teten Personen zu deren tieferem Verständnis zu nutzen. Hierfür muss bei der Beobachtung eine Haltung des Nicht-Wissens und der Offenheit gegenüber dem Beobachteten eingenommen werden. Die Beobachtenden richten ihre Aufmerksamkeit auf zwischenmenschli‐ che Interaktionen und die dadurch ausgelösten Gefühle, Gedanken und Empfindungen. Diese werden in den an die Beobachtung anknüpfen‐ den Gruppenbesprechungen als eine Art Spiegel des emotionalen Er‐ lebens der beobachteten Personen verstanden und erlauben so gesehen Einblicke in psychische Tiefenschichten. Zudem kann die Auseinan‐ dersetzung mit der eigenen Person und dem eigenen emotionalen Erleben im Rahmen der Analyse von Eltern-Kind-, Lehrenden-Ler‐ nenden- oder Vorgesetzten-Mitarbeitenden-Interaktionen die eigene Professionalität steigern. Sie ist also nicht nur Forschungsmethode, 1 Qualitative Auswertungsmethoden 227 <?page no="228"?> sondern trägt auch zur Entwicklung einer neutralen, empathischen Haltung sowie zur Schulung professioneller Wahrnehmung und Re‐ flexion unbewusster Dynamiken bei. Folgende Schritte sind bei der Durchführung der Psychoanalytischen Beobachtung zu beachten. 1. Vorbereitung: Bevor die Beobachtung beginnen kann, wird ein der Forschungsfrage entsprechendes Beobachtungsfeld definiert (z. B. das Zu‐ hause einer Familie mit Baby, das Klassenzimmer einer Schule, eine Station im Krankenhaus, eine Abteilung einer Firma). Ebenso wird die zeitliche Struktur der Beobachtung festgelegt; für gewöhnlich erfolgt die Beobach‐ tung für eine Stunde pro Woche über einen festgelegten Zeitraum von mehreren Wochen oder Monaten. Selbstverständlich müssen die Beobach‐ tungstermine mit den betroffenen Institutionen und Personen vereinbart, und deren Zustimmung eingeholt werden. Die Beobachtenden werden in die Grundhaltung eingeführt. Es sollen mit gleichschwebender Aufmerk‐ samkeit vor allem die Interaktionen und eigenen emotionalen Reaktionen wahrgenommen werden, allerdings ohne zu bewerten und einzugreifen. 2. Durchführung der Beobachtungen: Die Beobachtungen finden in der alltäglichen Lebenswelt statt. Die Beobachtenden sind präsent, bleiben aber eher im Hintergrund. Sie nehmen wahr, was um sie, und auch in ihnen passiert. Sie versuchen, sowohl die Handlungen der Beobachteten, als auch deren Affekte, Stimmungen und Körperhaltungen zu erfassen. Ihre Aufmerksamkeit ist primär auf das Beziehungsgeschehen gerichtet, nicht auf die Bewertung einzelner Verhaltensweisen. Gleichzeitig nehmen sie ihre eigenen emotionalen Reaktionen in Bezug auf das Geschehen wahr. In einem Kindergarten könnte ein Beobachter beispielsweise wahrnehmen, wie eines der Kinder nach dem Abschied von der Mutter zu weinen beginnt; er registriert dabei Mimik, Gestik, Reaktionen der Umgebung wie auch seine eigenen inneren Regungen dabei, greift allerdings nicht ins Geschehen ein. 3. Protokollieren: Unmittelbar nach der Beobachtung - idealerweise innerhalb der nächsten Stunden - wird ein ausführliches Protokoll verfasst. Dieses soll die Beobachtungen chronologisch und möglichst konkret und auch mit der nötigen Ausführlichkeit wiedergeben: Wann ist was mit wem auf welche Art und Weise passiert und welche emotionalen Reaktionen hat das in mir ausgelöst? Die Beobachtenden beschreiben was sichtbar und hörbar war, was sich atmosphärisch verändert hat, welche Reaktionen sie 228 IV Datenauswertung <?page no="229"?> selbst verspürt haben. Das Protokoll soll nah an der unmittelbaren Erfah‐ rung bleiben. Auf Interpretationen und Beurteilungen der Geschehnisse wird verzichtet. Die beispielhafte Beobachtung von oben könnte wie folgt protokolliert worden sein: „07: 52 Uhr: Max sitzt mit gebückter Haltung auf der Garderobenbank; seine zusammengeknüllte Weste hält er auf seinem Schoß ganz fest. Seine Mutter steht aufrecht vor ihm und redet leise mit ihm, dann wendet sie sich um und verlässt ohne Zurückzuschauen die Garderobe. Er bleibt auf der Bank sitzen, hält die Weste noch immer ganz fest. Die Kindergartenpädagogin Maria winkt ihm zu, deutet ihm gestisch an, er möge ins Spielzimmer kommen. Er reagiert aber nicht, seine Mundwinkel verziehen sich und er beginnt still vor sich hin zu weinen. Ich spüre ein flaues Gefühl im Bauch, fühle mich plötzlich angespannt und gleichzeitig hilflos.“ 4. Reflexion in der Gruppe: Die Reflexion des Protokolls erfolgt in einer Gruppe, bestehend aus den Beobachtenden und einer psychoanaly‐ tisch erfahrenen Gruppenleitung. Die Gruppe wird als Resonanzkörper der unbewussten Prozesse im beobachteten Geschehen genutzt. Zunächst lesen die Beobachtenden das gesamte Protokoll vor - langsam, vollständig, ohne Kommentare. Die Gruppenmitglieder haben dann die Möglichkeit zu einer ersten spontanen Reaktion. Oft werden stark emotional aufgeladene Assoziationen geäußert, z. B. Irritation, Mitleid, eigene Körperempfindun‐ gen. Diese ersten Eindrücke liefern oft schon Hinweise auf unbewusste Prozesse im beobachteten Geschehen. Im Anschluss daran beginnt eine Feinanalyse, bei der das Protokoll zeilenweise oder abschnittsweise erneut gelesen und gemeinsam durchdacht wird. Die Gruppenmitglieder fragen nach, assoziieren frei, äußern auch Hypothesen zum inneren Zustand der beobachteten Personen, zur möglichen Bedeutung von Mimik, Gestik, aber auch institutionellem Kontext. Die Gruppe eröffnet einen Raum fürs ge‐ meinsame Denken, in dem auch Platz für Ambivalenzen und Ambiguitäten vorhanden ist. Die Gruppenleitung hat dabei die Aufgabe, die Assoziatio‐ nen der Teilnehmenden zusammenzufassen, gegenüberzustellen und zu verbinden. Um nochmals aufs obige Beispiel zurückzukommen, könnte ein Gruppenmitglied zu Max’ Trennungssituation sagen: „Ich hab nicht verstanden, wieso die Pädagogin kaum reagiert hat. War sie überfordert, war es ihr egal, hat sie gelernt, dass man auf solche Situationen am besten nicht reagiert, weil man sonst alles nur noch schlimmer macht? “ Ein anderer hätte sagen können: „Ich hab an meine eigenen Trennungserfahrungen gedacht. 1 Qualitative Auswertungsmethoden 229 <?page no="230"?> Vielleicht hat Max das Gefühl, dass sich niemand für ihn interessiert.“ Gemeinsam kann also darüber nachgedacht werden, was in den beteiligten Personen vorgeht, warum sie wie reagieren und wie das eventuell mit biographischen Vorerfahrungen und auch institutionellen Prozessen und der Organisationskultur zusammenhängen mag. 5. Längsschnittbeobachtung: Im Verlauf mehrerer Beobachtungen be‐ ginnen sich bestimmte Muster abzuzeichnen. Die Beobachtenden erken‐ nen, welche Situationen sich regelmäßig wiederholen, welche interaktiven Konflikte dabei auftreten und wie bestimmte Personen typischerweise reagieren. Man kann auch Veränderungen im Verlauf der Zeit erkennen. Gleichzeitig werden auch die Dynamik und Kultur der jeweiligen Organisa‐ tion erkennbar. In unserem Beispiel könnte in der Gruppe herausgearbeitet werden, dass Trennungssituationen im Kindergarten oft nach einem ähnli‐ chen Prinzip ablaufen, dass vor allem bestimmte Kinder im Zuge dessen regelmäßig übersehen werden. Es können Hypothesen über abgewehrte Ängste und unverarbeitete Trennungserfahrungen, über unbewusst insze‐ nierte Beziehungsmuster und institutionelle Blindstellen aufgestellt werden. 6. Selbsterfahrung und professionelle Entwicklung: Ein Mehrwert dieser Methode liegt in der Möglichkeit zu Selbsterfahrung und profes‐ sioneller Entwicklung der Beobachtenden. Im Rahmen der wiederholten Beobachtung und Gruppenreflexion verbessert sich die Fähigkeit, auch subtile affektive Veränderungen in sich selbst und anderen wahrzunehmen und auch in herausfordernden Beziehungssituationen eine Haltung von Empathie und Containing aufrechtzuerhalten. Die Beobachtenden lernen, Affekte zuzulassen, auszuhalten, darüber nachzudenken und sie so für sich und andere nützlich zu machen. So entsteht über die Zeit eine professionelle Haltung, die Ambivalenz aushält, Emotionalität zulässt und zugleich Bezie‐ hungen differenziert beobachtbar macht - ohne vorschnelle Deutung, ohne Rückzug, ohne Idealisierung. 230 IV Datenauswertung <?page no="231"?> Literaturtipps Bohnsack, Ralf; Nentwig-Gesemann, Iris; Nohl, Arnd-Michael (Hrsg.) (2013): Die dokumentarische Methode und ihre Forschungspraxis. Grundlagen qualitativer Sozialforschung. Wiesbaden: Springer VS. Braun, Virginia; Clarke, Victoria (2022): Thematic Analysis. A Practical Guide. London: Sage. Deppermann, Arnulf (2008): Gespräche analysieren. Eine Einführung in kon‐ versationsanalytische Methoden. 4. Aufl. Opladen: Leske und Budrich. Diem-Will, Gertraud; Turner, Agnes (Hrsg.) (2009): Ein-Blicke in die Tiefe. Die Methode der psychoanalytischen Säuglingsbeobachtung und ihre Anwen‐ dungen. Stuttgart: Klett-Cotta. Glaser, Barney; Strauss, Anselm (2010): Grounded Theory. Strategien qualita‐ tiver Forschung. 3. Aufl. Bern: Huber. Kelle, Udo & Kluge, Susann (2010): Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung. 2. überarbeitete Aufl. Wiesbaden: VS. Keller, Rainer (2010): Diskursforschung. Eine Einführung für Sozialwissen‐ schaftlerInnen. 4. Aufl. Wiesbaden: VS. Leithäuser, Thomas & Volmerg, Birgit (1979): Anleitung zur Empirischen Hermeneutik. Psychoanalytische Textinterpretation als sozialwissenschaft‐ liches Verfahren. Frankfurt-/ -Main: Suhrkamp. Lucius-Hoene, Gabriele & Deppermann, Arnulf (2022): Rekonstruktion narra‐ tiver Identität. Ein Arbeitsbuch zur Analyse narrativer Interviews. 3. Aufl. Wiesbaden: VS. Mayring, Philipp (2022): Qualitative Inhaltsanalyse. Grundlagen und Techni‐ ken. 13. Aufl. Weinheim: Beltz (utb). Schmitt, Rudolf; Schröder, Julia & Pfaller, Larissa (2018): Systematische Meta‐ phernanalyse. Eine Einführung. Wiesbaden: Springer VS. Wernet, Andreas (2021): Einladung zur Objektiven Hermeneutik. Opladen u. a.: utb. 1 Qualitative Auswertungsmethoden 231 <?page no="232"?> 2 Quantitative Auswertungsmethoden (B. Lederer, F. Reiter) Es folgt ein erster einführender Überblick auf die gängigsten Verfahren bei der Auswertung quantitativer Daten, wie sie etwa bei einer Beobachtung, einer Befragung oder einem Experiment anfallen. Hierbei lernen Sie die allerwichtigsten Kenngrößen und Vorgehensweisen sowohl der beschrei‐ benden als auch der vergleichenden Statistik kennen. Sie haben eine Befragung, eine Beobachtung, eine Inhaltsanalyse oder gar ein Experiment durchgeführt und dabei jede Menge hierfür interessanter Daten erhoben. Jetzt geht es darum, diese Daten auszuwerten und sozusagen »in Form zu bringen«. Dies kann auf qualitative (siehe Abschnitt IV.1) oder eben quantitative Art und Weise geschehen, wobei sich diese beiden Ansätze aber keinesfalls gegenseitig ausschließen. Zur Auswertung quantitativer Daten gehören unvermeidlich zumindest grundlegende Kenntnisse der Statistik. Statistik bezeichnet die Befassung mit größeren Datenmengen, wie sie für die quantitative empirische Sozial‐ forschung üblich sind. Sie sucht nach möglichen Regelmäßigkeiten und Gesetzmäßigkeiten. Erfahrungsgemäß schreckt allein schon das Wort »Statistik« viele Studie‐ rende (womöglich auch Sie? ) regelrecht ab: Haben sich manche von Ihnen nicht sogar deshalb für ein Studium der Sozial- und / oder Geisteswissen‐ schaften entschieden, um eben nicht mehr mit mathematischen Prozeduren belästigt zu werden? Keine Angst: Im Folgenden geht es hier auch gar nicht darum, Sie mit einem »Crashkurs« in Statistik zu bedienen (was auf den wenige Seiten ohnehin nicht einmal denkbar ist! ). Vielmehr soll Ihnen hier ein allererster Überblick auf die allerwichtigsten Kenngrößen, Begrifflich‐ keiten und Prozeduren einer Datenauswertung im Rahmen quantitativer empirischer Forschung geboten werden. Es wird Ihnen hier in aller Kürze sozusagen »die Spitze des Eisbergs« präsentiert, wobei sich diese Spitze aber durchaus als Einstiegshilfe in die Thematik eignet. Damit soll Ihnen auch - so vorhanden - der Argwohn gegen alles, was mit Zahlen und Formeln zu tun hat genommen und so die weitere Annäherung an das Thema erleichtert werden. Schließlich werden Sie sehen, dass die Grundlagen einer beschrei‐ benden und einer vergleichenden Statistik keine höhere Mathematik 232 IV Datenauswertung <?page no="233"?> erfordern und im Grunde genommen viel einfachere Sachverhalte umfassen, als viele Studierende oft befürchten. Deskriptive Statistik Sie haben im Rahmen eines Forschungsprojekts also empirische Daten gesammelt, etwas durch eine Befragung oder eine Beobachtung, die es nun auszuwerten und letztlich auch zu präsentieren gilt. Daten sind beobachtete Merkmalsausprägungen von empirischen Beobachtungseinheiten, die letzt‐ lich auf Messskalen abgebildet werden (z. B. »Metermaß«, »Temperatur in Grad Celsius«, »Richterskala« etc., auch Diagramme gehören hierzu, etwa solche mit »X- und Y-Achse« usw.). Die »deskriptive Statistik« (»beschreibende Statistik«) beschäftigt sich mit der Zusammenfassung von Daten und mit der Präsentation aussagekräf‐ tiger Kennzeichen einer Datenmenge. Dabei bieten sich Ihnen verschiedene Möglichkeiten an, Daten zusammenfassend und aussagekräftig darzustel‐ len. Tabellarische und graphische Darstellungen von Daten Eine der gängigsten Möglichkeiten, eine Auszählung von Daten optisch ansprechend darzustellen, liefert etwa folgendes Beispiel. Es wurde das Bruttoeinkommen von insgesamt 200 Arbeiternehmerinnen erhoben. Die Stichprobe umfasst also 200 Personen, man sagt: n (Stichprobenumfang) =-200. Die Grundgesamtheit, aus der heraus die Stichprobe gezogen wurde, wird mit N bezeichnet. In unserem Beispiel also etwa alle Arbeitnehmerinnen eines bestimmten Unternehmens, also bspw. N =-2500. 2 Quantitative Auswertungsmethoden 233 <?page no="234"?> Beispiel Katego‐ rie Bruttover‐ dienst von … bis absolute Häufig‐ keit f i relative Häufig‐ keit (%) kumu‐ lierte (d. h. aufsum‐ mierte) absolute Häufig‐ keit kumu‐ lierte relative Häufig‐ keit 1 2 3 4 5 1200-1599 1600-1999 2000-2399 2400-2799 2800-3200  8 46 68 64 14  4 23 34 32  7   8  54 122 186 200   4  27  61  93 100 - - Summe= 200 Summe= 100 - - Tabelle 15: Häufigkeitentabelle 1 Der besseren Übersicht halber wurden die Ergebnisse in unserem Beispiel in 5 Kategorien von Einkommensuntergruppen unterteilt. Die absolute Häu‐ figkeit von »Treffern« in jeder einzelnen Kategorie wird als f i bezeichnet, wobei »f« für »frequency« (Frequenz) steht und »i« für Index steht (also hier die Rangzahl der jeweiligen Kategorie). Ein anderes Beispiel für die mögliche tabellarische Darstellung von Daten liefert die folgende Tabelle. In ihr sind die Schulnoten (in sechs möglichen Kategorien in Form der Noten von 1 bis 6) und die Häufigkeiten, mit denen diese in einer Schulklasse mit 30 Schülern (n = 30) vergeben wurden, gegenübergestellt. 234 IV Datenauswertung <?page no="235"?> Beispiel Noten x i (x steht für die Kategorie) Häufigkeit f i 1 2 3 4 5 6 3 6 7 8 4 2 Tabelle 16: Häufigkeitentabelle 2 Eine solche ganz und gar typische Tabelle kann auch in Form eines Bal‐ kendiagramms (in der Fachsprache ein sog. »Histogramm«) dargestellt werden. Dies ist optisch weitaus ansprechender und vor allem aussagekräf‐ tiger, wie Sie sicher bestätigen werden: Abbildung 5: Histogramm 1 2 Quantitative Auswertungsmethoden 235 <?page no="236"?> Verbindet man nun noch die Mittelpunkte der Balkenspitzen miteinander, erhält man ein so genanntes »Polygon«, das gleich auf den ersten Blick nochmal etwas aussagekräftiger erscheint, wie folgendes Beispiel zeigt: Zunächst die zugehörige Häufigkeitstabelle (Der Stichprobenumfang bleibt der Gleiche, d. h. n = 30), die Häufigkeiten sind diesmal jedoch andere: Beispiel Noten x i Häufigkeit f i 1 2 3 4 5 6 7 5 5 3 4 6 Tabelle 17: Häufigkeitentabelle 3 Abbildung 6: Histogramm 2 236 IV Datenauswertung <?page no="237"?> Oder in Form eines Polygons Abbildung 7: Polygon Bei den vorangegangenen Beispielen handelt es sich nur um einige der gängigsten Möglichkeiten, Datenmengen grafisch ansprechend und aussa‐ gekräftig aufzubereiten. Geläufig sind Ihnen z. B. sicher auch die sog. »Tor‐ tendiagramme«, wie sie oft bei der Visualisierung von Wahlergebnissen genutzt werden. Die hier verwendeten Tabellen wurden mit dem gerade für Einsteiger sehr einfach zu bedienenden Programm »Excel« erstellt. Jedoch sind auch viele andere Anwendungen mit den einschlägigen Statistikprogrammen möglich. Im Folgenden erhalten Sie einen Überblick auf die wichtigsten statisti‐ schen Kenngrößen der beschreibenden (»deskriptiven«) Statistik, die aus solchen Grafiken wie den gezeigten nicht direkt ablesbar sind. Es handelt sich dabei um Angaben und Werte, die als zentrale Kennziffern wichtige Eigenschaften einer Datenmenge ausdrücken und diese dadurch beschrei‐ ben helfen. Welches also sind nun die wichtigsten und meist angeführten Größen der deskriptiven Statistik? Der Modus bzw. Modalwert Der grundlegendste Kennwert, der zur Beschreibung größerer Datenmen‐ gen herangezogen werden kann, ist der Modalwert, auch Modus genannt (die Abkürzung dafür ist x mod ). Der Modalwert ist einfach derjenige einzelne 2 Quantitative Auswertungsmethoden 237 <?page no="238"?> Messwert, der am häufigsten Auftritt, also die Kategorie mit der größten Häufigkeit. In den Beispielen 2 und 3 ist der Modus 4; in den Beispielen 4, 5 und 6 hingegen gibt es keinen Modus, weil es keinen häufigsten Wert gibt, da zwei Kategorien gleichauf liegen. Gibt es mehrere Merkmalsausprägungen mit der gleichen maximalen Häufigkeit, so existiert also kein Modalwert! Versuchen Sie doch einmal, den Modalwert in folgender Reihung zu bestim‐ men: 3 / 4 / 4 / 5 / 5 / 5 / 5 / 6 / 6 / 6 / 7 / 8 Richtig! Es ist die 5 In folgender Reihung hingegen 3 / 4 / 4 / 4 / 4 / 5 / 6 / 6 / 6 / 7 ist der Modalwert die 4. Der Median Die zweite wichtige statistische Kenngröße ist der Median, auch Zentral‐ wert genannt (Kurzzeichen: x med ). Er ist derjenige Wert, also diejenige Merkmalsausprägung, die in der Mitte steht, sofern alle Daten nach ihrer Größe sortiert und aufgereiht sind (bei Daten, die nicht in eine Reihenfolge gebracht werden können, gibt es entsprechend auch keinen Median! ). Der Median halbiert aufgrund seiner Mittelstellung die Messwerte in zwei gleich große Teile. Im folgenden Beispiel (gesammelte Punkte in einem Test mit n =-9): 3 / 5 / 6 / 7 / 9 / 10 / 11 / 13 / 14 ist der Median wegen der ungeraden Zahl der Stichprobe »aufgerundet« die 5. Stelle in der Reihung, also die 9. Bei einer geraden Zahl von Werten (n =-8), etwa 3/ 5 / 6 / 7 / 9 / 10 / 11 / 13 ist der Median genau in der Mitte, also zwischen dem 4. und 5. Rangplatz; in diesem Beispiel liegt er also genau zwischen 7 und 9, der Median ist somit 8. 238 IV Datenauswertung <?page no="239"?> Ein weiteres Beispiel soll Ihnen nun noch den großen Nutzen bzw. die große Aussagekraft des Medians verdeutlichen (und zudem vom nachfolgend vorgestellten Mittelwert abgrenzen helfen). In einer Belegschaft wurden folgende Bruttoverdienste (in Euro) erhoben (n =-9): 970 / 980 / 1050 / 1090 / 1160 / 1180 / 1200 / 1800 / 6600 Der Median liegt am 5. Rangplatz, ist also der Wert 1160,- Euro. Wie Sie sehen können, gibt es einen »Ausreißer«, der den errechneten Durchschnitt der Einkommen (also die Summe der Gesamteinkommen geteilt durch 9) auf 1781,11 Euro anhebt. Der Durchschnitt täuscht aber gewaltig, weil 7 von 9 Angestellten höchstens 1200 Euro verdienen! Der Median als derjenige Wert, der in der Mitte einer Rangreihenfolge steht, ist hier sicher aussagekräftiger, weil atypische Ausreißer nach oben oder unten keine Rolle spielen! Das arithmetische Mittel An dieser Stelle wird es ein (klein) wenig komplexer, was die verwendeten Zeichen und Formeln angeht, nicht aber, was die Inhalte betrifft. Das »arithmetische Mittel« ist umgangssprachlich »der Durchschnitt« einer Datenmenge. Das Zeichen dafür ist x̄. Die mathematische Formel für das arithmetische Mittel ist bei einfachen Datenreihen x 1 + x 2 + x 3 … usw. bis + x n : n Mathematisch formuliert lautet die Formel: x ¼ X n i 1 x i n bzw. (anders geschrieben) x arithm ¼ 1 n X n i¼1 x i ¼ x 1 þ x 2 þ : : : þ x n n 2 Quantitative Auswertungsmethoden 239 <?page no="240"?> Es besteht übrigens kein Grund zur Beunruhigung: Bereits Taschenrechner, ganz zu schweigen von Statistikprogrammen wie Excel oder SPSS, ersparen Ihnen komplexe Rechenoperationen und liefern die Lösung per Tastendruck bzw. Mausklick! Hier ein einfaches Beispiel zur Berechnung des arithmetischen Mittels: 4 Personen (n =-4) haben folgende Punktwerte in einem Test erzielt: 7 / 3 / 5 / 5 x̄ ist dann (7 +3 +5 +5) : 4 =-20 : 4 =-5 Wenn mehrere Kategorien mit unterschiedlichen zugehörigen Daten vor‐ handen sind (wie im Beispiel 2 bzw. 3), gilt die Formel x̄ =-x i × f i : n (x i ist dabei die »i-te« Beobachtungskategorie, f i die Anzahl der zugehörigen Daten) In den Beispielen 2 und 3: x̄ = (1×3 +2×6 +3×7 +4×8 +5×4 +6×2) : 30 - = (3 +12 +21 +24 +20 +12) : 30 - = 92 : 30 = 3,33 Varianz und Standardabweichung Die Varianz (S 2 , manchmal auch einfach mit V bezeichnet) und die Stan‐ dardabweichung (s. die Wurzel aus S 2 bzw. V) sind ein Maß dafür, wie stark die einzelnen Messwerte einer Untersuchung durchschnittlich um den Mittelwert verteilt sind. Schauen Sie sich zur Verdeutlichung noch einmal die beiden Histogramme in den Beispielen 3 und 5 an: Ob Sie es auf den ersten Blick glauben oder nicht: das arithmetische Mittel beträgt in beiden Fällen das Gleiche! (Rechnen Sie es ruhig nach: Sie kommen auf den Wert 3,33) Dabei sind doch die Messwerte / Daten ganz offensichtlich völlig unterschiedlich um diesen Mittelwert herum verteilt! Hier nun kommen die Varianz bzw. die Standardabweichung ins Spiel: Sie gibt Auskunft darüber, ob die erhobenen 240 IV Datenauswertung <?page no="241"?> Daten weit um den jeweiligen Mittelwert herum gestreut sind oder ob sie eher eng um den Mittelwert herum zu liegen kommen. Die obigen Beispiele (3 und 5) verdeutlichen Ihnen den Nutzen und die Aussagekraft dieser statistischen Kenngrößen: Es macht eben einen großen Unterschied, ob das Ergebnis einer Klausur darin besteht, dass die meisten Noten um »die Mitte« herum zu liegen kommen oder ob es statt dessen einige sehr gute Zensuren auf der einen und einige sehr schlechte auf der an‐ deren Seite des Spektrums gibt, hingegen kaum Durchschnittsleistungen - auch wenn der Mittelwert jeweils der Gleiche ist. Die zugegeben etwas abschreckende Formel für die Varianz lautet ausge‐ schrieben: s 2 ¼ 1 n X n i¼1 ðx i xÞ 2 Einen Spezialfall bildet die Formel bei sehr großen Grundgesamtheiten: s 2 ðoder ^ 2 Þ ¼ 1 n 1 X n i¼1 ðx i xÞ 2 Auch in diesen beiden Fällen gilt wiederum, dass entsprechende Programme Ihnen jedwede Rechenarbeit abnehmen! Da die Varianz (S 2 ) als quadrierte Größe vorliegt, wird der besseren Anschauung zuliebe die Wurzel gezogen und man erhält die Standardab‐ weichung s (auch Streuung genannt), die aber die gleiche grundsätzliche Bedeutung für die Interpretation zahlenmäßiger Daten hat. Noch ein Beispiel, um Ihnen die Aussagekraft dieser Kenngrößen zu verdeutlichen: In einer Gruppe von in etwa gleichgroßen männlichen Bas‐ ketballspielern dürfte die durchschnittliche Körpergröße relativ eng um das arithmetische Mittel herum streuen. D.h., dass die einzelnen Abweichungen nach unten und nach oben nicht allzu stark ausfallen sollten. Ganz anders schaut das aber auf die Gesamtbevölkerung bezogen aus, wo es weitaus mehr (sehr) kleine und (sehr) große Menschen gibt und die Messwerte deshalb insgesamt breiter (um den Mittelwert herum) streuen als in der Stichprobe der Basketballspieler. 2 Quantitative Auswertungsmethoden 241 <?page no="242"?> Abbildung 8: Standardnormalverteilung Am besten lässt sich die Streuung anhand einer Normalverteilungskurve erklären: Sehr viele Datenerhebungen sind nämlich »normalverteilt«, wie es in der Statistik heißt: Ob Körpergröße, Intelligenzquotient oder durch‐ schnittliche Studiendauer: in allen Fällen gibt es einen Mittelwert, um den herum die meisten Einzelfälle zu liegen kommen, wohingegen Ausreißer nach oben und unten eher die Ausnahme bilden: Die allermeisten Menschen sind in Europa zwischen 1,60 m und 1,90 m groß, nur relativ wenige sind sehr klein oder sehr groß und kommen darunter oder darüber zu liegen. Als Diagramm (mit »X- und Y-Achse«) aufgetragen entsteht so eine »Normal‐ verteilung«. In Anlehnung an den Mathematiker Carl-Friedrich Gauß wird dabei auch von einer »Gauß’schen Glockenkurve« gesprochen. Definitionsgemäß werden bei einer Normalverteilung der Mittelwert mit µ und die Varianz mit σ 2 , die Standardabweichung mit σ symbolisiert. Betragen diese Werte 0 (Mittelwert) und 1 (Varianz), handelt es sich um eine Standardnormalverteilung (s. Abb. oben). Unterscheiden sich die Werte der Glockenkurve von 0 und 1, handelt sich um keine Standardnormalver‐ teilung, sondern eine einfache Normalverteilung. Je enger bzw. steiler und schmaler nun diese Glockenkurve ist, desto geringer ist die Varianz bzw. Standardabweichung, desto enger sind also 242 IV Datenauswertung <?page no="243"?> die Daten um den Mittelwert versammelt. Je breiter und weniger steil die Verteilung hingegen, desto größer ist die Standardabweichung. Der Korrelationskoeffizient Da gerade von zweidimensionalen Diagrammen die Rede war (also solchen mit einer »x- und einer y-Achse«): Ein weiteres wichtiges Kriterium der beschreibenden Statistik ist der sog. »Korrelationskoeffizient«. Immer wenn zwei einander zugehörige Merkmale gegeneinander aufgetragen werden (z. B. die Anzahl von Personen auf der x-Achse und deren jeweiliges Einkommen auf der y-Achse), haben Sie es mit Diagrammen zu tun, die etwa die Form annehmen können, wie im Streudiagramm-Beispiel auf Seite 244 gezeigt. In diesem Beispiel weisen die beiden Variablen (einerseits der Preis einer Ware, andererseits deren verkaufte Stückzahl) offenbar keinen engeren Zusammenhang auf. Das Diagramm zeigt einen sog. »Schwarm« von Daten, Fachleute sprechen in diesem Zusammenhang von einem »Streudi‐ agramm«. Anders stellt sich Ihnen das im zweiten Beispiel-Diagramm auf der Seite 244 dar, wo die Kurve (»Graph« ist der Fachausdruck hierfür) ein steiles, »exponentielles« Wachstum an den Tag legt. Im nächsten Beispiel sind die beiden Variablen so miteinander verbunden (»korreliert«), dass der Graph eine gleichmäßig steigende Gerade darstellt (s. S.-245). Man sagt, der Zusammenhang ist linear. 2 Quantitative Auswertungsmethoden 243 <?page no="244"?> Abbildung 9: Streudiagramm Preis - Absatz Abbildung 10: Exponentielles Wachstum 244 IV Datenauswertung <?page no="245"?> Abbildung 11: Lineares Wachstum In den beiden Beispielen springt jeweils der Zusammenhang der beiden Grö‐ ßen geradezu ins Auge. Wie aber lässt sich unabhängig von solchen Graphen der jeweilige Zusammenhang zweier Merkmale berechnen? Schließlich kann dieser Zusammenhang offensichtlich ganz unterschiedlicher Art sein und wie in Beispiel 8 oft auch überhaupt keine Gerade ergeben. Anders gefragt: Wie kann berechnet werden, wie die jeweiligen Variablen miteinander korreliert sind? Auskunft darüber gibt der sog. »Korrelationskoeffizient« (sein Zei‐ chen ist r). Die mathematische Formel ist zugegeben etwas kompliziert (sie weist Klammern, einen Bruch und eine Wurzel auf), erfordert aber dennoch keinerlei höhere Mathematikkenntnisse und hat uns an dieser Stelle auch nicht weiter zu interessieren (zumal verschiedene leicht zu bedienenden Statistikprogramme für den PC dergleichen »mir nichts, dir nichts« auszurechnen in der Lage sind.) Ist r berechnet, kann das Ergebnis jeden Wert zwischen -1 und +1 anneh‐ men (d.-h.: --1 ≤ r ≤ +1). Ist r = 0, heißt das, dass es keinen Zusammenhang zwischen den Werten gibt (wie im Beispiel 7). Ist r gleich 1, sind die Daten positiv korreliert (d. h., große x-Werte entsprechen großen y-Werten, wie in den Beispielen 8 und 9), ist r gleich -1, sind die Daten umgekehrt negativ korreliert: Kleine y-Werte entsprechen dann großen x-Werten. Grundsätzlich gilt: Je kleiner r, desto schwächer ist der Zusammenhang zweier Merkmale. 2 Quantitative Auswertungsmethoden 245 <?page no="246"?> Inferenzstatistik Bisher ging es darum, Ihre empirisch gewonnen Daten anhand markanter Merkmalsgrößen zu beschreiben. Hierfür zeichnet die vorangehend skiz‐ zierte deskriptive Statistik verantwortlich. Die Inferenzstatistik (»schlie‐ ßende Statistik«) hingegen beschäftigt sich mit der Frage, ob wissen‐ schaftliche Ergebnisse dem Zufall geschuldet sind oder ob ihnen eine wissenschaftliche Gesetzmäßigkeit zugrunde liegt - in letzterem Fall spricht man von einem signifikanten Ergebnis. Die Frage nach »Zufall und Notwendigkeit« in der Wissenschaft hat auch viel zu tun mit dem Zusammenhang von Stichproben und den Grundgesamtheiten, aus denen diese Stichproben gezogen werden. Ist ein bestimmtes Untersuchungsergebnis zufällig nur für eine bestimmte Stichprobe gültig oder auch für andere, vergleichbare Stichproben einer interessierenden Grundgesamtheit von Untersuchungsobjekten (Menschen, Ereignisse usw.)? Es geht also auch um die Frage nach möglichen Rückschlüssen von der Stichprobe auf die Gesamtheit eines zu untersuchenden Phänomens (also z. B. danach, inwieweit eine bestimmte Merkmalsausprägung der Schüler einer bestimmten Schule in einer bestimmten Stadt typisch ist für alle Schü‐ ler eines bestimmten Bundeslandes). Von großer Bedeutung ist innerhalb der schließenden Statistik somit der Aspekt der Repräsentativität. Was aber bedeutet es aus Sicht der Wissenschaft eigentlich, wenn es beispielsweise heißt: »Das Ergebnis ist repräsentativ? « Repräsentativität Prinzipiell gibt es verschiedene Arten von Stichproben: z. B. Zufallsstich‐ proben, bei denen jede Untersuchungseinheit einer Grundgesamtheit die gleiche Chance hat, in die Stichprobe zu gelangen. Das beste Beispiel einer solchen rein zufälligen Auswahl ist das Losverfahren. Zufallsstichproben weisen dabei die höchste Repräsentativität auf. Systematische Verfahren hingegen, etwa Quotenverfahren oder eine systematische Auswahl, »ziehen« eine Stichprobe nicht zufällig, sondern berücksichtigen (je nach Forschungs‐ interesse) bestimmte Gruppen bevorzugt oder auch ausschließlich. (Bei‐ spielsweise kann eine Gesamtheit von Personen nach Alter, Geschlecht, Bildungsabschluss etc. aufgeteilt werden. Die Stichproben werden dann 246 IV Datenauswertung <?page no="247"?> gemäß der prozentualen Anteile dieser Gruppen an der Gesamtbevölkerung zusammengestellt). Repräsentativität heißt, dass die Stichprobe(n) so ausgewählt wurde(n), dass sich die Merkmale, um die es in der Untersuchung geht, hinsichtlich ihrer statistischen Kenngrößen (wie Median, Modalwert, arithmetisches Mittel, Streuung usw.) in Stichprobe und Gesamtpopulation nicht zu stark unterscheiden, so dass sich von der Stichprobe auf diese Grundgesamtheit rückschließen lässt. Wie groß muss nun aber eine Stichprobe sein, um sie als repräsentativ bezeichnen zu können? Grundsätzlich gilt: Eine ganz bestimmte Zahl (etwa: immer 10 % einer Gesamtheit) gibt es nicht, vielmehr hängt diese immer auch vom Untersuchungsgegenstand ab. (Bei manchen Merkmalen wie dem Wahlverhalten reichen schon relativ kleine Fallzahlen [gemessen an der Gesamtbevölkerung], um aussagekräftige Rückschlüsse ziehen zu können, denn die Zahl potentieller Wahlentscheidungen ist durch das Parteienspektrum relativ eng begrenzt. Hinsichtlich einer Befragung des »Lieblingsessens der Deutschen« bedürfte es hingegen umfangreicherer Stichproben.) Oft sind es auch wissenschaftlich-methodische Erfahrungswerte, mit der die notwendige Anzahl befragter (oder beobachteter) Menschen festgelegt wird, die mindestens erforderlich ist, um die gleichen (oder sehr ähnliche) Ergebnisse zu erzielen, wie sie größere (und damit repräsentativere) Stich‐ proben erzielen. Darüber hinaus gibt es in der Statistik aber auch (relativ komplizierte) mathematische Verfahren, um die optimale Stichprobengröße zu bestimmen. Ob Hypothesen, die anhand einer Stichprobe überprüft werden, nur zufällig bestätigt oder widerlegt werden, oder tatsächlich Rückschlüsse auf die Grundgesamtheit zulassen, darüber geben bestimmte Testverfahren Auskunft. Hypothesentest Hypothesentests sagen also etwas darüber aus, ob von einer gezogenen Stichprobe auf die untersuchte Grundgesamtheit geschlossen werden kann. Bei diesem Verfahren geht es nun aber schon ein klein wenig stärker »ans Eingemachte« der Statistik. Entsprechend sollen Ihnen hier im Rahmen einer ersten Einführung in die Thematik auch nur die Grundzüge skizziert werden. 2 Quantitative Auswertungsmethoden 247 <?page no="248"?> Wie Sie bereits wissen, bezeichnet Wissenschaft im Grunde nichts ande‐ res, als das Überprüfen von Hypothesen, die wiederum Behauptungen über die Beschaffenheit der Welt sind, an der empirischen, d. h. wahrnehmbaren Realität. Ein Hypothesentest hilft festzustellen, wie groß die Irrtumswahr‐ scheinlichkeit dafür ist, eine bestimmte Hypothese fälschlicherweise anzu‐ nehmen oder abzulehnen. Voraussetzung für einen solchen Hypothesentest ist aber, dass die Messdaten normal verteilt sind, in einem Diagramm also eine Normalverteilung (»Glockenkurve«) bilden, was eigentlich bei den meisten statistisch interessanten Verteilungen der Fall ist. Das Praktische an einer solchen Normalverteilung ist nun: Die Gesamt‐ fläche unterhalb der Glockenkurve beträgt immer gleich 1. Deshalb lässt sich anhand einer vorgegebenen Tabelle die Wahrscheinlichkeit (in Prozent) ablesen, mit der ein bestimmter Messwert unterhalb einer bestimmten Grenze zu liegen kommt oder innerhalb eines bestimmten Intervalls liegt. Bspw. können Sie ohne Probleme eine Aussage darüber treffen, mit welcher Wahrscheinlichkeit ein Mensch zwischen 1,70 m und 1,80 m groß ist, indem Sie die entsprechende Fläche zwischen den Werten 1,70 und 1,80 unterhalb des Graphen der besagten Tabelle ablesen (und in Prozentwerte übersetzen). Ohne hier im Rahmen dieser überblicksartigen Einführung auf die Details des Verfahrens einzugehen, müssen Sie zunächst aber noch die Normalver‐ teilung eines vorliegenden Datensatzes in eine sog. »Standardnormalvertei‐ lung« überführen (deren Mittelwert ist, wie Sie schon wissen, stets 0 und die Standardabweichung ist stets 1), da in der Regel die erwähnten Tabellen nur für Standardnormalverteilungen in den einschlägigen Lehrbüchern (oder auch im Internet) anzufinden sind. Diese Umwandlung geschieht mittels ei‐ nes bestimmten mathematischen Verfahrens, welches aber keinerlei höhere Mathematikkenntnisse voraussetzt. Doch wie läuft so ein Hypothesentest nun im Einzelnen ab? Die Aus‐ gangsfrage dabei lautet zunächst ganz grundsätzlich: Ist eine bestimmte Hypothese gültig oder muss sie durch eine andere ersetzt werden? Die bisherige bzw. bisher als gültig erachtete Hypothese (sozusagen der »Titel‐ verteidiger«) wird üblicherweise als Nullhypothese bezeichnet (H0), die Alternativhypothese ist sozusagen die »Herausforderin« (H1): Wer hat recht, welche Hypothese ist die Zutreffende? Im Kern funktioniert der Hypothesentest nun so, dass der Mittelwert der H0-Verteilung mit dem Mittelwert der H1-Verteilung verglichen wird. Behauptet H1 beispielsweise, dass dieser größer ist, wird H1 verworfen und H0 beibehalten, wenn dem tatsächlich so ist. 248 IV Datenauswertung <?page no="249"?> Aber um wie viel bzw. wie stark müssen sich diese Mittelwerte voneinan‐ der unterscheiden, so dass Ihre Entscheidung, eine Hypothese anzunehmen oder aber abzulehnen, nicht nur dem Zufall geschuldet ist? Man spricht hierbei von der »Irrtumswahrscheinlichkeit« oder auch vom »Signifikanz‐ niveau«. Wann ist mit anderen Worten ein Ergebnis signifikant (also nicht auf Zufall gründend)? Wiederum vereinfacht gesagt: Wenn der Mittelwert der Alternativhypothese in den äußeren Grenzbereichen der Glockenkurve der H0-Verteilung zu liegen kommt, wird dieser abgelehnt. Genauer gesagt: Ist die Irrtumswahrscheinlichkeit für eine fälschliche Ablehnung der Null‐ hypothese kleiner gleich 5 % (liegt also in den äußersten 5 % der Fläche unterhalb der Verteilungskurve) wird ein Testergebnis als signifikant be‐ zeichnet. Ist die Irrtumswahrscheinlichkeit sogar kleiner gleich 1 %, spricht man von einem hoch signifikanten Ergebnis. Die Hypothesenprüfung liefert also wie gesagt letztlich Aussagen dar‐ über, wie groß die sog. »Irrtumswahrscheinlichkeit« ist, d. h.: wie groß die Wahrscheinlichkeit ist, dass die Alternativhypothese fälschlicherweise angenommen oder aber abgelehnt wird. Falls Ihnen das etwas zu komplex anmutet, hier ein Beispiel zum bes‐ seren Nachvollziehen: Die Befragung aller Teilnehmer einer der meist gebuchten Fortbildungsveranstaltungen (»Grundlagen quantitativer Daten‐ auswertung«) in einer von Ihnen geleiteten Volkshochschule ergab, dass nur 10 % der Teilnehmer mit der Veranstaltung nicht zufrieden waren. Sie haben nunmehr die Entscheidung zu treffen, ob es einer (nicht ganz billi‐ gen) didaktischen und medientechnischen Überarbeitung der Fortbildung bedarf. Damit Sie eine aussagekräftige Entscheidungsgrundlage gewinnen, beschließen Sie, 100 Teilnehmer per standardisiertem Fragebogen zu befra‐ gen. Sie legen vorab folgendes fest: Sind mindestens 10 Teilnehmerinnen mit der Qualität der Veranstaltung unzufrieden, soll diese überarbeitet und verbessert werden (Hypothese H0), sind es weniger, bedarf es keiner größeren Änderungen (Hypothese H1). Sagen wir, in Ihrer ersten Befragung erklärten 12 Teilnehmerinnen ihre Unzufriedenheit. Da Sie sich der Zufälligkeit von Stichproben und darauf gründenden Ergebnissen im Klaren sind, machen Sie die 2. Umfrage (n= 100). Sie entschließen sich, mit einer 95%igen Wahrscheinlichkeit zufrieden zu sein (d. h. mit einfacher, nicht hoher Signifikanz), dass Ihr Befragungsergebnis nicht dem Zufall geschuldet ist. In dieser Befragung erklären 8 Fortbildungs‐ teilnehmer ihre Unzufriedenheit. 2 Quantitative Auswertungsmethoden 249 <?page no="250"?> Was heißt das nun mit Blick auf Ihre beiden Hypothesen? Bei Ihrer ersten Befragung erklärten wie gesagt 12 Teilnehmerinnen, mit der Qualität der Veranstaltung unzufrieden zu sein. Ihre H0-Hypothese wäre damit angenommen. Jedoch könnte dies aufgrund des zufälligen Charakters der Stichprobe auch täuschen: Dann nämlich, wenn der tatsächliche Anteil der nicht-zufriedenen in der Grundgesamtheit (alle Fortbildungsteilnehme‐ rinnen) im Gegensatz zur Stichprobe doch kleiner als 10 % ist. Sie würden also bei der Annahme der Hypothese H0 mit einer gewissen Irrtumswahr‐ scheinlichkeit einen Fehler begehen. Dieser Fehler berechnet sich aus der sog. Ablehnungswahrscheinlichkeit, die anhand der Verteilungsfunktion Ihrer Befragungsergebnisse ablesbar ist (nachdem diese, wie gesagt, auf mathematischem Wege in eine »Stan‐ dardnormalverteilung« überführt wurde). Anhand einer schon erwähnten Tabelle (»die Standardnormalverteilungstabelle«), die sich in jedem Stati‐ sitik-Lehrbuch bzw. im Internet findet, kann nun die Wahrscheinlichkeit abgelesen werden, dass es einem Stichprobenzufall geschuldet ist, dass weniger oder gleich 9 Teilnehmer unzufrieden sind. Sie beträgt in unserem Fall 0,451. Was aber bedeutet dieser Wert? - Er bedeutet, dass es unter der Annahme, dass tatsächlich 10 % aller Teilnehmer unzufrieden sind, bei der Befragung mit 45,1% Wahrscheinlichkeit zu einer Fehlentscheidung hinsichtlich der Annahme von H0 kommt. Da dieses Ergebnis natürlich nicht akzeptabel ist, können Sie H0 verwerfen. Natürlich gibt es über die vorangehend kurz vorgestellten statistischen Ansätze und die ihnen zugrundeliegenden Fragestellungen hinaus noch viele weitergehende Auswertungsmethoden quantitativer Sozialforschung: So ist es z. B. durchaus üblich, mehrere Variablen auf einmal miteinander in Bezug zu setzen (»zu korrelieren«): Bspw. könnten Sie bei einer Befragung zum Thema »Politische Einstellungen von jungen Frauen« deren verschie‐ dene Antworten noch mit weitergehenden Faktoren wie Ausbildungsstand oder Wohnort (Stadt / Land) in Zusammenhang setzen. Hierfür gibt es so genannte »Multivarianz- und Diskriminanzanalysen«. Ein gängiges Verfahren ist die Analysis of Variance (ANOVA), um signifikante Unter‐ schiede in den Mittelwerten von Gruppen zu testen. Häufig wird auch die Regressionsanalyse verwendet, die den Zusammenhang von mehreren unabhängigen Variablen mit einer abhängigen Variable untersuchen kann. Dadurch erhält man umfassende Modelle, um komplexe Zusammenhänge zu verstehen, die auf mehreren Einflussfaktoren basieren. Die binäre logis‐ tische Regression ist zur Analyse von kategorialen Variablen geeignet und 250 IV Datenauswertung <?page no="251"?> wird daher häufig in der quantitativen Inhaltsanalyse verwendet. Die lineare Regression hingegen ist zur Analyse von stetigen Variablen oder auch Likert-Skalen geeignet, welche häufig in Befragungen oder Experimenten vorkommen. Eine weitere Erläuterung würde den Rahmen eines ersten Überblicks an dieser Stelle überschreiten. Die vorangehenden Ausführungen zur beschreibenden und schließenden Statistik sollten Ihnen, wie eingangs schon erwähnt, lediglich einen aller‐ ersten Eindruck davon vermitteln, wie Sie bei der Auswertung quantitativer Daten im Wesentlichen vorzugehen haben. Dabei wurde Ihnen eine Auswahl der gängigsten Begriffe und Verfahrensweisen unterbreitet, die keinesfalls das gesamte Repertoire statistischer Verfahren abdeckt. Vielmehr ist hier zumindest eines hoffentlich gelungen: Sie davon zu überzeugen, dass auch bei der Auswertung quantitativer Forschungser‐ gebnisse im Grunde nur »mit Wasser gekocht wird«. Einer intensiveren Beschäftigung und Einarbeitung in das Thema (falls Ihr Forschungsprojekt größere und komplexere Datenmengen »abwirft«), sollte nun nichts mehr im Wege stehen. Die schließende Statistik (Inferenzstatistik) stellt die Frage, ob wis‐ senschaftliche Ergebnisse dem Zufall einer Stichprobe geschuldet sind oder ob es sich dabei vielmehr um wissenschaftliche Gesetzmäßigkeiten handelt. Entsprechend geht es auch darum, inwieweit eine Stichprobe Rückschlüsse auf die jeweilige Grundgesamtheit, aus der die jeweilige Stichprobe »gezogen« wurde, zulässt; d. h.: inwieweit sie repräsentativ ist. Das wichtigste Verfahren hierbei ist der Hypothesentest, der die Mittelwerte von Normalverteilungen vergleicht und Aussagen darüber zulässt, ob die »alte« Hypothese (H0) oder die »Herausforderin« (H1) signifikant (oder gar hoch signifikant) anzunehmen oder abzulehnen ist. Zusammenfassung Die beschreibende Statistik (deskriptive Statistik) fasst empiri‐ sche Daten anhand aussagekräftiger Kennzeichen zusammen. Gängige Verfahren sind dabei die tabellarische Darstellung von Daten, entweder in Form einer Häufigkeitstabelle oder mit Hilfe eines Histogramms bzw. Polygons. Die allerwichtigsten Kenngrößen der beschreibenden Statistik sind der 2 Quantitative Auswertungsmethoden 251 <?page no="252"?> ● Modalwert-/ -Modus (der Messwert, der am häufigsten auftritt), ● der Median (er halbiert die Datenmenge in zwei gleich große Teile), ● das arithmetische Mittel (der »Durchschnitt«), ● die Varianz und die Standardabweichung (sie geben darüber Aus‐ kunft, wie weit die Daten um den Mittelwert »streuen«) und nicht zuletzt ● der Korrelationskoeffizient (der den Zusammenhang zwischen zwei Variablen charakterisiert). Statistikprogramme Die Durchführung der statistischen Datenanalyse erfolgt computergestützt. Das heißt aber nicht, dass der Computer alle Schritte der statistischen Datenanalyse übernehmen kann. Insbesondere die Verwendung von Statis‐ tikprogrammen setzt ein Grundwissen über die statistischen Verfahren und die Interpretation von Daten voraus. Es gibt eine Vielzahl an Statistikpro‐ grammen, wovon in diesem Kapitel drei kurz vorgestellt werden: SPSS (Statistical Package for the Social Sciences) ist ein kommerzielles Statistikprogramm, das besonders in den Sozialwissenschaften verwendet wird. SPSS beherrscht alle gängigen statistischen Analyseverfahren, die auch in diesem Kapitel vorgestellt wurden. Die Eingabe der statistischen Befehle erfolgt primär über das Click-and-Point-Prinzip: Über die Benutzer‐ oberfläche können durch Anklicken bestimmte Befehle ausgeführt werden. Seltener werden die Befehle in der Syntax durch das Schreiben von Codes eingegeben. Stata ist ein kommerzielles Statistikprogramm, das in vielen wissen‐ schaftlichen Disziplinen verbreitet ist. Wie SPSS beherrscht auch Stata alle gängigen statistischen Analyseverfahren und darüber hinaus weitere spezialisierte Funktionen. Die Eingabe der statistischen Befehle erfolgt hier primär über die Syntax, welche als sehr benutzerfreundlich gilt. Die Syntax hat den Vorteil, dass statistische Befehle gespeichert und jederzeit erneut ausgeführt werden können. R ist ein nicht-kommerzielles Statistikprogramm. Eigentlich ist R eine Programmiersprache, die in eine Entwicklungsumgebung integriert ist. Eine gängige Entwicklungsumgebung für R ist RStudio. Der große Vorteil von R im Gegensatz zu SPSS und Stata ist, dass es nicht-kommerziell 252 IV Datenauswertung <?page no="253"?> und Open Source ist. Sie können also R kostenlos nutzen und sogar zur Weiterentwicklung von R beitragen. Das hat auch den Vorteil, dass R eine noch größere Vielfalt an Analyseverfahren und Visualisierungsformen bietet als Stata. Die Eingabe der statistischen Befehle erfolgt ausschließlich über die Syntax, da R ja eine Programmiersprache ist. Die Syntax von R mag anfangs vielleicht etwas komplexer erscheinen als jene von Stata, lässt sich aber mit ein bisschen Übung problemlos beherrschen. Die Verwendung von KI kann beim Verfassen von Codes hilfreich sein. Dennoch sollten Sie beachten, dass die Codes nicht immer korrekt sind und diese kritisch überprüft werden müssen. Fragwürdige Forschungspraktiken In Bezug auf den quantitativen Forschungsprozess gibt es eine Reihe von so genannten fragwürdigen Forschungspraktiken (FFPs). Diese können die Ergebnisse systematisch verzerren und die Reproduzierbarkeit von Studien beeinträchtigen. In diesem Abschnitt sollen einige dieser FFPs sowie mögliche Lösungsansatze erläutert werden. HARKing: Dies beschreibt den englischsprachigen Begriff „Hypothesi‐ zing After the Results are Known“. Wie Sie bereits zu Beginn dieses Kapitels gelesen haben, ist ein Merkmal quantitativer Forschung das Formulieren von Hypothesen. Dieser theoretische Schritt wird vor der Entwicklung des methodischen Designs vorgenommen. Beim HARKing dreht sich dieser Prozess um: Die Hypothesen werden erst dann formuliert, wenn die Ergeb‐ nisse bekannt sind. Der Grund dafür ist, dass die Hypothesen so präsentiert werden sollen, dass sie eher angenommen statt abgelehnt werden. Das kann die eigene Argumentationsweise bei der Ableitung der Hypothesen unterstützen und die Forschungsergebnisse als theoretisch fundierter und überzeugender erscheinen lassen. p-Hacking: Dies beschreibt in der statistischen Datenanalyse die Mani‐ pulation der Signifikanz der Ergebnisse (s. auch Abschnitt IV.2). Forschende treffen bestimmte Entscheidungen bei der Datenauswertung, um absichtlich einen p-Wert von weniger als 0,05 zu erreichen, damit der Effekt einer unab‐ hängigen Variable auf eine abhängige Variable als signifikant gilt. Dies kann erreicht werden, indem etwa Variablen oder statistische Modelle verändert werden, oder Kontrollvariablen hinzugefügt oder entfernt werden. Dies kann die Ergebnisse und Schlussfolgerungen verzerren, weil vermeintlich signifikante Zusammenhänge gar nicht signifikant sind. 2 Quantitative Auswertungsmethoden 253 <?page no="254"?> Publication Bias: Dies beschreibt die Tendenz, dass Forschende eher signifikante Ergebnisse veröffentlichen als nicht-signifikante Ergebnisse. Diese Verzerrung beruht auf der falschen Wahrnehmung, dass nur signi‐ fikante Ergebnisse relevant sind, während nicht-signifikante Ergebnisse als weniger wertvoll oder sogar bedeutungslos erachtet werden. Gerade an dieser Stelle sei erwähnt, dass nicht-signifikante Ergebnisse genauso wertvoll und relevant sind wie signifikante Ergebnisse. Sie können ebenso einen substanziellen Beitrag zur Wissenschaft und Gesellschaft leisten, wenn sie zeigen, dass kein signifikanter Effekt einer unabhängigen auf eine abhängige Variable besteht. Zu geringe Stichprobengröße: Dies kann dazu führen, dass bestimmte Effekte fälschlicherweise als signifikant bzw. nicht-signifikant eingestuft werden. Erst wenn die Stichprobengröße eine bestimmte Anzahl erreicht hat, kann mit hoher Wahrscheinlichkeit davon ausgegangen werden, dass das Signifikanzniveau nicht mehr durch Veränderungen der Stichproben‐ größe beeinflusst wird. In diesem Kontext kann man eine so genannte Power Analyse durchführen, um die geeignete Stichprobengröße zu ermitteln. Eine weitere Erläuterung dazu würde den Rahmen eines ersten Überblicks an dieser Stelle überschreiten. Mögliche Lösungsansatze zum Umgang mit diesen FFPs fallen unter dem breit gefächerten Begriff „Open Science“. Darunter versteht man, dass der quantitative Forschungsprozess möglichst transparent und nachvollziehbar gestaltet ist. Dazu gehört etwa die Veröffentlichung der Datensätze und der statistischen Auswertungen, die für eine Studie verwendet wurden, damit andere Forschende die Datenanalyse wiederholen können. Eine weitere Form von Open Science ist die Präregistrierung von Studien. Dabei werden jene Schritte einer Studie, die vor der Datenanalyse stattfinden, wie etwa die Formulierung der Hypothesen oder die Entwicklung des Studiendesigns, vorab festgelegt und öffentlich gemacht. Dadurch werden FFPs wie HAR‐ King, p-Hacking oder Publication Bias vermieden. Auch Open Access, also der freie Zugang zu wissenschaftlichen Publikationen, gilt als eine Form von Open Science. Eine häufig verwendete Plattform für den Zugang zu Datensätzen oder die Präregistrierung ist etwa Open Science Framework (OSF). 254 IV Datenauswertung <?page no="255"?> Literaturtipps und weiterführende Inhalte Döring, Nicola (2016): Forschungsmethoden und Evaluation in den Sozial- und humanwissenschaften. 6. Aufl. Berlin: Springer. Bosbach, Gerd & Korff, Jens Jürgen (2011): Lügen mit Zahlen. Wie wir mit Statistiken manipuliert werden. 3. Aufl. München: Heyne Verlag. Dienlin, Tobias; Johannes, Niklas; Bowman, Nicholas David; Masur, Philipp K.; Engesser, Sven; Kümpel, Anna Sophie; Lukito, Josephine et al. (2021). An agenda for open science in communication. Journal of Communication, 71(1), 1-26. https: / / doi.org/ 10.1093/ joc/ jqz052 Friedrichs, Jürgen (1990): Methoden empirischer Sozialforschung. 14. Aufl. Opladen: Westdeutscher Verlag. Jones, Elinor; Harden, Simon & Crawley, Michael J. (2023): The R Book. 3. Aufl. Hoboken, NJ: Wiley. Kromrey, Helmut; Roose, Jochen & Strübing, Jörg (2016): Empirische Sozial‐ forschung. Modelle und Methoden der standardisierten Datenerhebung und Datenauswertung. 13. Aufl. Konstanz: UVK. Mittag, Hans-Joachim & Schüller, Katharina (2023): Statistik: Eine Einführung mit interaktiven Elementen. 7. Aufl. Berlin, Heidelberg: Springer. Posit (2025): RStudio Desktop. https: / / posit.co/ download/ rstudio-desktop/ Sachs, Lothar & Hedderich, Jürgen (2020): Angewandte Statistik. Methoden‐ sammlung mit R. 17. Aufl. Berlin: Springer. Schnell, Rainer; Hill, Paul B. & Esser, Elke (2023): Methoden der Empirischen Sozialforschung 12. Aufl. München: De Gruyter Oldenbourg. 2 Quantitative Auswertungsmethoden 255 <?page no="256"?> 3 Zum Einsatz von Medien bei der Auswertung von Datensätzen (T. Hug) Zum Abschluss dieses einführenden Überblicks über Methoden der Daten‐ auswertung wollen wir auf einige medienbezogenen Aspekte hinweisen, die uns in diesem Zusammenhang wichtig erscheinen. In einem ersten Schritt stellen wir Ihnen einige konzeptionelle Unterscheidungen vor, die an die medientheoretischen Überlegungen des vorigen Kapitels anknüpfen. Dabei lernen Sie die Begriffe ›multimedial‹, ›multimodal‹ und ›multicodal‹ kennen. Im zweiten Schritt machen wir Sie auf die Bedeutung von Compu‐ terprogrammen bei der Auswertung empirischer Daten und eine Auswahl entsprechender nützlicher Instrumente aufmerksam. Multicodierungen und Multimodalitäten Im III. Kapitel haben wir gesehen, dass die Frage der Medien im For‐ schungsprozess in zweierlei Hinsicht diskussionswürdig ist. Das Thema lässt sich - vereinfacht gesprochen - als zwei Seiten einer Münze diskutie‐ ren: Einerseits haben wir es mit der sinnlich-materiellen Gestalt von Medi‐ entechnologien, Apparaten und Instrumenten zu tun - und andererseits haben wir es immer auch mit deren symbolischen und zeichenhaften Dimen‐ sionen zu tun. Diese Verbindung von Technologie und medialer Darstellung spielt in allen alltagsweltlichen, künstlerischen und wissenschaftlichen Zu‐ sammenhängen der Sinngebung und Bedeutungsproduktion eine wichtige Rolle. Wie immer Sie zum Beispiel die knappen Ausdrucksformen per SMS verbuchen - ob eher als kreative Leistungen, als nützliche Hilfsmittel in manchen Situationen, als Verlust von Sprachkompetenz, als Modus der Belebung von Dialekten, u.s.w. - sie werden allemal im Zusammenspiel technischer und sozio-kultureller Aspekte so kreiert, dass sie als spezielle Formen der Medienkommunikation beschreibbar werden. Auch wenn in der empirischen Forschung die Tragweite solcher Über‐ legungen erst langsam zu dämmern beginnt, so deuten Ausdrücke wie »Apparatemedizin«, »Bücherwissenschaften« oder »kognitive Werkzeuge« klar darauf hin, dass mit den angedeuteten medialen Formen gewisse Besonderheiten verbunden sind, die für erkenntnistheoretische und prak‐ tisch-nutzenorientierte Aspekte gleichermaßen bedeutsam sind. 256 IV Datenauswertung <?page no="257"?> Sie werden nun vielleicht einwenden, dass das Zusammenspiel von technisch-materiellen und zeichenhaften Aspekten eine sehr abstrakte und allgemeine Behauptung darstellt, die zwar plausibel ist, die Ihnen aber nicht viel weiterhilft beim Einstieg in die Welt der empirischen Forschung. Angesichts des breiten Spektrums von empirischen Methoden, das wir Ihnen vorgestellt haben, würde dies von Fall zu Fall doch völlig Unterschiedliches bedeuten. Und außerdem hätten wir es doch ohnedies in den meisten Fällen mit einem Konglomerat von direkter Kommunikation, Texten, Bildern, Grafiken, Tondokumenten oder auch Videoclips zu tun. So gesehen sei doch heute jede empirische Forschung gewissermaßen »multimedial« - so what? Unsere Antwort ist ein klares Jein! Freilich können wir Ihnen zustimmen, dass bei der Erhebung und Auswertung qualitativer und quantitativer Daten allemal auch mündliche Gesprächsformen und schriftliche Formen der Textkommunikation eine Rolle spielen usw. Aber das sagt noch nichts darüber aus, wie wir mit den Daten umgehen und was sie für wen bedeuten. Erinnern Sie sich an das Beispiel einer mündlichen Alltagserzählung im ersten Kapitel und die unterschiedlichen Akzente, die bei wissenschaftlich motivierten Beschreibungsformen zum Tragen kommen. Wir haben u. a. argumentiert, dass mit den qualitativen und quantitativen Beschreibungs‐ formen unterschiedliche Abstraktionsgrade verbunden sind, die sich auf einem Kontinuum verorten lassen. Wir wollen hier einen Schritt weiterge‐ hen und Sie zum Nachdenken über eingespielte Routinen in der empirischen Forschung anhand multimedialer Dimensionen anregen und zeigen, wie und warum dies gerade im Zusammenhang von Auswertungsperspektiven wichtig ist. Vielfach wird der Ausdruck »Multimedia« schlicht im Sinne einer Verknüpfung unterschiedlicher Medientechnologien und inhaltlicher Me‐ dienangebote auf digitaler Basis verstanden. So gesehen wären die Insze‐ nierungen antiker Rezitatoren beim Festmahl mit und ohne musikalische Unterstützung nicht als multimediale zu bezeichnen. Analoges würde für die Rezitationen mittelalterlicher Mönche oder im Fall von Stummfilmen mit Klavierbegleitung gelten. Andererseits reicht aber das Kriterium »Verknüp‐ fung auf digitaler Basis« nicht aus, wenn man an Kombinationen von Text-, Bild- und Tonelementen in digitalisierten Videoclips oder die in Büchern abgedruckten Darstellungen von Multimedia-Anwendungen denkt. Aber selbst wenn wir das Kriterium im Sinne einer rechnergestützten Integration von Speicher- und Übertragungsmedien sowie Datenbanken und Datenty‐ pen weiter konkretisieren, können wir so allenfalls die technische Seite der 3 Zum Einsatz von Medien bei der Auswertung von Datensätzen 257 <?page no="258"?> Thematik besser nachvollziehen. Für ein umfassenderes Verständnis von Multimedialität braucht es auch die Berücksichtigung von Dimensionen der Interaktivität, der Wahrnehmung, der Sensorik, der Gestaltung und des Verwendungszusammenhangs. Definition Multimedialität lässt sich bestimmen als Zusammenspiel von ● technischen Herstellungs-, Speicher- und Übertragungsmedien (Buchdruck, Radio, Film, TV, Computer, Internet, etc.), ● semiotischen Kommunikationsmitteln (Bild, Sprache, Sprechen, Schrift, Gestik, Zahl, Ton, Musik) und ● interaktiven Nutzungsformen von Diensten und inhaltlichen Me‐ dienangeboten (Texte, Bilddarstellungen, Text-Bild-Kombinatio‐ nen, Radio-/ Fernsehsendungen, Animationen, Websites, etc.) ● in sozio-kulturellen, politischen, ökonomischen und institutionel‐ len Kontexten. Im Zusammenhang empirischer Forschung ist es nun wichtig zu sehen, dass - ähnlich wie in alltagsweltlichen Kontexten - Prozesse und Formen der Digitalisierung zunehmend bedeutsam geworden sind. Hand in Hand damit ändern sich wissenschaftliche Ansprüche, Routinen und Kommunika‐ tionspraxen. Neue Phänomenbereiche rücken ins Blickfeld, Vorgangsweisen und Techniken werden vielfach adaptiert und mancherorts werden neue Methoden entwickelt. Heißt das, dass Sie statt Plakaten, Post-its, Karteikarten und Klebstoff unter allen Umständen geeignete Computerprogramme verwenden müssen, um qualitätsvolle Auswertungsergebnisse erzielen zu können? Die Antwort darauf lautet wieder Jein: Bei einfachen Fragestellungen in kleinen Praxis‐ forschungsprojekten können Sie mit einem Textverarbeitungsprogramm und einigen ausgedruckten Materialien mitunter leicht das Auslangen finden. Bei etwas komplexeren Fragestellungen kann es sehr hilfreich oder sogar unerlässlich sein, geeignete Computerprogramme einzusetzen. Sie finden heute kaum mehr Forscherinnen, die »aus Prinzip« auf technische Hilfsmittel zur Komplexitätsbewältigung verzichten wollen, und Sie werden keine mehr finden, die auf die Verwendung von Lochstreifen oder Lochkar‐ ten bei statistischen Analysen bestehen. 258 IV Datenauswertung <?page no="259"?> Wichtig ist zunächst, dass Sie sich klar vor Augen führen, dass sowohl auf der Ebene der von Ihnen untersuchten Phänomenbereiche als auch auf der Ebene der Forschungspraxis spezifische Modalitäten des Umgangs mit Kommunikationsmitteln (Schreiben, mündliche Sprachen, Schriftspra‐ chen, Gesten, Bilder, etc.) und Symbolsystemen (Schrift-, Zahlen-, Bild-, Notations-, Präsentationssysteme, Clipformate, etc.) bedeutsam sind. Die einschlägigen Kommunikationsmodalitäten stellen mehr oder weniger gut eingespielte Praxen dar, die jeweils bestimmte Aspekte eines Bedeutungs‐ zusammenhangs hervorheben. Dies lässt sich an beliebigen Beispielen leicht verdeutlichen. Denken Sie etwa an eine Untersuchung über Pilates als Trendsportart, in der es um die Analyse von »Fun-Faktoren« in ausgewähl‐ ten Trainingsgruppen geht. Sie haben es da auf der einen Seite u. a. mit »stylischen« Ausdrucksweisen, Gruppensprachen, flüchtigen Gesten und Vorstellungsbildern von körperlicher Fitness zu tun. Auf der anderen Seite sind viele der Modalitäten und ihr Zusammenspiel in einer textbasierten wissenschaftlichen Arbeit nur schwer darstellbar. Aber auch dann, wenn die Auswertung und Präsentation mit verschiedenen Symbolsystemen (Bsp. Text-Bild-Kombinationen, akustisch kommentierte Bewegungsbilder), also multicodal gemacht wird, bleiben auch die wissenschaftlichen Darstellun‐ gen notwendig partiell. Wichtig In multicodalen Darstellungen werden unterschiedliche Symbolsys‐ teme und Kodierungen verwendet (z. B. in Form numerischer und gra‐ fischer Darstellungen, Text-Bild-Kombinationen, Bild-Text-Ton-Doku‐ mente). Multimodalität im Umgang mit Kommunikationsmitteln meint das Ensemble unterschiedlicher Darstellungs- und Ausdrucksweisen in einem Kommunikationsprozess (Bsp. mündliche Sprache, Gestik und Kleidungsstil; Set schriftsprachlicher, visueller und akustischer Aus‐ drucksformen; Kombination aus mündlicher Sprache, Gebärdenspra‐ che und grafischer Darstellung). Dabei wirken die Qualitäten einzelner Modalitäten zusammen (Bsp. Funktion der Stimme beim Sprechen, Sequenzierung und Linearität von Verschriftlichungen, Abstraktions‐ leistung der Formelsprache). Multisensorisch bezieht sich auf das Zusammenspiel mehrerer Sinne (z. B. visuelle, auditive, haptische Wahrnehmung). 3 Zum Einsatz von Medien bei der Auswertung von Datensätzen 259 <?page no="260"?> Beachten Sie im Zusammenhang der Datenauswertung weiters die folgen‐ den Punkte: ● Orientieren Sie sich bei der Auswertung an Ihren Forschungsfragen und Erkenntnisinteressen und setzen Sie Software-Produkte für Ihre Zwecke sein. Auch wenn die Leistungsfähigkeit der diversen Compu‐ terprogramme im Detail verschieden ist, so gibt es nicht jeweils ein Programm, das für einen methodischen Ansatz geeignet ist. Es gibt auch keine Software-Agenten, Bots, e-dwarfs oder KI-Tools, die die Auswertung in sinnverstehender Weise für Sie erledigen. Verstehen Sie sich also als Vorsitzenden auch der Auswertungsprozesse und lassen Sie diese nicht von der Technik dirigieren. ● Hand in Hand mit den Digitalisierungsprozessen sind sowohl erwei‐ terte Handlungsspielräume als auch Tendenzen der Reduktion in der Sozialforschung entstanden. Erstere beziehen sich insbesondere auf Möglichkeiten des eleganten Umgangs mit großen Datenmengen und der übersichtlichen Darstellung komplexer Zusammenhänge sowie auf neue Verfahren der Aufbereitung und Analyse multicodaler Daten (z. B. Videoclips, Filme). Letztere beziehen sich vor allem auf zweifel‐ hafte oberflächliche Auswertungsroutinen (z. B. von vielen Onlineum‐ fragen), Mängel bei der Prüfung der Datenqualität, die Orientierung von Fragestellungen am technisch Machbaren und die Normierung von Forschungsdesigns unter Vernachlässigung von Aspekten der Gegen‐ standsangemessenheit. ● Achten Sie bei der Auswertung auch auf die verschiedenen Ebenen und Schichtungen medialisierter Darstellungen. Ähnlich wie die unterschiedlichen Grade der Strukturiertheit bei Beobachtungen und Befragungen den Horizont von Antwortmöglichkeiten auf die For‐ schungsfragen mitbestimmen, verhält es sich auch mit den mündli‐ chen, schriftlichen und bildhaften Ausdrucksformen. Manchmal wird »gesprochen wie man schreibt« (Bsp. Rede auf Manuskriptbasis), ein andermal wird »geschrieben wie man spricht« (Bsp. Email). Und wenn Sie zum Beispiel ein Begriffsnetz grafisch darstellen, dann behalten Sie dabei den Prozess von dessen Herstellung-- angefangen von allfälligen schriftlichen Vorformulierungen (Notizen) für mündliche Antworten in der Gruppendiskussion bis hin zur autorisierten Transkription - im Auge. 260 IV Datenauswertung <?page no="261"?> ● Für die meisten Mitglieder jüngerer Generationen, die mit digitalen Me‐ dien aufgewachsen sind, ist Multimodalität im Umgang mit Kommuni‐ kationsmitteln zumindest außerhalb schulischer Sozialisationsprozesse zur Normalität geworden. Eine überwiegend monomodale wissen‐ schaftliche Schriftkultur kann hier nur sehr begrenzt aussagekräftige Ergebnisse erzielen. Prüfen Sie ggf. die Angemessenheit der wissen‐ schaftlichen Symbolsysteme, die Sie in Ihrem Auswertungsprozess an‐ wenden. ● Betrachten Sie sowohl die Forschungsprozesse als auch die For‐ schungsergebnisse als Interaktionsprodukte, die wesentlich mit den Modalitäten des Umgangs mit Kommunikationsmitteln zusammen‐ hängen. Die Datenauswertung stellt dabei eine besonders sensitive Phase auf dem Weg zur kommunikativen Stabilisierung der Forschungs‐ ergebnisse dar. Nützliche Computerprogramme für die Datenauswertung In der empirischen Sozialforschung lassen sich grosso modo zwei Foki des Einsatzes computergestützter Auswertungsinstrumente unterscheiden. Auf der einen Seite sind dies Programme zur Auswertung quantitativer (nume‐ rischer) Daten, auf der anderen Seite sind dies Programme zur Auswertung qualitativer (verbaler) Daten. Hinzu kommen Instrumente zur Analyse multicodaler Videodaten. Die folgende Auswahl nützlicher Computerpro‐ gramme für die Datenauswertung gibt Ihnen eine erste Orientierung. Beispiele für Computerprogramme für die Datenanalyse Qualitative Forschung QSR NVivo - https: / / lumivero.com/ products/ nvivo/ Atlas ti - https: / / atlasti.com/ MAXQDA - https: / / www.maxqda.com/ QDA Miner - https: / / provalisresearch.com/ products/ qualitative -data-analysis-software/ Quantitative Forschung Die im Abschnitt 3 des vorigen Kapitels exemplarisch aufgeliste‐ ten Programme unterstützen auch die Verwaltung, Auswertung, Dokumentation und Präsentation quantitativer Daten. Hier ein paar ergänzende Hinweise betreffend komplexe Visualisierungs‐ verfahren für Interessierte: Statistische Visualisierung in LabVIEW https: / / www.ni.com/ de/ support/ documentation/ supplemental/ 0 6/ statistical-visualization-in-labview.html 3 Zum Einsatz von Medien bei der Auswertung von Datensätzen 261 <?page no="262"?> Plattform zur Entwicklung von interaktiven Webanwendungen und Datenvisualisierungen: https: / / datascientest.com/ de/ dash-fuer-python - InstantAtlas™ - Statistische Visualisierung in Kombination mit GIS-Daten https: / / www.esriuk.com/ en-gb/ arcgis/ products/ instantatlas/ ove rview Für lehrreiche Beispiele für Visualisierungen von komplexen sozio-ökonomischen Entwicklungen im lokalen, nationalen und globalen Kontext siehe https: / / www.gapminder.org/ Integrierte Analyse-Werkzeuge wie z. B. ProSuite werden insbe‐ sondere von Provalis Research angeboten: https: / / provalisresear ch.com/ Open Source Tools for Social Science Researchers: https: / / open-source-social-science.github.io/ Beispiele für Social-Media- Analyse-Tools Social Media Analytics in Excel & On The Web https: / / communalytic.org/ Social Media Macroscope - https: / / smm.ncsa.illinois.edu/ Gephi for Visualization - https: / / gephi.org/ Twitonomy - http: / / www.twitonomy.com/ Tabelle 18: Computerprogramme für die Datenanalyse Angesichts der rasanten Entwicklungen in diesem Bereich sollten Sie den jeweils aktuellen Stand verfügbarer Versionen und neuer Werkzeuge zu Beginn Ihrer Forschung online recherchieren. Aber Achtung: Es macht wenig Sinn, jede Woche Stunden mit der Suche nach den allerneuesten digitalen Werkzeugen zu verbringen. Sie rufen ja während einer mehrtä‐ gigen Bergtour auch nicht alle paar Stunden im Sportgeschäft an, um herauszufinden, ob nicht vielleicht doch noch ein besserer Imprägnierspray für ihre Schuhe erhältlich sein könnte. 262 IV Datenauswertung <?page no="263"?> V Darstellung der Ergebnisse und Ausblick 1. Die Darstellung der Ergebnisse (T. Hug) 2. Zur Problematik der »fake science« (B. Lederer) 3. Ausblick oder wie entwickle ich meine Methodenkompetenz weiter (T. Hug) 4. Nützliche Internetquellen und Werkzeuge (T Hug) Wie immer linear oder zyklisch, geplant oder unverhofft, wohl struk‐ turiert oder auch chaotisch Ihre Forschungsprozesse gelaufen sind, am Ende geht es darum, die Ergebnisse überzeugend zu präsentieren. Ziel dieses abschließenden Kapitels ist es Ihnen einige Möglichkeiten und Erfordernisse bei der Präsentation von Ergebnissen aufzuzeigen und Sie auf einige Besonderheiten im Umgang mit mündlichen, schriftli‐ chen und visuellen Darstellungen aufmerksam zu machen. Ergänzend geben wir Ihnen einige Hinweise auf nützliche Internetquellen, sowie auf einige Anhaltspunkte, die bei der Entwicklung Ihrer forschungs‐ methodischen Kompetenzen hilfreich sind. <?page no="264"?> 1 Die Darstellung der Ergebnisse (T. Hug) Im Einzelnen sind mit den verschiedenen Methoden der Erhebung, Aufbe‐ reitung und Auswertung unterschiedliche Möglichkeiten der Darstellung von Forschungsergebnissen verbunden. Wir konzentrieren uns hier auf einige exemplarische Hinweise und Querschnittsthemen. Wie immer Sie in Ihrer Forschung konkret vorgegangen sind und wel‐ che empirischen Methoden Sie mit guten Gründen auch gewählt haben, vergewissern Sie sich vor der abschließenden Darstellung Ihrer Ergebnisse nochmals der Zielsetzungen und Erkenntnisinteressen, die Sie zu Beginn Ihres Projekts formuliert haben. Rückblick Meine Zielsetzungen und Erkenntnisinteressen im Rückblick ● Welche wissenschaftlichen, wirtschaftlichen, politischen, sozialen oder persönlichen Ziele verfolge ich mit meiner Forschung? ● Was treibt oder hemmt mich bei meinem Forschungsprojekt? ● Was will ich aufzeigen, widerlegen, belegen, erhärten, »beweisen«? ● Will ich einen Problemzusammenhang primär erklären oder ver‐ stehen? ● Welche praktischen und/ oder theoretischen Erkenntnisinteressen habe ich? ● Habe ich den Anspruch eine Praxis zu verbessern oder zu verän‐ dern? Wenn ja, inwieweit? Ziele und Interessen können und werden sich im Laufe eines Forschungs‐ prozesses verändern. Wichtig ist, dass Sie ● sich diese Veränderungen und die damit verbundenen Kurskorrekturen selbst klar machen und sie angemessen darstellen ● im Fall von bezahlten Forschungsarbeiten rechtzeitig das Einvernehmen mit dem Auftraggeber herstellen, wenn Inhalt oder Umfang des For‐ schungsbereichs sich ändern ● es auch mal gut sein lassen und sich mit dem Stand der Dinge, den Sie in und mit Ihrem Forschungsprojekt erreicht haben, (relativ) zufriedengeben. 264 V Darstellung der Ergebnisse und Ausblick <?page no="265"?> Zielgruppen und Zwecke Es ist völlig normal, wenn Sie im Laufe Ihrer Forschungsprojekts die Zielset‐ zungen und Erkenntnisinteressen etwas nachjustieren. In vielen Fällen zählen neue, differenziertere Fragestellungen zu den besten Ergebnissen, die Sie erzielen können. Wenn Sie Ihre Ergebnisse für eine Präsentation aufbereiten, so sind damit meistens mehrere Zwecke verbunden. Einmal abgesehen vom vordergründigen oder mitlaufenden Zweck der Aneignung forschungsmetho‐ discher Kompetenzen können sich diese auf verschiedene Dinge beziehen, wie zum Beispiel ● den Zeugniserwerb in einer Lehrveranstaltung ● die Zertifizierung in einem Lehrgang ● den Abschluss eines Studiums mittels Qualifizierungsarbeit ● die Veröffentlichung in einer Zeitschrift, einem Sammelwerk oder im Internet ● die Berichtslegung an eine Auftraggeberin ● die Überzeugung einzelner oder einer Gruppe von Ihren Resultaten und der Qualität der Forschungsleistung ● die Kommunikation von Beobachtungsergebnissen oder Verbesserungs‐ vorschlägen in einem praktischen Zusammenhang ● die Mitteilung von Forschungserfahrungen und -resultaten an ein Evaluationsteam ● etc. Je nach Projektzusammenhang und Sinn und Ziel Ihrer Forschungen kom‐ men von Fall zu Fall unterschiedliche Kombinationen und Gewichtungen einzelner Zwecke in Betracht. Und je nach Ihren Erwartungen an die Institution oder an konkrete Zielgruppen sollten Sie bei Ihrer Präsentation angemessene Darstellungsmittel wählen. Dies gilt freilich auch für die Ergebnisse zweckfrei gedachter Forschungen, die in erster Linie verstehen oder rekonstruieren wollen. Wenn Sie den Anlass für die Darstellung von Forschungsergebnissen und diesbezügliche Bündel von Zwecken für sich geklärt haben, sollten Sie sich über Ihre Zielgruppe ein paar Gedanken machen. Ist sie groß oder klein, homogen oder heterogen, überwiegend ernsthaft interessiert, oder eher skeptisch, abweisend oder freundlich indifferent? Handelt es sich um Novizen oder (leicht) fortgeschrittene Kollegen? Handelt es sich um einen Prüfungssenat oder ein Expertinnengremium? 1 Die Darstellung der Ergebnisse 265 <?page no="266"?> 2 http: / / creativecommons.org/ Es macht einen Unterschied, ob Sie Ihre Ergebnisse ● im vertrauten Kreis einer kleinen Seminarrunde oder vor 300 Studieren‐ den in einer Ringvorlesung vortragen ● in einer wissenschaftlichen Fachzeitschrift, auf der eigenen Homepage oder in einem populärwissenschaftlichen Magazin veröffentlichen ● dem gesamten Kollegium, allen Vereinsmitgliedern, ausgewählten Mit‐ arbeiter eines Betriebs oder nur der Geschäftsführung vorstellen ● zu Open-Access-Bedingungen oder mittels Creative Commons 2 Li‐ zenz publizieren oder ob sie Firmengeheimnis bleiben müssen. Selbsttest Darstellung der Forschungsergebnisse für meine Zielgruppe(n) Meine Einschätzung: gering mittel hoch Durchschnittliches Vorwissen in der Zielgruppe ( ) ( ) ( ) Neugier und Interesse ( ) ( ) ( ) Zeitrahmen für die Präsentation ( ) ( ) ( ) Umfang für einen schriftlichen Bericht ( ) ( ) ( ) Grad der Genauigkeit und Detailliertheit ( ) ( ) ( ) Erfordernisse der Veranschaulichung ( ) ( ) ( ) Grad der Abstraktion ( ) ( ) ( ) Notwendigkeit der Klärung von Fachbegriffen ( ) ( ) ( ) Meine Kritikfähigkeit ( ) ( ) ( ) Kritikfähigkeit in der Zielgruppe ( ) ( ) ( ) Grad der Öffentlichkeit ( ) ( ) ( ) ………………………………………… ( ) ( ) ( ) Tabelle 19: Selbsttest 266 V Darstellung der Ergebnisse und Ausblick <?page no="267"?> Schriftliche und mündliche Darstellungen Die meisten Hinweise, die Sie in den Anleitungen zum wissenschaftlichen Schreiben und Präsentieren finden können (vgl. Seifert 2011, Kruse 2018, Buck 2025), gelten sinngemäß auch für die Darstellung empirischer Forschungsergebnisse. Wir wollen uns hier deshalb auf einige wenige Anregungen beschränken, die uns besonders wichtig erscheinen: 1. Unterscheiden Sie zwischen schriftlichen und mündlichen Darstel‐ lungen. Dieser Hinweis mag auf den ersten Blick trivial erscheinen. Wenn Sie sich aber Ihre eigenen Erfahrungen mit der Rezeption heruntergelesener Manuskripte vergegenwärtigen, dann wissen Sie, was wir hier meinen. Auch wenn Sie vielleicht einwenden, dass das nicht nur in vielen Hochschulsemi‐ naren, sondern auch auf Tagungen und Kongressen international sehr ver‐ breitet ist, wollen wir Sie zur Beachtung dieser Unterscheidung ermuntern. Überlegen Sie also, welche Besonderheiten mit den Darstellungsmodalitäten verbunden sind, und nutzen Sie diese für Ihre Zwecke. In einer mündlichen Darstellung haben Sie mehr Möglichkeiten, flexibel auf Ihre Zuhörerinnen einzugehen, ergänzende Erläuterungen, Kürzungen oder Kurskorrekturen nach Bedarf vorzunehmen, Assoziationswissen auch spontan einzubringen, Stimmungen aufzugreifen und Akzente neu zu setzen, usw. 2. Beachten Sie bei mündlichen Darstellungen die vorhandenen oder fehlenden Vorkenntnisse der Teilnehmer, die situativen Besonderheiten und den angemessenen Einsatz von Hilfsmitteln (z. B. Gliederungsskizze, Blickkontakte, Veranschaulichungen, Überblickstabellen, Zitatsammlung, Manuskriptauszüge, Flipchart). Überlegen Sie, was an Ihren Forschungs‐ ergebnissen besonders bemerkenswert ist, welche Zusammenhänge Sie herstellen können, und wie Sie die Resultate so aufbereiten können, dass Ihnen jemand gerne für eine halbe oder ganze Stunde zuhört. Vermeiden Sie die Inszenierung stereotyper Referatroutinen und versuchen Sie mit der Zeit Ihren eigenen Stil zu entwickeln. Nutzen Sie je nach Gruppengröße interaktive und diskursive Elemente und vermeiden Sie dialektförmige Ausdrucksweisen. Strukturieren Sie Ihre Darstellung (z. B. Einleitung, Mo‐ tivierung des Themas und der Forschungsfrage, Hauptteil, Fazit, Schluss) und machen Sie sich vor Ihrer Präsentation klar, welche Kernaussagen Sie mitteilen wollen. 3. In vielen Fällen ist es für das Verständnis Ihrer mündlichen Darstellungen hilfreich, wenn Sie ergänzend eine Handreichung (Handout) zur Verfü‐ 1 Die Darstellung der Ergebnisse 267 <?page no="268"?> gung stellen. Diese kann eine Kurzzusammenfassung der Forschungsergeb‐ nisse, Definitionen und begriffliche Erläuterungen, zentrale Thesen und Schlüsselzitate, Formeln und Diagramme, URLs (Uniform Resource Loca‐ tors), Eckdaten sowie exemplarische Veranschaulichungen usw. enthalten. Sie soll ca. eine bis drei Seiten umfassen, und sie soll in jedem Fall Angaben zum Verwendungszusammenhang (Name, Datum, Ort, Anlass / Kontext, Titel des Beitrags) sowie zu den wichtigsten Literatur- und Internetquellen enthalten. 4. Wenn für Sie eine Darstellung der Ergebnisse in einem Mikroformat für eine größere Öffentlichkeit in Social-Media-Kontexten wichtig ist, dann wägen Sie ab, welches Netzwerk für Sie in Betracht kommt und welchen Stellenwert Freie Software, Datenschutz und Werbefreiheit für Sie haben. Zu den kommerziellen Plattformen großer Unternehmen (z. B. Academia, ResearchGate oder LinkedIn) gibt es auch Alternativen (z. B. Mastodon, Pixelfed oder Friendica), die ohne datenextraktivistische Werbestrategien auskommen. Wenn Sie im Zuge regelmäßiger Postings zunehmend das Ge‐ fühl bekommen sollten, dass die Anpassungserwartungen an „technische“ Formate und algorithmengetriebene Optimierungsprozesse mit Sinnfragen oder Entfremdungserfahrungen verbunden sind, dann nehmen Sie dieses Gefühl am besten ernst. Die Normalitätserwartungen, die mancherorts mit kleinteiligen Formen der wissenschaftlichen Dokumentation und Selbst‐ vermarktung verbunden sind, sind allemal reflexionswürdig. Lassen Sie sich nicht blenden, wenn andere atemlos durch den Tag und die Nacht posten oder wenn rhetorische Aspekte der Artikulationsgeschwindigkeit, Lautstärke oder influenceristisch motivierten Hochglanzpolitur die Darstel‐ lung von scheinbar „bahnbrechenden“ Forschungsergebnissen auszeichnen. Gehen Sie Ihrem Forscherglück besser in Ruhe entgegen und lassen Sie sich weder von automatisierten Bewertungssystemen noch von den Ergebnis‐ sen maschineller Wahrscheinlichkeitsrechnungen das Denken abnehmen. Eigenständiges und kritisches Denken bleibt auch im digitalen Zeitalter überall dort eine Voraussetzung für Orientierungsvermögen und Mündig‐ keit, wo „Mündigkeit“ nicht mit dem Grad der Beschnabelung verwechselt wird, der nach der freiwillig eingeschränkten Fähigkeit, sich des eigenen Verstandes ohne fremde Leitung oder „KI“-Vormundschaft zu bedienen zu wollen, als zentrales Element der selbstverschuldeten Unmündigkeit übrigbleibt. 268 V Darstellung der Ergebnisse und Ausblick <?page no="269"?> Tipps Sie können erheblich an argumentativer Sicherheit und Überzeugungs‐ kraft gewinnen, wenn Sie Ihre Forschungsprozesse und -ergebnisse in unterschiedlichen Varianten diskutieren und beschreiben: a) Wählen Sie drei bis fünf Personen, mit denen Sie in unterschiedli‐ chen Kontexten zu tun haben, und stellen Sie jeweils kurz dar, wie Sie zu Ihren Resultaten gekommen sind. Diskutieren Sie die Resultate mit Menschen unterschiedlicher Herkünfte und Bildungsniveaus, mit Kolleginnen aus fachnahen oder anderen Disziplinen, Verwandten, Sportsfreunden, dem Briefträger, dem Barkeeper, etc. b) Eine gute Übung: Beschreiben Ihre Forschungsergebnisse mindes‐ tens in dreifacher Weise, z. B. in einem Satz, in drei bis fünf Sätzen, auf einer A4-Seite, in Form einer Handreichung (zwei bis drei A4-Seiten), eines Kurzberichts (7-10 A4-Seiten), eines wissenschaftlichen Essays (20-30 A4-Seiten), etc. «In beiden Fällen können Sie als Lohn für den Aufwand mit verbes‐ serten argumentativen und forschungsmethodischen Kompetenzen rechnen. Freilich können Sie sich die Schreibübung auch von einem KI-System »erledigen« lassen - der Lerneffekt ist dann mit dem Trainingseffekt vergleichbar, den Sie erzielen können, wenn Sie einen humanoiden Roboter in Vertretung von Ihnen im Fitnesscenter die Körperübungen machen lassen. 5. Schriftliche Darstellungen werden zumeist in Form von mehr oder weniger umfangreichen Forschungsberichten gemacht. Im Falle von ge‐ förderten Projekten sind dabei die Richtlinien der Auftrags- oder Subventi‐ onsgeber zu beachten. Analoges gilt für wissenschaftliche Zweckschriften (Bsp. Seminar- / Master- / Diplomarbeit oder Dissertation), bei denen die formellen Vorgaben der jeweiligen Institution zu berücksichtigen sind. Wei‐ ters kommen auch Internetpublikationen, Monografien, wissenschaftliche Beiträge für Zeitschriften und Sammelwerke sowie Essays und journalisti‐ sche Darstellungsformen in Betracht. Ein guter schriftlicher Bericht über eine empirische Forschung enthält jedenfalls die folgenden Elemente: ● aussagekräftiger Titel ● Angaben zur Autorschaft sowie kontextuelle Hinweise (Orts- und Zeit‐ angaben, ggf. erstellt »im Auftrag von«, »in Kooperation mit«, usw.) 1 Die Darstellung der Ergebnisse 269 <?page no="270"?> ● Inhaltsübersicht ● Kurzzusammenfassung (Summary oder Abstract in einer oder zwei Sprachen), in dem das Thema, die Forschungsfrage(n) und die zentralen Ergebnisse kurz skizziert werden ● Angaben zur Themenstellung und Zielsetzung der Untersuchung (Er‐ kenntnis- und Forschungsinteresse) ● Hinweise zum Stand der Forschung im gegenständlichen Forschungs‐ feld ● Erläuterungen der Fragestellung(en) und Untersuchungsschwerpunkte ● Darstellung des methodischen Vorgehens und des Designs der Arbeit einschließlich einer Begründung der Methodenwahl ● Darstellung und Diskussion der Ergebnisse unter Berücksichtigung relevanter Bezugstheorien (Rückbindung an den Wissensstand) ● Zusammenfassung (Fazit) und Schlussfolgerungen ● Verzeichnis von Literatur- und Internetquellen ● Anhangsteil (Bsp. Fragebögen, Transkriptionen, Videoaufzeichnungen) Visualisierungen und multimediale Darstellungen Auch wenn schriftliche und mündliche Forschungsberichte in den Sozial- und Kulturwissenschaften eine zentrale Rolle spielen, so gibt es doch Gren‐ zen der sprachlichen Darstellung. Das gilt auch für das vorliegende Buch, das überwiegend lineare, druckschriftliche Beschreibungen sowie einige Bilddarstellungen enthält. Wenn Sie also nicht allzu müde sind und keine bewusstseinsverändernde Substanzen eingenommen haben, dann werden Sie sowohl die Buchstaben und Wörter als auch die Grafiken und Abbildun‐ gen als statische wahrnehmen. Der Band enthält keine bewegten Bilder und auch keine reinen Bilddarstellungen ohne schriftliche Erläuterungen. Das ist durchaus typisch für weite Teile der sozial- und kulturwissenschaft‐ lichen Forschung und hängt nicht nur mit rechtlichen, sondern auch mit historischen, erkenntnistheoretischen und methodologischen Aspekten der Thematik zusammen. Seit einiger Zeit mehren sich die Hinweise auf Begrenzungen und Einsei‐ tigkeiten des alphabetischen Codes und standardisierten »Papiersprachen« (V. Flusser). Wie auch immer die Bedeutung des bildhaften Denkens und Darstellens für die empirische Forschung im Detail bewertet werden kann, beachten Sie, dass in verschiedenen Wissenschaftskulturen die Relationen 270 V Darstellung der Ergebnisse und Ausblick <?page no="271"?> von poetischem und rationalem Wissen sowie von begrifflichen und bildhaf‐ ten Denkformen durchaus unterschiedlich bestimmt werden. Wichtig Begriffliche Klärungen sind wichtig, aber auch die empirische For‐ schung kommt nicht ohne Metaphern und Vorstellungsbilder aus. Die Ressourcen (Arten des Sprechens, Schreibens, Berechnens, Analy‐ sierens, Aufzeigens, etc.), die in regionalen, nationalen oder globalen Wissenschaftskulturen als Mittel zur empirischen Bedeutungsproduk‐ tion Anerkennung finden, unterliegen einem stetigen Wandel. Beachten Sie weiters die Besonderheiten von unterschiedlichen Darstel‐ lungsmodalitäten, von denen wir nachfolgend einige exemplarisch auflisten: Besonderheiten von Darstellungsformen Sätze, Schrift‐ sprache vorwiegend lineare Darstellung (Hintereinander von Elemen‐ ten) narrative und diskursive Beschreibungen in Textform schreibendes Denken im Horizont sprachlichen Denkens Ziffern, Zah‐ len, Formeln - Reduktion von Mengenangaben auf Zahlenwerte (diskrete Grö‐ ßen) mathematische Operationen (insbesondere mathematische Lo‐ gik) hochabstraktes Denken und numerische Darstellungen (Forma‐ lisierung) Bilder, Zeich‐ nungen - gleichzeitige Darstellung mehrerer Elemente und deren Rela‐ tionen Rezeption (»Lesbarkeit«) in mehreren Richtungen visuelles Denken Tabelle 20: Besonderheiten von verschiedenen Darstellungsformen Auch wenn diese Besonderheiten kaum in »Reinkultur« anzutreffen sind, so zeigen sie doch gewisse Akzentsetzungen an, die bei der Darstellung empirischer Forschungsergebnisse bedeutsam sind. Hier einige ausgewählte Hinweise auf Themen, die in der Forschungspraxis häufig auftauchen: 1. Analytische Bilder, Abbildungen: Beispiele für Tabellen und Diagramme haben Sie im Kapitel IV.2 über quantitative Auswertungsmethoden ken‐ 1 Die Darstellung der Ergebnisse 271 <?page no="272"?> 3 interaktive Datenlandschaften nengelernt. In der Literatur über empirische Forschung finden Sie viele weitere Formen analytischer Bilder (z. B. Netzwerkdarstellungen, Fluss‐ diagramme, Flow-Charts, Cybermaps 3 , Verlaufskurven) sowie Abbildun‐ gen (z. B. Skizzen, Zeichnungen, Fotos, Videos). Wichtig ist, dass Sie sich klar machen, welche Funktionen die Bilddarstellungen haben (sollen). Diese können sich insbesondere beziehen auf die ● Verdeutlichung, Veranschaulichung und Hervorhebung von Sachver‐ halten oder Zusammenhängen (illustrative und ästhetische Funktionen) ● Steigerung von Chancen der Akzeptanz und Verständigung oder der strategischen oder taktischen Durchsetzung von Interessen (kommuni‐ kative Funktionen) ● Unterstützung von Prozessen des Wissensaufbaus, der Sinnerzeugung und der Veränderung von Denkschemata (konstitutiv-epistemologische Funktionen) ● Unterstützung von Lehr--/ -Lernprozessen (didaktische Funktionen) ● Förderung von innovativen Betrachtungsweisen und phantasievollen »Findungskünsten« (heuristische Funktionen) Tipps Der Umgang mit Bildunterschriften und Bildüberschriften ● Bilder und Texte können sich gegenseitig erläutern, sie sind als verschiedene Ausdrucksformen aber nicht vollständig ineinander übersetzbar. Betrachten Sie das als Chance! ● Überlegen Sie, welche primäre Funktion eine Bilddarstellung im konkreten Fall haben soll, treffen Sie eine angemessene Auswahl und Positionierung des Bildes, und bringen Sie Ihre Überlegung auch mittels einer entsprechenden Bildunterschrift zum Ausdruck. ● Bildunterschriften haben eine Brückenfunktion zwischen Bild- und Textdarstellung - achten Sie auf eine inhaltlich angemessene Gestaltung dieser Schnittstellen nach dem Motto »So viel wie nötig, so knapp und pointiert wie möglich«. ● Bildunterschriften haben auch eine Rahmungsfunktion. Überle‐ gen Sie, welche Akzente und Fokussierungen Sie setzen, welche 272 V Darstellung der Ergebnisse und Ausblick <?page no="273"?> 4 Vgl. www.wisdom.at/ Visualisierung00.aspx »Lesarten« Sie nahelegen, und wie Sie Interpretationsspielräume einengen wollen. ● Machen Sie eigene Darstellungen als solche kenntlich und geben Sie die genauen Quellen von übernommenen Darstellungen an. Diese Liste ist freilich nicht erschöpfend und je nach Anwendungskontext spielen auch Bündel solcher Funktionen eine Rolle. Besonders lehrreich sind in diesem Zusammenhang die bildpädagogischen Überlegungen von Otto Neurath (1891-1945) und seinen Visualisierungsstrategien gesellschaft‐ licher Verhältnisse (vgl. Nemeth 2003). Auch die bekannten Piktogramme gehen auf sein Visualisierungssystem Isotype (International System of Ty‐ pographic Picture Education) zurück (vgl. Hartmann / Bauer 2006). Beispiele zur Visualisierung von Fragebögen und Mikrodaten (Surveys, Panels) finden Sie im Internet. 4 2. Concept-maps, Mind-maps: Concept-maps (Begriffslandkarten) und Mind-maps (Gedächtniskarten) können in einem empirischen Forschungs‐ projekt in vielen Hinsichten sehr nützliche Instrumente sein. Das betrifft insbesondere die visuelle Darstellung von Themengebieten, Vorgangswei‐ sen und Ergebnissen. Der Unterschied zwischen den beiden Werkzeugen besteht im Wesentlichen darin, dass Mind-maps jeweils einen zentralen Ausgangspunkt haben, während Concept-maps mehrere solche haben, die in Beziehung zueinanderstehen. Concept-maps haben eine dezentrale Struk‐ tur, bei der Verknüpfungen zwischen Begriffen aufgezeigt werden, die einen mehr oder weniger komplexen Themenbereich auszeichnen. Während bei Concept-maps die Qualität der begrifflichen Beziehungen spezifiziert wird, geht es beim Mind Mapping mehr um das Prinzip der Visualisierung von Assoziationen zu einem Kernthema und dessen erster Strukturierung. Letzteres steht im Mittelpunkt und wird je nach Grad der Ausdifferenzierung mit Teilaspekten und Einzelheiten in Form von Verästelungen (Zweige und Unterverzweigungen) dargestellt. Beide Methoden können händisch auf Papier oder mittels geeigneter Softwareprogramme eingesetzt werden. 1 Die Darstellung der Ergebnisse 273 <?page no="274"?> Abbildung 12: Visualisierungsbeispiel für die Strukturierung eines Berichts mittels Mind-Map 3. Präsentationssoftware: Visualisierungen und multimedialen Darstellun‐ gen werden heute in vielen Bereichen, so auch in der empirischen Forschung sehr häufig mittels Präsentationssoftware erstellt und dargeboten. Unter diesen Präsentationsmedien, die manchmal auch salopp »slideware« ge‐ nannt werden, erfreut sich PowerPoint besonderer Beliebtheit. Jeden Tag werden viele Millionen Präsentationen mit diesem Programm abgehalten. Seine Funktionen sind zum De-facto-Standard geworden, obschon etliche andere Programme ähnliche Eigenschaften und Funktionalitäten aufweisen (vgl. die Liste am Ende des Kapitels). Die Attraktivität und weite Verbreitung dieser Präsentationsmedien soll allerdings nicht über deren problematische Seiten hinwegtäuschen. Edward Tufte (1997) hat als einer der ersten sehr eindrücklich auf die Schattenseiten aufmerksam gemacht. Er spricht von »chartjunk« und kosmetischen Dekorationen sowie von vergeblichen Hei‐ lungsversuchen inhaltlicher und argumentativer Schwächen (vgl. Tufte 1997, S. 34). 274 V Darstellung der Ergebnisse und Ausblick <?page no="275"?> Abhängigkeit von der Präsentations‐ technik technologiegestützte Erweiterung von Handlungsspielräumen Aufmerksamkeitsspaltung (Publikum, Inhalt, Technik) Gedächtnisstütze, »roter Faden« Tendenzen der Normierung und der Beförderung stereotyper Präsentations‐ weisen kreative Gestaltungsmöglichkeiten und interaktive Nutzungsformen Schmuckelemente und Spielereien mit wenig oder ohne Informationswert Chancen der inhaltlichen Bereicherung und Vermittlung komplexer Zusam‐ menhänge Sedativum und Hypnosemittel Multimedialität und Potenziale lebendi‐ ger Darstellung Tabelle 21: Pro & Kontra von digitalen Präsentationsmedien - ausgewählte Aspekte Wägen Sie ab und entscheiden Sie selbst, inwieweit zeitgenössische Präsen‐ tationsmedien nützliche Hilfsmittel für Sie darstellen. Und vergessen Sie nicht: Man kann in Gruppen unschwer auch ohne PowerPoint Verwirrung stiften und Trancezustände auslösen. Das Spektrum von Möglichkeiten der Visualisierung und multimedialen Darstellung von Forschungsergebnissen ist damit nicht erschöpft. Digitale Werkzeuge, bildgebende Verfahren und multimediale Forschungskonzepti‐ onen werden ständig weiterentwickelt. Sie kommen künftig auch in Sozial- und Kulturwissenschaften verstärkt zum Einsatz. Tipp Wenn Sie Beispiele für dynamische und inhaltlich relevante Präsentatio‐ nen suchen, dann recherchieren Sie doch mal auf der Webseite der ge‐ meinnützigen Organisation Technology, Entertainment, Design (s.-http: / / www.ted.com). Dort können Sie zahlreiche gelungene Beispiele sichten und die entsprechenden Dateien kostenlos herunterladen. Zum Einstieg empfehlen wir Ihnen die Beiträge von Hans Rosling über »Einsichten in Armut« und »Mythen so genannter ›Entwicklungslän‐ der‹«: https: / / www.ted.com/ talks/ hans_rosling_new_insights_on_poverty https: / / www.ted.com/ talks/ hans_rosling_the_best_stats_you_ve_eve r_seen 1 Die Darstellung der Ergebnisse 275 <?page no="276"?> Wichtig Die Opposition technikfeindliche Geistes- und Kulturwissenschaften versus techno-euphorische Ingenieur- und Naturwissenschaften ist aus wissenschaftstheoretischer Sicht historisch überholt. Wie auch immer diese Entwicklung in den nächsten Jahren weiter ver‐ laufen wird, ein Unterschied wird bleiben, auf den wir Sie aufmerksam machen wollen. Es ist dies der Unterschied zwischen lebendig gestalten und lebendig werden lassen. Es ist eine Sache, die Präsentation Ihrer Forschungsergebnisse »durchzukomponieren« und dann engagiert und lebendig vorzutragen - es ist eine andere Sache, bei einer Präsentation Raum für das zu lassen, was den Zuhörern wichtig wird und was leise Stimmen zu sagen haben. Im zweiten Fall heißt lebendig nicht notwendig unterhaltsam, sondern für die einzelnen Anwesenden subjektiv bedeutsam. Last but not least gilt es zu bedenken, für welche Öffentlichkeit die Ergebnisse präsentiert werden sollen. Die Verschriftlichungen und Visua‐ lisierungen, die Sie im Laufe Ihrer Projektarbeiten gemacht haben, sind entsprechend zu überarbeiten und in einer geeigneten Darstellungsform zu verdichten. Entscheidend ist, dass Sie Ihre Forschungsergebnisse auf den Punkt bringen und so rahmen, dass Neugier und Nachvollziehbarkeit wahrscheinlich werden können. Literaturtipps Bernstein, David (1991): Die Kunst der Präsentation. Wie Sie einen Vortrag ausarbeiten und überzeugend darbieten. Frankfurt/ Main, New York: Cam‐ pus. Coy, Wolfgang & Pias, Claus (Hrsg.) (2009): Powerpoint: Macht und Einfluss eines Präsentationsprogramms. Frankfurt-/ -Main: Fischer. Ziegaus, Sebastian (2009): Die Abhängigkeit der Sozialwissenschaften von ihren Medien. Bielefeld: transcript. 276 V Darstellung der Ergebnisse und Ausblick <?page no="277"?> 2 Zur Problematik der »fake science« (B. Lederer) Der Prozess der Erhebung empirischer Daten wie auch ihre statistische Auswertung sind immer wieder Gegenstand von - absichtlichen wie un‐ beabsichtigten - Manipulationen, um gewünschte Ergebnisse als wissen‐ schaftlich belegt erscheinen zu lassen. Speziell im Kontext einer »Kultur der Quantität«, in der Wissenschaftler heute angehalten sind, so viel als möglich in einschlägigen Fachzeitschriften zu publizieren, werden Tricksereien me‐ thodischer Art zu einem drängenden Problem. So genannte »Raubjournale« (predatory journals) publizieren für viel Geld Forschungsergebnisse online, ohne aber (wie behauptet), die eingereichten Fachartikel einer Begutachtung durch ausgewiesene Experten (»peer-review-Verfahren«) zu unterziehen. Aber nur eine »intersubjektive«, d. h. unabhängige und kritische, fach- und methodenkompetente Überprüfung des gesamten Forschungsdesigns, also der Arbeitsschritte von der Hypothesenformulierung, über die Datenerhe‐ bung bis zur Auswertung und Interpretation des Ergebnisses, erfüllt die Kriterien wissenschaftlicher Qualitätsansprüche (»Reliabilität« und »Vali‐ dität«). Jedoch sind es nicht immer (schwer zu erkennende) »fake journals« und darin veröffentlichte »fake science«, welche die Qualität und Glaubwürdig‐ keit von Wissenschaft untergraben. Oft sind es auch kleinere Tricksereien oder die selektive Auswahl von (erhobenen wie ausgewerteten) Daten, die ein Forschungsergebnis gerade noch über die »Signifikanzschwelle« rücken und somit als wissenschaftlich belegt (oder widerlegt) gelten las‐ sen. (Man spricht in dem Zusammenhang bspw. vom »p-test-hacking«). Ganz allgemein spricht man derzeit von einer »Reproduktionskrise« der Wissenschaften (speziell in der Psychologie ist dies derzeit ein großes Thema): Die Ergebnisse vieler bereits veröffentlichter Studien lassen sich bei Wiederholung nicht bestätigen, aber nur reproduzierbare Ergebnisse sind in der Wissenschaft von Wert, ein nur einmaliges Ergebnis bedarf stets der Überprüfung. Universitäten entwickeln derzeit ein verstärktes Problembewusstsein und Aktivitäten, um seriös begutachtete Wissenschaftsjournale von offen be‐ trügerischen oder auch nur qualitativ unzureichenden Fachjournalen einer Forschungsrichtung unterscheiden zu können. Die Bibliothek der Universi‐ tät Graz bspw. bietet diesbezüglich wichtige grundlegende Informationen 2 Zur Problematik der »fake science« 277 <?page no="278"?> und weiterführende Links: https: / / ub.uni-graz.at/ de/ forschen-publizieren/ f ake-journals-predatory-publishing/ Das weite Feld der betrügerischen, aber auch ganz legalen, wenn auch unredlichen Manipulation mit Statistiken ist Gegenstand dieser beiden überaus lesenswerten Bücher: Literaturtipps Bosbach, Gerd & Korff, Jens Jürgen (2011): Lügen mit Zahlen. Wie wir mit Statistiken manipuliert werden. München: Heyne. Krämer, Walter (2015): So lügt man mit Statistik. Frankfurt am Main: Campus Verlag 278 V Darstellung der Ergebnisse und Ausblick <?page no="279"?> 3 Ausblick oder wie entwickle ich meine Methodenkompetenz weiter? (T. Hug) Abschließend kommen wir noch einmal an den Anfang zurück. Wir sagten, dass wir Ihnen mit diesem Buch den Einstieg in Methodenfragen erleichtern und Ihnen helfen wollen, sich im weiten Feld der empirischen Forschung zu orientieren. Auch wenn wir Sie mit jeder einzelnen Seite ermutigen wollen, über Methodenthemen nachzudenken, Anwendungen zu erproben und Schritt für Schritt forschungsmethodische Kompetenzen zu erwerben, so kann es sein, dass es mit der Entwicklung der Methodenkompetenz lang‐ samer weitergeht als erhofft. Manchmal misslingt ein Projekt, manchmal ist ein Plan zum Scheitern verurteilt, und mitunter können die Schwierigkeiten bei der Durchführung einer Studie so groß werden, dass die Verzweiflung überhandnimmt. Was tun? Wir wollen Ihnen an dieser Stelle noch ein paar nützliche Tipps mit auf den Weg geben, die bei der Überwindung solcher Hürden und der Weiterentwicklung Ihrer Methodenkompetenz nützlich sein können. Hilfreich sind sie dann, wenn Sie sich die Tipps zunutze machen und sie Ihnen in der weiteren Folge faktisch geholfen haben. 1. Betrachten Sie die Entwicklung forschungsmethodischer Kompetenzen als ein kontinuierliches Projekt und nicht als eine Sache, die einmal gemacht und dann erledigt ist. Lesen Sie regelmäßig auch Methodenli‐ teratur und konsultieren Sie Internetquellen, die sich mit empirischen Forschungsmethoden befassen. 2. Wenn es klemmt und »nichts weitergeht«, dann versuchen Sie heraus‐ zufinden, auf welcher Ebene das Problem liegt: Geht es um Schwierigkei‐ ten im Umgang mit Abstraktionen und mathematischen Formeln oder eher um Fragen der Kommunikation in der Gruppe? Geht es um medi‐ entechnische Probleme oder eher Fragen des Selbstwertgefühls? Geht es um Versäumnisse im Studium oder eher um überzogene Ansprüche? usw. Machen Sie sich gemeinsam mit Ihrer Betreuungsperson, Studien‐ assisteninnen und kritischen Freunden klar, woran es mutmaßlicher Weise hakt, und setzen Sie dort mit der Problemlösung an. 3. Begrenzen Sie den Aufwand für fruchtlose Bemühungen. Sie kennen vielleicht den Witz, der von zusätzlichen Schildern handelt, die bei den Kreisverkehrszeichen in manchen abgelegenen Regionen angebracht 3 Ausblick oder wie entwickle ich meine Methodenkompetenz weiter? 279 <?page no="280"?> werden sollen: Auf ihnen heißt es »Maximal 10 mal! « Haben Sie den Mut zu lösungsorientierten Ansätzen und hören Sie auf die »Affen zu füttern«, wie es im asiatischen Raum so schön heißt. Damit sind jene Formen der besonders kreativen Kommunikation mit sich selbst gemeint, die uns Ausreden und Ablenkungen aller Art immer dann für wichtig erachten lassen, wenn uns klar ist, welche Dinge geschehen sollen und wie die Reise gut weitergehen könnte. Wenn Ihre Selbstdia‐ gnose Prokrastination, also krankhaftes Aufschieben von Arbeiten lauten sollte, dann nehmen Sie das ernst und gönnen sich ein paar Supervisionsstunden. 4. Orientieren Sie sich konsequent an qualitätsvollen Angeboten und achten Sie darauf, auf wessen Rat Sie hören. Horchen Sie sich im Zweifelsfall nach Möglichkeit mehrere Expertinnen an und wägen Sie ab, wem Sie mit welchen Gründen Gehör schenken. Nutzen Sie verfügbare Unterstützungsangebote von Tutoren und Dozentinnen, und nehmen Sie Sprechstundentermine in wohl vorbereiteter Weise wahr. 5. In den empirischen Wissenschaften ist es wie in der Kunst: Häufig wird etwas präsentiert, das mit dem Alltagsverstand gar nicht oder jedenfalls nicht auf Anhieb nachvollzogen werden kann. Man muss Geduld haben und oft mehrere Anläufe machen, um »dahinter zu kommen«, die »Nuss zu knacken« und ein »Aha-Erlebnis« zu haben. Erinnern Sie sich an Punkt 1 auf der Seite 25 im ersten Kapitel: Die Wissenschaft stellt alltagsweltliche Grundannahmen und Selbstverständlichkeiten in Frage und bricht mit der fraglos angenommenen Perspektive des »So-und-so-ist-es«. 6. Achten Sie auf Kontraste wissenschaftlicher Wissensdarstellungen zu de‐ nen der medialen Alltagsdiskurse. Wenn Sie also in der Tagespresse lesen, dass »eine wissenschaftliche Studie ergeben hat, dass 90 % der Männer dies und das« tun würden, »die Jugendlichen politikverdrossen« seien oder »Frauen im Alter zu diesem und jenem« neigen würden, dann prüfen Sie, ob sich die Auseinandersetzung lohnt und achten Sie darauf, ob Sie Angaben zu den Quellen, zu den untersuchten Gruppen, zum Design der Studie und zu den Methoden finden können. 7. Achten Sie bei der Rezeption von empirischen Forschungsergebnissen auch auf methodische Aspekte und Fragen der Methodenbegründung. Wie werden dabei Erhebungs- und Auswertungsmethoden sowie Auswahl‐ kriterien begründet? Wie angemessen erscheinen Ihnen diese Begrün‐ 280 V Darstellung der Ergebnisse und Ausblick <?page no="281"?> dungen? Sowohl von guten Projekten wie auch aus den Fehlern anderer lässt sich viel lernen. 8. Sortieren Sie die Handlungsrollen als Rezipientin, Student, Planerin, Forscher, Produzentin, Vermittler, Controllerin etc. und halten Sie sich vor Augen, welche Rolle diese Rollen in Ihrem Forschungsprojekt spielen. Vermeiden Sie Vermischungen der Handlungsrollen und holen Sie sich differenziertes Feedback zu konkreten Fragen und Aufgabenbe‐ reichen. 9. Betrachten Sie auch das soziale Umfeld der Orte, an denen Sie forschen und Methodenkompetenz erwerben. Welche Bedeutung haben die Be‐ zugssysteme Technik, Wirtschaft, Politik und Recht? Wie ist die lokale Wissenschaftskultur gestaltet und wie lassen sich allzu enge Handlungs‐ spielräume erweitern oder allzu große Spielräume so eingrenzen, dass ein gedeihlicher Projektfortschritt wahrscheinlich(er) wird? 10. Machen Sie sich Reichweiten und Geltungsansprüche Ihrer Forschung klar. Fassen Sie diese weder zu eng noch zu weit. Auch ausgehend von Einzelfällen lassen sich Aussagen über Muster und Strukturen treffen. Schränken Sie nicht zuletzt im Bereich webbasierter Forschung Ihre Ansprüche möglichst klar und konkret ein. Meine Methodenkompetenz entwickeln: Bisherige Schritte und next steps Tragen Sie in Stichworten die jeweiligen Aktivitäten ein! - Ist-Stand Das habe ich zu‐ letzt gemacht: Soll-Stand Das will ich im nächsten Monat / Semester anpa‐ cken: Überblickswissen in Methodenfragen an‐ eignen - - Begründungen der Methodenanwen‐ dung argumentieren - - ein forschungsmethodisches Konzept kennenlernen (Erhebung, Aufbereitung, Auswertung) - - eine empirische Methode ausprobieren - - eine kleine Studie durchführen (Forschungserfahrungen sammeln) - - 3 Ausblick oder wie entwickle ich meine Methodenkompetenz weiter? 281 <?page no="282"?> ein digitales Werkzeug für Forschungs‐ zwecke ausprobieren Beratung und Unterstützung in An‐ spruch nehmen (z. B. einen Sprechstun‐ dentermin vereinbaren) - - Berichte von empirischen Forschungs‐ projekten rezipieren - - ein für mich neues didaktisches Element in meine Präsentation der Forschungser‐ gebnisse einführen - - Andere Punkte: - - Tabelle 22: Überblick zur eigenen Medienkompetenz Betrachten Sie Ihre Aufstellung und beantworten Sie für sich die folgenden Fragen: ● Wie wichtig sind mir die einzelnen Punkte und wie viel Zeit muss ich schätzungsweise für die einzelnen Vorhaben einräumen? ● Wie viel Zeit steht mir dafür zur Verfügung und wie realistisch sind meine »Arbeitspakete«? ● Wie steht es um den Zugang zum Forschungsfeld und welche Unterstüt‐ zung kann ich in welcher Form bekommen? ● Wie ist das Verhältnis von Neugier und Lust am Ausprobieren zu Zwang und Verpflichtung? ● Wie kann ich über meine Forschungsinteressen mit anderen ins Ge‐ spräch kommen? ● Wie ist das Verhältnis von Anspruch und Wirklichkeit in Sachen Forschungsmethoden und wie halte ich es sonst mit diesem Verhältnis? 282 V Darstellung der Ergebnisse und Ausblick <?page no="283"?> 4 Nützliche Internetquellen und Werkzeuge (T. Hug) Unabhängig davon, wie sehr Ihre empirische Forschung in methodischer Hinsicht internetbasiert ist (oder nicht), bietet das Internet mittlerweile zahlreiche Ressourcen. Hier eine Auswahl relevanter Quellen: Nachschlagewerke, Diskussionsforen, Sammlungen und Übersichten ILMES - Internet-Lexikon der Methoden der empirischen Sozialforschung https: / / wlm.userweb.mwn.de/ Ilmes/ -GESIS - Leibniz-Institut für Sozialwissenschaften https: / / www.gesis.org/ -Forum Qualitative Sozialforschung https: / / www.qualitative-research.net/ -LOTSE - Wegweiser zur Literatursuche und zum wissen‐ schaftlichen Arbeiten der Universität Münster https: / / www.ulb.uni-muenster.de/ lotse/ -[werner.stangl]s arbeitsblätter - Abschnitt über For‐ schungsmethoden: https: / / arbeitsblaetter.stangl-taller.at/ F ORSCHUNGSMETHODEN/ -Online-Kurs der Khan Academy: Statistics and probability https: / / www.khanacademy.org/ math/ statistics-probability Nachschlagewerke, Diskussionsforen, Sammlungen und Übersichten Suche nach wissenschaftlichen Publikationen https: / / hollis.harvard.edu/ https: / / kvk.bibliothek.kit.edu/ https: / / scholar.google.com/ -Social Science Open Access Repository https: / / www.ssoar.info/ ssoar/ -Computer Assisted Qualitative Data Analysis (CAQDAS), University of Surrey https: / / www.surrey.ac.uk/ computer-assisted-qualitative-d ata-analysis -Interdisziplinäre Studien, Kultur- und Ideengeschichte https: / / www.jstor.org/ -Repositorium für medienwissenschaftliche Publikationen https: / / mediarep.org/ 4 Nützliche Internetquellen und Werkzeuge 283 <?page no="284"?> Kollaboration und Kooperation Inhalte gemeinsam bearbeiten und online präsentieren https: / / nextcloud.com https: / / cryptpad.fr/ https: / / www.zoho.com/ https: / / www.snapview.de -File Sharing & Collaboration https: / / www.box.com -Google docs - Dokumente, Tabellen und Präsentationen online bearbeiten https: / / docs.google.com/ -Webbasierte Plattform (incl. Audio- und Video-Unterstüt‐ zung) http: / / www.wiziq.com/ -Chat- und Videoconferencing-Tool https: / / nextcloud.com/ blog/ nextcloud-talk-open-source-o nline-video-conferencing-software/ https: / / bigbluebutton.org/ https: / / jitsi.org/ https: / / wire.com/ https: / / tinychat.com/ -Siehe auch https: / / de.wikipedia.org/ wiki/ Groupware https: / / en.wikipedia.org/ wiki/ List_of_collaborative_softw are Concept-mapping und Mind-mapping Mind Maps und Concept Maps zur strukturierten Darstel‐ lung von Inhalten FreeMind: https: / / freemind.sourceforge.io/ wiki/ index.php / Main_Page Freeplane: https: / / docs.freeplane.org/ xMind: https: / / sourceforge.net/ projects/ xmind3/ IHMC Cmap-Tools: https: / / cmap.ihmc.us/ Concept Mapping - https: / / miro.com/ Siehe auch https: / / en.wikipedia.org/ wiki/ List_of_concept-_and_mind -mapping_software Präsentationssoft‐ ware LibreOffice Impress---https: / / de.libreoffice.org/ discover/ i mpress/ Calligra Stage---https: / / calligra.org/ components/ stage/ Onlyoffice Presentation Editing---https: / / www.onlyoffice. com/ slides.aspx MS PowerPoint---https: / / powerpoint.cloud.microsoft Prezi---https: / / prezi.com/ 284 V Darstellung der Ergebnisse und Ausblick <?page no="285"?> nützliche Helferl‐ eins Freie Bürosoftware https: / / www.openoffice.org/ de/ https: / / nextcloud.com/ de/ office/ -PDF-Dateien erstellen https: / / www.pdfcreator.org/ https: / / freepdfxp.de/ https: / / www.pdfforge.org/ https: / / www.pdfelement.com/ https: / / pdfsam.org/ -Terminplanung und Terminvereinbarung https: / / terminplaner2.dfn.de/ https: / / nuudel.digitalcourage.de/ -Zitieren Zotero - www.zotero.org Citavi - https: / / lumivero.com/ products/ citavi/ -Screenshots und Bildbearbeitung https: / / www.techsmith.com/ snagit/ https: / / www.blender.org/ -Desktop Publishing-Programm www.scribus.net -kommerzielle Vernetzungsplattformen für AkademikerIn‐ nen www.academia.edu www.linkedin.com www.researchgate.net -Skills for Learning - Ressourcensammlung https: / / libguides.leedsbeckett.ac.uk/ skills-for-learning -Online-Wörterbücher und Übersetzungshilfen https: / / dict.cc https: / / dict.leo.org https: / deepl.com www.duden.de https: / / pons.eu Software Down‐ loads https: / / sourceforge.net https: / / www.hotscripts.com https: / / de.softonic.com https: / / openlab.esev.ipv.pt -Spezialtipps: Überblick über freie Software (FLOSS) für Bildungszwecke: https: / / www.gnu.org/ software/ free-software-for-educatio n.html 4 Nützliche Internetquellen und Werkzeuge 285 <?page no="286"?> Openlab ESEV (Nelson A. F. Gonçalves): https: / / ensinolivr e.pt/ files/ guiasoftwarelivrev11.pdf (Meta-)Suchmaschi‐ nen https: / / curlie.org/ World/ Deutsch/ Computer/ Internet/ Suc hen/ Suchmaschinen/ Metasucher/ https: / / www.hotbot.com/ KI-Systeme und Werkzeuge Hugging Face (Überblick) - https: / / huggingface.co Ollama---https: / / ollama.com/ AnythingLLM - https: / / useanything.com Llama - https: / / llama.meta.com Mixtral---https: / / mistral.ai OpenAI ChatGPT - https: / / openai.com/ de-DE/ chatgpt/ do wnload/ Gemini - https: / / gemini.google.com Claude Sonnet---https: / / claude.ai AskAlice - https: / / ask.alice-ch3n81.net/ Weitere Werkzeuge https: / / huggingface.co/ spaces/ open-llm-leaderboard/ open _llm_leaderboard#/ https: / / chatbotapp.ai/ landing-gpt4o? u https: / / chatgpt.com/ g/ g-NgAcklHd8-scispace https: / / chatgpt.com/ g/ g-kZ0eYXlJe-scholar-gpt Spezialhinweis Virtuelles Kompetenzzentrum: Künstliche Intelligenz und wissenschaftliches Arbeiten - https: / / www.vkkiwa.de/ Tabelle 23: Empirische Forschung - Auswahl nützlicher Internetquellen Gutes Gelingen und viel Freude sowie auch Kraft, Geduld und Ausdauer bei Ihren empirischen Forschungsaktivitäten wünschen Ihnen das Autoren‐ team! 286 V Darstellung der Ergebnisse und Ausblick <?page no="287"?> Literaturhinweise Titel, auf die im Text verwiesen wurde Banaka, William H. (1971): Training in depth interviewing. New York: Harper & Row. Baur, Nina & Blasius, Jörg (2022): Handbuch Methoden der empirischen Sozialfor‐ schung. Wiesbaden: Springer VS. Bohnsack, Ralf (2021): Rekonstruktive Sozialforschung. Einführung in qualitative Methoden. 10. Aufl. Stuttgart: Budrich, utb. Bohnsack, Ralf; Nentwig-Gesemann, Iris & Nohl, Arnd-Michael (Hrsg.) (2013): Die dokumentarische Methode und ihre Forschungspraxis. Grundlagen qualitativer Sozialforschung. Wiesbaden: Springer VS. Bogner, Alexander; Littig, Beate & Menz, Wolfgang (2014): Interviews mit Experten: eine praxisorientierte Einführung. Wiesbaden: Springer. Braun, Edmund & Radermacher, Hans (1978): Wissenschaftstheoretisches Lexikon. Graz-/ Wien / Köln: Styria. Braun, Virginia & Clarke, Victoria (2006): Using thematic analysis in psychology. Qualitative Research in Psychology, 3, 77-101. Braun, Virginia & Clarke, Victoria (2022): Thematic Analysis. A Practical Guide. London: Sage. Buchholz, Michael (Hrsg.) (2001): Metaphernanalyse. Göttingen: Vandenhoeck und Ruprecht. Denz, Hermann & Horst O. Mayer (2001a): Methoden der quantitativen Sozialfor‐ schung. In: Hug, Theo (Hrsg.): Wie kommt Wissenschaft zu Wissen? Band 2: Einführung in die Forschungsmethodik und Forschungspraxis. Baltmannsweiler: Schneider-Verlag Hohengehren, S. 75-105. Denz, Hermann & Horst O. Mayer (2001b): Methodologie der quantitativen So‐ zialforschung. In: Hug, Theo (Hrsg.): Wie kommt Wissenschaft zu Wissen? Band 3: Einführung in die Methodologie der Sozial- und Kulturwissenschaften. Hohengehren: Schneider, S. 52-59. Denzin, Norman (1978): Sociological Methods: A Sourcebook. New York: McGraw Hill. Deppermann, Arnulf (2008): Gespräche analysieren. Eine Einführung. 4. Aufl. Wies‐ baden: VS. <?page no="288"?> Diem-Wille, Gertraud & Turner, Agnes (Hrsg.) (2009): Ein-Blicke in die Tiefe. Die Methode der psychoanalytischen Säuglingsbeobachtung und ihre Anwendungen. Stuttgart: Klett-Cotta. Diem-Wille, Gertraud & Turner, Agnes (Hrsg.) (2012): Die Methode der psychoana‐ lytischen Beobachtung. Über die Bedeutung von Containment, Identifikation, Abwehr und anderen Phänomenen in der psychoanalytischen Beobachtung. Wien: Facultas. Ellis, Carolyn; Adams, Tony E. & Bochner, Arthur P. (2010): Autoethnografie. In: Mey, Günter; Mruck, Katja (Hrsg.): Handbuch Qualitative Forschung in der Psychologie. Wiesbaden: VS, S.-345-357. Faßler, Manfred (1997): Was ist Kommunikation? München: Wilhelm Fink Verlag. Fire, Michael; Elbazis, Yitzhak; Wasenstein, Adi & Rokach, Lior (2025): Dark LLMs: The Growing Threat of Unaligned AI Models. ArXiv, Online-Dokument: https: / / doi.org/ 10.48550/ arxiv.2505.10066.Download am 06.06.2025. Flick, Uwe (1996): Psychologie des technisierten Alltags. Opladen: Westdeutscher Verlag. Flick, Uwe (2007): Qualitative Sozialforschung. Eine Einführung. 11. Aufl. Reinbek bei Hamburg: Rowohlt. Flick, Uwe (2004): Triangulation. In: Flick, Uwe; von Kardorff, Ernst & Steinke, Ines (Hrsg.): Qualitative Forschung. Ein Handbuch. Reinbek bei Hamburg: Rowohlt, S. 309-318. Flick, Uwe; v. Kardoff, Ernst & Steinke, Ines (Hrsg.) (2004): Qualitative Forschung. Ein Handbuch. Reinbek bei Hamburg: Rowohlt. Girtler, Roland (2004): 10 Gebote der Feldforschung. Wien: LIT-Verlag. Girtler, Roland (2002): Methoden der Feldforschung. Wien: Böhlau Verlag. Glaser, Barney & Strauss, Anselm (1998): Grounded Theory. Strategien qualitativer Forschung. Bern: Huber. Hartmann, Frank & Bauer, Erwin K. (2006): Bildersprache: Otto Neurath, Visualisie‐ rungen. Wien: WUV. Hartmann, Petra (2001): Qualitative Interviews nach der PRA-Methode - mit Moderationstechniken in nur sieben Tagen von der Interviewerschulung bis zur Präsentation der Ergebnisse. Sozialwissenschaften und Berufspraxis, 24(2), S.-165-170. Hug, Theo (2001): Erhebung und Auswertung empirischer Daten: Eine Skizze für AnfängerInnen und leicht Fortgeschrittene. In: Hug, Theo (Hrsg.): Wie kommt Wissenschaft zu Wissen? Band 2: Einführung in die Forschungsmethodik und Forschungspraxis. Baltmannsweiler: Schneider-Verlag Hohengehren, S. 11-29. 288 Literaturhinweise <?page no="289"?> Hug, Theo & Niedermair, Klaus (Hrsg.) (2025): Handreichung Wissenschaftliches Arbeiten. Innsbruck: Studia Universitätsverlag. https: / / ulb-dok.uibk.ac.at/ urn/ ur n: nbn: at: at-ubi: 3-42280 Kelle, Udo & Erzberger, Christian (2004): Qualitative und quantitative Methoden: kein Gegensatz. In: Flick, Uwe; von Kardorff, Ernst & Steinke, Ines (Hrsg.): Qualitative Forschung. Ein Handbuch. Reinbek bei Hamburg: Rowohlt, S. 299- 309. Kelle, Udo; Kluge, Susann (2010): Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung. Wiesbaden: VS. Keller, Reiner (2010): Diskursforschung. Eine Einführung für Sozialwissenschaftler‐ Innen. 4. Aufl. Wiesbaden: VS. Köhler, Thomas (2004): Statistik für Psychologen, Pädagogen und Mediziner. Ein Lehrbuch. Stuttgart: Kohlhammer. Krüger, Kira (2021): Die Ära der Datafizierung. Medieninnovation als Wandel der Medientypologien. Wiesbaden: Springer. Lakoff, George & Johnson, Mark (2007): Leben in Metaphern. Konstruktion und Gebrauch von Sprachbildern. Heidelberg: Carl Auer. Krell, Claudia; Lamnek, Siegfried (2010): Qualitative Sozialforschung. Mit On‐ line-Material. 7. Aufl. Weinheim: Beltz. Leithäuser, Thomas & Volmerg, Birgit (1979): Anleitung zur Empirischen Hermeneu‐ tik. Psychoanalytische Textinterpretation als sozialwissenschaftliches Verfahren. Frankfurt/ Main: Suhrkamp. Lucius-Hoene, Gabriele & Deppermann, Arnulf (2004): Rekonstruktion narrativer Identität. Ein Arbeitsbuch zur Analyse narrativer Interviews. Wiesbaden: Verlag für Sozialwissenschaften. Mayring, Philipp (2001): Kombination und Integration qualitativer und quantitativer Analyse. Forum Qualitative Sozialforschung 2 (1). https: / / www.qualitative-resea rch.net/ index.php/ fqs/ article/ view/ 967/ 2110. Download am 06.06.2025. Mayring, Philipp (2023): Einführung in die Qualitative Sozialforschung. 7. Aufl. Weinheim, Basel: Beltz. Mayring, Philipp (2022): Qualitative Inhaltsanalyse. Grundlagen und Techniken. 13. Aufl. Weinheim, Basel: Beltz. Mayring, Philipp (2007): Designs in qualitativ orientierter Forschung. Journal für Psychologie 15, Ausgabe 2. https: / / journal-fuer-psychologie.de/ article/ view/ 127. Download am 06.06.2025. Merton, Robert K. & Kendall, Patricia L. (1945): Das fokussierte Interview. In: Hopf, Christel & Weingarten, Elmar (Hrsg.) (1979): Qualitative Sozialforschung. Stuttgart: Klett-Cotta, S. 171-204. Literaturhinweise 289 <?page no="290"?> Moritz, Christine (2011): Multikodale Transkription von Videodaten in der Qualita‐ tiven Sozialforschung. Wiesbaden: Springer VS. Nemeth, Elisabeth (2003): Gesellschaftliche Tatbestände sichtbar machen. Otto Neurath über den Gegenstand der Wirtschaftswissenschaft und seine Visualisie‐ rung. In: Czerwinska-Schupp, Ewa (Hrsg.): Philosophie an der Schwelle des 21.-Jahrhunderts. Frankfurt-/ -Main u. a.: Peter Lang, S. 181-208. Niedermair, Klaus (2023): Recherchieren, Dokumentieren, Zitieren. Die Arbeit mit wissenschaftlichen Quellen. 2. Aufl. Tübingen u.-a.: utb. Nohl, Arnd-Michael (2009): Interview und dokumentarische Methode. Anleitungen für die Forschungspraxis. Wiesbaden: VS. Oevermann, Ulrich; Allert, Tilman; Konau, Elisabeth & Krambeck, Jürgen (1979). Die Methodologie einer »objektiven Hermeneutik« und ihre allgemeine forschungs‐ logische Bedeutung in den Sozialwissenschaften. In: Hans-Georg Soeffner (Hrsg.): Interpretative Verfahren in den Sozial- und Textwissenschaften. Stuttgart: Metz‐ ler, 352-434. Oevermann, Ulrich (2002): Klinische Soziologie auf der Basis der Methodologie der objektiven Hermeneutik - Manifest der objektiv hermeneutischen Sozialfor‐ schung. https: / / www.ihsk.de/ publikationen/ Ulrich_Oevermann-Manifest_der_o bjektiv_hermeneutischen_Sozialforschung.pdf. Download am 06.06.2025. Ploder, Andrea & Stadlbauer, Johanna (2013): Autoethnographie und Volkskunde? Zur Relevanz wissenschaftlicher Selbsterzählungen fur̈ die volkskundlich-kultur‐ anthropologische Forschungspraxis. Österreichische Zeitschrift für Volkskunde, 116(3-4), 373-404. Poscheschnik, Gerald (2005): Empirische Forschung in der Psychoanalyse-- Einige Gedanken zur wissenschaftstheoretischen und methodologischen Standortbe‐ stimmung. In: Poscheschnik, Gerald (Hrsg.): Empirische Forschung in der Psycho‐ analyse. Grundlagen - Anwendungen - Ergebnisse. Gießen: Psychosozial-Verlag, S. 11-59. Pross, Harry (1972): Medienforschung: Film, Funk, Presse, Fernsehen. Darmstadt u. a.: Habel. Przyborski, Aglaja & Riegler, Julia (2010): Gruppendiskussion und Fokusgruppe. In: Mey, G.; Mruck, K. (Hrsg): Handbuch Qualitative Forschung in der Psychologie. Vs: Verlag für Sozialwissenschaften, S.-436-448. Rico, Gabriele L. (2002): Garantiert schreiben lernen: Sprachliche Kreativität metho‐ disch entwickeln - ein Intensivkurs auf der Grundlage der modernen Gehirnfor‐ schung. Reinbek bei Hamburg: Rowohlt. Salcher, Ernst F. (1995): Psychologische Marktforschung. Berlin: de Gruyter. 290 Literaturhinweise <?page no="291"?> Scheele, Brigitte & Groeben, Norbert (1988): Dialog-Konsens-Methoden zur Re‐ konstruktion Subjektiver Theorien. Die Heidelberger Struktur-Lege-Technik, konsensuale Ziel-Mittel-Argumentation und kommunikative Flußdiagramm-Be‐ schreibung von Handlungen. Tübingen: Francke. Schmitt, Rudolf (2000): Skizzen zur Metaphernanalyse. Forum Qualitative Sozial‐ forschung 1. www.qualitative-research.net/ index.php/ fqs/ article/ view/ 1130/ 2514 . Download am 09.07.2025 Schmitt, Rudolf (2003): Methode und Subjektivität in der Systematischen Meta‐ phernanalyse. Forum Qualitative Sozialforschung 4. https: / / www.qualitative-res earch.net/ index.php/ fqs/ article/ view/ 714/ 1547. Download am 09.07.2025 Schütze, Fritz (1983): Biographieforschung und narratives Interview. Neue Praxis 13, S. 283-293. Seifert, Josef W. (2011): Visualisieren - Präsentieren - Moderieren.-33. Aufl. Speyer: Gabal. Seiffert, Helmut & Radnitzky, Gerhard (Hg.) (1989): Handlexikon zur Wissenschafts‐ theorie. München: Ehrenwirth. Steinke, Ines (2004): Gütekriterien qualitativer Forschung. In: Flick, Uwe; von Kardorff, Ernst; Steinke, Ines (Hrsg.): Qualitative Forschung. Ein Handbuch. Reinbek bei Hamburg: Rowohlt, S. 319-331. Tufte, Edward R. (1997): Visual explanations. Images and quantities, evidence and narrative. Cheshire, Conn.: Graphics Press. Ulich, Dieter; Haußer, Karl & Mayring, Philipp (1985): Psychologie der Krisenbe‐ wältigung. Eine Längsschnittuntersuchung mit arbeitslosen Lehrern. Weinheim: Beltz. Witzel, Andreas (2000): Das problemzentrierte Interview [25 Absätze]. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research 1, Art. 22. www. qualitative-research.net/ index.php/ fqs/ article/ viewArticle/ 1132/ 2519. Download 25.07.2019. Weitere Literaturtipps zu den einzelnen Kapiteln Kapitel I (Ausgangspunkte) Eberhard, Kurt (1999): Einführung in die Erkenntnis- und Wissenschaftstheorie. Geschichte und Praxis der konkurrierenden Erkenntniswege. 2. Aufl. Stuttgart u. a.: Kohlhammer. Feyerabend, Paul (1984): Wissenschaft als Kunst. Frankfurt am Main: Suhrkamp. Literaturhinweise 291 <?page no="292"?> Heßler, Martina (Hrsg.) (2006): Konstruierte Sichtbarkeiten: Wissenschafts- und Technikbilder seit der Frühen Neuzeit. München: Fink. Hierdeis, Helmwart & Hug, Theo (1997): Pädagogische Alltagstheorien und erzie‐ hungswissenschaftliche Theorien. Bad Heilbrunn: Klinkhardt. Langmaack, Barbara & Braune-Krickau, Michael (2010): Wie die Gruppe laufen lernt. Anregungen zum Planen und Leiten von Gruppen. Ein praktisches Lehrbuch. 8. Aufl. (Erstauflage 1985). Weinheim: Beltz Psychologie-Verlags-Union. Meyerhuber, Sylke, Reiser, Helmut, & Scharer, Matthias (2019): Theme-Centered Interaction (TCI) in Higher Education: A Didactic Approach for Sustainable and Living Learning. Cham: Springer International Publishing AG Portele, Gerhard & Heger, Michael (Hrsg.) (1995): Hochschule und Lebendiges Lernen. Beispiele für Themenzentrierte Interaktion. Weinheim: Deutscher Studi‐ enverlag. Schneider-Landolf, Mina; Spielmann, Jochen & Zitterbarth, Walter (Hrsg.) (2014): Handbuch Themenzentrierte Interaktion (TZI). 3. Aufl., Göttingen: Vandenhoeck & Ruprecht. Kapitel II (Erste Schritte-- Die Planung eines Forschungsprojekts) Albers, Sönke; Klapper, Daniel; Konradt, Udo; Walter, Achim & Wolf, Joachim (Hrsg.) (2009): Methodik der empirischen Forschung. 3. Aufl. Wiesbaden: Gabler. Arbeitskreis Qualitative Sozialforschung (Hrsg.) (1994): Verführung zum Qualitati‐ ven Forschen. Eine Methodenauswahl. Wien: WUV. Flick, Uwe; von Kardorff, Ernst & Steinke, Ines (2015) (Hrsg.): Qualitative Forschung. Ein Handbuch. 11. Aufl. Reinbek bei Hamburg: Rowohlt. Kapitel III (Datenerhebung und Datenaufbereitung) Flick, Uwe; von Kardorff, Ernst & Steinke, Ines (2015) (Hrsg.): Qualitative Forschung. Ein Handbuch. 11. Aufl. Reinbek bei Hamburg: Rowohlt. Garz, Detlef & Kraimer, Klaus (Hrsg.) (1991): Qualitativ-Empirische Sozialfor‐ schung. Konzepte, Methoden, Analysen. Opladen: Westdeutscher Verlag. Jones, Steve (Ed.) (1999): Doing Internet Reserach: Critical Issues and Methods for Examining the Net. London: Sage Publications. Markham, Annette N. & Baym, Nancy K. (2009) (Eds.): Internet Inquiry: Conversa‐ tions about Method. London: Sage Publications. Mikos, Lothar (2023): Film- und Fernsehanalyse. 4. Aufl. Konstanz: UVK. Mikos, Lothar & Wegener, Claudia (2005): Qualitative Medienforschung: Ein Hand‐ buch. Konstanz: UVK. 292 Literaturhinweise <?page no="293"?> Moser, Heinz (2008): Instrumentenkoffer für die Praxisforschung. Eine Einführung. Zürich: Lambertus. Vavoula, Giasemi; Pachler, Norbert & Kukulska-Hulme, Agnes (Eds.) (2009): Re‐ searching Mobile Learning: Frameworks, Tools and Research Designs. Frank‐ furt-/ -Main u. a.: Peter Lang. Kapitel IV (Datenauswertung) Bohnsack, Ralf (2021): Rekonstruktive Sozialforschung. Einführung in qualitative Methoden. 10. Aufl. Opladen: Leske & Budrich, utb. Buchholz, Michael B. (Hrsg.) (2001): Metaphernanalyse. Göttingen: Vandenhoeck und Ruprecht. Deppermann, Arnulf (2008): Gespräche analysieren. Eine Einführung. 4. Aufl. Wies‐ baden: VS. Flick, Uwe; von Kardorff, Ernst & Steinke, Ines (2015) (Hrsg.): Qualitative Forschung. Ein Handbuch. 11. Aufl. Reinbek bei Hamburg: Rowohlt. Glaser, Barney & Strauss, Anselm (2010): Grounded Theory. Strategien qualitativer Forschung. 3. Aufl. Bern: Huber. Jäger, Siegfried (2015): Kritische Diskursanalyse. Eine Einführung. 6. Aufl. Duisburg: DISS. Klein, Regina (2010): Tiefenhermeneutische Analyse. https: / / www.fallarchiv.uni -kassel.de/ backup/ wp-content/ plugins.old/ lbg_chameleon_videoplayer/ lbg_vp2 / videos/ / klein_tiefenhermeneutik.pdf Download am 09.07.2025 Knaus, Thomas (Hrsg.) (2017, 2018, 2019): Projekt - Theorie - Methode. Spektrum medienpädagogischer Forschung. 3 Bände. München: Kopaed. Kruse, Jan; Biesel, Kay; Schmieder, Christian (2011): Metaphernanalyse. Ein rekonst‐ ruktiver Ansatz. Wiesbaden: VS. Lucius-Hoene, Gabriele & Deppermann, Arnulf (2004): Rekonstruktion narrativer Identität. Ein Arbeitsbuch zur Analyse narrativer Interviews. Wiesbaden: Verlag für Sozialwissenschaften. Mikos, Lothar (2023): Film- und Fernsehanalyse. 4. Aufl. Konstanz: UVK. Mikos, Lothar & Wegener, Claudia (2005): Qualitative Medienforschung: Ein Hand‐ buch. Konstanz: UVK. Przyborski, Aglaja & Wohlrab-Sahr, Monika (2021): Qualitative Sozialforschung. Ein Arbeitsbuch. 5., überarbeitete und erweiterte Aufl. Berlin; Boston: De Gruyter Oldenbourg. Scheufele, Betram & Engelmann, Ines (2009): Empirische Kommunikationsfor‐ schung. Konstanz: UVK. Literaturhinweise 293 <?page no="294"?> Schmitt, Rudolf; Schröder, Julia & Pfaller, Larissa (2018): Systematische Metaphern‐ analyse. Eine Einführung. Wiesbaden: Springer VS. Schnell, Rainer; Hill, Paul B. & Esser, Elke (2013): Methoden der Empirischen Sozialforschung. 10. Aufl. München: Oldenbourg. Strübing, Jörg (2021): Grounded Theory. Zur sozialtheoretischen und epistemologi‐ schen Fundierung des Verfahrens der empirisch begründeten Theoriebildung. 4. Aufl. Wiesbaden: VS Verlag für Sozialwissenschaften. Kapitel V (Darstellung der Ergebnisse und Ausblick) Baumgartner, Peter & Payr, Sabine (2001): Studieren und Forschen mit dem Internet. Innsbruck, Wien: Studien-Verlag. Buck, Isabella (2025). Wissenschaftliches Schreiben mit KI. Stuttgart: utb/ UVK. Kruse, Otto (2018): Lesen und Schreiben. Der richtige Umgang mit Texten im Studium. 3. Aufl. Konstanz u. a.: utb. Seifert, Josef W. (2011): Visualisieren - Präsentieren - Moderieren. 33. Aufl. Speyer: Gabal. Sesink, Werner (2012): Einführung in das wissenschaftliche Arbeiten inklusive E-Le‐ arning, Web-Recherche, digitale Präsentation u. a. 9. Aufl. München: Oldenbourg. Vögtli, Alexander & Ernst, Beat (2007): Wissenschaftliche Bilder. Eine Bildkritik. Basel (Schwabe). Weber, Karsten: Simulationen in den Sozialwissenschaften. In: Journal for General Philosophy of Science, Volume 38, Number 1-/ -April 2007, S. 111-126. Titel, die in den Kästen aufscheinen Kapitel I (Ausgangspunkte) Baur, Nina & Blasius, Jörg (2022): Handbuch Methoden der empirischen Sozialfor‐ schung. 3. Aufl Wiesbaden: Springer VS. Flick, Uwe; Kardorff, Ernst v. & Steinke, Ines (Hrsg.) (2005): Qualitative Forschung. Ein Handbuch. 7. Aufl. Reinbek bei Hamburg: Rowohlt. Heinze, Thomas (2001): Qualitative Sozialforschung. Einführung, Methodologie und Forschungspraxis. München / Wien: Oldenbourg. Hug, Theo (Hrsg.) (2001): Wie kommt Wissenschaft zu Wissen? 4 Bände, Baltmanns‐ weiler: Schneider-Verlag Hohengehren. Hug, Theo & Niedermair, Klaus (Hrsg.) (2025): Handreichung Wissenschaftliches Arbeiten. Innsbruck: Studia Universitätsverlag. https: / / ulb-dok.uibk.ac.at/ urn/ ur n: nbn: at: at-ubi: 3-42280 294 Literaturhinweise <?page no="295"?> Hussy, Walter; Schreier, Margrit & Echterhoff, Gerald (2013): Forschungsmethoden in Psychologie und Sozialwissenschaften - für Bachelor. 2. Aufl. Berlin u. a.: Springer. Kruse, Otto (2018): Lesen und Schreiben. Der richtige Umgang mit Texten im Studium. 3. Aufl. Konstanz u. a.: utb. Mautner, Gerlinde (2016): Wissenschaftliches Englisch. Stilsicher schreiben in Stu‐ dium und Wissenschaft. Grundlagen und Anwendungen. 2. Aufl Konstanz u. a.: utb. Niedermair, Klaus (2023): Recherchieren, Dokumentieren, Zitieren. Die Arbeit mit wissenschaftlichen Quellen. 2. Aufl. Tübingen u.-a.: utb. Raithel, Jürgen (2008): Quantitative Forschung: Ein Praxiskurs. 2. Aufl. Wiesbaden: VS. Schreier, Margrit; Echterhoff, Gerald; Bauer, Jana F., Weydmann, Nicole & Hussy, Walter (2023): Forschungsmethoden in Psychologie und Sozialwissenschaften für Bachelor. 3. Aufl. 2023. Berlin, Heidelberg: Springer. Kapitel II (Erste Schritte-- Die Planung eines Forschungsprojekts) Heiser, Patrick (2024): Meilensteine der qualitativen Sozialforschung: Eine Einfüh‐ rung entlang klassischer Studien. 2. Aufl. Wiesbaden: Springer. Hug, Theo (2001): Erhebung und Auswertung empirischer Daten: Eine Skizze für AnfängerInnen und leicht Fortgeschrittene. In: Hug, Theo (Hrsg.): Wie kommt Wissenschaft zu Wissen? Band 2: Einführung in die Forschungsmethodik und Forschungspraxis. Hohengehren: Schneider, S. 11-29. Köhler, Thomas (2012): Statistik.: Ein kurz gefasstes Lehrbuch für das Bachelorstu‐ dium der Psychologie, Pädagogik und Sozialwissenschaften. Heidelberg: Asanger. König, Eckard & Bentler, Annette (2013): Konzepte und Arbeitsschritte im qualita‐ tiven Forschungsprozess - ein Leitfaden. In: Friebertshäuser, Barbara; Langer, Antje & Prengel, Annedore (Hrsg.): Handbuch qualitative Forschungsmethoden in der Erziehungswissenschaft. 4. Aufl. Weinheim / München: Juventa, S. 173- 182. Mayring, Philipp (2001): Kombination und Integration qualitativer und quantitati‐ ver Analyse. Forum Qualitative Sozialforschung 2 (1).http: / / www.qualitative-re‐ search.net/ index.php/ fqs/ article/ view/ 967/ 2111. Download am 15.04.2019. Mayring, Philipp (2007): Designs in qualitativ orientierter Forschung. Journal für Psychologie 15, Ausgabe 2. https: / / journal-fuer-psychologie.de/ article/ view/ 127/ 111. Download am 09.07.2025. Literaturhinweise 295 <?page no="296"?> Mayring, Philipp (2023): Einführung in die Qualitative Sozialforschung. 7. Aufl Weinheim, Basel: Beltz. Mörtl, Kathrin; Lamott, Franziska (2010): Wie wird Veränderung in der Psychothe‐ rapieforschung gemessen? Ein Plädoyer für triangulierende Forschung. Psycho‐ therapie und Sozialwissenschaft 12 (2), 95-102. Poscheschnik, Gerald (2012): Macht und Ohnmacht des Szientismus. Oder: Die Chance qualitativer Forschung. Psychotherapie und Sozialwissenschaft 14 (2), 13-36. Steinke, Ines (2015): Gütekriterien qualitativer Forschung. In: Flick, Uwe; von Kardorff, Ernst & Steinke, Ines (Hrsg.): Qualitative Forschung. Ein Handbuch. 11. Aufl. Reinbek bei Hamburg: Rowohlt, S. 319-331. Kapitel III (Datenerhebung und Datenaufbereitung) Atteslander, Peter; Ulrich, Georges-Simon; Hadjar, Andreas & Lenk, Manuela (2023): Methoden der empirischen Sozialforschung. 14. Aufl. Berlin u. a.: ESV. Chapinal-Heras, Diego & Carlos Díaz-Sánchez (2024): A review of AI applications in human sciences research. In: Digital Applications in Archaeology and Cultural Heritage, Vol. 32, e00323. https: / / doi.org/ 10.1016/ j.daach.2024.e00323 Crawford, Kate (2024): Atlas der KI: Die materielle Wahrheit hinter den neuen Datenimperien. München: C.H. Beck. Diekmann, Andreas (2023): Empirische Sozialforschung: Grundlagen, Methoden, Anwendungen. Reinbek: Rowohlt. Döring, Nicola (2023): Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften. 6. Aufl. Berlin: Springer. Fuß, Susanne & Karbach, Ute (2019): Grundlagen der Transkription: Eine praktische Einführung. 2. Aufl. Leverkusen: Verlag Barbara Budrich. Flick, Uwe (2017): Qualitative Sozialforschung. Eine Einführung. 8. Aufl. Reinbek bei Hamburg: Rowohlt. Girtler, Roland (2009): Methoden der Feldforschung. 4. Aufl. Stuttgart: utb. Hase, Valerie (2021): Introduction to Automated Content Analysis in R. https: / / bo okdown.org/ valerie_hase/ TextasData_HS2021/ introduction-to-automated-conte nt-analysis-in-r.html Irion, Thomas (2002): Einsatz von Digitaltechnologien bei der Erhebung, Aufberei‐ tung und Analyse multicodaler Daten [61 Absätze]. Forum Qualitative Sozialfor‐ schung / Forum: Qualitative Social Research, 3(2), Art. 16, www.qualitative-resea rch.net/ index.php/ fqs/ article/ view/ 855/ 1859. Download am 06.06.2025. 296 Literaturhinweise <?page no="297"?> Helfferich, Cornelia. (2019): Die Qualität qualitativer Daten. Manual für die Durch‐ führung qualitativer Interviews. 5. Aufl. Wiesbaden: VS Verlag für Sozialwissen‐ schaften. Kahlert, Peter et al. (2024). Künstliche Intelligenz: Eine Methode für alles? Sozial‐ wissenschaftliche Methodologie der KI-Forschung, ihre Herausforderungen und Möglichkeiten. In: Heinlein, Michael & Huchler, Norbert (Hrsg.): Künstliche Intelligenz, Mensch und Gesellschaft. Wiesbaden: Springer VS, S. 501-530. https : / / doi.org/ 10.1007/ 978-3-658-43521-9_19 Kinder-Kurlanda, Katharina (2020): Big Social Media Data als epistemologische Herausforderung für die Soziologie. Soziale Welt, Sonderband 23 „Soziologie des Digitalen - Digitale Soziologie? “ S.-109-133. DOI: 10.5771/ 9783845295008-109 Krell, Claudia; Lamnek, Siegfried (2024): Qualitative Sozialforschung. 7. Aufl., Wein‐ heim: Beltz. Kromrey, Helmut; Roose, Jochen & Strübing, Jörg (2016): Empirische Sozialfor‐ schung. Modelle und Methoden der standardisierten Datenerhebung und Daten‐ auswertung. 13. Aufl. Konstanz: UVK. Kurtz, Thomas; Meister, Dorothee M. & Sander, Uwe (2024): Digitale Medien und die Produktion von Wissenschaft: Wissenschaftliches Forschen, Schreiben und Publizie‐ ren in den Geistes- und Sozialwissenschaften unter den Bedingungen des digitalen Wandels. Wiesbaden: Springer VS. URL: https: / / doi.org/ 10.1007/ 978-3-658-42542 -5 Lewins, Ann & Silver, Christina (2014): Using Software in Qualitative Research: A Step-by-Step Guide. 2. Aufl. London: Sage Publications. Mayer, Horst Otto (2012): Interview und schriftliche Befragung. Grundlagen und Methoden empirischer Sozialforschung. 6. Aufl. München / Wien: Oldenbourg. Mayring, Philipp (2023): Einführung in die Qualitative Sozialforschung. 7. Aufl., Weinheim, Basel: Beltz. Ortner, Gerhard (2025): Künstliche Intelligenz im wissenschaftlichen Arbeiten. In: Hug, Theo & Niedermair, Klaus (Hrsg.) (2025): Handreichung Wissenschaftliches Arbeiten. Innsbruck: Studia Universitätsverlag, S. 33-50. https: / / ulb-dok.uibk.ac. at/ ulbtirolfodok/ download/ pdf/ 11835701 Pzryborski, Aglaja & Wohlrab-Sahr, Monika (2021): Qualitative Sozialforschung: Ein Arbeitsbuch. 5. Aufl. München / Wien: Oldenbourg. Raithel, Jürgen (2008): Quantitative Forschung: Ein Praxiskurs. Wiesbaden: VS. Rössler, Patrick (2017): Inhaltsanalyse. 3. Aufl. Konstanz: UVK. Weischer, Christoph & Gehrau, Volker (2017): Die Beobachtung als Methode in der Soziologie. Konstanz: UVK. Literaturhinweise 297 <?page no="298"?> Kapitel IV (Datenauswertung) Bohnsack, Ralf; Nentwig-Gesemann, Iris; Nohl, Arnd-Michael (Hrsg.) (2013): Die dokumentarische Methode und ihre Forschungspraxis. Grundlagen qualitativer Sozialforschung. Wiesbaden: Springer VS. Bosbach, Gerd & Korff, Jens Jürgen (2011): Lügen mit Zahlen. Wie wir mit Statistiken manipuliert werden. 3. Aufl. München: Heyne Verlag. Braun, Virginia; Clarke, Victoria (2022): Thematic Analysis. A Practical Guide. London: Sage. Deppermann, Arnulf (2008): Gespräche analysieren. Eine Einführung in konversa‐ tionsanalytische Methoden. 4. Aufl. Opladen: Leske und Budrich. Diem-Will, Gertraud; Turner, Agnes (Hrsg.) (2009): Ein-Blicke in die Tiefe. Die Methode der psychoanalytischen Säuglingsbeobachtung und ihre Anwendungen. Stuttgart: Klett-Cotta. Dienlin, Tobias; Johannes, Niklas; Bowman, Nicholas David; Masur, Philipp K.; Engesser, Sven; Kümpel, Anna Sophie; Lukito, Josephine et al. (2021). An agenda for open science in communication. Journal of Communication, 71(1), 1-26. http s: / / doi.org/ 10.1093/ joc/ jqz052 Döring, Nicola (2016): Forschungsmethoden und Evaluation in den Sozial- und humanwissenschaften. 6. Aufl. Berlin: Springer. Friedrichs, Jürgen (1990): Methoden empirischer Sozialforschung. 14. Aufl. Opladen: Westdeutscher Verlag. Glaser, Barney; Strauss, Anselm (2010): Grounded Theory. Strategien qualitativer Forschung. 3. Aufl. Bern: Huber. Jones, Elinor; Harden, Simon & Crawley, Michael J. (2023): The R Book. 3. Aufl. Hoboken, NJ: Wiley. Kelle, Udo & Kluge, Susann (2010): Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung. 2. überarbeitete Aufl. Wiesbaden: VS. Keller, Rainer (2010): Diskursforschung. Eine Einführung für Sozialwissenschaftler‐ Innen. 4. Aufl. Wiesbaden: VS. Kromrey, Helmut; Roose, Jochen & Strübing, Jörg (2016): Empirische Sozialfor‐ schung. Modelle und Methoden der standardisierten Datenerhebung und Daten‐ auswertung. 13. Aufl. Konstanz: UVK. Leithäuser, Thomas & Volmerg, Birgit (1979): Anleitung zur Empirischen Hermeneu‐ tik. Psychoanalytische Textinterpretation als sozialwissenschaftliches Verfahren. Frankfurt / Main: Suhrkamp. 298 Literaturhinweise <?page no="299"?> Lucius-Hoene, Gabriele & Deppermann, Arnulf (2022): Rekonstruktion narrativer Identität. Ein Arbeitsbuch zur Analyse narrativer Interviews. 3. Aufl. Wiesbaden: VS. Mayring, Philipp (2022): Qualitative Inhaltsanalyse. Grundlagen und Techniken. 13. Aufl. Weinheim: Beltz (utb). Mittag, Hans-Joachim & Schüller, Katharina (2023): Statistik: Eine Einführung mit interaktiven Elementen. 7. Aufl. Berlin, Heidelberg: Springer. Posit (2025): RStudio Desktop. https: / / posit.co/ download/ rstudio-desktop/ Sachs, Lothar & Hedderich, Jürgen (2020): Angewandte Statistik. Methodensamm‐ lung mit R. 17. Aufl. Berlin: Springer. Schmitt, Rudolf; Schröder, Julia & Pfaller, Larissa (2018): Systematische Metaphern‐ analyse. Eine Einführung. Wiesbaden: Springer VS. Schnell, Rainer; Hill, Paul B. & Esser, Elke (2023): Methoden der Empirischen Sozialforschung. 12. Aufl. München: De Gruyter Oldenbourg. Wernet, Andreas (2021): Einladung zur Objektiven Hermeneutik. Opladen u. a.: utb. Kapitel V (Darstellung der Ergebnisse und Ausblick) Ballstaedt, Steffen-Peter (2011): Visualisieren. Bilder in wissenschaftlichen Texten. Konstanz u. a.: utb. Bernstein, David (1991): Die Kunst der Präsentation. Wie Sie einen Vortrag ausar‐ beiten und überzeugend darbieten. Frankfurt/ Main, New York: Campus. Bosbach, Gerd & Korff, Jens Jürgen (2011): Lügen mit Zahlen. Wie wir mit Statistiken manipuliert werden. München: Heyne. Coy, Wolfgang & Pias, Claus (Hrsg.) (2009): Powerpoint: Macht und Einfluss eines Präsentationsprogramms. Frankfurt-/ -Main: Fischer. Krämer, Walter (2015): So lügt man mit Statistik. Frankfurt am Main: Campus Verlag Moser, Heinz; Holzwarth, Peter (2011): Mit Medien arbeiten. Lernen - Präsentieren - Kommunizieren. Konstanz u. a.: utb. Ziegaus, Sebastian (2009): Die Abhängigkeit der Sozialwissenschaften von ihren Medien. Bielefeld: transcript. Coy, Wolfgang & Pias, Claus (Hrsg.) (2009): Powerpoint: Macht und Einfluss eines Präsentationsprogramms. Frankfurt / Main: Fischer. Ziegaus, Sebastian (2009): Die Abhängigkeit der Sozialwissenschaften von ihren Medien. Bielefeld: transcript. Literaturhinweise 299 <?page no="300"?> Register Abbildung-272 abhängige Variable-91 Ablaufmodell-79 absolute Häufigkeit-234 Adäquatheit-119 aggregierte Einzelfallanalyse-88 akademische Forschung-36 Aktionsforschung-96 Aktions- oder Praxisforschung-84 allgemeines Gütekriterium-117 Alltagsbeschreibung-22 Alltagserfahrung-21f. alltagsweltliche Erfahrung-16 alltagsweltliche Erfahrungsform-26 alltagsweltliche Gemeinsamkeit-24 Arbeit in Gruppen-41 Argument-75 Argumentation-75 arithmetisches Mittel-239 Aufbereitung-81 Aufbereitungsmethode-102, 105, 172 Auswahl an Instrumenten-198 Auswertung-81 Auswertungsmethode-102, 106, 204 Auswertungsobjektivität-117 Autoethnographie-141 axiales Kodieren-211 Balkendiagramm-235 Basisanforderung-28 Befragung-105 Beobachtung-104, 153 Beobachtungseinheit-151 Beobachtungsinstrument-193 Beobachtungskriterium-147 Beobachtungsplan-146 Beobachtungsprotokoll-147 Beobachtungsschema-146 Beobachtungsvariable-147, 151 Beobachtung zweiter Ordnung-32 Beschreibung-95 Bewertung-95 bildhaftes Denken-270 Bildüberschrift-272 Bildunterschrift-272 blinder Fleck-193 Concept-map-273 Creative Common-266 Daten-102 Datenschutz-53 Daten-Triangulation-120 Delphi-Methode-159 Deskriptionsforschung-95 deskriptive Aspekte-76 Digitalisierung-258, 260 diskriminante Validität-118 Diskriminanzanalyse-250 Diskursanalyse-217 Diskussion von Limitationen-121 Dokumentarische Methode-225 Dokumentenanalyse-85, 104 Durchführungsobjektivität-117 Einzelfallanalyse-84, 87 Einzelinterview-159 Empirie-30 <?page no="301"?> empirische Forschung-32, 56 Empirische Forschung-8 empirisch Forschen-30, 35 episodisches Interview-128 Ereignis-147 Erfolgsfaktor-59 Erhebung-81 Erhebungsmethode-102f. Erkenntnisinteresse-264 Erkenntnistheorie-17 ethisches Prinzip-52 Evaluationsforschung-85 Experiment-84, 90 Expertenbefragung-159 Experteninterview-129 explizierende Inhaltsanalyse-206 exponentielles Wachstum-244 fake science-277 Feldexperiment-94 Feldforschung-92 Feldstudie-84 Fixierung-106 Flexibel bleiben-134 Fokusgruppe-136 fokussiertes Interview-127 Forschen gegen Bezahlung-37 Forschungsbericht-269 Forschungsdesign-83 Forschungsergebnisse als Interaktionsprodukte-261 forschungsethisches Prinzip-52 Forschungsfrage-63, 75 Forschungsgegenstand-68, 75 Forschungsmethode-83, 143 Fragebogendesign-161 Fragebogengestaltung-161 Fragen formulieren-135 Funktion der Bilddarstellungen-272 Geduld haben-134 gegenstandsbezogene Theoriebildung-210 Geschichte des empirischen Forschens-30 Geschichtsblindheit-77 Geschlechtsblindheit-77 Geschlossenheit-125 gesellschaftliche Relevanz-75 Gesellschaftsblindheit-77 Gespräch steuern-134 Grounded Theory-210 Gruppendiskussion-136 Gütekriterium-116 halbstandardisiertes Interview-127 Handlungsforschung-96 Handlungsrolle-281 Handreichung (Handout)-267 HARKing-253 Häufigkeitentabelle-235 Histogramm-235 Hypothesentest-247 Indikation-119 Indikator-110, 147, 151 Inferenzstatistik-246, 251 institutionelle Rahmenbedingung-40 Interpretationsobjektivität-118 intersubjektive Nachvollziehbarkeit-119 intersubjektive Übereinstimmung-117 intersubjektiv nachvollziehbar-119 Interview-124 Interview beenden-135 Interviewführung-132 Register 301 <?page no="302"?> Interviewleitfaden-124, 130 Interviewleitfaden ausprobieren-135 Interviewtechnik-133 Investigator-Triangulation-120 kommentierte Transkription-165 kommerzielle Forschung-36 Kommunikationsmittel-258f. kompilatorischeArbeit-34 Kontrollgruppe-91 konvergente Validität-118 Konversationsanalyse-216 Korrelationskoeffizient-243, 245 Kriterien für qualitätsvolle Forschung-52 Kriteriumsvalidität-118 Kurzfragebogen erwägen-136 Laborforschung-90 lebendig gestalten-276 lebendig werden lassen-276 Literaturdatenbank-71 logisches Verstehen-214 mediale Form-256 Median-238 Medienangebot-258 Medien im Forschungsprozess-256 Meta-Analyse-85 Metaphernanalyse-218f. Methode-102 methodenspezifisches Gütekriterium-116 methodisches Vorgehen-76 Methodologische Triangulation-121 Mind-map-273 Mixed Methodologies-113 Modalwert-237 Modus-237 monomodale wissenschaftliche Schriftkultur-261 multicodal-259 Multimedia-257 Multimedialität-258 Multimodalität-259 multisensorisch-259 Multivarianzanalyse-250 mündliche Befragung-155, 157 mündliche Darstellung-267 mündlicher Vertrag-52 Mythos und Logos-30 Nähe-Distanz-Thematik-35 Narrationsanalyse-220 narratives Interview-126 nicht-teilnehmende Beobachtung-148 nichtteilnehmend-offene Beobachtung-149 Nichtteilnehmend-verdeckte Beobachtung-149 Normalverteilung-242 normative Aspekte-76 Nutzen-37 Objektive Hermeneutik-222 Objektivität-117 Offene Fragen stellen-135 offenes Kodieren-210 Offenheit-125 Operationalisierung-109 Panel-84, 159 Parallelisierung-91 Perspektivenwechsel-56 p-Hacking-253 Planung-80 302 Register <?page no="303"?> Polygon-236 positivistisches Empirieverständnis-31 Präsentation-82 Präsentationssoftware-274 Praxisforschung-96 Pre-Test-152 Pre-Tests-158 primäre Medien-194 Probedurchgang-152 problemzentriertes Interview-126 Prokastrination-280 Psychoanalytische Beobachtung-227 psychoanalytische Textinterpretation-214 psychologisches Verstehen-214 Publication Bias-254 qualitative Beschreibung-24 qualitative Forschung-111 qualitative Inhaltsanalyse-204 qualitative Sozialforschung-24 qualitative Typenbildung-212 quantitative Befragung-153 quantitative Beobachtung-145 quantitative Beschreibung-25 quantitative empirische Sozialforschung-143 quantitative Forschung-109 quantitative Sozialforschung-25 quartäre Medien-195 Quasi-Experiment-94 quintäre Medien-195, 197 Randomisierung-91 Re-Analyse-104 Recherche-70, 104 Redlichkeit-53 Reflexion schreiben-136 Reflexivität-120 Regeln guter wissenschaftlicher Praxis-54 Reihenfolge finden-135 rekonstruktives Verstehen-215 relativeRegelgeleitetheit-35 Reliabilität (Zuverlässigkeit)-118 Replizierbarkeit-91 repräsentativ-89 Repräsentativität-246f. Rolle-40 schließende Statistik-251 schriftliche Befragung-155ff., 160 schriftliche Darstellung-269 schriftlicher Bericht-269 schriftlicher Fragebogen-160 schriftlicher Vertrag-52 Sekundäranalyse-104 sekundäre Medien-194 Selegierung-106 selektives Kodieren-211 selektives Protokoll-166 signifikant-246, 249 Signifikanzniveau-249 slideware-274 So-und-so-ist-es-23, 280 Standardabweichung-240 Stärke-157 Statistikprogramme-252 Stichprobe-87, 89, 233 strukturierende Inhaltsanalyse-206 Strukturiertheit-124 Strukturierung-106 Survey-84, 89 Symbolsystem-259 szenisches Verstehen-215 Register 303 <?page no="304"?> Technik beherrschen-133 teilnehmende Beobachtung-139 teilnehmend-offene Beobachtung-148 teilnehmend-verdeckte Beobachtung-148 Telefoninterview-159 tertiäre Medien-194 Thematische Analyse-207 Themenzentrierte Interaktion (TZI)-47f. theoretische Forschung-34 Theorien-Triangulation-121 Tiefeninterview-129 Tortendiagramm-237 transkribieren-165 Transparenz-119 Triangulation-120 Triangulationsmodell-114 Typisierungsmerkmale-213 Typologie-213 unabhängige Variable-91 Ungestörtheit schaffen-133 Unstrukturiertheit-124 unterscheiden-24 Unterschied-26 Validität (Gültigkeit)-118 Varianz S-240 Verallgemeinerungsmodell-114 Verdichtungsleistung-32 Verhalten-147 Verständlichkeit beachten-134 Versuchsgruppe-91 Vertiefungsmodell-114 Vertrauen aufbauen-133 Visualisierungsstrategie-273 Vollerhebung-89 Vorbereitung-79 Vorstudienmodell-113 Wissenschaft-29 wissenschaftliche Beobachtung-145 wissenschaftliche Erfahrung-16, 23 wissenschaftliche Erfahrungsform-26 wissenschaftliche Relevanz-75 wissenschaftliches Präsentieren-267 wissenschaftliches Schreiben-267 Wissenschaftsverständnis-28 Work-Life-Balance-40 wörtliche Transkription-165 Zentralwert-238 Zentrismen-76 Zielgruppe-265 Zielsetzung-264 zusammenfassende Inhaltsanalyse-205 zusammenfassendes Protokoll-165 Zustimmung erbitten-134 304 Register <?page no="305"?> Abbildungsverzeichnis Abbildung 1: Kontinuum akademischer und kommerzieller Forschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Abbildung 2: Vier-Faktoren-Modell der TZI . . . . . . . . . . . . . . . . . . . 48 Abbildung 3: Ablaufmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Abbildung 4: Vier Kontinuen zur Positionierung von Forschungsprojekten . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Abbildung 5: Histogramm 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 Abbildung 6: Histogramm 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 Abbildung 7: Polygon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 Abbildung 8: Standardnormalverteilung . . . . . . . . . . . . . . . . . . . . . . 242 Abbildung 9: Streudiagramm Preis - Absatz . . . . . . . . . . . . . . . . . . . 244 Abbildung 10: Exponentielles Wachstum . . . . . . . . . . . . . . . . . . . . . . . 244 Abbildung 11: Lineares Wachstum . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 Abbildung 12: Visualisierungsbeispiel für die Strukturierung eines Berichts mittels Mind-Map . . . . . . . . . . . . . . . . . . . . . . 274 <?page no="306"?> Tabellenverzeichnis Tabelle 1: Grade der korrespondierenden Beschreibungsformen . . 25 Tabelle 2: Meilensteine in der abendländischen Geschichte der Methodenreflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Tabelle 3: Einzel- und Gruppenarbeit in unterschiedlichen Forschungskontexten - ausgewählte Aspekte . . . . . . . . 43 Tabelle 4: Einige Literaturdatenbanken zur wissenschaftlichen Recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Tabelle 5: Wichtige Forschungsdesigns . . . . . . . . . . . . . . . . . . . . . . . 84 Tabelle 6: Übersicht zu Erhebungs-, Aufbereitungs- und Auswertungsmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Tabelle 7: Übersicht zu qualitativer und quantitativer Forschung . 108 Tabelle 8: Allgemeine Gütekriterien empirischer Forschung . . . . . 117 Tabelle 9: Merkmale quantitativer und qualitativer Forschung . . . 144 Tabelle 10: Tabellarische Übersicht wie sie in Codierungsübersicht erstellt wird . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 Tabelle 11: Tabellarische Übersicht zu Variablen, die zu einer gemeinsamen Skala verrechnet werden . . . . . . . . . . . . . . 180 Tabelle 12: Beispiel für eine Skalendokumentation . . . . . . . . . . . . . . 182 Tabelle 13: Medien bei der Erhebung und Aufbereitung von Daten 197 Tabelle 14: Beispiele für digitale Werkzeuge zur Erhebung und Aufbereitung von Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 Tabelle 15: Häufigkeitentabelle 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 Tabelle 16: Häufigkeitentabelle 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 Tabelle 17: Häufigkeitentabelle 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 Tabelle 18: Computerprogramme für die Datenanalyse . . . . . . . . . . 261 Tabelle 19: Selbsttest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 Tabelle 20: Besonderheiten von verschiedenen Darstellungsformen 271 Tabelle 21: Pro & Kontra von digitalen Präsentationsmedien - ausgewählte Aspekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 Tabelle 22: Überblick zur eigenen Medienkompetenz . . . . . . . . . . . . 281 Tabelle 23: Empirische Forschung - Auswahl nützlicher Internetquellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283 <?page no="307"?> ISBN 978-3-8252-6344-7 Theo Hug | Gerald Poscheschnik (Hg.) Empirisch forschen 4. Auflage Der Band bietet einen Überblick über die wichtigsten Schritte bei der Planung und Umsetzung von empirischen Forschungsprojekten. Der Aufbau folgt dem Ablauf der Forschung, das Buch kann deshalb auch als Leitfaden für eigene Forschungsprojekte verwendet werden. Die gut verständliche Darstellung wird durch zahlreiche Übersichten, Literaturtipps und Internetquellen ergänzt. Die 4. Auflage enthält vertiefende und ergänzende Textabschnitte zur Methodenanwendung sowie Tipps und Hinweise zum Umgang mit digitalen Medien und Künstlicher Intelligenz in der Forschung. ● Was ist und wie funktioniert empirische Forschung? ● Welche Forschungsdesigns und -methoden gibt es? ● Wie plant man ein empirisches Forschungsprojekt? ● Wie präsentiert man die Forschungsergebnisse? ● Wie kann man im Forschungsprozess sinnvoll mit KI-Systemen umgehen? Schlüsselkompetenzen 4. A. Empirisch forschen Hug | Poscheschnik (Hg.) Dies ist ein utb-Band aus dem UVK Verlag. utb ist eine Kooperation von Verlagen mit einem gemeinsamen Ziel: Lehr- und Lernmedien für das erfolgreiche Studium zu veröffentlichen. utb.de QR-Code für mehr Infos und Bewertungen zu diesem Titel Mit Tipps zu KI in der Forschung Studieren, aber richtig 6344-7_Hug_Poscheschnik_M_3357_PRINT.indd Alle Seiten 6344-7_Hug_Poscheschnik_M_3357_PRINT.indd Alle Seiten 08.01.26 13: 57 08.01.26 13: 57