eBooks

Leichte Sprache, Einfache Sprache, verständliche Sprache

0130
2023
978-3-8233-9181-4
978-3-8233-8181-5
Gunter Narr Verlag 
Bettina M. Bock
Sandra Pappert
10.24053/9783823391814

Während sich "Leichte" und "Einfache Sprache" in der Praxis zunehmend etabliert haben, steht die empirische Erforschung noch immer am Anfang. Das Studienbuch beleuchtet aus der Perspektive unterschiedlicher linguistischer Teildisziplinen den aktuellen Forschungsstand sowie empirische Forschungszugänge. Neben psycho- und textlinguistischen Grundlagen werden auch korpuslinguistische sowie diskurs- und soziolinguistische Zugänge thematisiert. So entsteht erstmals ein multiperspektivischer, empirisch basierter Überblick über Forschungsergebnisse und -zugänge zu diesem neuen Themenfeld, das sich aktuell in verschiedenen linguistischen Disziplinen etabliert. Das Buch bietet eine empirisch fundierte Einführung in Erkenntnisse zu sprachlicher Einfachheit auf Wort-, Satz- und Textebene sowie Untersuchungsergebnisse zum Lesen und Verstehen bei den wichtigsten Zielgruppen "Leichter" und "Einfacher Sprache". Es führt außerdem mithilfe von Anwendungsbeispielen in empirische Forschungsmethoden ein und berücksichtigt dabei sowohl quantitative als auch qualitative Forschungsansätze.

<?page no="0"?> Leichte Sprache, Einfache Sprache, verständliche Sprache Mit Beiträgen von Pirkko Friederike Dresing, Mathilde Hennig und Cordula Meißner Bettina M. Bock / Sandra Pappert <?page no="1"?> Prof. Dr. Bettina M. Bock ist Juniorprofessorin am Institut für deutsche Sprache und Literatur II der Universität zu Köln. PD Dr. Sandra Pappert ist wissenschaftliche Mitarbeiterin am Institut für Deutsch als Fremdsprachenphilologie der Universität Heidelberg. <?page no="4"?> Bettina M. Bock / Sandra Pappert Leichte Sprache, Einfache Sprache, verständliche Sprache Mit Beiträgen von Pirkko Friederike Dresing, Mathilde Hennig und Cordula Meißner <?page no="5"?> DOI: https: / / doi.org/ 10.24053/ 9783823391814 © 2023 · Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikro‐ verfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Alle Informationen in diesem Buch wurden mit großer Sorgfalt erstellt. Fehler können dennoch nicht völlig ausgeschlossen werden. Weder Verlag noch Autor: innen oder Herausgeber: innen übernehmen deshalb eine Gewährleistung für die Korrektheit des Inhaltes und haften nicht für fehlerhafte Angaben und deren Folgen. Diese Publikation enthält gegebenenfalls Links zu externen Inhalten Dritter, auf die weder Verlag noch Autor: innen oder Herausgeber: innen Einfluss haben. Für die Inhalte der verlinkten Seiten sind stets die jeweiligen Anbieter oder Betreibenden der Seiten verantwortlich. Redaktionsschluss: Juni 2022 Internet: www.narr.de eMail: info@narr.de CPI books GmbH, Leck ISSN 0941-8105 ISBN 978-3-8233-8181-5 (Print) ISBN 978-3-8233-9181-4 (ePDF) ISBN 978-3-8233-0488-3 (ePub) Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbiblio‐ grafie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. www.fsc.org MIX Papier aus verantwortungsvollen Quellen FSC ® C083411 ® <?page no="6"?> 9 11 1 13 1.1 13 1.2 17 1.3 18 1.4 23 2 29 2.1 29 2.1.1 30 2.1.2 32 2.1.3 33 2.1.4 40 2.2 46 2.2.1 46 2.2.2 53 2.3 60 2.4 63 2.5 71 2.5.1 71 2.5.2 78 3 85 3.1 85 3.1.1 86 3.1.2 87 3.1.3 94 3.1.4 97 3.1.5 99 Inhalt Zur Konzeption dieses Studienbuchs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Übersicht über die Kapitel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Leichte Sprache? Einfache Sprache? Verständliche Sprache? . . . . . . . . . . . . . Erster Zugang zum Gegenstandsbereich . . . . . . . . . . . . . . . . . . . . . . . . Verständliche Sprache als „Dach“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Leichte Sprache . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Einfache Sprache . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lesen und Verstehen - psycholinguistische Perspektiven . . . . . . . . . Lesen als kognitiver Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lesen als physiologischer Prozess . . . . . . . . . . . . . . . . . . . . . . . . Visuelle Worterkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lesen von Sätzen und Texten . . . . . . . . . . . . . . . . . . . . . . . . . . . . (Text-)Linguistische Perspektiven auf Verstehen und Verständlichkeit Kommunikativ-pragmatische Perspektiven der Textlinguistik Rezeption von psychologischen und kognitionswissenschaftlichen Ansätzen . . . . . . . . . . . . . . . . . . . Komplexität als Gegenstand der Linguistik (Mathilde Hennig) . . . . . Über Verständlichkeit hinaus I - Angemessenheit . . . . . . . . . . . . . . . . Über Verständlichkeit hinaus II - diskurs- und soziolinguistische Perspektiven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diskurslinguistische Perspektiven . . . . . . . . . . . . . . . . . . . . . . . Soziolinguistische Zugänge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Leicht, einfach, verständlich - Forschungsstand . . . . . . . . . . . . . . . . . . . . . . . Wort (Cordula Meißner) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wörter aus der Perspektive von Einfachheit und Schwierigkeit betrachten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Faktoren der Schwierigkeit auf Wortebene . . . . . . . . . . . . . . . . Wortbezogene Schwierigkeitsfaktoren auf Textebene . . . . . . . Schwierigkeitsbezogene Wortschatzkonzepte . . . . . . . . . . . . . . Gibt es leichte bzw. einfache Wörter? . . . . . . . . . . . . . . . . . . . . . <?page no="7"?> 3.2 103 3.2.1 104 3.2.2 106 3.2.3 114 3.3 122 3.3.1 123 3.3.2 125 3.3.3 126 3.3.4 128 3.3.5 135 3.4 139 3.4.1 139 3.4.2 140 3.4.3 146 4 151 4.1 151 4.1.1 151 4.1.2 157 4.2 159 4.3 163 5 171 5.1 171 5.2 178 5.2.1 179 5.2.2 180 5.2.3 182 5.2.4 183 5.3 188 5.3.1 188 5.3.2 191 5.3.3 203 5.4 213 5.4.1 214 5.4.2 217 5.4.3 234 5.4.4 241 5.5 246 5.6 254 5.6.1 254 Satz (Mathilde Hennig) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Leichte Sätze in Leichter Sprache . . . . . . . . . . . . . . . . . . . . . . . . Satzkomplexität aus linguistischer Perspektive . . . . . . . . . . . . . Satzkomplexität und Satzverstehen . . . . . . . . . . . . . . . . . . . . . . Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was ist ein Text? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was ist ein leichter bzw. einfacher Text? Perspektive der Praxis Vier Faktoren der Textverständlichkeit . . . . . . . . . . . . . . . . . . . Globale und lokale Kohärenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . Textsorte und Textfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Multimodalität: Typografie und Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . Perspektiven der Praxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Multimodalität und Verständlichkeit in der Forschung . . . . . . Typografie und Bild in der Leichte-Sprache-Forschung . . . . . . Adressatenkreise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Menschen mit sog. geistiger Behinderung . . . . . . . . . . . . . . . . . . . . . . . Definition des Personenkreises und Forschung zum Lesen . . . Empirische Forschung mit dem Personenkreis . . . . . . . . . . . . . DaF- und DaZ-Lernende (Pirkko Friederike Dresing) . . . . . . . . . . . . . Gering literalisierte Erwachsene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Empirische Zugänge zu Verstehen und Verständlichkeit . . . . . . . . . . . . . . . . Überblick und Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Korpusmethoden (Cordula Meißner / Bettina M. Bock) . . . . . . . . . . . Was ist ein Korpus? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Struktur von Korpora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Korpusbasierte und korpusgeleitete Analysen . . . . . . . . . . . . . Korpuslinguistische Analyseverfahren . . . . . . . . . . . . . . . . . . . . Quantitative Zugänge zum Leseverstehen . . . . . . . . . . . . . . . . . . . . . . . Lesbarkeitsindizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lesen im Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Experimentelle Paradigmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Qualitative Zugänge zum Leseverstehen . . . . . . . . . . . . . . . . . . . . . . . . Auswahl der Studienteilnehmer/ innen: Qualitatives Sampling Interviews: Fragen zum Text, Wiedergabeverfahren . . . . . . . . Lautes Denken, Lautes Erinnern (Pirkko Friederike Dresing) . Transkription . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Partizipatives Forschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Forschungsethik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Relevanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Inhalt <?page no="8"?> 5.6.2 255 5.6.3 257 6 259 261 261 261 Ethikkodizes und ethische Grundprinzipien . . . . . . . . . . . . . . . Ethikvotum und Ethikkommissionen . . . . . . . . . . . . . . . . . . . . . Desiderate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur und digitale Ressourcen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Korpora und Analysesoftware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inhalt 7 <?page no="10"?> 1 In anderen Publikationen haben wir daher von „Leichter Sprache“ in Anführungszeichen geschrie‐ ben. Damit sollte deutlich gemacht werden, dass mit diesem Ausdruck nicht auf ein einheitliches, statisches Konzept Bezug genommen wird. Vielmehr soll er beschreibend das umfassen, was derzeit in der Sprachgemeinschaft unter „Leichter Sprache“ verstanden wird - und diese Definitionen und Zugänge fallen teilweise verschieden aus. Auch wenn wir dieser Schreibkonvention in diesem Buch aus Gründen der Leserlichkeit nicht folgen, wird damit keine andere Perspektive markiert. Da sich Leichte und Einfache Sprache in den vergangenen Jahren in ähnlicher Weise als Etikettierungen für bestimmte Formen des Sprachgebrauchs entwickelt haben, wählen wir - abweichend zu früheren Publikationen - für beide die Großschreibung. Zur Konzeption dieses Studienbuchs Mit diesem Studienbuch möchten wir einen Überblick über relevante linguistische Forschung und Theorien geben, die sich mit Fragen der Verständlichkeit und der sprachlichen Einfachheit auseinandersetzen. Ein besonderes Augenmerk gilt dabei den aktuell viel diskutierten Phänomenen Leichte Sprache und Einfache Sprache. Unser Anliegen ist es, einen möglichst breiten Blick auf das Thema zu werfen und unter‐ schiedliche Forschungsperspektiven zu berücksichtigen. Wir mussten aber natürlich entscheiden, welche Aspekte wir vertieft darstellen und welche wir nur streifen. Es handelt sich um einen Forschungsgegenstand, der weiterhin zahlreiche Fragen aufwirft, die einerseits die Texte mit den verschiedenen sprachlichen Ebenen und andererseits die heterogene Gruppe der Leserinnen und Leser betreffen. Idealerweise werden diese Fragen interdisziplinär zu beantworten versucht. Entsprechend haben wir uns bemüht, unterschiedliche Forschungsperspektiven zu berücksichtigen und neben relevanten Erkenntnissen aus den Disziplinen auch eine Auswahl an Methoden vorzustellen, die für die künftige Forschung genutzt werden können. Wir hoffen, dass das Studienbuch so auch für diejenigen nützlich ist, die sich nicht speziell für Leichte und Einfache Sprache interessieren, sondern die einen allgemeinen und aktuellen Überblick über die Forschung zu verständlichem Sprachgebrauch suchen. Auch wenn im Titel des Studienbuchs von Leichter, Einfacher und verständlicher Sprache die Rede ist, geht es eigentlich immer um Phänomene des Sprachgebrauchs. Das bedeutet allerdings nicht, dass wir nur eine (im weitesten Sinne) pragmatische Perspektive berücksichtigen. Es kennzeichnet aber unsere Perspektive auf die aktuell viel diskutierte Leichte Sprache und die zunehmend mit ihr ins Blickfeld gerückte Einfache Sprache: Es handelt sich um spezifische - nicht unbedingt homogene - Formen des Sprachgebrauchs, die es zu beschreiben und die es linguistisch einzuordnen und zu reflektieren gilt. 1 Ausgangspunkt unserer Betrachtung sind dabei aber nicht nur die Sprachgebrauchsphänomene selbst, sondern vor allem die Fragen: Was weiß die Linguistik über verständlichen Sprachgebrauch und seine Anwendung in kommu‐ nikativen Kontexten, was weiß sie über sprachliche Komplexität und sprachliche Einfachheit? Und wie lassen sich dann Leichte und Einfache Sprache - als vermeintlich <?page no="11"?> festgefügte und etikettierte Phänomene - aus dem Blickwinkel dieser Forschungsbe‐ züge einordnen? Welche Fragen muss man an diese Phänomene eigentlich stellen? Wer also von diesem Studienbuch einen weiteren Ratgeber erwartet, oder wer sich erhofft, dass wir eine anwendungsorientierte Fundierung und Überprüfung von Regeln und Prinzipien Leichter oder Einfacher Sprache anstreben, den müssen wir enttäuschen. Wir stellen keine neue Definition vor, was Leichte und Einfache Sprache ausmachen sollte. Das bedeutet auch: Wir gleichen die Sprachgebrauchspraxis nicht einfach mit dem linguistischen Forschungsstand ab, sondern gehen von den vielfältigen Erkenntnissen in unterschiedlichen linguistischen Teildisziplinen aus und schauen, wie sich der Forschungsgegenstand - verständliche Sprache, Leichte Sprache, Einfache Sprache - dann darstellt. Was man in unserem Buch finden kann, sind also vielfältige Zugänge, wie man sich überhaupt mit den im Titel genannten Phänomenen ausein‐ andersetzen kann - theoretisch wie empirisch. Wir gehen dabei beschreibend vor und stellen aus unterschiedlichen Blickwinkeln Fragen an das Themenfeld: besonders psycholinguistische, pragma- und systemlinguistische Fragen. Das Studienbuch richtet sich daher an alle, die an einer Einführung in die aktuelle Forschung zu verständlicher Sprache interessiert sind; die Forschung zu Leichter und Einfacher Sprache sehen wir als einen Teil davon. Wir hoffen daher, dass das Buch nicht nur für Leserinnen und Leser interessant ist, die sich bereits mit den beiden zuletzt genannten Phänomenen auseinandergesetzt haben, sondern auch für diejenigen, die einen allgemeinen Zugang zur Verstehens- und Verständlichkeitsforschung und verwandten Perspektiven suchen. Köln und Heidelberg, im Dezember 2022 Bettina M. Bock und Sandra Pappert 10 Zur Konzeption dieses Studienbuchs <?page no="12"?> Übersicht über die Kapitel In Kapitel 1 geben wir anhand von Beispielen zunächst einen Überblick über den Gegenstandsbereich dieses Studienbuchs: Was meinen wir eigentlich, wenn wir von verständlicher, Leichter und Einfacher Sprache sprechen? Der Einblick in die For‐ schungslandschaft ist relativ knapp gehalten, da viele der Aspekte in späteren Kapiteln wieder - teils mit neuer Perspektive - aufgegriffen werden. In Kapitel 2 folgt dann eine Einführung in verschiedene linguistische Perspektiven auf den Gegenstand: Was muss man über den Leseverstehensprozess wissen und welche Texteigenschaften beeinflussen die Verständlichkeit? Was ist die Perspektive linguistischer Forschung zu Komplexität und inwieweit unterscheidet sie sich von der Verständlichkeitsforschung? Und welche Fragen werfen insbesondere Leichte und Einfache Sprache über die Verständlichkeit hinaus auf ? Wann kann man einen Text nicht nur als verständlich, sondern auch als angemessen - also als ‚guten Text‘ - bezeichnen? Inwiefern ist sprachliche Vereinfachung auch ein soziales Phänomen, wie genau kommt es z. B. zum Vorwurf der Stigmatisierung durch Leichte Sprache? Das Kapitel bildet die theoretische Grundlage für die folgenden Ausführungen zu den einzelnen sprachlich-textuellen Ebenen in Kapitel 3. In diesem Kapitel tragen wir den Forschungsstand zusammen: Welche Erkenntnisse gibt es in der Linguistik dazu, was ein Wort zu einem einfachen Wort macht? Was sind leichte oder einfache Sätze? Was macht einen Text zu einem leicht verständlichen Text, und welche Rolle spielen dabei die nicht-sprachlichen Zeichenressourcen? Es kommen verschiedene Autorinnen zu Wort und das bedeutet, dass auch verschiedene Perspek‐ tiven eingenommen werden: Cordula Meißner stellt zur Frage nach der Schwierigkeit von Wörtern Ergebnisse aus der Fremdsprachenerwerbsforschung, der Forschung zur Bildungssprache, der Lesbarkeitsforschung und der Psycholinguistik vor. Sie zeigt, dass die mit Schwierigkeit assoziierten Worteigenschaften (wie z. B. Mehrdeutigkeit, Wortkomplexität, Häufigkeit der Verwendung) in ihrem Zusammenspiel betrachtet und in Bezug auf Kontext und Zielgruppe gewichtet werden müssen. Im Satz-Kapitel stellt Mathilde Hennig die Frage nach der Einfachheit von Sätzen aus der Perspektive von sprachlicher Komplexität. Dabei geht sie nicht nur auf strukturelle, sondern auch auf semantische Faktoren von Einfachheit und Komplexität auf Satz‐ ebene ein und vergleicht den Forschungsstand mit den Praxisannahmen der Leichten Sprache. Kapitel 3.3 und 3.4 hängen eng miteinander zusammen, da sie beide die Text-Ebene betreffen. Bettina M. Bock trägt hier Erkenntnisse aus Textlinguistik sowie linguistischer und psychologischer Verständlichkeitsforschung zusammen und fragt danach, welche sprachlichen und nicht-sprachlichen Eigenschaften das Textverstehen erschweren oder erleichtern. Multimodalität - also die Einsicht, dass Texte nicht nur aus Sprache bestehen, sondern auch Bilder und Typografie umfassen - wird in der Linguistik bislang selten unter dem Gesichtspunkt der Verständlichkeit betrachtet. <?page no="13"?> Kapitel 4 stellt dann drei der Adressatengruppen vor, die aktuell mit am häufigsten als Zielgruppen vereinfachter Texte angesprochen werden: Menschen mit sog. geistiger Behinderung, funktionale Analphabeten, Lernende von Deutsch als Fremdsprache bzw. Deutsch als Zweitsprache (verfasst von Pirkko Dresing). Wir gehen in den Teilkapiteln jeweils auf Aspekte ein, die für das Lesen und Verstehen von Texten besonders relevant sind, also Aspekte wie Sprach- und Lesekompetenzen innerhalb dieser Gruppen sowie Forschungsdesiderate. Darüber hinaus gehen wir aber auch auf unterschiedliche Definitionen und Schwierigkeiten bei der Abgrenzung dieser Personenkreise ein. In Kapitel 5 verbinden wir dann erneut verschiedene linguistische Forschungs‐ perspektiven und stellen empirische Zugänge zur Erforschung von Verstehen und Verständlichkeit vor. Das Kapitel kann wieder nur eine Auswahl an Methoden darstellen. Ein besonderes Anliegen war es uns aber, sowohl qualitative als auch quantitative Methoden und die mit ihnen verbundenen linguistischen „Denkweisen“ und Perspektiven zu berücksichtigen. Einen gewissen Sonderstatus hat dabei das Kapitel 5.5 zum partizipativen Forschen. Dieser Ansatz ist wenig verbreitet in Lingu‐ istik und Sprachdidaktik. Die Besonderheiten des Leichte-Sprache-Kontexts lassen es aber naheliegend erscheinen, sich mit diesem Forschungsparadigma zu befassen. Das Thema empirisches Forschen wird mit den Bemerkungen zur Forschungsethik abgeschlossen. Das entsprechende Kapitel enthält u. a. Hinweise zur Beantragung eines Ethik-Votums für empirischen Studien. Das Studienbuch schließt mit einem Blick auf bestehende Forschungsdesiderate in Kapitel 6. 12 Übersicht über die Kapitel <?page no="14"?> 1 Leichte Sprache? Einfache Sprache? Verständliche Sprache? Was ist gemeint, wenn von Leichter Sprache und Einfacher Sprache die Rede ist? Welche weiteren Formen verständlicher Sprache gibt es und was haben sie gemein? Lässt sich eine klare Grenzlinie zwischen Leichter und Einfacher Sprache ziehen, und in welchen Merkmalen unterscheiden sie sich? Was ist die Perspektive der Linguistik, was die Perspektive derjenigen, die vereinfachte Sprache jeden Tag umsetzen? Diesen und ähnlichen Fragen gehen die folgenden Kapitel nach: Nach einer allgemeinen Gegenstandsbestimmung dieses Studienbuches folgt ein Abriss zu Leichter und Einfacher Sprache mit aktuellen Diskussionen aus der linguistischen Forschung. Verständlichkeit bildet dabei das „Dachkonzept“ für die Beschrei‐ bung beider Phänomene. Wir folgen dem weit verbreiteten Ansatz, Einfache Sprache in einen Bezug zu Leichter Sprache zu setzen und sie dadurch genauer zu beschreiben. 1.1 Erster Zugang zum Gegenstandsbereich Wir steigen mit einer Reihe von Textbeispielen in dieses Kapitel ein. Sie sollen zur Reflexion anregen: Was macht die Phänomene aus und wo wird die Abgrenzung und schon der Vergleich möglicherweise schwierig? Wir dokumentieren bei jedem Beispiel, welches Etikett sich die Texte selbst gegeben haben. Klar ist dabei: Allein das Etikett, das ein Text trägt, ist noch kein ausreichendes Indiz, mit welchem Phänomen man es zu tun hat. Was haben die folgenden Texte also gemeinsam, worin unterscheiden sie sich? Beispiel (1) Die Erbschaft Dieser Krimi ist in leicht verständlicher Sprache geschrieben, damit ihn alle Menschen leichter lesen und verstehen können. […] Kapitel 1 Die Sonne scheint durch Leonies Fenster und die Vögel schreien ziemlich laut herum. Leonie ist erst um 2 Uhr in der Früh nach Hause gekommen. Eigentlich unabsichtlich. Weil sie an sich nur mit Silvia und Kerstin ins San Pedro Pizza essen gehen wollte. <?page no="15"?> Aber dann hat Kerstin ein paar SMS bekommen, dass sie unbedingt noch in die Nachtschicht kommen soll. Alleine wollte Kerstin nicht in diese Diskothek, und deshalb sind Silvia und Leonie in Gottes Namen halt noch mitgegangen. Und wie das so ist in der Nachtschicht, hat es eben ein bisschen länger gedauert. Auszug aus: Die Erbschaft. Ein Krimi von Capito. Leicht Lesen, Niveau A2. Graz, 2014, Hervorhebungen im Original. Beispiel (2) Großer Polizei·einsatz in Nord·deutschland In Nord·deutschland war ein großer Polizei·einsatz. Dieser Polizei·einsatz war: ● In Hamburg. ● In Schleswig-Holstein. ● Und in Niedersachsen. Bei dem Polizei·einsatz waren 420 Polizisten. Der Polizei·einsatz war gegen eine Firma. Diese Firma heißt ZytoService. Diese Firma ist in Hamburg. Und diese Firma macht Medikamente. Zum Beispiel Medikamente für die Behandlung von Krebs. - Krebs ist eine schwere Krankheit. - Ein Mensch hat Krebs? - Dann sind Teile vom Körper sehr krank. - Zum Beispiel die Haut. - Oder bestimmte Körper·teile. Die Polizei hat gesagt: - Wir haben die Firma durchsucht. - Wir glauben nämlich: - - Die Firma hat mit Ärzten zusammengearbeitet. - - Und die Firma und die Ärzte haben zusammen verbotene Sachen gemacht. - - Die Firma hat zum Beispiel Rezepte von den Ärzten bekommen. Auszug aus: NDR, Nachrichten in Leichter Sprache, 17.12.2019, Einzüge und Aus‐ zeichnungen im Original. URL: https: / / www.ndr.de/ fernsehen/ service/ leichte_sp rache/ Grosser-Polizeieinsatz-in-Norddeutschland,razzia1394.html [11.07.2022] 14 1 Leichte Sprache? Einfache Sprache? Verständliche Sprache? <?page no="16"?> Beispiel (3) Die Konferenz in der Stadt Madrid war die Welt-Klima-Konferenz. Dort haben Fach-Leute darüber gesprochen, wie die Länder die Erwärmung von der Erde begrenzen können. Dafür müssen weniger klima-schädliche Gase in die Luft kommen. Die Länder haben in Madrid heftig gestritten. Manche Regierungen sagen: Alle müssen viel mehr tun für den Klima-Schutz. Sie wollen zum Beispiel, dass die reichen Länder den armen Ländern Geld geben. Weil in den reichen Ländern oft mehr klima-schädliche Gase entstehen. Aber die armen Länder leiden viel mehr unter dem Klima-Wandel. Zum Beispiel weil es mehr Über-Schwemmungen gibt und mehr Dürren. Viele reiche Länder wollen aber kein Geld geben und nicht mehr für den Klima-Schutz tun. Deshalb sind viele Organisationen und Politikerinnen und Politiker enttäuscht von der Konferenz. Die deutsche Umwelt-Ministerin heißt Svenja Schulze. Sie hat gesagt: Wir müssen viel mehr tun, um den Klima-Wandel zu stoppen. Was bedeutet-… ● Klima-Schutz Klima-Schutz ist eine Politik. Der Klima-Schutz soll verhindern, dass es auf der Erde immer wärmer wird. Ein wichtiges Mittel im Klima-Schutz ist, weniger Abgase zu produzieren. Die Abgase entstehen zum Beispiel beim Auto-Fahren, aber auch beim Heizen und in Kraft-Werken. Abgase schaden dem Klima. Deshalb 1.1 Erster Zugang zum Gegenstandsbereich 15 <?page no="17"?> bedeutet Klima-Schutz zum Beispiel: Weniger Auto fahren, weniger Flugzeug fliegen, weniger Heizung und Strom verbrauchen. [Es folgen weitere Worterklärungen zu: Klima-Wandel, Erd-Erwärmung, Konfe‐ renz, Minister/ Ministerin, B.B./ S.P.] Auszug aus: Deutschlandfunk, Nachrichtenleicht. Der Wochen-Rückblick in ein‐ facher Sprache, 20.12.2019, Einzüge und Auszeichnungen im Original. https: / / www.nachrichtenleicht.de/ streit-beim-klima-gipfel.2042.de.html? dram: article_id =466229 [11.07.2022] Beispiel (4) Grundrechte schützen die Bürgerinnen und Bürger Das Parlament kann Gesetze machen. Das Parlament muss sich aber an das Grundgesetz halten. Niemand kann die Grundrechte ändern. Auch das Parlament kann die Grundrechte nicht ändern. Die Grundrechte schützen die Bürger. Man hat zum Beispiel das Recht auf ein Gerichtsverfahren. Jeder Mensch kann sich frei entfalten. Jeder Mensch hat einen freien politischen Willen. Das alles steht im Grundgesetz. Es gibt auch Gleichheitsrechte. Sie legen fest: Alle Menschen sind vor dem Gesetz gleich. Das heißt: Die gleichen Rechte gelten für alle Bürger. Es gibt auch Freiheitsrechte: Jeder darf frei seine Meinung sagen. Auszug aus: Bahr, Matthias/ Wiebel, Alexander (Hrsg.) (2017): Gesellschaft be‐ wusst. Schulbuchtexte in einfacher Sprache für eine Differenzierung im inklusiven Unterricht. Braunschweig: Westermann, Hervorhebungen im Original. Schon beim ersten Lesen und intuitiven Vergleichen ist sicher aufgefallen, wie unter‐ schiedlich die Texte sind - und zugleich wie ähnlich, wenn man sie mit prototypischen Erzählungen, Nachrichten oder Schulbuchtexten vergleicht: Das gilt für den Wort‐ schatz, Satzbau und Satzkomplexität, die Verknüpfung von Sätzen und Textpassagen genauso wie für typografische Merkmale (z. B. die Zeilenaufteilung oder Auszeichnun‐ gen). Am Titel unseres Studienbuches kann man bereits erkennen, dass wir gerade das Gemeinsame dieser sehr unterschiedlichen Texte betonen: Sie alle sind bemüht um Vereinfachung und Verständlichkeit. Dabei sind wir nicht daran interessiert, die verschiedenen Etiketten, die sie sich geben, noch einmal zu definieren. Etiketten wie 16 1 Leichte Sprache? Einfache Sprache? Verständliche Sprache? <?page no="18"?> Leichte Sprache, leicht gesagt, Leicht Lesen usw. haben in der Praxis ihre Funktion: Sie sprechen Leser/ innen an und ermöglichen Orientierung. Für die Forschung sind diese Etiketten eher als Beschreibungsobjekte interessant (was wird darunter jeweils gemacht? ). Wir beschreiben also, was wir in der Sprachgebrauchspraxis vorfinden können, und reflektieren es mit linguistischem Wissen. 1.2 Verständliche Sprache als „Dach“ Anders als Leichte Sprache und Einfache Sprache ist verständliche Sprache kein „Etikett“ zur Bezeichnung eines eng umrissenen Phänomens. Die Verständlichkeit von Kommu‐ nikation - besonders schriftlicher Kommunikation - war und ist aber immer wieder Gegenstand linguistischer Betrachtungen, und auch das Verstehen von Sprache wird insbesondere im Hinblick auf zugrunde liegende kognitive Prozesse behandelt. Mit dem Ausdruck verständliche Sprache wird also ein Gegenstandsbereich benannt, der sich allgemein mit den Prozessen und Bedingungen des Verstehens und der Verständlichkeit von Sprache beschäftigt. Dabei können sowohl die Besonderheiten einzelner Domänen (z. B. Sprache des Rechts, der Verwaltung, der Religion, …) im Blick sein als auch die Frage, welche sprachlichen und textuellen Faktoren die Sprachverarbeitung erleichtern oder erschweren. Bei der empirischen Erforschung von Verstehen und Verständlichkeit steht sehr oft der fiktive „Durchschnittsleser“ im Mittelpunkt. Es gibt aber auch Studien, die sich spezifischen Personenkreisen (mit unterschiedlichen Sprachkenntnissen, kognitiven Voraussetzungen etc.) widmen. Darüber hinaus gibt es weitere linguistische Ansätze: Studien, die mit Korpora - also großen Sammlungen von authentischen Sprachbeispielen - arbeiten, analysieren beispielsweise, wie häufig bestimmte Wörter oder Wortformen im Sprachgebrauch vorkommen. Was häufig vorkommt - so kann man dann oftmals schlussfolgern - ist auch vielen Menschen bekannt und insofern verständlich(er). Aber auch stärker theoretische (z. B. grammatiktheoretische) Beschreibungen der Komplexität von Sprache sind hochgradig relevant für die Frage: was ist leicht oder schwer zu verstehen? Bei Leichter und Einfacher Sprache handelt es sich offensichtlich um Sprachge‐ brauchsformen, die sich in besonderer Weise um Verständlichkeit bemühen. Bislang werden sie (noch) vorwiegend im Schriftlichen realisiert. Der Fokus unseres Studi‐ enbuchs liegt auch deshalb auf dem schriftlichen Sprachgebrauch. Verstehen und Verständlichkeit in mündlicher Kommunikation werden am Rande thematisiert (siehe Exkurs „Verstehen im Gespräch“ in Kap. 5.4.2). Auf linguistische Erkenntnisse, insbesondere solche aus der Verständlichkeitsfor‐ schung, hat man sich bei der Entwicklung Leichter und Einfacher Sprache nicht bezogen. In beiden Fällen handelt es sich um intuitiv in der Praxis entwickelte Ansätze, die nachträglich zum Gegenstand linguistischer Forschung und Fundierung geworden sind. Sowohl Leichte Sprache als auch Einfache Sprache sind „Labels“, mit 1.2 Verständliche Sprache als „Dach“ 17 <?page no="19"?> denen eine bestimmte, wiedererkennbare Praxis der Gestaltung von Texten bezeichnet wird, und die mit spezifischen Personenkreisen oder typischen Verwendungskontexten verbunden sind. Beide sind insofern verwandt, als Verständlichkeit über die weitrei‐ chende Reduktion sprachlicher und inhaltlicher Komplexität angestrebt wird, und zwar domänenübergreifend. D.h. die Vereinfachungsprinzipien werden - zumindest theoretisch - über Kommunikationskontexte hinweg tendenziell gleich gehalten. Beide Ansätze folgen insofern der Idee, kontextübergreifend generelle Formen sprachlicher und textueller Einfachheit und Verständlichkeit entwickeln zu können. Leichte Sprache und Einfache Sprache weisen aber auch Unterschiede auf. Sie grenzen sich außerdem teils sehr nachdrücklich voneinander ab. Darauf werden wir in den nächsten Kapiteln noch genauer eingehen. Wir ordnen sie hier als zwei Ausprägungsformen verständlicher (bzw. um Verständlichkeit bemühter) Sprache ein, die neben anderen Formen stehen, die entweder ebenfalls mit spezifischen Bezeichnungen etikettierbar sind (wie bspw. bür‐ gernahe Sprache, textoptimierte Prüfungsaufgaben (Wagner/ Schlenker-Schulte 2015)) oder denen keine Labels zugeordnet werden (bspw. Aufbereitungen von Texten für Kinder oder Texte, die fachliche Inhalte für Laien erklären). verständliche Sprache (i. S. v. um Verständlichkeit bemühte Sprache) Leichte Sprache Einfache Sprache textop�mierte Prüfungsaufgaben bürgernahe Sprache Sachtexte für Kinder Informa�onsbroschüre Nachbarrecht … Abb. 1: Leichte Sprache, Einfache Sprache und verständliche Sprache im Verhältnis zueinander sowie mit anderen Verständlichkeitsbemühungen Im Bereich des Mündlichen wurde zudem eine Ähnlichkeit zwischen Leichter Sprache und sog. foreigner talk (Xenolekten) sowie baby talk festgestellt (siehe Kap. 2.3.2). Die Gemeinsamkeit liegt darin, dass ganz bestimmte Personenkreise mit vereinfachenden Sprachgebrauchsformen adressiert werden. 1.3 Leichte Sprache Die UN-Behindertenrechtskonvention, die in der Bundesrepublik im Jahr 2009 in Kraft getreten ist, fordert den Einsatz barrierefreier Kommunikationsformen, um Menschen mit Behinderung gesellschaftliche Teilhabe zu ermöglichen. Leichte Sprache ist eine solche Form barrierefreier Kommunikation. Sie zeichnet sich durch maximale in‐ haltliche und sprachliche Reduktion und Vereinfachung aus, und wurde - mit Wurzeln 18 1 Leichte Sprache? Einfache Sprache? Verständliche Sprache? <?page no="20"?> auf europäischer Ebene - seit den späten 1990er Jahren auch im deutschsprachigen Raum entwickelt. Ein prägender Akteur war hier die Selbstvertretungsbewegung People First bzw. Mensch zuerst. Grundlage waren laienlinguistische Konzepte von Verständlichkeit und sprachlich-textueller Einfachheit. In besonderer Weise in ihren Formen geprägt wurde sie in der Bundesrepublik Deutschland von Institutionen der freien Wohlfahrtspflege, darunter insbesondere die Lebenshilfe und die Arbeiterwohl‐ fahrt (vgl. Zurstrassen 2015). Charakteristisch ist im deutschsprachigen Raum die Annahme, dass durch die Einhaltung kodifizierter sprachlicher und typografi‐ scher Regeln gewissermaßen „automatisch“ leicht verständliche Texte entstehen. Es existieren unterschiedliche Regelwerke, die teilweise Überschneidungen aufweisen; sie wurden verschiedentlich vergleichend gegenübergestellt (Bredel/ Maaß 2016; vgl. Lieske/ Siegel 2014). Auch wenn Leichte Sprache damit einen hohen Normierungsgrad aufweist, also wenig Spielraum bei der jeweiligen Umsetzung lässt, ist die Praxis nicht vollkommen einheitlich: Was von den regelhaft aufgestellten Ge- und Verboten in Leichte-Sprache-Texten tatsächlich umgesetzt wird, ist durchaus unterschiedlich (Bock 2017; Lange 2018; vgl. Lange/ Bock 2016). Die Fokussierung auf kodifizierte Normen scheint zudem eine spezifisch deutsche Erscheinung zu sein, wie beim Blick in die internationale Landschaft deutlich wird (vgl. Lindholm/ Vanhatalo 2021). Im schwedischen „lättläst“, das bereits seit den späten 1960er Jahren existiert, gibt es zum Beispiel ebenso wenig vergleichbar einflussreiche Regelkataloge wie im finnischen „selkokieli“, das dort seit den 1980er Jahren seinen Platz hat (vgl. Bohman 2017; Leskelä 2017). Auch im deutschsprachigen Raum gab es diese Idee in den frühen Bemühungen um verständliche Texte für Menschen mit sog. geistiger Behinderung noch nicht: 1998 wurden die „Europäischen Richtlinien für die Erstellung von leicht lesbaren Informationen für Menschen mit geistiger Behin‐ derung“ (Freyhoff/ Heß/ Kerr/ Menzel/ Tronbacke/ Veken 1998) veröffentlicht, die von der Europäischen Vereinigung der ILSMH erarbeitet und auf verschiedene Sprachen übertragen wurde. In direkter Analogie zum englischsprachigen Konzept easy-to-read sprach man damals noch von leicht lesbar bzw. leicht Lesbarkeit. Im Unterschied zur heutigen Prägung Leichter Sprache hatten diese Richtlinien noch deutlich stärker empfehlenden Charakter. Zugleich waren sie stärker abwägend formuliert. Zwar werden auch dort sprachliche und typografische Merkmale genannt, die die Lesbarkeit verbessern können, z.B. „Vermeiden Sie abstrakte Begriffe.“, „Verwenden Sie kurze Worte aus der Alltagssprache.“, „Seien Sie vorsichtig mit Redewendungen und Metaphern, wenn sie nicht sehr gebräuchlich sind“ Dieser Abschnitt des Dokuments macht allerdings einen vergleichsweise geringen Anteil aus. Vom Charakter her erscheint er als allgemeiner Orientierungsrahmen. D.h., es werden Aspekte genannt, die im Formulierungs- und Textgestaltungsprozess abzuwägen sind. Wesentlich ausdrücklicher als in späteren Regelwerken geht die - insgesamt knappe - Broschüre auf das Problem der Reduktion und Selektion von 1.3 Leichte Sprache 19 <?page no="21"?> Inhalten und auf die adressatenseitigen (Wissens-)Voraussetzungen ein. Lesbarkeit und Verständlichkeit werden nicht als gebunden an universelle ‚Regeln‘ verstanden. Vielmehr hat man ausdrücklich ihre Kontextabhängigkeit und Relativität betont: Die Frage, ob ein Text leicht lesbar oder verständlich ist, hängt sehr von den Fähigkeiten und Erfahrungen der Leserinnen und Leser ab. Manche Personen können offizielle Doku‐ mente lesen, während andere es als schwierig empfinden, kurze Texte aus Zeitungen oder Zeitschriften zu verstehen. Das Konzept der ‚leicht Lesbarkeit‘ kann deshalb nicht universal sein. Es wird nicht möglich sein, einen Text zu verfassen, der den Fähigkeiten aller Menschen mit Lese- und Verständnisproblemen entspricht. (Freyhoff et al. 1998: 8) Dieses frühe ILSMH-Dokument benennt also ausdrücklich die heterogenen Voraus‐ setzungen und die Schwierigkeiten, die allein bei der Ansprache einer Zielgruppe auftreten. Im prägenden Regelwerk des Netzwerks Leichte Sprache (2013) ist der Zugang etwas anders: So wird nicht nur die Hauptzielgruppe Menschen mit sog. geistiger Behinderung (= Menschen mit Lernschwierigkeiten, siehe Kap. 4.1) genannt. Vielmehr werden eine Reihe weiterer Zielgruppen mit höchst unterschiedlichen Voraussetzungen aufgezählt: Demenzkranke, „Menschen, die nicht so gut Deutsch sprechen“, „Menschen, die nicht so gut lesen können“ (Netzwerk Leichte Sprache 2013: 2). Alle diese Zielgruppen (und noch weitere) profitieren dem Selbstverständnis nach von Leichter Sprache: „Leichte Sprache verstehen alle besser.“ (Netzwerk Leichte Sprache 2013: 1). Im Unterschied zum ILSMH-Dokument werden also weniger die vielfältigen Herausforderungen und notwendigen Abwägungen im Texterstellungs‐ prozesses fokussiert. Es wird vielmehr ein auf (vermeintliche) Klarheit ausgelegtes Werkzeug an die Hand gegeben: Der sich anschließende Regelkatalog gibt Auskunft, wie verständliche Texte für all diese verschiedenen Personenkreise bzw. „für alle“ zu erreichen seien. Forschungsbasierte Leichte-Sprache-Ansätze schließen sich der breiten Zielgruppenannahme tendenziell an (genannt werden weiterhin z. B. Hörge‐ schädigte, Aphasiepatient/ innen, funktionale Analphabet/ innen). Sie betonen aber in der Regel, dass verschiedene Zielgruppen differenzierte Textangebote benötigen. Wie entsprechende Texte gestaltet werden müssen, um die verschiedenen Personenkreise zu erreichen, ist Gegenstand von Untersuchungen und theoretischen Überlegungen (Bock 2019a; vgl. Bredel/ Maaß 2016). Seit dem Projekt „Pathways - Wege zur Erwachsenenbildung für Menschen mit Lernschwierigkeiten“ und den dort erarbeiteten Materialien ist im deutschsprachigen Raum der Regelansatz prägend: Es dominiert die Idee kontextübergreifend gültiger Normkodizes. Gute Information heißt: / Man kann die Information leicht lesen und leicht verstehen. / Damit man gute Information machen kann, / muss man sich an Regeln halten. / Diese Regeln erklären Ihnen, wie Sie Informationen / leicht lesbar und leicht verständlich machen kön‐ nen. / Egal welche Art von Information es ist. (Inclusion Europe 2009: 7) 20 1 Leichte Sprache? Einfache Sprache? Verständliche Sprache? <?page no="22"?> Im ersten Zitat aus den ILSMH-Richtlinien wird noch darauf hingewiesen, dass es keine universellen Lösungen gebe, und indirekt wird die Notwendigkeit eines flexiblen Vorgehens angesprochen. Im zweiten Zitat aus der „Pathways“-Broschüre von 2009 findet sich dann schon die auch heute noch prägende Vorstellung, dass die Einhaltung kontextunabhängig geltender Regeln verständliche Texte gewissermaßen garantieren könne. Das Regelwerk des Netzwerks Leichte Sprache (vgl. Bundesministerium für Arbeit und Soziales 2014; 2013), das die heutige Praxislandschaft maßgeblich geprägt hat und noch immer prägt, hat diese Ausrichtung sogar noch etwas zugespitzt: Die Regeln sind an vielen Stellen noch absoluter formuliert und folgen meist einer richtig/ falsch-Di‐ chotomie, die scheinbar eindeutige und einfach umsetzbare Lösungen verspricht (siehe Infokasten). Auszug aus dem „Ratgeber Leichte Sprache“ Benutzen Sie einfache Wörter. Schlecht: genehmigen Gut: erlauben (Bundesministerium für Arbeit und Soziales 2014: 22) - Benutzen Sie bekannte Wörter. Ver‐ zichten Sie auf Fach-Wörter und Fremd-Wörter. (Bundesministerium für Arbeit und Soziales 2014: 24) - Vermeiden Sie den Genitiv. (Bun‐ desministerium für Arbeit und So‐ ziales 2014: 30) - Vermeiden Sie Rede-Wendungen und bildliche Sprache. (Bundesmi‐ nisterium für Arbeit und Soziales 2014: 33) Benutzen Sie aktive Wörter. Schlecht: Morgen wird der Heim-Beirat gewählt. Gut: Morgen wählen wir den Heim-Beirat. (Bun‐ desministerium für Arbeit und Soziales 2014: 29) - Benutzen Sie positive Sprache. Vermeiden Sie negative Sprache. Negative Sprache erkennt man an dem Wort: nicht. Dieses Wort wird oft übersehen. (Bundesministe‐ rium für Arbeit und Soziales 2014: 32, Hervorhe‐ bung im Original) - Benutzen Sie Bilder. Bilder helfen Texte zu verstehen. Die Bilder müssen zum Text passen. (Bundesmi‐ nisterium für Arbeit und Soziales 2014: 67) In der linguistischen Leichte-Sprache-Forschung gibt es unterschiedliche Positio‐ nen zur Frage der Regelbasiertheit. Einerseits wurde die Idee konzeptionell übernommen und linguistisch reformuliert: Bredel und Maaß (2016) beispielsweise fassen Leichte Sprache als regulierte Varietät auf, die sich über explizite, weitgehend kontextunabhängige Normen definieren lässt. Bereits bei Maaß heißt es: 1.3 Leichte Sprache 21 <?page no="23"?> Leichte Sprache ist eine Varietät des Deutschen. Sie hat linguistisch beschreibbare Eigen‐ schaften. Darum gilt vielmehr: Ein Text ist genau dann ein Text in Leichter Sprache, wenn er diese Eigenschaften aufweist. (Maaß 2015: 166) Auch Bestrebungen wie die vom Bundesministerium für Arbeit und Soziales initiierte DIN-Spec-Verfahren zeugen von Normierungs- und Kodifizierungsintentionen. Ein‐ heitliche und verbindliche Regeln gelten als positiv besetztes Ziel. Auf der anderen Seite gibt es auch kritische Bewertungen der Fokussierung auf Regeln und entsprechende alternative Entwürfe: Leichte Sprache wird dann als funk‐ tionale Varietät beschrieben (Bock 2014; Lasch 2017) und es werden Forderungen nach einem höheren Maß an Adaptivität formuliert (Kleinschmidt/ Pohl 2017). Bock (2019a) ordnet den verschiedenen Regelwerken den Status eines allgemeinen Orientie‐ rungsrahmens zu, wobei über die Anwendung der Regeln in Abhängigkeit von Kontextfaktoren in jedem Textproduktionsprozess neu entschieden werden muss: Welche sprachlichen und grafischen Mittel jeweils angemessen sind, entscheidet sich also in Relation zum jeweiligen Adressatenkreis, zum Thema bzw. Inhalt des Textes, zur Textfunktion, zu situativen Faktoren und zum Sender (siehe Kap. 2.4). Die Perspektive ähnelt den frühen Dokumenten aus der Leichte-Sprache-Praxis. Eine solche Konzeptualisierung bedeutet, dass Regeln zur sprachlichen und grafi‐ schen Gestaltung von verständlichen Texten für enge Anwendungsbereiche natürlich durchaus festgelegt werden können. Ein Beispiel, das nicht direkt aus der Leichten Sprache stammt, wären die Hinweise zur Textoptimierung von Prüfungsaufgaben (die selbst nicht den Ausdruck Regeln wählen, die aber ganz ähnlich aufgebaut sind): Sie beziehen sich auf eine spezifische Adressatengruppe (Hörgeschädigte) und einen klar begrenzten Anwendungsbereich, mit dem Textfunktion und Situation sowie The‐ menbereich konstant sind (Prüfungsaufgaben in technischen Fächern der beruflichen Bildung) (Wagner/ Schlenker-Schulte 2015). In der Leichte-Sprache-Landschaft wird bisher allerdings noch nicht in dieser Weise mit kontextspezifischen Regeln oder Empfehlungen gearbeitet. Ein großes Thema ist aktuell die empirische Erforschung Leichter Sprache. Aus einer theoretischen Perspektive haben Christiane Maaß und Ursula Bredel die erste umfassende linguistische Fundierung geleistet (Bredel/ Maaß 2016; Maaß 2015). In den darauffolgenden Jahren standen dann vor allem empirische Studien im Fokus. Das interdisziplinäre LeiSA-Projekt an der Universität Leipzig hat erste empirische Erkenntnisse zur Verständlichkeit und Wirksamkeit Leichter Sprache erarbeitet (Bock 2019a; Goldbach/ Bergelt 2019). Weitere empirische Ergebnisse liegen bei Alexander Lasch (2017) vor; jüngst entstanden in einer Forschungsgruppe um Silvia Hansen-Schirra eine Reihe weiterer empirischer Arbeiten (Hansen-Schirra/ Gutermuth 2018; Hansen-Schirra/ Maaß 2020). Dennoch gilt nach wie vor, dass eine umfassende empirische Fundierung und Überprüfung der Prinzipien Leichter Sprache noch nicht geleistet sind (Christmann 2017). Spezifisch für Leichte Sprache ist zudem das sogenannte „Prüfen“ von Texten. Zielgruppenvertreter/ innen werden dabei in den Texterstellungsprozess eingebunden, 22 1 Leichte Sprache? Einfache Sprache? Verständliche Sprache? <?page no="24"?> 2 Vgl. https: / / de.wikipedia.org/ wiki/ Einfache_Sprache [10.03.2021]. und zwar meist, indem sie Texte vor ihrer Veröffentlichung auf Verständlichkeit prüfen. Die Umsetzung dieser Praxis ist sehr unterschiedlich (Bergelt/ Kaczmarzik 2019; Schiffler 2022). Während das Prüfen in der Leichte-Sprache-Praxis oftmals als konstitutiv für eine adäquate Textproduktion angesehen wird (vgl. Netzwerk Leichte Sprache 2013), gibt es in der Forschung dazu unterschiedliche Positionen. Die eine Sichtweise ordnet das Prüfen bei entsprechender Professionalisierung des Übersetzens als überflüssig ein (Maaß 2015: 167). Auf der anderen Seite gibt es Bemühungen um eine methodische Fundierung von partizipativen Verständlichkeitsprüfungen (Kaczmarzik 2018; 2019). 1.4 Einfache Sprache Was ‚ist‘ Einfache Sprache - im Vergleich zu Leichter Sprache und auch zu anderen Etiketten, die es im Praxisfeld gibt? Wir folgen in diesem Kapitel dem in Forschung und Praxis verbreiteten Ansatz, Leichte und Einfache Sprache zueinander in ein Verhältnis zu setzen und sie dadurch genauer zu beschreiben. Als das Gemeinsame aller erwähnten Labels sehen wir, wie bereits eingangs erwähnt, das besondere Bemühen um (Text-)Verständlichkeit an. In der jüngeren Zeit hat sich nicht nur in der Forschung der Blick auf Leichte und Einfache Sprache diversifiziert. Auch in der Praxis haben sich die Ansätze ausdifferenziert. Es gibt mittlerweile unterschiedliche Anbieter. Nicht alle, die sich der Leichte-Sprache-Praxis zuordnen lassen, nutzen aber das Etikett Leichte Sprache, und nicht alle setzen auf feste Regeln und eine rigide Umsetzungspraxis. Neben Leichte Sprache werden Texte mit ähnlichen Merkmalen auch unter Bezeichnungen wie leicht lesbar, Leicht Lesen, leicht gesagt u.ä. veröffentlicht; Karin Luttermann hat die Bezeich‐ nung klare Sprache für eine linguistisch fundierte Form Leichter Sprache vorgeschlagen (Luttermann 2017). Auch Texte mit dem Etikett Einfache Sprache erinnern aber teilweise stark an Regeln und Prinzipien Leichter Sprache (siehe Beispiel (4) in Abschnitt 1.1). Wie geht man vor diesem Hintergrund also an eine Abgrenzung heran? Blickt man zunächst auf die Entstehungsgeschichte Einfacher Sprache fällt auf, dass diese weniger klar nachzuzeichnen ist als die Geschichte Leichter Sprache. Einflussreich bei der Verbreitung und Prägung des Phänomens in seiner heutigen Form war in jedem Fall die Münsteraner „Agentur Klar & Deutlich“ sowie der dazugehörige „Spaß am Lesen Verlag“, die sich auch früh um eine Abgrenzung vom Phänomen Leichte Sprache bemüht haben. Auch Literatur- und Schulbuchverlage, die vereinfachte Literatur publizieren, gehören zu den frühen Akteuren im Feld. Als Zielgruppen Einfacher Sprache gelten typischerweise Menschen mit gerin‐ gen Lesekompetenzen. 2 Häufig wird auf die einflussreichen Hamburger leo.-Studien zu funktionalem Analphabetismus bzw. geringer Literalität verwiesen (Grotlüschen/ Bud‐ 1.4 Einfache Sprache 23 <?page no="25"?> 3 Vgl. zum Beispiel https: / / klarunddeutlich.de/ einfache-sprache-leichte-sprache/ [10.03.2021] deberg 2020; Grotlüschen/ Riekmann 2012). Die Zielgruppenbeschreibungen ähneln sich allerdings bei Leichter und Einfacher Sprache zunehmend, d. h. es werden - anders als noch vor einigen Jahren - oftmals keine Abgrenzungen mehr vorgenommen im Sinne von ‚Leichte Sprache richtet sich an Menschen mit Beeinträchtigung‘ vs. ‚Ein‐ fache Sprache richtet sich an gering Literalisierte und Deutschlernende‘. Damit wird sicherlich auch der Heterogenität der Personenkreise Rechnung getragen. Tendenziell scheint aber für Einfache Sprache eine breitere Adressatenschaft angenommen zu werden als für Leichte Sprache. 3 Baumert (2018) stellt Einfache Sprache (bzw. einfache Sprache) in die Tradition von plain English und versteht sie eher unspezifisch als verständliche Sprache im Kontext von Experten-Laien-Kommunikation (vgl. ähnlich Wagner/ Scharff 2014). Bei Leichter Sprache findet sich eine solche globale Einordnung, ganz ohne Zielgruppennennung - gleichwohl sie genauso denkbar wäre - eher nicht. Insgesamt gibt es zu Einfacher Sprache weniger Forschung als zu Leichter Sprache, was ihre präzise Beschreibung zusätzlich erschwert. Linguistische Erörterungen setzen sie - wie wir es hier auch tun - fast immer in Relation zu Leichter Sprache und teilweise weiteren Sprachvarianten. In welchen Merkmalen sich Texte mit den verschiedenen Labels nun im Einzelnen ähneln und unterscheiden, hat man unter anderem korpuslinguistisch untersucht. Dabei werden große Sammlungen von Texten hinsichtlich verschiedener sprachlicher Merkmale ausgewertet (vgl. auch Kap. 5.2): Quantitativ-korpuslinguistische Ana‐ lysen können beispielsweise Kennwerte zur verwendeten Lexik, zur Satzkomplexität und zur Satz- und Textlänge ermitteln, aus lexikalischen Merkmalen lassen sich auch Rückschlüsse auf dominante Themen ziehen; pragmatische und eine Reihe semantischer Merkmale, die typisch für Leichte- oder Einfache-Sprache-Texte sein könnten, müssen wiederum eher in qualitativen Analysen ermittelt werden. Neben Studien mit sehr kleinen Korpora (Fuchs 2019; Jekat/ Germann/ Lintner/ So‐ land 2017) hat Lange (2018) die bislang umfassendste Korpusstudie vorgelegt. Sie fragt nach typischen Eigenschaften von Texten in Leichter und in Einfacher Sprache. Analysegegenstand der Studie waren Texte, die sich den Etiketten Leichte Sprache, Einfache Sprache sowie Leicht Lesen zuordnen ließen (LeiSA-Korpus, zur Textauswahl und Zusammensetzung: Lange 2018). Wir greifen hier nur die Befunde zu Leichter und Einfacher Sprache auf. Anhand des Korpus aus authentischen Leichte-Sprache-Texten wurde außerdem überprüft, in welchem Maße die postulierten Regeln in der Praxis tatsächlich umgesetzt werden. Insgesamt zeigt die Untersuchung von Lange, dass die Regelwerke mehrheit‐ lich befolgt werden. Im Falle einiger Regeln jedoch zeigen sich deutliche „Verstöße“ (z. B. beim Negationsverbot). Dies kann als Beleg dafür gedeutet werden, dass die Umsetzung Leichter Sprache bereits flexibler erfolgt als die Regelwerke es konzeptuell vorsehen. Lange weist jedoch auch darauf hin, dass die Vagheit vieler Regeln offenlässt, was genau eine „regelgetreue“ Umsetzung ist. 24 1 Leichte Sprache? Einfache Sprache? Verständliche Sprache? <?page no="26"?> Beim Vergleich des Leichte-Sprache- und des Einfache-Sprache-Subkorpus ergaben sich u. a. folgende Unterschiede (siehe Tabelle 1): Die Leichte-Sprache-Texte waren im Vergleich zu den Einfache-Sprache-Texten durchschnittlich kürzer (Wortanzahl, Satzanzahl). Auch die Sätze waren kürzer, und der Wortschatz wies eine geringere Variation auf. Diese Werte kann man so interpretieren, dass die Leichte-Sprache-Texte an die Verarbeitung geringere Anforderungen stellen als die Einfache-Sprache-Texte, und in diesem Sinne weniger komplex sind. Die Texte beider Subkorpora waren zudem von einem hohen Anteil an Verben und damit von Verbalstil geprägt. Dies kann man allgemein als Bemühung um eine leicht verständliche Ausdrucksweise interpretieren, da Nominalstil tendenziell als schwerer verständlich gilt. Die Analyse von Wortschatz und häufigen Wortverbindungen ließ die Interpretation zu, dass in der Leichten Sprache vor allem Themen gewählt werden, die aus dem Umfeld eines spezifischen Personenkreises stammen, nämlich Menschen mit sog. geistiger Behinderung. Die thematische Ausrichtung von Einfache-Sprache-Texte ließen hingegen eine breitere Zielgruppenansprache erkennen (zum Aspekt dominanter Themen siehe auch Kap. 2.5.1). - Leichte-Sprache- Subkorpus (N-=-404 Texte) Einfache-Sprache- Subkorpus (N-=-300 Texte) Anzahl Wörter (Token) 639.826 779.278 Anzahl Wortformen (Types) 17.725 38.470 Type-Token-Ratio 0,028 0,049 Durchschnittliche Satzanzahl pro Text 171 (s-=-300,5) 251 (s-=-615,2) Durchschnittliche Wortanzahl pro Text 1.596 (s-=-2691,3) 2.851 (s-=-7232,8) Durchschnittliche Wortanzahl pro Satz 9,36 (s-=-7,62) 11,34 (s-=-20,47) Tab. 1: Ausgewählte Merkmale der Leichte-Sprache- und Einfache-Sprache-Subkorpora im Vergleich (nach Lange 2018) Eine ganz andere Antwort auf dieselbe Frage - Worin liegen Unterschiede zwischen Leichter und Einfacher Sprache? - bringt die Untersuchung von Definitionen und Erklärungen der beiden Phänomene, wie sie von Anbietern und Institutionen im Pra‐ xisfeld formuliert werden. Hier untersucht man gewissermaßen das metasprachlich kommunizierte „Selbstverständnis“ der „Macher“ Leichter und Einfacher Sprache. Schon bei einer ersten Recherche fällt auf: Gerade die Labels Leichte und Einfache Sprache werden rhetorisch häufig in Opposition zueinander gebracht. Gleichzeitig scheint man aber auch Gemeinsamkeiten zu sehen, denn ansonsten entstünde kein Druck sich explizit und (er)klärend abzugrenzen. 1.4 Einfache Sprache 25 <?page no="27"?> Akteure aus beiden Feldern grenzen Leichte und Einfache Sprache teilweise mit großem Nachdruck voneinander ab. Wie zum Beispiel hier: Achtung: Leichte Sprache und einfache Sprache sind nicht das Gleiche. Es gibt viele Unterschiede. (Netzwerk Leichte Sprache 2014). Die Tatsache, dass überhaupt eine Abgrenzung thematisiert wird, kann man als ein Anzeichen semantischer Konkurrenz deuten: Akteure konkurrieren um die Deutungshoheit über bestimmte Bezeichnungen. Meist ist so etwas gefolgt von Be‐ griffsbesetzungen, das heißt, Akteure versuchen, „die Bedeutung eines Begriffs […] im eigenen Sinne zu modellieren und diese Bedeutung möglichst kanonisch zu etablieren“ (Klein 2017: 777). Ein Kriterium, das häufig angeführt wird, um Leichte und Einfache Sprache voneinander abzugrenzen, ist die Kodifizierung: Während Leichte Sprache über ausformulierte Regeln definiert wird, wird Einfache Sprache gerade darüber definiert, dass entsprechende Regelwerke fehlen (vgl. Netzwerk Leichte Sprache 2014). Das Netzwerk Leichte Sprache verbindet mit dem Fehlen verbindlicher Regeln auch eine mangelnde Kontrolle der Textqualität (Netzwerk Leichte Sprache 2014). Gerade an solchen impliziten Wertungen wird deutlich, dass es bei der Konzeption und der Abgrenzung immer auch um semantische Konkurrenz - und über die Sprache hinaus: um Interessenvertretung - geht. Eine umfassende variationslinguistische Beschreibung vereinfachter Sprachvarietä‐ ten steht derzeit noch aus. Bisher wird vor allem darauf hingewiesen, dass Leichte und Einfache Sprache als verortet auf einem Kontinuum verstanden werden können: sei es auf einem Kontinuum ab-/ aufsteigender sprachlicher Komplexität, ab-/ aufstei‐ gender Verständlichkeit oder einem Kontinuum mit mehr oder weniger sprachlichen Ausdrucksmitteln bzw. Ausdrucksvarianten, die zur Verfügung stehen (Bock 2015a; Bredel/ Maaß 2016: 530 f.). Ausgehend von der Vorstellung eines Kontinuums wurden dann auch Stufenbeschreibungen abgeleitet (vgl. Bredel/ Maaß 2016: 541; Maaß 2020a, siehe auch Kap. 3.2). Abb. 2: Kontinuum sprachlich-textueller Komplexität/ Verständlichkeit von wenig komplex/ leicht ver‐ ständlich bis sehr komplex/ schwerverständlich, am Beispiel der Textsorte Allgemeine Geschäftsbedin‐ gungen; eingetragen sind einzelne Textexemplare. Bredel/ Maaß (2016) haben in ihrem einflussreichen Werk Leichte und Einfache Sprache als „Reduktionsvarietäten“ konzipiert, die von der Standardsprache - verstanden als kodifizierte schriftsprachliche Norm (vgl. auch Kap. 2.3.2) - abgeleitet sind (Bre‐ del/ Maaß 2016: 529). Sie konzipieren damit sowohl Leichte als auch Einfache Sprache 26 1 Leichte Sprache? Einfache Sprache? Verständliche Sprache? <?page no="28"?> als vom Standard „abweichende“ Varianten und gehen davon aus, dass bestimmte sprachliche und typografische Ausdrucksmöglichkeiten in der Leichten Sprache ver‐ boten sind, das Ausdrucksrepertoire also reduziert wird (Reduktionsvarietät). Die Beschreibung Einfacher Sprache erfolgt dann hauptsächlich ausgehend von den Merk‐ malen Leichter Sprache, die zuvor ausführlich beschrieben und theoretisch fundiert wurden. Einfache Sprache erscheint bei Bredel und Maaß also als von Leichter Sprache abgeleitete „angereicherte“ Varietät (Bredel/ Maaß 2016: 533). In ihr werden „verbotene Kategorien sukzessive zugelassen“ und Reduktionen zurückgebaut (Bredel/ Maaß 2016: 533). Einfache Sprache verstehen die Autorinnen also als Sprachform, die in ihren sprachlichen und typografischen Mitteln reichhaltiger und variabler ist als Leichte Sprache. Bredel und Maaß vergleichen in ihrem Ansatz den inneren Variantenreichtum von Leichter und Einfacher Sprache. Ein anderer Zugang ist es, die Textverständlichkeit und die Textkomplexität in den Fokus zu rücken. Dann spielt nicht nur die Reduktion von Ausdrucksmitteln, also das Weglassen, eine Rolle. Es kommt dann auch das Hinzufügen (bspw. von Erklärungen, von grafischen Mitteln zur Orientierung im Text) oder das Ersetzen (bspw. von wenig geläufigen durch geläufige Wörter) als Mittel hinzu, um Textkomplexität zu reduzieren und die Verständlichkeit zu erhöhen (Bock 2019a: 25; vgl. Christmann/ Groeben 1996; 1999; Hennig 2017). Leichte und Einfache Sprache werden dann immer noch als Punkte (oder Bereiche) auf einem Komplexitäts- oder Verständlichkeitskontinuum verortet. Sie erscheinen aber zugleich stärker als handlungs- und zielorientierte Phänomene, bei denen verschiedene Strategien im Textproduktionsprozess in vielschichtiger Weise zusammenwirken. - Weiterführende Literatur Einen Überblick über die Perspektiven der Verständlichkeitsforschung gibt der - nicht mehr ganz neue - Beitrag von Christmann und Groeben; die Perspektive der Forschung zu linguistischer Komplexität wird im Band von Hennig durch eine Reihe von Beiträgen abgebildet. Christmann, Ursula/ Groeben, Norbert (1996): Textverstehen, Textverständlichkeit - ein For‐ schungsüberblick unter Anwendungsperspektive. In: Krings, Hans P. (Hrsg.): Wissenschaft‐ liche Grundlagen technischer Kommunikation. Tübingen: Narr. Hennig, Mathilde (Hrsg.) (2017): Linguistische Komplexität - ein Phantom? Tübingen: Stauf‐ fenburg. Zwei Konzepte, die im Studienbuch zwar immer wieder angesprochen, aber nicht vertieft werden können, ist das der Textoptimierung sowie der bürgernahen Rechts- und Verwaltungssprache: Wagner, Susanne/ Schlenker-Schulte, Christa (2015): Textoptimierung von Prüfungsaufgaben. Handreichung zur Erstellung leicht verständlicher Prüfungsaufgaben. Halle/ Saale: IFTO. 1.4 Einfache Sprache 27 <?page no="29"?> Eichhof-Cyrus, Karin M./ Antos, Gerd (Hrsg.) (2008): Verständlichkeit als Bürgerrecht? Die Rechts- und Verwaltungssprache in der öffentlichen Diskussion. Mannheim u.a.: Dudenver‐ lag. - Aufgaben 1. Analysieren Sie die Beispiele (1) - (4) in Kapitel 1.1 hinsichtlich Ihrer sprachlichen und typografischen Merkmale. a. Welche Merkmale gibt es in allen Texten? Welche sind spezifisch für einzelne Texte und wie passt dies zu den Labels, die sie tragen? b. Wie erklären Sie sich die Verteilung der Merkmale? Ziehen Sie zur Beant‐ wortung der Frage auch die Kapitel 1.3. und 1.4 heran. 2. Recherchieren Sie mit den Suchworten Leichte Sprache, Einfache Sprache, verständ‐ liche Sprache online nach Textbeispielen. a. Welche Arten von Texten werden Ihnen an oberster Stelle angezeigt? Vergleichen Sie die Merkmale mit den Ergebnissen aus korpuslinguistischen Untersuchungen in Kapitel 1.4. b. Welche Probleme bei der Abgrenzung, die in diesem Kapitel beschrieben wurden, spiegeln sich in Ihren Suchergebnissen? 3. Sehen Sie sich Definitionen von verschiedenen Anbietern Leichter und Einfacher Sprache an. a. In welche Kontexte setzen Sie die beiden Ansätze? b. Welche Rolle spielt in den Definitionen Verständlichkeit und welche alter‐ nativen „Dachkonzepte“ werden ggf. angeführt? 28 1 Leichte Sprache? Einfache Sprache? Verständliche Sprache? <?page no="30"?> 2 Grundlagen In diesem Kapitel werfen wir zunächst einen genaueren Blick auf Verstehen‐ sprozesse (auf der Leser/ innenseite) und Verständlichkeit bzw. Einfachheit (als Eigenschaften von Sprache und Text). Dabei wird es auch darum gehen, die spezifischen Akzentuierungen von Psycholinguistik, Textlinguistik, linguis‐ tischer Verständlichkeits- und Komplexitätsforschung zu verdeutlichen, die zu jeweils eigenen Zugängen zum Thema führen: Während die Psycholinguistik vor allem nach generellen Prozessen beim Lesen und Verstehen fragt und diese empirisch untersucht, arbeitet die Komplexitätsforschung vor allem mit der Analyse und Beschreibung sprachlicher Strukturen. Die Textlinguistik wiederum betrachtet den Text in seinem Kontext. Sie betont daher die Relativität von Verständlichkeit, z. B. im Hinblick auf Adressatenkreis oder Verwendungs‐ zweck. Hier knüpfen auch die beiden weiterführenden Kapitel an: Sie führen in linguistische Konzepte und Perspektiven ein, die zwar nicht direkt Verstehen und Verständlichkeit behandeln, aber für Leichte, Einfache und verständliche Sprache relevant sind. Zum einen handelt es sich um das Konzept der Angemessenheit - also die übergreifende Frage, was guten Sprachgebrauch ausmacht. Zum anderen wird in diskurs- und soziolinguistische Ansätze eingeführt, und somit auch das Sprechen über (verständliche oder nicht verständliche) Sprache und die soziale Dimension von Sprachgebrauch thematisiert. 2.1 Lesen und Verstehen - psycholinguistische Perspektiven Das Unterkapitel gibt einen Überblick über psycholinguistische Modelle des Lesens und Verstehens auf Wort-, Satz- und Textebene. Welche kognitiven Wissensbestände und Verarbeitungsschritte sind am Lesen und Verstehen beteiligt? In welcher Reihenfolge werden welche Informationen verarbeitet? Welche Ressourcen werden benötigt? Diese Fragen sollen funk‐ tionale Modelle des Lesens und Verstehens beantworten. Dabei zeigt sich, dass es häufig konkurrierende Annahmen zum zeitlichen Verlauf der Verarbeitung sowie zu den beteiligten Repräsentationen und Prozessen gibt. Manche Annahmen erscheinen hier plausibler für weniger geübte Leser/ innen als andere. Generell fehlt es jedoch derzeit noch an Forschung zur Übertragbarkeit der Modelle auf spezifische Leser/ innengruppen. Wir geben zunächst einen generellen Einblick in die Forschungsperspektive der Psycho‐ linguistik. Danach werden die drei Hauptaspekte der Forschung vorgestellt: <?page no="31"?> ● physiologische Prozesse beim Lesen ● visuelle Worterkennung ● Lesen und Verstehen auf Satz- und Textebene 2.1.1 Lesen als kognitiver Prozess Die in das Lesen und Verstehen involvierten kognitiven Repräsentationen (das Wissen) und Prozesse (die Verarbeitung) stehen im Mittelpunkt psycholinguistischer Forschung (Rayner/ Pollatsek/ Ashby/ Clifton 2012). Allgemein wird zwischen „periphe‐ ren“ Prozessen, die die visuelle Wahrnehmung und die Blickbewegungen betreffen, und „zentralen“ Prozessen unterschieden (Ellis/ Young 1996). Die zentralen Prozesse sind von besonderem Interesse und werden auf verschiedenen sprachlichen Ebenen betrachtet. Auf der lexikalischen Ebene wird die visuelle Worterkennung untersucht. Auf der syntaktischen Ebene geht es um die Verarbeitung von Sätzen, die als Parsing bezeichnet wird (abgeleitet von parts of speech, ‚Wortarten‘, d. h. den Wortarten wird hier in Anlehnung an die Phrasenstrukturgrammatik eine wichtige Funktion zugeschrieben). Auf der textuellen Ebene wird schließlich das Textverstehen unter‐ sucht. Auf jeder sprachlichen Ebene ist wiederum von einer Vielzahl verschiedener Teilprozesse auszugehen, die verschiedene sprachliche Einheiten einbeziehen und das Lesen zu einem sehr komplexen kognitiven Prozess machen. Aus der Vielzahl der beteiligten Prozesse ergibt sich eine Vielzahl möglicher Faktoren, die Schwierigkeiten beim Lesen begründen können, sowie eine erhöhte Störanfälligkeit des Lesens. Psycholinguistische Modelle Die Psycholinguistik ist eine Disziplin an der Schnittstelle zwischen Linguistik und kognitiver Psychologie. Sie begreift Sprache als eine kognitive Funktion des Menschen. Ihr Ziel ist die Modellierung der Sprachverarbeitung. Klassische funk‐ tionale Modelle bilden Repräsentationen und Prozesse in der Form von Kästen und Pfeilen ab. Die Kästen symbolisieren Repräsentations- und Verarbeitungseinhei‐ ten, ihre Anzahl variiert von Theorie zu Theorie. Modularen Modellen zufolge arbeiten diese Einheiten unabhängig von anderen Einheiten und sind selektiv störbar (Modularitätshypothese; Fodor, 1983). Interaktive Modelle nehmen hingegen einen regen Informationsaustausch zwischen den relevanten Einheiten an. Ob ein Modell modular oder interaktiv ist, lässt sich in einer Abbildung an den Pfeilen zwischen den genannten Kästen ablesen. Die Pfeile zeigen zum einen an, zwischen welchen Kästen Informationen ausgetauscht werden, zum anderen, in welche Richtung die Informationen fließen: in modularen Modellen in eine Richtung, in interaktiven Modellen hin und zurück. Alternativ zur funktionalen Lokalisation wird Sprache materiell im Gehirn lokalisiert oder statistisch model‐ liert. 30 2 Grundlagen <?page no="32"?> Die Modelle werden abgeleitet aus Patient/ innendaten, Fehleranalysen und insbe‐ sondere psycholinguistischen Experimenten, die einen Aspekt der Sprachverar‐ beitung möglichst isoliert herausarbeiten. Die in die Modellbildung einfließenden Erkenntnisse generalisieren über Individuen, sie sollen für Sprecher/ innen oder Leser/ innen eines Sprachbzw. Schriftsystems im Allgemeinen gelten. Die meis‐ ten Modelle wurden für das Englische entwickelt. Inwiefern sie ohne größere Anpassungen auf andere Sprachen übertragen werden können, wird diskutiert (vgl. Frost 2012). Aus kognitionswissenschaftlicher Perspektive handelt es sich beim Lesen um einen Prozess der Informationsverarbeitung. Dieser ist mit der Schrift auf einen Input spezialisiert, der Bedeutungen und/ oder lautsprachliche Einheiten visuell abbildet. Die Größe der Informationseinheiten ist wesentlich durch die visuelle Wahrnehmung beschränkt. Eine Weiterverarbeitung und Verknüpfung der Einheiten erfolgt in nach‐ geschalteten Prozessen unter anderem auf der Wort-, Satz- und Textebene. Dabei ist davon auszugehen, dass das (leise) Lesen nur eine Modalität der Sprachverarbeitung ist, die nicht getrennt von den anderen Modalitäten zu betrachten ist und teilweise dieselben Ressourcen nutzt wie das Hören, das Sprechen und das Schreiben (siehe Abb. 3). Dass am lauten Lesen grundsätzlich neben dem Lesen auch das Sprechen beteiligt ist, ist offensichtlich. Darauf, dass auch das leise Lesen nicht völlig losgelöst vom Sprechen zu betrachten ist, deuten Lippenbewegungen und die Wahrnehmung einer „inneren Stimme“ hin. Abb. 3: Lesen als eine Modalität der Sprachverarbeitung Neben der Psycholinguistik befasst sich auch die Sprachdidaktik mit dem Lesen, Hören, Sprechen und Schreiben. Allerdings unterscheidet sich die Perspektive: Während die Psycholinguistik vorrangig die unbewusst beteiligten Repräsentationen und Prozesse 2.1 Lesen und Verstehen - psycholinguistische Perspektiven 31 <?page no="33"?> erforscht, ergründet die Sprachdidaktik die für die Sprachverwendung in den Modali‐ täten benötigten Fertigkeiten sowie die Möglichkeiten ihrer Vermittlung und legt hier einen Fokus auf die Bewusstmachung des bereits verfügbaren sprachlichen Wissens. Besonders gewinnbringend erscheint eine interdisziplinäre Betrachtung des Schrift‐ spracherwerbs, der überwiegend institutionell vermittelt wird und in dessen Verlauf schriftsprachliche Repräsentationen und Prozesse systematisch ausdifferenziert wer‐ den. Hier sei auf kognitionswissenschaftlich fundierte Ansätze in der Sprachdidaktik verwiesen (z.-B. Roche/ Suñer 2017). Im Folgenden soll es weniger um dynamische Aspekte des Leseerwerbs gehen als um das Leseverhalten geübter Leser/ innen, zu dem (anders als zum Leseverhalten der heterogenen Gruppe der weniger geübten Leser/ innen) bereits auf umfangreiche Grundlagenforschung zurückgeblickt werden kann. Damit wird zwar nicht direkt etwas über die Verarbeitung Leichter Sprache und anderer vereinfachter Varietäten ausgesagt, es können aber Faktoren identifiziert werden, die für geübte Leser/ innen leseerleichternd oder leseerschwerend wirken und damit auch potenziell relevant sind für die weniger geübten Leser/ innen. 2.1.2 Lesen als physiologischer Prozess Beim Lesen gleitet der Blick nicht kontinuierlich in Leserichtung über die Zeilen, sondern es kommt zu Wechseln zwischen Fixationen und vorwärts- oder rückwärtsge‐ richteten Augenbewegungen (Rayner et al. 2012; Rayner/ Schotter/ Masson/ Potter/ Trei‐ man 2016; für eine deutschsprachige Übersicht vgl. Radach/ Günther/ Huestegge 2012). Während einer Fixation bewegen sich die Augen bis auf den physiologischen Nystag‐ mus, das sind kleine unwillkürliche Bewegungen der Augen zur Blickstabilisierung, nicht, und es werden Informationen aufgenommen. Eine Fixation dauert ca. 250 ms, die Dauer variiert aber unter anderem in Abhängigkeit vom Schwierigkeitsgrad des Texts (Rayner et al. 2012: 94-96). Man unterscheidet zwischen fovealem, parafovealem und peripherem Sehen. Im zentralen Bereich der Fixation enthaltene visuelle Informationen werden auf die Fovea, einen Bereich der Netzhaut mit einer hohen Rezeptorendichte, abgebildet (zur Physiologie des Sehens vgl. Goldstein 2015). Der foveale Bereich ent‐ spricht einem Winkel bis ca. 1°, d. h. wie viel hier scharf gesehen und entsprechend gut gelesen werden kann, hängt von der Schriftgröße und der Entfernung des Auges vom Medium ab. Foveal kann also nur ein kleiner Ausschnitt gelesen werden, dessen Breite der eines Daumens am ausgestreckten Arm entspricht (Rayner et al. 2016: 7). Parafoveal werden in einem Winkel bis ca. 5° Buchstaben weniger genau wahrgenommen und Leerzeichen als Wortgrenzen identifiziert. Peripher werden keine Buchstaben mehr erkannt, aber es werden Seitenränder und eventuell sonstige markante Formatierungen wahrgenommen, die neben der Information über Leerzeichen zur Identifikation eines geeigneten nächsten Landeplatzes genutzt werden können. Augenbewegungen sind ballistisch, d. h. sie sind schnell und lassen sich einmal ausgelöst nicht unterbrechen. Aufgrund der ausgeführten „Sprünge“ werden Blickbe‐ 32 2 Grundlagen <?page no="34"?> wegungen auch als Sakkaden bezeichnet. Die meisten Sakkaden sind vorwärtsge‐ richtet, d. h. sie erfolgen in der Leserichtung, zum Beispiel im deutsch-lateinischen Schriftsystem von links nach rechts und im arabischen Schriftsystem von rechts nach links. Häufig werden insbesondere kürzere Wörter wie Funktionswörter übersprun‐ gen. Rückwärtsgerichtete Blickbewegungen, sogenannte Regressionen, sind insgesamt seltener, ihr Anteil variiert jedoch wiederum mit der Schwierigkeit des Textes. Die Steuerung von Blickbewegungen unterliegt einem komplexen Zusammen‐ spiel aus kognitiven, motorischen und sprachlichen Prozessen (Reichle/ Rayner/ Pol‐ latsek 2003). Eine zentrale Rolle kommt der visuellen Aufmerksamkeit zu, da sie wesentlich sowohl an der Informationsentnahme während einer Fixation als auch an der Planung der nächsten Sakkade beteiligt ist. Aufmerksamkeitsstörungen werden entsprechend als eine mögliche Ursache für Störungen des Leseerwerbs diskutiert (Radach et al. 2012). 2.1.3 Visuelle Worterkennung - Lexikalische Verarbeitung Das lesende Erkennen von Wörtern ist eine Voraussetzung für das Verstehen von Sätzen und Texten. Der Prozess der visuellen Worterkennung wird generell unterteilt in periphere Prozesse, während derer der Input visuell analysiert wird, und zentrale Prozesse der lexikalischen Verarbeitung, die unterteilt werden in: ● den lexikalischen Zugriff, bei dem mit Teilinformationen aus dem visuellen Input womöglich verschiedene Wortkandidaten aktiviert werden, ● die lexikalische Selektion (als Worterkennung im engeren Sinne, bei der ein Wortkandidat ausgewählt wird) und ● die semantische Integration (Zwitserlood/ Bölte 2017: 449, 451). Die psycholinguistische Forschung konzentriert sich häufig auf die ersten beiden Schritte, also Zugriff und Selektion, und damit auf die Wortformen im Gegensatz zu den Wortbedeutungen. Einflussreich sind hier insbesondere zwei Modelle, die wir im Folgenden vorstellen möchten: das Interaktive Aktivationsmodell sowie die Zwei-Routen-Modelle des (lauten) Lesens. Wortformen sind in einem Teil des mentalen Lexikons gespeichert (zum mentalen Lexikon vgl. Aitchison 2012). Das mentale Lexikon ist nach semantischen, syntakti‐ schen und morphologischen sowie phonologischen und graphematischen Kriterien organisiert, die jeweils eine Möglichkeit des Zugriffs auf lexikalische Einheiten dar‐ stellen. Die verschiedenen Zugriffsmöglichkeiten können wir uns vergegenwärtigen, wenn wir eine Aufgabe lösen, bei der wir nur auf bestimmte Wörter zugreifen und diese aufzählen sollen: 2.1 Lesen und Verstehen - psycholinguistische Perspektiven 33 <?page no="35"?> ● Wörter, die Säugetiere bezeichnen (semantischer Zugriff) ● Adjektive (syntaktischer Zugriff) ● Substantive, die den Plural auf -en bilden (morphologischer Zugriff) ● Wörter, die sich auf Haus reimen (phonologischer Zugriff) ● Wörter, die mit einem <P> beginnen (graphematischer Zugriff) Allerdings könnte es sein, dass wir zunächst auf eine größere Menge Wörter zugreifen und dann diejenigen auswählen, die dem jeweiligen Kriterium entsprechen. Zur Untersuchung der Zugriffsmöglichkeiten bedarf es also anderer Aufgaben, bei denen wir uns eines Kriteriums nicht bewusst sind. - Das Interaktive Aktivationsmodell: Buchstaben- und Worterkennung Die visuelle Worterkennung beginnt mit einem schriftsprachlichen Input. Man könnte annehmen, dass in Alphabetsprachen (alphabetischen Schriftsystemen) zunächst alle Buchstaben identifiziert werden müssen, bevor ein Wort erkannt wird. Der Wort‐ überlegenheitseffekt (Reicher 1969) zeigt jedoch, dass Buchstaben in einem Wort zuverlässiger erkannt werden als in Isolation (z. B. wird R in WORT zuverlässiger erkannt, als wenn nur R gezeigt wird). Dieser Befund hat maßgeblich zur Entwicklung eines interaktiven Modells der Worterkennung beigetragen. Buchstabe oder Graphem? Vielleicht ist aufgefallen, dass hier (wie auch in der psycholinguistischen Lite‐ ratur) vereinfachend von der Buchstabenerkennung geschrieben wird, obwohl doch linguistisch zwischen Buchstaben und Graphemen zu unterscheiden ist. Tatsächlich konnte gezeigt werden, dass Leser/ innen Buchstaben zu größeren Einheiten gruppieren, die Graphemen entsprechen (z. B. ng in king; Perry/ Ziegler/ Zorzi 2013). Das Interaktive Aktivationsmodell (IAM; McClelland/ Rumelhart 1981) wird auch als Netzwerkmodell bezeichnet, da es wie ein Netz aus Knoten und Verbindungen be‐ steht (vgl. Abb. 4). Die Knoten repräsentieren auf drei Ebenen (1) Buchstabenmerkmale wie z. B. einen horizontalen Strich oder einen vertikalen Strich (in Abb. 4 unten), (2) positionscodierte Buchstaben wie z. B. ein T am Wortanfang (in Abb. 4 in der Mitte) und (3) Wortformen wie z. B. TAKE im Englischen (in Abb. 4 oben) oder auch TURM im Deutschen. (Groß- und Kleinschreibung wird in dem Modell nicht unterschieden.) Konkurrierende Knoten hemmen sich gegenseitig, da z. B. T und A nicht gleichzeitig am Wortanfang auftreten können. Wird ein Buchstabenknoten, z. B. T in Abb. 4, durch die Merkmalsknoten aktiviert, gibt er seine Aktivierung bottom-up an die Knoten von Wörtern weiter, die diesen Buchstaben in der betreffenden Position enthalten, also z. B. an TAKE, TRIP, TRAP und TIME in Abb. 4. Wird ein Wortknoten durch mehrere Buchstabenknoten aktiviert, gibt er wiederum etwas Aktivierung zurück an seine Buchstabenknoten, gegebenenfalls auch an solche, die bis dahin noch nicht über 34 2 Grundlagen <?page no="36"?> Merkmale aktiviert wurden. Würde jetzt also zusätzlich zu dem wortinitialen T ein A an zweiter Position aktiviert, würde TAKE weitere Bottom-up-Aktivierung erfahren, nicht aber TRIP, TRAP und TIME. TAKE könnte dann top-down auch die enthaltenen Buch‐ staben K in dritter und E in vierter Position aktivieren. Aufgrund dieser Top-down-Pro‐ zesse, bei denen lexikalisches Wissen die Buchstabenerkennung befördert, kann die Worterkennung auch bei partiellem Input gelingen (vgl. Radach/ Hofmann 2016). D.h., man könnte das Wort TAKE gegebenenfalls auch lesen, wenn das E durch einen Fleck verdeckt wäre. Abb. 4: Das Interaktive Aktivationsmodell nach McClelland und Rumelhart (1981: 380). Exzitatorische (aktivierende) Verbindungen werden mit spitzen Pfeilenden markiert, inhibitorische (hemmende) Verbindungen mit runden Pfeilenden. Nachdruck der Abbildung aus McClelland und Rumelhart (1981) mit freundlicher Genehmigung der American Psychological Association. Die Buchstabenerkennung wurde zum Beispiel schon im Pandämoniummodell (Self‐ ridge/ Neisser 1960) als Mustererkennung modelliert, die wie im Interaktiven Aktivati‐ onsmodell mit einer Zerlegung der Buchstaben in Merkmale einhergeht. Patient/ innen mit aufmerksamkeitsrelatierten Lesestörungen infolge neurologischer Erkrankungen (siehe die Infobox zu erworbenen Dyslexien, S. 36) leiden unter Umständen unter Buchstabenmigrationen (Shallice/ Warrington, 1977). D.h., bei ihnen ist die Worterken‐ nung dadurch erschwert, dass sie Buchstaben nicht eindeutig einem Wort zuordnen können. Statt nicht duschen lesen sie zum Beispiel nach Migration des d fälschlich 2.1 Lesen und Verstehen - psycholinguistische Perspektiven 35 <?page no="37"?> dicht duschen. Recht populär waren zu Beginn des Jahrtausends Beispiele mit soge‐ nanntem „Wortsalat“ (vgl. http: / / www.mrc-cbu.cam.ac.uk/ personal/ matt.davis/ Cma brigde/ [11.07.2022]): Die Bcuhstbaenrehenifloge in eneim Wrot ist eagl. In solchen Beispielen bleiben nur die Anfangs- und Endbuchstaben von Wörtern in ihrer Position, die anderen Buchstaben wechseln ihre Positionen. Dass für geübte Leser/ innen das Lesen von solchen Texten mühelos möglich sei, darf so generell allerdings bezweifelt werden. Vielmehr werden die Texte langsamer gelesen und schlechter verstanden (Rayner et al. 2012: 68-71). Dennoch geht man inzwischen nicht mehr von einer festen „Verdrahtung“ von Buchstaben und Positionen im Wort aus, wie sie im Interaktiven Aktivationsmodell angenommen wird. Erworbene Dyslexien Bei erworbenen Dyslexien handelt es sich um Lesestörungen, die nach erfolg‐ reichem Leseerwerb auftreten und die auf eine neurologische Erkrankung wie zum Beispiel einen Schlaganfall zurückzuführen sind. Zum Teil zeigen die Pati‐ ent/ innen sehr spezifische Beeinträchtigungen des Lesens, die Aufschluss geben können über die am unbeeinträchtigten Lesen beteiligten Prozesse. Insbesondere Zwei-Routen-Modelle des (lauten) Lesens wurden auf der Grundlage von Pati‐ ent/ innendaten entwickelt. Dem Interaktiven Aktivationsmodell zufolge aktivieren Buchstabenrepräsentationen (oder Graphemrepräsentationen) Repräsentationen geschriebener Wortformen. Daten von Patient/ innen mit erworbenen Dyslexien zeigen jedoch, dass es mehrere Leserou‐ ten gibt (Ellis/ Young 1996; Coltheart/ Rastle/ Perry/ Langdon/ Ziegler 2001; vgl. Domahs 2016). Manche Dyslektiker/ innen können zwar noch existierende Wörter lesen, aber keine Pseudowörter mehr. Pseudowörter sind phonotaktisch und graphematisch regu‐ lär, werden also wie deutsche Wörter gesprochen und geschrieben, existieren aber weder in der gesprochenen noch in der geschriebenen Form, wie z. B. Lase. Sie haben keinen Eintrag im mentalen Lexikon. Dyslektiker/ innen, die nur existierende Wörter lesen können, lesen über eine lexikalische Leseroute und greifen direkt auf visuelle Wortformen und ihre Bedeutung zu. Andere Dyslektiker/ innen können gut Pseudowörter lesen, haben aber Schwierigkeiten mit der Graphem-Phonem-Zuord‐ nung bei irregulären Wörtern wie Garage. Sie regularisieren diese Wörter und lesen z. B. das zweite <g> als [g]. Da diese Dyslektiker/ innen nicht über wortspezifische Aussprachevarianten verfügen, geht man davon aus, dass sie ohne lexikalischen Zugriff über eine Graphem-Phonem-Konversions-Route lesen, d. h. sie ordnen Graphemen Phoneme zu, ohne auf die gesamte Wortform zuzugreifen. Um auch zu verstehen, was sie lesen, müssen sie - gewissermaßen auf einem Umweg - über den phonologischen Code auf das mentale Lexikon zugreifen. Wird Buchstabe für Buchstabe rekodiert, müssen die Phoneme im Arbeitsgedächtnis zwischengespeichert werden, damit sie 36 2 Grundlagen <?page no="38"?> nicht einzeln („buchstabierend“) gelesen werden (z.B. Ente als E-eN-Te-E), sondern als eine Wortform ausgesprochen werden können. Diese Zwischenspeicherung ist ein ressourcenintensiver Vorgang für das Arbeitsgedächtnis, weshalb man davon ausgehen kann, dass hier gerade bei kognitiven Beeinträchtigungen Schwierigkeiten auftreten. - Zwei-Routen-Modelle: Lexikalisches und phonologisches Lesen Diese Beobachtungen zu Leseschwierigkeiten bei Wörtern haben zur Entwicklung von Lesemodellen geführt, die zwei Routen des Lesens annehmen (z. B. Dual Route Cascaded Model, kurz DRC; vgl. Abb. 5; Coltheart et al. 2001): 1. Beim Lesen über die lexikalische Route wird ausgehend von der visuellen Ana‐ lyse auf das graphematische Input-Lexikon zugegriffen. Mit dem graphematischen Worteintrag kann entweder zunächst auf die Bedeutung im semantischen System zugegriffen werden oder direkt der korrespondierende Eintrag im phonologischen Output-Lexikon aktiviert werden. Schließlich wird die phonologische Wortform im phonologischen Zwischenspeicher für die Artikulation bereitgehalten. 2. Beim Lesen über die phonologische Route werden die in der Analyse ermittelten Grapheme zunächst in Phoneme konvertiert, und dann werden die Phoneme für die Artikulation zwischengespeichert. Die Modelle betrachten nur das laute Lesen. Für das verstehende Lesen würde man noch vor der Artikulation eine Art inneres Sprechen annehmen, das dann im parallel zu konzipierenden auditiven System (vgl. Ellis/ Young 1996) verstanden würde. Über welche Route vorzugsweise gelesen wird, ist umstritten und eventuell auch von der Transparenz des Schriftsystems abhängig (Frost 1998). Für das Deutsche ist demnach eine Bevorzugung der Graphem-Phonem-Korrespondenz-Route wahrschein‐ licher als für das Englische, da im Deutschen die Entsprechung von Graphemen und Phonemen konsistenter realisiert ist. Womöglich variiert die Nutzung der einen oder anderen Route aber auch in Abhängigkeit von wortspezifischen Faktoren wie der Re‐ gularität der Graphem-Zuordnung in einem Wort und der Vorkommenshäufigkeit des Worts (siehe Kap. 3.1.2) sowie von individuellen Faktoren wie der Dekodierfähigkeit und dem Wortschatz. 2.1 Lesen und Verstehen - psycholinguistische Perspektiven 37 <?page no="39"?> Graphematische Analyse Graphematisches Inputlexikon Graphem-Phonem- Korrespondenzregeln Phonologisches Outputlexikon Zwischenspeicher für Antworten Semantisches System Schrift Sprechen Abb. 5: Dual-Route-Cascaded-Model (DRC) des lauten Lesens nach Coltheart et al. (2001) mit einer phonologischen Route über Graphem-Phonem-Korrespondenzregeln und einer lexikalischen Route über das graphematische Input- und das phonologische Outputlexikon Für die Relevanz sublexikalischer Einheiten spricht, dass Buchstaben nicht nur in Wörtern (WORT), sondern auch in grapho- und phonotaktisch regulären Pseudowör‐ tern zuverlässiger erkannt werden (WORB) als in Isolation oder als in einem grapho- und phonotaktisch irregulären Nichtwort (WXRT; sog. Pseudowortüberlegenheitsef‐ fekt; vgl. Balota/ Yap/ Cortese 2006). Es stellt sich allerdings die Frage, ob Grapheme und Phoneme wirklich die sublexikalischen Einheiten sind, die über die phonologische Route rekodiert werden. Eine Alternative sind größere graphematische Einheiten wie graphematische Silben, die über entsprechende Regeln als phonologische Silben rekodiert werden könnten (vgl. Ziegler/ Goswami 2005), also <Hose> via <Ho> und <se> als / ˈho: .zə/ . Das heißt, es ist relativ klar, dass Wörter nicht nur lexikalisch, sondern auch phonologisch gelesen werden, aber es ist nicht abschließend geklärt, wie groß die relevanten graphematischen und phonologischen Einheiten für die phonologische Rekodierung sind und ob die Größe womöglich in Abhängigkeit von verschiedenen Faktoren, wie z.-B. individuellen Ressourcen, variiert. Sowohl das Interaktive Aktivationsmodell als auch die Zwei-Routen-Modelle des (lauten) Lesens konzentrieren sich auf morphologisch einfache Wörter. Dadurch 38 2 Grundlagen <?page no="40"?> werden die im mentalen Lexikon gespeicherten Einheiten als nicht weiter zerlegbare Wortformen behandelt. Was aber ist mit flektierten Wortformen oder Wortbildungs‐ formen, die ja auch in Texten vorkommen? - Phänomene jenseits des Erkennens einfacher Wörter Zum Erkennen morphologisch komplexer Wörter gibt es verschiedene Theorien (vgl. Schriefers 1999; Zwitserlood 2018). Der Ansatz der vollständigen Auflistung (full listing; Butterworth, 1983) besagt, dass morphologisch komplexe Wörter als sogenannte Vollformen abgespeichert sind: Es gibt separate Einträge für spielen, spielt und verspielt, für Maus, Mäuse und Mauseloch usw. Dekompositionsansätze gehen dagegen davon aus, dass im mentalen Lexikon lediglich Morpheme abgespeichert sind, also spiel, +en, +t und ver+, maus, +e+, loch usw. Komplexe Wörter müssten demnach vor dem lexikalischen Zugriff in Morpheme zerlegt oder dekomponiert werden. Bei Neubildungen wie Mauselochzusperrmechanismus kann es keinen Vollformeneintrag geben, folglich muss es einen Mechanismus zur Dekomposition geben, damit auch solche Wörter verarbeitet werden können. Wahrscheinlich ist, dass morphologisch verwandte Formen im Lexikon miteinander verknüpft sind, sei es als Vollformen oder vermittelt über Stämme. An den lexikalischen Zugriff und die lexikalische Auswahl schließt sich für morpho‐ logisch einfache und morphologisch komplexe Wörter die semantische Integration an, bei der die lexikalische Bedeutung in die Bedeutung eines Satzes oder Texts integriert wird (zum Lesen von Sätzen und Texten vgl. das folgende Kapitel). Wörter können im Kontext leichter zu erkennen sein als in Isolation. Entsprechende Effekte deuten darauf hin, dass Einträge im mentalen Lexikon auf der Bedeutungsebene vernetzt sind. Allerdings scheint diese Vernetzung weniger auf semantischen als auf assoziativen Beziehungen zu beruhen. So kommt es zu Erleichterungseffekten, wenn Wörter aufeinander folgen, die häufiger in Kontexten gemeinsam vorkommen, wie z.-B. Käse und Maus (assoziatives Priming). Dies trifft im Unterschied dazu aber nicht ohne Weiteres für semantisch relatierte Wörter wie z. B. die Kohyponyme Ratte und Maus zu (semantisches Priming; vgl. Balota/ Yap/ Cortese 2006). Dass der Leseprozess bei erfahrenen Leser/ innen äußerst automatisiert abläuft, wurde schon früh mit dem Stroop-Effekt gezeigt (Stroop 1935, vgl. Rayner et al. 2012: 58; zum Selbstversuch auf Englisch: https: / / www.math.unt.edu/ ~tam/ Self T ests/ StroopEffects.html [11.07.2022]). Der Effekt ist sehr deutlich und kann ohne besondere technische Ausstattung beobachtet werden. Die Demonstration erfolgt in der Regel in mehreren Durchgängen. Die Durchgänge unterscheiden sich darin, ob die Wörter laut gelesen werden sollen oder ob die Wörter ignoriert und die Farben benannt werden sollen. Außerdem gibt es zwei Listen. In der ersten Liste stimmen Farbwörter und Schriftfarben jeweils überein, also z. B. blau in blauer Schrift, rot in roter Schrift, grün in grüner Schrift, schwarz in schwarzer Schrift usw. In der zweiten Liste stimmen Farbwörter und Schriftfarben nicht überein, z. B. schwarz in blauer Schrift, grün in roter Schrift, blau in grüner Schrift, rot in blauer Schrift, blau in 2.1 Lesen und Verstehen - psycholinguistische Perspektiven 39 <?page no="41"?> schwarzer Schrift usw. Der/ die Teilnehmende wird instruiert, möglichst wenige Fehler zu machen und möglichst schnell zu reagieren. Zunächst soll er/ sie die Farbwörter in der farblich übereinstimmenden Liste laut lesen. Dann soll er/ sie die Farbwörter in der farblich nicht übereinstimmenden Liste laut lesen. Weder bei der Fehlerrate noch bei der Lesegeschwindigkeit sollten sich nennenswerte Unterschiede zwischen den Listen ergeben. Im Anschluss soll der/ die Teilnehmende die Farben laut benennen, wieder zunächst für die farblich übereinstimmende und dann für die farblich nicht übereinstimmende Liste. Hier sollten sich für die farblich nicht übereinstimmende Liste deutlich spätere Sprechbeginne und evtl. auch höhere Fehlerraten ergeben als für die farblich übereinstimmende Liste. Die erlesene Wortbedeutung stört das Benennen also erheblich, auch wenn die Wörter ignoriert werden sollen. Der Stroop-Effekt zeigt eindrücklich, dass die visuelle Worterkennung automatisiert abläuft und nicht unterdrückt werden kann. 2.1.4 Lesen von Sätzen und Texten - Modelle der Satzverarbeitung Das Lesen von Sätzen und Texten setzt die Worterkennung voraus, geht aber darüber hinaus. Einen umfassenden Überblick über die Theorien und Evidenzen zum Lesen von Sätzen gibt Bader (2015), zum Lesen von Texten sei auf Kaup und Dudschig (2017) sowie Strohner (2006) verwiesen. Die Verarbeitungsprozesse werden teilweise unterschiedlich modelliert. Schon die Rolle, die lexikalischen Informationen wie der Bedeutung, der Valenz von Verben oder der Vorkommenshäufigkeit bei der Satzverarbeitung zugesprochen wird, unterscheidet sich von Theorie zu Theorie erheblich. Hier sollen exemplarisch drei einflussreiche Ansätze vorgestellt werden: (1) der Syntax-Zuerst-Ansatz, dem zufolge morphosyn‐ taktische Informationen vor allen anderen Informationen wirken, (2) beschränkungs‐ basierte Ansätze, denen zufolge alle verfügbaren Informationen gleichzeitig wirken, und (3) der Good-Enough-Ansatz, dem zufolge lexikalische Informationen vor allen anderen Informationen wirken. 1. Dem Syntax-Zuerst-Ansatz zufolge wird bei der Satzverarbeitung zuerst auf die Wortform zugegriffen und im Anschluss werden zunächst ausschließlich phrasenstrukturell relevante Informationen in Form der Wortart genutzt. (In der englischsprachigen Literatur spricht man deshalb auch von Parsing, abgeleitet von parts of speech; vgl. van Gompel & Pickering 2007.) In dieser frühen Phase treten Probleme auf, wenn ein Satz wie Die Gans wurde im gefüttert und nicht Die Gans wurde im Stall gefüttert gelesen wird (Hahne/ Friederici 1999). In der weiteren Verarbeitung kommen dann morphosyntaktische Informationen wie Wortstellung, Kasus und Kongruenzmerkmale hinzu, die der Identifikation syn‐ taktischer Funktionen dienen (vgl. Bader/ Meng/ Bayer/ Hopf 2000). Die Wirkung 40 2 Grundlagen <?page no="42"?> dieser Informationen lässt sich an folgenden Beispielen verdeutlichen, in denen die syntaktischen Funktionen spät im Satz über Kongruenz (haben vs. hat) bzw. früh im Satz über Kasus (den vs. der) identifiziert werden können: (1) Ich glaube, dass-… a. die Lehrerin die Schülerinnen gelobt haben. b. die Lehrerin die Schülerinnen gelobt hat. c. den Lehrer die Schülerinnen gelobt haben. d. der Lehrer die Schülerinnen gelobt hat. Der Prozess des Strukturaufbaus kann auch beim leisen Lesen durch prosodische Präferenzen beeinflusst werden. So ist es in Sie sieht den stets aufmerksamen Spion mit dem im Dunklen nutzbaren Fernglas voraussichtlich wahrscheinlicher, dass sie das Fernglas hat, als in Sie sieht den Spion mit dem Fernglas (vgl. Fodor 1998). Vertreter/ innen des Modells gehen davon aus, dass die Vorkommenshäufigkeit eines Verbs in verschie‐ denen Strukturen oder semantische Informationen keinen Einfluss auf den initialen Strukturaufbau haben, d. h. zuerst erfolgt - losgelöst von der Wort- und Satzbedeutung - die Verarbeitung der Syntax. Die semantische Interpretation erfolgt erst, wenn eine erste syntaktische Analyse abgeschlossen ist. Sie kann dann nachfolgende Revisionsprozesse nach sich ziehen, wie z. B. in dem Satz Die Einbrecher verhaften die Polizisten, in dem zunächst aufgrund von Wortstellungspräferenzen die erste Nominalphrase als Subjekt interpretiert würde. Da Kasus- und Kongruenzinformationen nicht eindeutig sind, würden erst Plausibilitätserwägungen hier eine alternative Analyse mit der ersten Nominalphrase als Objekt nahelegen. 2. Demgegenüber werden in beschränkungsbasierten (constraint based) Ansät‐ zen alle verfügbaren lexikalischen Informationen unmittelbar für die Satzverarbei‐ tung genutzt. D.h. die Ansätze gehen davon aus, dass Wortarten, wortspezifische Vorkommenshäufigkeiten sowie semantische Informationen von Beginn an bei der Satzverarbeitung eine Rolle spielen (MacDonald/ Pearlmutter/ Seidenberg 1994). Hinzu kommen kontextuelles Wissen und Weltwissen (siehe Kap. 2.2): An das Beispiel von oben anknüpfend (Die Einbrecher verhaften die Polizisten) ist es wahrscheinlicher, dass ein Polizist einen Einbrecher verhaftet als andersherum (McRae/ Spivey-Knowlton/ Tanenhaus 1998). Konkurrierende Beschränkungen wie die zwischen der Wortstellung und dem Weltwissen führen nicht zu unauflösli‐ chen Widersprüchen. In der Forschung wird unter anderem unter Hinzuziehung von Korpusdaten zur Vorkommenshäufigkeit von Wortstellungsvarianten sowie von Einbrechern und Polizisten als verhaftenden vs. verhafteten Personen die Wahrscheinlichkeit ermittelt, mit der die interagierenden Beschränkungen die Satzverarbeitung beeinflussen. Wurde anfänglich die Wahrscheinlichkeit einer Struktur in Gänze der Wahrscheinlichkeit einer alternativen Struktur in Gänze gegenübergestellt, werden inzwischen wortweise Übergangswahrscheinlichkeiten berechnet, die sich nicht nur auf nachfolgende lexikalische Einheiten, sondern auch auf syntaktische Informationen wie Wortarten und Phrasen beziehen, und es wird 2.1 Lesen und Verstehen - psycholinguistische Perspektiven 41 <?page no="43"?> getestet, wie gut die ermittelten Wahrscheinlichkeiten die Lesezeiten vorhersagen (vgl. Jurafsky 2003). Dieser Ansatz hat mindestens Potenzial für die quantitative Lesbarkeitsforschung (siehe Kap. 5.3). 3. Eine noch wichtigere Rolle für die Verarbeitung von Sätzen wird lexikalischen Informationen im Good-Enough-Ansatz zugeschrieben (Ferreira/ Patson 2007). Dem Ansatz zufolge werden Sätze zunächst rein lexikalisch-semantisch verarbei‐ tet, indem die Inhaltswörter in einen semantischen Zusammenhang gebracht werden. (z. B. Kater - jagen - Hund). Syntaktische und morphologische Informa‐ tionen werden erst einbezogen, wenn Probleme bei der Zusammenführung der Einzelwortbedeutungen entstehen. Semantisch reversible Sätze, in denen jeder Referent Agens oder Patiens sein könnte (also z. B. aus Kater - jagen - Hund entweder Der Kater jagt den Hund oder Den Kater jagt der Hund werden kann), werden demnach bei nicht-kanonischer Wortstellung häufig falsch interpretiert, z. B. Den Kater jagt der Hund als ‚Der Kater jagt den Hund‘. Womöglich gilt dies besonders beim Lesen, da hier im Unterschied zum gesprochenen Satz prosodische Merkmale wegfallen: Auf eine besondere Wortstellung kann also im Schriftlichen nicht durch eine besondere prosodische Realisierung wie einer kontrastiven Betonung z.-B. auf den Kater hingewiesen werden wie im Mündlichen. - Satzverstehen: Vorhersagen von syntaktischen Einheiten In der Satzverarbeitungsforschung ging es lange um die Frage, ob Sätze im Ganzen oder Stück für Stück - d. h. inkrementell - gelesen werden. Innerhalb des Syntax-Zu‐ erst-Ansatzes wird dem Verb von manchen Autoren eine besondere Rolle zugeschrie‐ ben, da es neben der Wortart mit der Konstituentenstruktur weitere syntaktisch nutzbare Informationen verfügbar macht. So erwartet man nach dem Satzanfang Heute gibt … noch ein Agens (den Gebenden) in Form des Subjekts (z. B. der Lehrer), einen Rezipienten (den, dem etwas gegeben wird) in Form des indirekten Objekts (z. B. dem Schüler) und ein Thema (das Gegebene) in Form des direkten Objekts (z. B. das Buch). Es konnte jedoch bald gezeigt werden, dass beim Lesen deutscher Nebensätze mit dem Strukturaufbau nicht auf das satzfinale Verb gewartet wird und dass z. B. beim Lesen eines Teilsatzes wie dass die Lehrerin die Schülerinnen gelobt haben der ersten Nominalphrase bereits die Subjektfunktion zugeschrieben wird, bevor das Verb verarbeitet wird (vgl. Bader 2015). Das heißt, dass geübte Leser/ innen des Deutschen in Verbletztsätzen ebenso syntaktische Funktionen identifizieren können wie in Verbzweitsätzen. Inzwischen hat sich der Forschungsschwerpunkt verlagert auf die Frage, inwiefern Konstituenten eines Satzes beim Lesen nicht nur inkrementell, also nach und nach, in die syntaktische Struktur integriert werden, sondern auch Vorhersagen zu kommen‐ dem, noch nicht gelesenem, lexikalischem Material oder zu kommenden syntaktischen Einheiten getroffen werden. So kann nach dem Satzanfang Morgen rauche ich meine letzte … recht sicher vorhergesagt werden, dass das nächste Wort Zigarette ist, wenngleich Zigarre und Pfeife auch möglich wären. Nach dem Verb erwartet man einen 42 2 Grundlagen <?page no="44"?> rauchbaren Objektreferenten, durch Possessivpronomen und Adjektiv werden zudem Genus und Numerus des kommenden Nomens ersichtlich. Schließlich „gewinnt“ das häufigste passende Wort. Neben diesen im Satz gegebenen Informationen können auch der Kontext, das Weltwissen und allgemeines strukturelles Wissen zu Vorhersagen genutzt werden (vgl. Levy 2008). Naheliegend ist der Gedanke, dass Gedächtnisprozesse beteiligt sind, wenn in langen Sätzen Konstituenten vom Satzanfang und Konstituenten vom Satzende miteinander verknüpft und gemeinsam interpretiert werden müssen. Seit Just und Carpenter (1992) werden in Studien zur Verarbeitung komplexer Sätze Maße für das phonologische Arbeitsgedächtnis zur Vorhersage der Lesegeschwindigkeit genutzt. Wer ein großes phonologisches Arbeitsgedächtnis hat, so die Annahme, kann komplexe Sätze besser und schneller lesen und verstehen als jemand mit einem kleineren Arbeitsgedächtnis. Zudem wurde vorgeschlagen, dass sich der Aufwand der Satzver‐ arbeitung errechnen lässt aus Kosten für die Aufrechterhaltung von Referenten im Gedächtnis und für die Integration der Konstituenten in den syntaktisch-semantischen Kontext. Hier spielt daher die Entfernung zwischen den Konstituenten eines Satzes, insbesondere zwischen dem Verb und seinen Argumenten, eine zentrale Rolle. Diesem Lokalitätsansatz zufolge wären kurze Distanzen zwischen zu integrierenden Konsti‐ tuenten zu bevorzugen. Die Integration von Argumenten in einen langen Satz, in dem das Verb am Ende steht, wird hingegen als aufwändig angesehen. Dem entgegen steht allerdings die Antilokalitätsannahme, der zufolge z. B. in einem deutschen Nebensatz die Wahrscheinlichkeit, dass bald das Satzende mit dem Verb kommt, mit jeder Konstituente steigt (dass Maria las vs. dass Maria an einem einzigen Abend auf ihrem Sofa das Buch las; vgl. Levy 2008, Vasishth 2011). Womöglich gilt also, dass geübte Leser/ innen des Deutschen mit einem guten Arbeitsgedächtnis z. B. argumentspezifische Informationen nutzen, um auch schon vor dem Verb kommende Konstituenten vorherzusagen. - Textverstehen: Referenz, Kohärenz, Inferenz Auf das Textverstehen werden wir in Kapitel 2.2.2 noch genauer eingehen. Da psycho‐ linguistische Theorien des Textverstehens aber direkt auf der Worterkennung und der Satzverarbeitung aufbauen, fügen wir schon hier einige Bemerkungen zum Thema an. So werden zum Beispiel der Konstruktions-Integrations-Theorie nach Kintsch (1988; 1998) zufolge Phrasenstrukturrepräsentationen, in denen die Endknoten mit Wörtern besetzt sind, zunächst in Konzepte und Propositionen überführt. Das Modell geht also von Wörtern und Phrasen zu größeren semantischen Einheiten, den Konzepten und Propositionen. Letztere werden dann in einem semantischen Netzwerk miteinander verknüpft und im Rahmen eines sogenannten Situationsmodells interpretiert. Auf das Modell kommen wir in Kapitel 2.2.2 zurück. Strohner (2006) unterscheidet hier drei Prozesse des Textverstehens: Referenz, Kohärenz und Inferenz. Zunächst zur Referenz: Damit bezeichnet man den Prozess, in dem sprachliche Ausdrücke auf außersprachliche Entitäten bezogen werden, um interpretiert werden zu können. Wenn 2.1 Lesen und Verstehen - psycholinguistische Perspektiven 43 <?page no="45"?> man beispielsweise versteht, was der Ausdruck Maus bedeutet, weiß man diesem Ausdruck außersprachliche Referenten - „Dinge in der Welt“ - zuzuordnen. Beziehen sich verschiedene sprachliche Einheiten auf eine Entität, besteht Koreferenz (vgl. Schwarz-Friesel/ Consten 2014: 80-83). Dies kann zum Beispiel der Fall sein, wenn im Text einmal die Maus steht, dann sie und schließlich das Nagetier und es, aber immer die Maus gemeint ist. Neben den Wortformen muss hier auch das Genus bekannt sein, damit die genuskongruenten Pronomina (sie für die Maus und es für das Nagetier) interpretiert werden können. Damit die Beziehung zwischen die Maus und das Nagetier hergestellt werden kann, bedarf es differenzierter semantischer Repräsentationen. Für die Herstellung von Kohärenz im Textverstehensprozess geben Texte ver‐ schiedene sprachliche Hinweise: An den Beispielen wird deutlich, dass neben der Koreferenz, die ein wichtiges Mittel der Kohärenzherstellung ist, auch der phorische Bezug im Text relevant ist, also der Vor- und Rückbezug von Ausdrücken innerhalb eines Textes (sie bezieht sich auf die Maus, es auf das Nagetier). Man unterscheidet zwischen Anaphern mit einem Rückwärtsbezug im Text (zuerst wird ein Referent wie die Maus im Text genannt, auf den sich eine nachfolgende Proform wie sie bezieht) und Kataphern mit einem Vorwärtsbezug im Text (erst die Proform - dann die Maus). Ein weiteres sprachliches Mittel zur Herstellung von Kohärenz sind Konnektoren, die Propositionen miteinander verknüpfen (z. B. Ich finde Mäuse niedlich, weil sie so kleine Pfoten haben.) Um Inferenzen zu ziehen, ist nun noch mehr Verstehensleistung nötig: Wenn nämlich auch noch verstanden werden soll, warum jemand in den Baumarkt geht, wenn er eine Maus im Haus hat, dann wird neben sprachlichem Wissen auch Weltwissen zur Inferenz des Zusammenhangs benötigt. Bei Inferenzen handelt es sich also um nicht explizit ausgedrückte Informationen, die nötig sind, um den Sinn eines Textes zu erfassen, diese Informationen müssen sich die Leser/ innen aber indirekt auf Basis ihres Wissens erschließen. Textverstehensmodelle unterscheiden sich darin, ob sie einen Schwerpunkt auf die Referenz, die Kohärenz oder die Inferenz legen (vgl. Traxler 2012: Kap. 5). In jedem Modell spielen auch Gedächtnisprozesse eine Rolle, da Propositionen zwischengespeichert werden müssen und nichtsprachliches Wissen für das Verstehen bereitgehalten werden muss. - Informationsreihenfolge in Satz und Text Ein weiteres Thema, mit dem sich die Psycholinguistik befasst, ist die Frage, wie die Reihenfolge von Informationen in Sätzen und Texten das Verstehen beeinflusst. Idealerweise unterstützt die Informationsreihenfolge das Verstehen. Dies gilt sowohl für die Makrostruktur eines Textes, wenn zum Beispiel die Darstellung von Ereignissen im Text der zeitlichen Abfolge dieser Ereignisse folgt, als auch für die Mikrostruktur als innere Gliederung eines Satzes, wenn z. B. in dem Satz Konstituenten, die sich auf Bekanntes beziehen, an das man gedanklich anknüpfen kann, vor Konstituenten stehen, die sich auf neue Informationen beziehen. 44 2 Grundlagen <?page no="46"?> Innerhalb eines Satzes gibt es weitere sprachliche Mittel als nur die Wortstellung, die zur Informationsstrukturierung beitragen können. Diese lassen sich verschiedenen Ebenen zuordnen (vgl. Musan 2010). Erstens wird zwischen Topik und Kommentar unterschieden, also zwischen dem, worüber etwas gesagt wird (Topik), und dem, was darüber ausgesagt wird (Kommentar). Typischerweise steht das Topik am Satzanfang. Eine weitere Unterscheidung ist die zwischen Thema und Rhema. Hier geht es um die Bekanntheit von Informationen. Den Leser/ innen kann durch sprachliche Mittel nämlich auch signalisiert werden, was bekannte Information (Thema) und was neue Information (Rhema) ist. Dies geschieht zum Beispiel, indem bekannte Referenten in definiten Nominalphrasen oder pronominal realisiert werden und unbekannte Referenten in indefiniten Nominalphrasen. Drittens kann im Text auch deutlich gemacht werden, was Hintergrundinformation ist und was als wichtige Information im Fokus steht. Solche fokussierten Informationen werden unter Umständen durch Fokuspartikeln wie sogar hervorgehoben. Eine besondere Wortstellung ist in der Regel informationsstrukturell bedingt und dann womöglich aufgrund der Passung in die Textstruktur leichter zu verstehen als in Isolation. Dies mag z. B. für den zuvor betrach‐ teten ambigen Satz in folgender Einbettung gelten: Ich habe gehört, dass der Lehrer und die Lehrerin gelobt wurden, aber ich weiß nicht, von wem. Ich glaube, dass die Lehrerin die Schülerinnen gelobt haben. Das Objekt die Lehrerin wird im Kontext erwähnt und deshalb als bekannte Information vorangestellt, das Subjekt die Schülerinnen liefert eine neue Information. Je nach Kontext sind Sätze mit nicht-kanonischer Satzstellung ggf. leichter zu verstehen, weil sie deutlich machen, welche Informationen an welche anderen anknüpfen, und damit die Herstellung von Kohärenz erleichtern können. - Weiterführende Literatur Einen gut lesbaren Einblick in die neurologischen Grundlagen des Lesens, die hier nicht besprochen wurden, gibt dieses Buch: Dehaene, Stanislas (2014): Lesen: Die größte Erfindung der Menschheit und was dabei in unseren Köpfen passiert. München: Knaus. - Aufgaben 1. Bitten Sie jemanden, dass Sie ihn oder sie beim Lesen eines Textes auf dem Monitor beobachten dürfen. Idealerweise wählen Sie eine Auflösung, bei der sich die Zeilen über die ganze Monitorbreite erstrecken (damit mehrere Fixierungen pro Zeile wahrscheinlich werden). Setzen Sie sich selbst leicht versetzt hinter den Monitor und beobachten Sie die Augenbewegungen. Sehen Sie Fixationen, Sakkaden und Regressionen? 2. Bitte erstellen Sie Pseudowörter zu den folgenden Wörtern, indem Sie ein Graphem ersetzen: Stift, Maus, Hose, Kurbel, Eisberg, Wasserleitung. Fällt Ihnen die Lösung bei manchen Wörtern schwerer als bei anderen? Woran könnte das liegen? 2.1 Lesen und Verstehen - psycholinguistische Perspektiven 45 <?page no="47"?> 3. Wählen Sie zwei einfache und zwei komplexe Sätze aus einem Fachbuch. Schreiben Sie diese jeweils ohne Funktionswörter auf und geben diese „Sätze“ jemandem zu lesen. Bitten Sie die Person, die „Sätze“ zunächst leise zu lesen und jeweils im Anschluss daran einen grammatischen Satz zu formen. Wie gut gelingt das? 4. Nehmen Sie zum Beispiel einen Zeitungsbericht über einen Verkehrsunfall und markieren Sie koreferente Ausdrücke jeweils in einer Farbe. Gibt es Ausdrücke, die mehrdeutig sind? 2.2 (Text-)Linguistische Perspektiven auf Verstehen und Verständlichkeit Wir stellen einflussreiche Verstehens- und Verständlichkeitsmodelle vor, die entweder in der pragmatisch orientierten Textlinguistik entworfen wurden oder dort eine rege Rezeption erfahren haben. Verständlichkeitsmodelle arbeiten typischerweise mit Merkmalsdimensionen, die je nach Verständlichkeitsgrad eines Textes unterschiedlich stark ausgeprägt sind. Welchen Dimensionen und Texteigenschaften dabei besonderes Gewicht zugeschrieben wird, ist unter‐ schiedlich. Charakteristisch für pragmatisch-textlinguistische Zugänge ist, dass Texte als Produkte sprachlichen Handelns aufgefasst werden und in ihrem Kommunikationskontext betrachtet werden. Somit wird auch Verständlichkeit als relativ zur Äußerungssituation, zum Adressatenkreis etc. aufgefasst. Die Textverstehensforschung widmet sich dem Leser/ der Leserin und beschreibt in ihren Modellen insbesondere, wie Wissensbestände der Leser/ innen im Leseprozess mit dem Wissen im Text interagieren, wie im Leseprozess Wörter und Sätze zu größeren Einheiten integriert werden, wie Kohärenz hergestellt und ein Gesamttextverständnis aufgebaut wird. 2.2.1 Kommunikativ-pragmatische Perspektiven der Textlinguistik - Die Anfänge Die Beschäftigung mit Verstehen und Verständlichkeit ist nicht erst in der modernen Linguistik, sondern schon seit Jahrhunderten ein präsentes Thema, und zwar insbe‐ sondere in der Tradition der Rhetorik (vgl. auch Lutz 2015: 96 ff.). Als eine der vier sog. elokutionären Tugenden, an denen sich der antike Redner orientieren solle, steht die Verständlichkeit (perspicuitas, übersetzt: Durchsichtigkeit, Deutlichkeit) neben der Angemessenheit (siehe Kap. 2.4). 46 2 Grundlagen <?page no="48"?> Exkurs: Verständlichkeit in der antiken Rhetorik Das Prinzip der Verständlichkeit sollte den Redner in allen Produktionsstadien leiten - von der ersten Materialsammlung und -ordnung bis zum Formulieren der Rede (Ueding/ Steinbrink 1994: 224). Mit der Forderung nach Verständlichkeit ist dabei anders als beim Prinzip der Angemessenheit kein weiterer moralischer Anspruch verbunden: Es geht nicht um Aufrichtigkeit oder Ähnliches. Die perspicuitas ist vielmehr „eine strikt auf die sprachliche Darstellung bezogene Forderung“ (Roth 2004: 193). Ihr Gegenteil ist die Dunkelheit (obscuritas) des Aus‐ drucks. Zulässige Ausnahmen sind im Sinne der antiken Rhetorik lediglich solche „dunklen“ Ausdrücke, die die Wirkungsabsicht unterstützen oder zumindest nicht behindern (Ueding/ Steinbrink 1994: 224). Als eigenes Forschungsfeld in der germanistischen Linguistik hat sich die Verständ‐ lichkeitsforschung erst ab den 1980er Jahren entwickelt. In einem ersten program‐ matischen Aufsatz im Jahr 1979 formulierte Hans-Jürgen Heringer noch vorsichtig „Verständlichkeit - ein genuiner Forschungsbereich der Linguistik? “. Er schloss seine Überlegungen zur Verständlichkeitsforschung an eine angewandte, pragma‐ tisch-kommunikationsbezogene Perspektive in der Linguistik an (Heringer 1979: 274). Wesentlich für die kommunikativ-pragmatischen Perspektiven auf Textverstehen und Verständlichkeit ist, dass sie sich gegen eine kontext-isolierte Betrachtung von Textverstehen und Anforderungen an die Verständlichkeit wenden. Das gilt für alle Ansätze, die in diesem Kapitel dargestellt werden. Sie verstehen Texte als (komplexe) Sprachhandlungen und interessieren sich dafür, was erfolgreiche Texte in der Anwen‐ dung ausmacht. Sie beziehen daher Merkmale des Kontextes explizit in die Analyse ein. Heringer übt u. a. Kritik an der „Feldferne“, also der Künstlichkeit experimentel‐ ler Zugänge zum Verstehen in der Psycholinguistik und plädiert erstmals dafür, Verständlichkeit mit Blick auf die tatsächlichen kommunikativen Zusammenhänge zu erforschen. Dieser kommunikative Ansatz der Verständlichkeitsforschung hat noch heute seine Berechtigung und einen heuristischen Wert (vgl. Lutz 2015: 147). In einem späteren Aufsatz entwirft Heringer ein Modell aus vier Komponenten, das betont, dass nicht allein der Text für die Erforschung von Verständlichkeit relevant ist, sondern auch sein Zusammenspiel mit Faktoren des kommunikativen Kontextes, insbesondere Produzent/ innen und Rezipient/ innen (siehe Abb. 6). Die Parallelen zur kognitivis‐ tischen Annahme von Verstehen als Text-Leser-Interaktion (siehe Kap. 2.3.2) sind hier unübersehbar. Heringers kommunikativer Ansatz der Verständlichkeitsforschung wendet sich außerdem gegen die „unreflektierte[] Anwendung von Verständlichkeits‐ kriterien und betont das Außenkriterium: Erfolg der Kommunikation“ (Heringer 1984: 63). 2.2 (Text-)Linguistische Perspektiven auf Verstehen und Verständlichkeit 47 <?page no="49"?> Sprecher/ Produzent mit seinen Zielen, Fähigkeiten, Annahmen etc. Text mit seiner spezifischen Struktur Hörer/ Adressat mit seinen Erwartungen, Fähigkeiten, Annahmen etc. Bedingungen der Kommunikation, insbesondere das gemeinsame Wissen der Partner etc. Abb. 6: Vier Komponenten im kommunikativen Ansatz der Verständlichkeitsforschung nach Heringer (1984) - Textlinguistische Verständlichkeitsmodelle Ein weiterer textlinguistischer Ansatz ist das Verständlichkeitsmodell von Christoph Sauer (1997). Es erscheint als besonders fruchtbar für die Analyse barrierefreier Kommunikation, da hier auf die grafische Seite ein besonderes Augenmerk gelegt wird: In Sauers 6-Felder-Modell der leseaufgabenorientierten Textverständlichkeit wird sowohl die grafisch-materielle Seite von Texten - das „Textbild“ - als auch die sprachlich-kognitive Seite - der „Textinhalt“ - betrachtet. In dem Ansatz geht es einerseits um die Verständlichkeit, andererseits um die Anwendbarkeit von Texten. Gestalt-Inhalt- Relation Untersuchungsebene „Textbild“ „Textinhalt“ lokal Leserlichkeit Verstehbarkeit mittel Überschaubarkeit Gestaffeltheit global Zugänglichkeit Nachvollziehbarkeit Tab. 2: 6-Felder-Modell der Textverständlichkeit (Sauer 1997; 1999) Die drei Untersuchungsebenen unterscheidet Sauer danach, ob der Gesamttext betrof‐ fen ist (globale Ebene), lokale Einheiten wie Wörter, Sätze bis hin zu Absätzen gemeint sind, oder Einheiten auf mittlerer Ebene wie (Unter-)Abschnitte und Paragraphen (Sauer 1997: 96). Die drei Kategorien auf „Textinhalt“-Seite beschreiben Textqualitäten, die vorhanden sein müssen, damit die Verarbeitung für die Rezipient/ innen möglichst unaufwendig stattfinden kann: Verstehbarkeit bezieht sich auf die kognitive Verarbei‐ 48 2 Grundlagen <?page no="50"?> tung von Wörtern, Sätzen, Absätzen. Gestaffeltheit bezieht sich auf die Verarbeitung von Abschnitten und Paragraphen: „Erforderlich ist eine Sequenzierung oder inhaltli‐ che Gliederung des Textes (‚Staffelung‘) in Übereinstimmung mit dem Vorwissen der Leser.“ (Sauer 1997: 96). Nachvollziehbarkeit meint dann folgerichtig die globale Reprä‐ sentation bezogen auf den Gesamttext. Diese ist insbesondere die Voraussetzungen für leserseitige Anschlusshandlungen. Die drei Qualitäten auf „Textbild“-Seite entsprechen im Wesentlichen der Unterscheidung zwischen Mikro-, Meso- und Makrotypografie (Stöckl 2004, siehe Kap. 3.4): Leserlichkeit steht bei Sauer für die Erkennbarkeit und Wahrnehmbarkeit von Zeichen auf lokaler Ebene. Überschaubarkeit bezieht sich auf (meso-)typografische Merkmale wie „Satzspiegel, Strukturverdeutlichungen und -markierungen (etwa durch Zwischentitel) oder sonstige Sequenzierungsindikationen“ (Sauer 1997: 97). Zugänglichkeit nennt Sauer dann die Erkennbarkeit des Textes auf globaler Ebene: makrotypografische Merkmale, typografische Strukturierungssignale („access structure“), Anordnung der Textteile. Die Kernidee des Modells, die schon den Vorläufer des 4-Felder-Modells geprägt hat (Sauer 1995), ist die der Leseaufgabe: Leser/ innen lesen einen Text, um zu X-en, und dieses X stellt die Leseaufgabe dar (Sauer 1999: 96). Man liest einen Text, um in die Lage versetzt zu werden, einen Schrank aufzubauen, um ein Problem zu lösen, um sich für ein Examen vorzubereiten usw. Sauers Konzept der Leseaufgabe ähnelt dabei teilweise der Kategorie der Textfunktion (siehe Definition S. 52). Textverständlichkeit basiert bei Sauer wesentlich auf der Intention des Produzenten/ der Produzentin, mit den Leser/ innen ein Bündnis einzugehen, um die Leseaufgabe bestmöglich zu unterstützen (Sauer 1999: 96). Sauers Modell betont also die Handlungsorientierung der Textverständlichkeit: Einen Text zu verstehen bedeutet nicht nur, das Gelesene inhaltlich zu erfassen und ein mentales Modell zu bilden (siehe Kap. 2.2.2), sondern ein guter, verständlicher Text ist auch anwendbar für den/ die Leser/ in: Er ist so gestaltet, dass z. B. die Schritte einer Bedienungsanleitung nicht nur verstanden, sondern auch ausgeführt werden können. Auch Nussbaumer (1993) wendet sich gegen propositionale Textverstehensmodelle, die Verstehen lediglich kontext-isoliert als mentale Integration von Propositionen beschreiben (siehe Kap. 2.1.3 und 2.2.2). Über die Verständlichkeit eines Textes entscheide wesentlich die Textfunktion: Ein Text sei kohärent, insoweit er eine erkennbare kommunikative Funktion habe (Nussbaumer 1993: 71). Diese Auffassung ist auch in das „Zürcher Textanalyseraster“ eingeflossen, in dem die Kategorie der funktionalen Angemessenheit eng mit der der Verständlichkeit verbunden wird (Nussbaumer 1996). Ein Modell, das sich zum Ziel gesetzt hat, Erkenntnisse der Kognitionswissenschaft mit der angewandten linguistischen Forschung aus v. a. Textlinguistik, Übersetzungs‐ wissenschaft, Fachsprachenforschung und Schreibforschung zu verbinden, ist das „Karlsruher Verständlichkeitsmodell“ (Göpferich 2002). Susanne Göpferich betrachtet Textverständlichkeit aus der Perspektive des Textproduktionsprozesses und gibt insbe‐ sondere Faktoren des situativen Rahmens der Texterstellung erstmals ausführlich Raum. 2.2 (Text-)Linguistische Perspektiven auf Verstehen und Verständlichkeit 49 <?page no="51"?> Einen Text zu verstehen, bedeutet nicht nur, unter Einbezug des leserseitigen Wissens Propositionen zu verknüpfen. Vollständig ‚Sinn‘ ergibt ein Text für den/ die Leser/ in erst, wenn er ihm eine kommunikative Funktion und einen Kontext zuordnen kann (Adamzik 2016: 173 ff.). Ulla Fix beschreibt dies in Bezug auf Leichte Sprache folgendermaßen: Auch der schlichteste Text ist bei aller Einfachheit eine komplexe Äußerung. Er ist ein Geflecht von syntaktischen, semantischen, intentional-funktionalen, thematischen Strukturen und weist die Merkmale einer bestimmten Textsorte auf, die es wahrzunehmen und zu verstehen gilt. […] Erst wenn man alle genannten Zusammenhänge im Blick hat, weiß man, welcher Funktion der jeweilige Text genügen und warum und wie man ihn lesen soll. (Fix 2017: 164) Diese genannten Ebenen werden im Verstehensprozess integriert und zugleich in Relation zum Kontext gesetzt. Schematisch kann zwischen punktuellen (lokalen) und flächigen (globalen) Verstehensprozessen bzw. punktuellen und flächigen Konstruk‐ tionen von Sinn unterschieden werden. In diesem Sinne wird in kognitiv orientierten Beschreibungen auch von hierarchieniedrigeren und hierarchiehöheren Leseprozesse‐ benen gesprochen (Richter/ Christmann 2002; Rosebrock/ Nix 2014). Beim punktuel‐ len Verstehen eines Textes lösen einzelne Textelemente - typischerweise Wörter - Konstruktionen von Sinn aus; es wird lokal - beispielsweise in einem Satz, Teilsatz oder einem Abschnitt - Kohärenz hergestellt. Beim globalen Textverstehen wird über größere Abschnitte hinweg Kohärenz hergestellt. In der pragmatisch ausgerichteten Textlinguistik ist es Konsens, dass der außersprachliche Kontext (siehe Infokasten) sowohl beim punktuellen als auch beim globalen Verstehen eine wichtige Rolle spielt: Er rahmt gewissermaßen das Verstehen und beeinflusst, wie ein Text verstanden wird bzw. reduziert die Möglichkeiten, wie er plausiblerweise verstanden werden kann. Das Wissen darüber, in welchen Kontexten Textsorten typischerweise vorkommen, ist Teil des sprachlichen Wissens auf Rezipientenseite. Text und Kontext Das Verstehen von Texten basiert nicht nur auf dem, was explizit im Text geäußert wird. Insbesondere die kommunikative Funktion eines Textes wird in der Regel nicht versprachlicht, sondern von den Rezipient/ innen aus dem Zusammenspiel von propositionalem Gehalt und kommunikativem Kontext erschlossen. Dieses ‚Mehr‘ an Bedeutung gegenüber dem sprachlich Kodierten ist das Resultat einer informationellen Ausbeutung des Gesagten durch die Kommunizierenden, die darin besteht, dass es mit der Situation der Äußerung, dem Verlauf der aktuell ablaufenden Kommunikationssituation, den allenfalls bestehenden Erwartungen sowie dem (bereits aktivierten bzw. dem durch das Gesagte selbst aktivierten) Vorwissen in Kontakt gebracht und mit deren Hilfe interpretiert wird. (Portmann-Tselikas/ Weidacher 2010: 11). Kontexte von Äußerungen sind Informationen, die von den Rezipient/ innen in ihrer Relevanz erkannt und als relevant verarbeitet werden (Auer 1992; Port‐ 50 2 Grundlagen <?page no="52"?> mann-Tselikas/ Weidacher 2010: 11). Kontexte werden also erst durch Schlüsse, sog. Inferenzen (siehe Kap. 2.1.4), in den Verstehensprozess eingebracht; in der Regel sind es sprachliche Äußerungen, die solche Schlüsse auslösen - dies kann ein einzelnes Wort sein, oder es können längere Passagen eines Textes sein (Portmann-Tselikas/ Weidacher 2010: 12 ff.). Ein Satz mit Verberststellung + indefiniter Nominalphrase wie Geht ein Mann… löst beispielsweise den Schluss auf die Textsorte Witz aus, verbunden mit dem Wissen darum, in welchen Situationen (diese Art von) Witze(n) üblicherweise erzählt wird/ werden etc. - Textsorte und Textfunktion Solchen Aspekten wird - wie generell der textuellen Ebene und pragmatischen Aspekten - in den Leichte-Sprache-Regelwerken kaum Aufmerksamkeit gewidmet. Die empirische Leichte-Sprache-Forschung hat sich diesem Desiderat aber in ersten Studien gewidmet (siehe Kap. 3.3.). Zwei textlinguistische Kategorien, die in dieser Hinsicht besonders wichtig sind und die bereits genannt worden sind, sind: 1. Textsorte 2. Textfunktion Zu (1) Textsorte: Texte können als komplexe Sprechakte verstanden werden und da‐ mit als kommunikative Phänomene, mit denen sprachlich gehandelt wird (Heinemann 2019; Sandig 1978). Sie dienen unterschiedlichen kommunikativen Aufgaben und haben je nach Aufgabe charakteristische Merkmale. In diesem Sinne kann man verschie‐ dene Textsorten voneinander unterscheiden - beispielsweise Bedienungsanleitung, Wetterbericht, Märchen oder Leserkommentar zu einem Online-Zeitungsartikel (vgl. Adamzik 2019). Definition: Textsorten Textsorten sind Gruppen von Texten mit charakteristischen Merkmalen, die einem gemeinsamen Textmuster folgen (Fix 2008a: 71). Unter einem Textmuster ist mit Ulla Fix das einer Textsorte zugrunde liegende Muster zu verstehen, das auf drei Ebenen beschreibbar ist: Textmuster haben gemeinsame ● thematisch-propositionale Grundelemente (Beispiel Wetterbericht: das Wetter in naher Zukunft, Beschreibung von Witterungsverhältnissen etc.) ● handlungstypisch-illokutive Grundelemente (Beispiel Wetterbericht: Sprachhandlung INFORMIEREN, Begrüßung der TV-Zuschauer etc.) ● stilistisch-formulative Mittel (Beispiel Wetterbericht: fachsprachlicher Wortschatz, viele Verbalsätze mit Witterungsadjektiven, verblose Sätze in der Vorhersage etc.) 2.2 (Text-)Linguistische Perspektiven auf Verstehen und Verständlichkeit 51 <?page no="53"?> Textsorten bieten durch ihre musterhafte Erscheinung Orientierung sowohl für die Textproduktion als auch für das Textverstehen. Im Verstehensprozess ordnen die Rezipient/ innen Textexemplaren eine Textsorte zu - dies entspricht dem Verstehen der pragmatisch-sozialen Dimension von Texten (Fix 2008b: 117). Die Textlinguistik hat Texte außerdem aus der Perspektive ihrer kulturellen Prägung betrachtet (zur sozialen Prägung von Sprachgebrauch: Feilke 1996; Fix 2008b: 103 ff.): Als Routinen sprachlichen Handelns haben sich Textsorten entwickelt, um wiederkehrende kommunikative Aufgaben in einer Gesellschaft zu erfüllen. Sie sind somit an der Konstitution von Kultur beteiligt und zugleich Ausdruck einer Kultur. Zwischen verschiedenen Kulturen, beispielsweise zwischen verschiedenen Sprachen, können sich Textsorten daher in ihren charakteristischen Merkmalen unterscheiden. Das Textsortenwissen ist damit kulturabhängig. Zudem ist es erfahrungsabhängig und insofern sozial stratifiziert: Ins‐ besondere in Abhängigkeit von sprachlicher Sozialisation und individueller Erfahrung sind Leser/ innen mit den verschiedenen Textsorten unterschiedlich vertraut. Damit ein Text als Vertreter einer bestimmten Textsorte erkannt werden kann, müssen auf der Textoberfläche entsprechende Signale vorhanden sein. D.h., ein Text kann es seinen Rezipient/ innen leichter oder schwerer machen, die Textsorte zu erkennen. Auch dies ist ein Aspekt der Textverständlichkeit. Textsorten sind allerdings hinsichtlich ihrer Eigenschaften unterschiedlich stark festgelegt. Aus Produktionssicht bieten sie somit nicht nur überindividuelle Handlungsorientierung, sondern auch Freiräume, die es individuell zu füllen gilt (Fix 2008a: 67). Aus Rezeptionssicht gibt es prototypische Vertreter einer Textsorte, also Exemplare mit besonders typischen Merkmalen, und solche Vertreter, die weniger typische Merkmale aufweisen, die aber ebenfalls zu einer bestimmten Textsortenklasse gehören. Zu den Textmerkmalen, die besonders wichtig sind für die Prototypizität und damit für Verständlichkeit und „Textsorten(wieder)erkennbarkeit“, zählt die Textfunktion (Adamzik 2004: 47). Damit sind wir beim zweiten genannten Grundbegriff angelangt: (2) Textfunktion. Definition: Textfunktion Textfunktion wird von Klaus Brinker definiert als die im Text mit bestimmten, konventionell geltenden, d. h. in der Kommunikationsge‐ meinschaft verbindlich festgelegten Mitteln ausgedrückte Kommunikationsabsicht des Emittenten. Es handelt sich also um die Absicht des Emittenten, die der Rezipient erkennen soll, sozusagen um die Anweisung (Instruktion) des Emittenten an den Rezipienten, als was dieser den Text insgesamt auffassen soll, z. B. als informativer oder als appellativer Text. (Brinker/ Cölfen/ Pappert 2014: 97, Hervorhebung B.B./ S.P.) Die Textfunktion ist abzugrenzen von der Wirkung, die ein Text auf Rezipient/ innen hat. Mit Bezug auf die Sprechakttheorie von John Searle (1969) unterscheidet Brinker 52 2 Grundlagen <?page no="54"?> fünf textuelle Grundfunktionen, die er jeweils mit einer Paraphrase verdeutlicht (Brinker/ Cölfen/ Pappert 2014: 106 ff.): ● Informationsfunktion: Ich (der Emittent) informiere dich (den Rezipienten) über den Sachverhalt X (Textinhalt). ● Appellfunktion: Ich (der Emittent) fordere dich (den Rezipienten) auf, die Einstellung (Meinung) X zu übernehmen/ die Handlung X zu vollziehen. ● Obligationsfunktion: Ich (der Emittent) verpflichte mich (dem Rezipienten gegen‐ über), die Handlung X zu tun. ● Kontaktfunktion: Der Emittent gibt dem Rezipienten zu verstehen, dass es ihm um die personale Beziehung zum Rezipienten geht. ● Deklarationsfunktion: Ich (der Emittent) bewirke hiermit, dass X als Y gilt. Textsorten haben je charakteristische Textfunktionen; diese sind in Fix‘ Textsortende‐ finition auf der Ebene der handlungstypisch-illokutiven Grundelemente angesiedelt. Dabei kann ein Text durchaus auch mehrere kommunikative Funktionen signalisieren: Beispielsweise haben Wahlprogramme einerseits Appellfunktion, sie zielen darauf, potenzielle Wähler/ innen zu überzeugen. Andererseits haben sie auch Informations‐ funktion: Sie informieren die Leserschaft über die politischen Ziele einer Partei. Für verständliche Sprache und vereinfachte Sprachformen scheint ein Aspekt von besonderer Bedeutung: Es ist die Konventionalität der eingesetzten sprachlichen Mittel, die prototypische Textsortenvertreter und die Erkennbarkeit der Textfunktion ermöglicht. Besonders Leichte Sprache steht für ein Repertoire aus eigenen sprachli‐ chen und grafischen Formen, mit denen Texte gestaltet werden. Konventionalität der Gestaltung ist bisher weniger im Blick. Aufgabe der linguistischen Forschung ist es, zunächst text- und korpusanalytisch festzustellen, auf welchen Ebenen der Textgestaltung von konventionellen Mitteln abgewichen wird, um dann empirisch zu überprüfen, wie dies die Verständlichkeit für die Zielgruppen beeinflusst. 2.2.2 Rezeption von psychologischen und kognitionswissenschaftlichen Ansätzen - Kognitiver Konstruktivismus Anders als es der alltägliche Sprachgebrauch nahelegt, ist das Lesen und Verstehen von Texten kein Vorgang, bei dem aus dem Text Informationen ‚entnommen‘ werden. Der Leseverstehensprozess ist vielmehr ein Prozess der aktiven Sinnkonstruktion, bei dem das Vorwissen der Lesenden mit dem Wissen in den Texten in Wechselwirkung tritt (sog. kognitiver Konstruktivismus, siehe S. 55). Der Text kann diesen Prozess durch seine Eigenschaften mehr oder weniger unterstützen und das Verstehen somit mehr oder weniger lenken. Kognitionswissenschaftliche Ansätze der Verständlich‐ keitsforschung gehen der Frage nach, wie im Leseprozess Aussagen bzw. Inhalte eines Textes zu einem kohärenten Ganzen verknüpft und adäquat interpretiert werden. 2.2 (Text-)Linguistische Perspektiven auf Verstehen und Verständlichkeit 53 <?page no="55"?> Dem außersprachlichen Kontext als verstehensrelevantem Faktor wird dabei mehr oder weniger Aufmerksamkeit gewidmet. Alle Modelle fußen auf dem sog. kognitiven Konstruktivismus. Textinhalte werden unter Rückgriff auf Erwartungen, Ziele, Inter‐ essen der Lesenden gefiltert, diese verbinden die Textinhalte mit ihrem Vorwissen, beziehen sie aktiv-konstruktiv aufeinander und fügen sie in ihre Wissensstrukturen ein (Christmann 2015: 169 f.). Zwei Richtungen, die sich im engeren Sinne mit der Erforschung von Textverstehen und -verständlichkeit befasst haben, sind ● die psycholinguistisch und kognitionswissenschaftlich orientierte Sprachfor‐ schung ● sowie die instruktionspsychologische Verständlichkeitsforschung (vgl. Göpfe‐ rich-Görnert 2018: 237 ff.). Als instruktionspsychologisch hat Göpferich-Görnert (2018) jene Forschungsan‐ sätze bezeichnet, die darauf ausgerichtet sind, Textverfasser/ innen einen Orientie‐ rungsrahmen für die Produktion verständlicher Texte zu liefern; oftmals sind Texte in Lehr-Lern-Kontexten Gegenstand der Überlegungen. Besondere Prominenz hat das „Hamburger Verständlichkeitsmodell“ der Psychologen Langer, Schulz von Thun und Tausch (2011; erstmals 1981) erlangt. Etwa zeitgleich entwickelte Norbert Groeben (1982) sein Verständlichkeitskonstrukt auf Basis theoretischer Annahmen. Beiden instruktionspsychologischen Ansätzen ist gemein, dass sie Verständlichkeit als ein Konstrukt aus mehreren Dimensionen entwerfen: Auf unterschiedlichem Wege wur‐ den vier beinahe deckungsgleiche Verständlichkeitsdimensionen herausgearbeitet. Der Hamburger Ansatz ging dabei empirisch-induktiv vor und leitete die Merkmale aus den Urteilen von Expert/ innen ab, die die Verständlichkeit gelesener Texte bewerteten. Norbert Groeben leitete die Merkmale theoretisch-deduktiv aus Erkenntnissen der Forschung ab. In der Terminologie beider Modelle heißen die vier Dimensionen der Textverständlichkeit folgendermaßen (siehe ausführlicher dazu Kap. 3.3): Groeben Hamburger Modell stilistische Einfachheit Einfachheit kognitive Gliederung/ Ordnung Gliederung semantische Kürze/ Redundanz Kürze - Prägnanz motivationale Stimulanz anregende Zusätze Tab. 3: Die vier Dimensionen der Textverständlichkeit bei Norbert Groeben (1982) und im Hamburger Modell (Langer/ Schulz von Thun/ Tausch 2011) Eine Reihe weiterer Verständlichkeitsmodelle hat sich auf diese vier Dimensionen bezogen, sie ergänzt oder weiter differenziert: Zu nennen ist hier das „Karlsruher Verständlichkeitsmodell“ von Susanne Göpferich (2002) (siehe oben) sowie das Produk‐ 54 2 Grundlagen <?page no="56"?> tions-Analyse-Optimierungs-Modell zur Textverständlichkeit von Lutz (2015); beide sind textproduktions- und anwendungsorientiert. Kognitiver Konstruktivismus: Top-down- und Bottom-up-Prozesse Ausgangspunkt für die kognitiv orientierte Forschung zum Leseverstehen ist die Annahme, dass das sprachverarbeitende Subjekt Sinn kognitiv konstru‐ iert. Diese Konstruktion erfolgt sowohl textgesteuert (bottom-up), als auch lesergesteuert (top-down): Verstehen verläuft als Bewegung bottom-up - d.-h. ausgehend von den einzelnen Komponenten des Textes, die der/ die Leser/ in wahrnimmt, hin zum kognitiven Entwurf eines Sinnganzen (auf der Ebene von Satz, Abschnitt, Gesamttext) - sowie top-down, also ausgehend von bereits vorhandenem Wissen und Vorverständnissen auf Leserseite, das durch den Text aktiviert wird. Norbert Groeben hat den Verstehensprozess in diesem Sinne prägnant als „Leser-Text-Interaktion“ beschrieben (Groeben 1982: 99 ff., 148). Verständlichkeit hängt demnach nicht nur von Textmerkmalen ab, sondern von Leser- und Textmerkmalen bzw. von der Passung von Leser- und Textmerkmalen: Verständlichkeit ist also relativ. Texte geben (bottom-up) Hinweise, wie sie zu verstehen sind; zugleich kann ein- und derselbe Text bei verschiedenen Lesen‐ den (mehr oder weniger), verschiedene Top-down-Prozesse auslösen - nämlich abhängig von deren Weltwissen, sprachlichen Wissen oder Interessen. Dies führt zu individuellen Verstehens- und Wissenskonstruktionen (vgl. Göpferich-Görnert 2018: 231). Die Beschreibung des Verstehensprozesses als Zusammenspiel von leserseitigem Wissen und im Text angelegtem Bedeutungspotenzial ist eine Annahme, die sich so nicht nur in den Kognitionswissenschaften findet. Auch in der Hermeneutik und der pragmasemantisch orientierten Textlinguistik fußt die Erklärung des (Text-)Verstehens auf diesem Grundgedanken (Gardt 2018: 56 ff.). In Bezug auf den Text bedeutet das: Sein Gesamtsinn ist mehr als die Summe der Bedeutungen der einzelnen Textbestandteile. In Bezug auf den Rezipienten/ die Rezipientin bedeutet das: Er oder sie kann auf der Basis seines/ ihres verstehensrelevanten Wissens neue Informationen in einem Text erschließen, und es kommt zu indivi‐ duellen Anteilen im Textverständnis. Siehe dazu auch den Exkurs im Kasten auf S. 56f. - Propositionsmodelle Die frühen kognitiv orientierten Modelle und Theorien des Textverstehens fokussier‐ ten kleinere Textbedeutungs- und Verarbeitungseinheiten (siehe auch Kap. 2.1.4): Dazu gehört beispielsweise das Propositionsmodell von Walter Kintsch (1974) oder das Modell der zyklischen Verarbeitung von Kintsch und van Dijk (1978). Im Zentrum stehen bei beiden Modellen die sog. Propositionen: Bedeutungseinheiten, die als zentrale Einheiten im semantischen Gedächtnis angesehen werden und die aus einem 2.2 (Text-)Linguistische Perspektiven auf Verstehen und Verständlichkeit 55 <?page no="57"?> Argument (das, worüber etwas ausgesagt wird) und einem oder mehreren Prädikaten (das, was über etwas ausgesagt wird) bestehen. Der Satz Walter ist pfiffig. enthält beispielsweise eine Proposition, bestehend aus einem Prädikat und einem Argument (pfiffig, Walter). Die Modelle erklären die Herstellung von Kohärenz (siehe auch Kap. 3.3, Kap. 2.1.4) durch sprachliche Wiederaufnahme sowie Argumentüberlappung und -einbettung (d. h., mehrere Propositionen teilen sich ein Argument oder Proposi‐ tionen fungieren als Argument in einer komplexeren Proposition). Auch das später entwickelte Konstruktions-Integrations-Modell von Kintsch (1998) stellt Propositionen ins Zentrum und modelliert ihre Verknüpfung zu einem semantischen Netz in einem komplexen Verstehensprozess aus Inferenzen (also Schlüssen auf nicht explizit Gesag‐ tes), Phasen der Konstruktion und Integration von Wissen. Pragmatische, strategie- und sprachhandlungsbezogene Faktoren werden in diesen Modellen, insbesondere in dem formalen Konstruktions-Integrations-Modell von Kintsch, nicht berücksichtigt. Diese Modelle und Theorien sind vor allem ein Beitrag zur Grundlagenforschung und versuchen Faktoren zu isolieren. Damit bilden sie nur einen Teil der Repräsentationen und Prozesse ab, die am Textverstehen beteiligt sind und sind - das war auch nicht ihre Intention - kaum anwendungstauglich (vgl. Lutz 2015: 81). Exkurs: Wie subjektiv ist das Textverständnis? Haben Texte eine festschreibbare „objektive“ Bedeutung? Oder ist nicht der Akt der Sinnkonstruktion und damit das Verständnis eines Textes stets Ergebnis individueller Verarbeitungsprozesse? Wenn aber jedes Textverständnis subjektiv ist - woran lässt sich dann festmachen, welches Verständnis eines Textes noch text-adäquat ist und welches nicht mehr? Dies ist auch eine Frage, die forschungs‐ methodisch relevant ist. Disziplinenübergreifend gibt es zunächst einmal den Konsens, dass Texte keine vorgängig definierten Bedeutungen ‚haben‘, die in der Rezeption lediglich kogni‐ tiv nachvollzogen würden (Gardt 2018: 59). Dem entspricht auch die kognitiv-kon‐ struktivistische Auffassung von Verstehen als aktiver Sinnkonstruktion. Das gilt nicht nur auf Textebene, sondern bereits auf Wortebene: Wörter in Texten sind keine semantisch isolierten Einheiten mit fest umrissener Bedeutung (vgl. Gardt 2018: 75). Was z. B. genau mit dem Ausdruck Buch gemeint ist (Roman, Sachbuch, Lexikon, Wörterbuch, Lehrbuch, Bibel, …), ergibt sich erst im Zusammenhang eines Textes. In der Textlinguistik hat man deshalb zwischen der Bedeutung und dem Sinn eines Textes unterschieden: Bedeutung ist das Potenzial eines sprachlichen Ausdrucks, mögliche Bedeutungen zu übermitteln, während Sinn das eigentlich Gemeinte eines Ausdrucks umfasst, also das Wissen, das tatsächlich in einem Text übermittelt wird (Beaugrande/ Dressler 1981: 88). Die Ebene des Sinns ist dabei nicht bereits im Bedeutungspotenzial eines Ausdrucks enthalten: Ein Satz wie „Es zieht! “ kann je nach Kontext als Aufforderung verstanden werden, ein offenes Fenster zu schließen. Dieser Sinn wird jedoch mit dem Satz nicht direkt formuliert. Erst Ko- und Kontext entscheiden über diese Sinnzuweisung. 56 2 Grundlagen <?page no="58"?> Eine weitere potenzielle Bedeutung wäre z. B. die, dass der/ die Sprecher/ in ohne Handlungsaufforderung feststellt, dass es zieht. Hinzu kommt also die Intention des Textproduzenten: Sowohl Bedeutungspotenzial als auch Wirkungsintention sind entscheidend für das Verständnis eines Textes. Erst die Interaktion von Wis‐ sen und Annahmen der Rezipient/ innen einerseits und dem Bedeutungspotenzial eines Textes andererseits führt zu Verstehen. Das heißt: Verstehen ist subjektiv, aber es ist nicht nur subjektiv (vgl. auch Busse 2015: 41; 1987: 170 f.). Ansonsten wäre Verständigung gar nicht möglich. Bedeutung und Wissen sind kulturell und sozial geprägt: Das heißt, welche Lesarten wir für plausibel halten, hängt auch davon ab, was sozial und kulturell üblich und im jeweiligen Kontext erwartbar ist. Dieser Prägungen ist man sich im Verstehensprozess aber nicht unbedingt bewusst. Je komplexer das Verhältnis zwischen Sinn- und Bedeutungsebene ist, umso stärker können sich die Verständ‐ nisse bei verschiedenen Rezipienten und Rezipientinnen unterscheiden. Es gibt aber Unterschiede in Abhängigkeit von der Textsorte und dem Kontext. Der Linguist Andreas Gardt hat dies prägnant zusammengefasst: Für Sachtexte wird die Möglichkeit eines solchen ‚richtigen‘ Verständnisses eher angenommen als für andere Texte, etwa literarische, da in Sachtexten die Ebenen von Bedeutung und Sinn (Letztere als Ebene des mittels des Bedeuteten Gemeinten) weitestgehend ineinander fallen. Unsere Alltagserfahrung bestätigt dies, indem wir immer wieder durch Texte präzise und erfolgreich auf einzelne Ausschnitte der Wirk‐ lichkeit gelenkt werden. Für alle Texte aber gilt, dass der Vorgang von Bedeutungsbzw. Wissenskonstitution nicht endet, wenn der ‚Text als solcher‘ inhaltlich erschlossen wurde, sondern wenn beim Rezipienten der Eindruck von semantischer Sättigung entstanden ist. (Gardt 2018: 74) - Mentale Modelle und Schemata Größere Bedeutungs- und Verarbeitungseinheiten traten mit der Theorie der kogniti‐ ven Schemata und der mentalen Modelle in den Fokus. Mit dem von Bartlett (1932) geprägten Konzept des kognitiven Schemas sind globale Wissensbestände gemeint, die Verstehen und Erinnern steuern, wie beispielsweise das Wissen über typischerweise zusammengehörende Elemente beispielsweise das Sektglas - Konfetti - Feier) oder typische Handlungsabläufe (z. B. beim Handeln als Gast im Restaurant; vgl. auch sog. Scripts nach Schank und Abelson (1977)). Empirisch erforscht wurde der Einfluss von Schema-Wissen auf das Textverstehen. Aus den Ergebnissen lässt sich u. a. ableiten, dass die explizite Benennung von (Verstehens-)Zielen oder die Hervorhebung schemarelevanter Textelemente das Textverstehen erleichtert (vgl. für einen Überblick Christmann/ Groeben 1996). In neueren Theorien spielt die Schema-Theorie allerdings keine bedeutende Rolle mehr. Dies mag u. a. daran liegen, dass sie zwar einerseits 2.2 (Text-)Linguistische Perspektiven auf Verstehen und Verständlichkeit 57 <?page no="59"?> plausibel, andererseits aber auch ein ausgesprochen globales Modell darstellt (Ballsta‐ edt et al. 1981: 30; Lutz 2015: 78). Eine prominentere Position haben die Theorien mentaler Modelle eingenom‐ men ( Johnson-Laird 1983). Sie kombinieren propositionszentrierte mit holistischen Ansätzen wie der Schema-Theorie, die das Vorwissen der Adressat/ innen stärker berücksichtigen (Göpferich-Görnert 2018: 238). Angenommen werden zwei Repräsen‐ tationsebenen: (1) die Ebene der Textrepräsentation sowie (2) die Ebene der mentalen Modelle. (1) Die Textrepräsentation besteht aus einer Textoberflächen-Ebene, die die Formulierungen beinhaltet, sowie einer semantischen Ebene, die die Propositionen und ihre inhaltliche Verknüpfung enthält. (2) Unter mentalen Modellen werden Bilder und Szenen in der inneren Vorstellung der Rezipient/ innen verstanden, die diese im Verlauf des Lektüreprozesses bilden, indem sie unter Einbezug ihres Weltwissens sprachliche und weitere visuelle Textinformationen (z. B. Bilder, Diagramme) verar‐ beiten (vgl. Göpferich-Görnert 2018: 238). Typisches Beispiel für ein mentales Modell ist die visuelle Vorstellung von einem Gegenstand, und zwar aus unterschiedlichen Perspektiven, beim Lesen von Handlungsschritten in einer Bedienungsanleitung. Teun A. van Dijk und Walter Kintsch (1983) haben ein elaboriertes und einflussrei‐ ches theoretisches Modell vorgelegt, in dem sog. Situationsmodelle eine prominente Stellung in der Beschreibung des Verstehensprozesses einnehmen. Van Dijk und Kintsch unterscheiden drei (Verstehens-)Ebenen, die ineinandergreifen: ● die Ebene der Textrepräsentation, die v. a. auf das textnahe Verständnis zielt: Sie umfasst den Bedeutungsgehalt von Wörtern, Sätzen und ihrer semantischen Verknüpfung; ● das Situationsmodell, das im Verstehensprozess gebildet wird, indem die textuelle Ebene und (auch individuelle) Wissensbestände, z. B. Schema-Wissen, integriert werden - im Unterschied zur Textrepräsentationsebene ist das Situationsmodell also um leserseitiges Wissen „angereichert“; ● die Ebene des Kontextmodells, also Vorstellungen vom Verwendungskontext eines Textes - laut van Dijk und Kintsch vermitteln diese Vorstellungen zwischen Textrepräsentation und Situationsmodell: Das kann man so verstehen, dass der Verwendungskontext maßgeblich mitbestimmt, wie im Text Geäußertes zu verste‐ hen ist und welche Wissensbestände relevant sind und aktiviert werden müssen. Der Ansatz von van Dijk und Kintsch berücksichtigt, dass Textverstehen eine Handlung darstellt, die auch strategiegeleitet ist. Obwohl sie die Bedeutung pragmatischer Aspekte und die Bedeutung des Kommunikationskontexts betonen, fallen die Ausfüh‐ rungen zum Kontextmodell sehr knapp aus. Erst Teun A. van Dijk hat später die Bedeutung des Kontexts erneut hervorgehoben und ausführlichere Überlegungen dazu formuliert (van Dijk 2006). 58 2 Grundlagen <?page no="60"?> Exkurs: Anwendung in der empirischen Forschung Modelle wie das von van Dijk und Kintsch (1983) können auch zur theoretischen Grundlage empirischer Zugänge werden: In einer Studie, die das individuelle Leseverständnis von Leichte-Sprache-Texten untersucht hat (Bock/ Lange 2017), wurde das Modell für die Operationalisierung von Verstehensdimensionen ge‐ nutzt, die sich auch in den Fragen der qualitativen Befragung widerspiegeln. Das Textverständnis der Studienteilnehmer/ innen wurde als Situationsmodell konzeptualisiert, das im Leseverstehensprozess gebildet wird und das umfassend angereichert ist durch leserseitige Wissensbestände. Diese Wissensbestände um‐ fassen in den Annahmen der Studie auch pragmatisches, und damit kontextbezo‐ genes, Wissen seitens der Leser/ innen, wobei nicht eigens zwischen Situations- und Kontextmodell unterschieden wird. Die Studie versucht, das Situationsmodell zu rekonstruieren, indem nicht nur das Verstehen auf propositionaler, sondern auch auf pragmatischer Ebene erfragt wird (zur Methode Befragung siehe Kap. 5.4.2): Welche Funktion/ welcher (Verwendungs-)Zweck, welche Adressat/ innen, welche Kommunikationssituation, welches Hauptthema etc. wird den gelesenen Texten im individuellen Verständnis zugeschrieben? - Weiterführende Literatur Einen breiten Überblick über Ansätze der Verständlichkeitsforschung mit Fokus auf die angewandte Linguistik gibt: Lutz, Benedikt (2015): Verständlichkeitsforschung transdisziplinär: Plädoyer für eine anwen‐ derfreundliche Wissensgesellschaft. Göttingen: V&R unipress; Vienna University Press. - Aufgaben 1. Charakterisieren Sie: Was ist der Fokus pragmatisch-textlinguistischer Zugänge zum Verstehen im Unterschied zu kognitionswissenschaftlichen Zugängen zum Verstehen? 2. Wählen Sie zwei Texte (beliebiger Textsorte) aus, die sich nach einer ersten globalen Einschätzung hinsichtlich ihrer Verständlichkeit deutlich unterscheiden. Reflektieren Sie im Textvergleich: Welche Merkmale machen die beiden Texte mehr oder weniger verständlich? Nehmen Sie dazu Bezug auf die folgenden Ansätze: a. Analysieren Sie die Texte auf Basis der vier Dimensionen der Textverständ‐ lichkeit (nach Groeben oder Hamburger Modell). Beziehen Sie auch die entsprechenden Abschnitte in Kap. 3.3 in die Analyse ein. b. Analysieren Sie die Verständlichkeit auf den drei Ebenen von Textsorten (siehe Kap. 2.2.1). Auf welcher Ebene unterscheidet sich die Textverständ‐ lichkeit beider Texte? 2.2 (Text-)Linguistische Perspektiven auf Verstehen und Verständlichkeit 59 <?page no="61"?> c. Reflektieren Sie, welche Rolle der kommunikative Kontext beider Texte für das Verstehen spielt. 2.3 Komplexität als Gegenstand der Linguistik Mathilde Hennig Gegenstand des vorliegenden Studienbuchs ist sprachliche Einfachheit. Der Gegen‐ begriff zu Einfachheit ist Komplexität. Einfachheit und Komplexität sind keine isolierten Gegensätze, die in einer Entweder-Oder-Beziehung stehen, sondern sie sind als Endpunkte einer Skala prinzipiell aufeinander bezogen: Für Profigärtner/ in‐ nen dürfte das Anlegen eines Rosengartens eine einfache Angelegenheit sein, für passionierte Hobbygärtner/ innen schon etwas schwieriger, aber noch im machbaren Bereich, für Personen wiederum, die keinerlei grünen Daumen haben, eine äußerst komplexe, außerhalb der Machbarkeit liegende Aufgabe. Genauso ist ein Fachartikel in einer Fachzeitschrift für die mit dem Fachgebiet vertrauten Wissenschaftler/ innen eine relativ einfache Lektüre, für Studierende des Faches ist der Text möglicherweise schwer, aber dennoch lesbar, für Laien hingegen zu komplex und nicht zugänglich. Bei einer Beschäftigung mit Einfachheit auch Komplexität in den Blick zu nehmen, macht in unserem Kontext auch deshalb Sinn, weil für die Linguistik der Komplexität‐ spol der Einfachheit-Komplexitäts-Skala von besonderem Interesse ist. Beispielsweise ist es eine besondere Herausforderung für die Syntax, komplexe Satzstrukturen zu beschreiben - sie bilden quasi einen Prüfstein für die Syntaxtheorie; für die Psycholin‐ guistik ist es wiederum besonders interessant zu untersuchen, wie Sprachbenutzer/ in‐ nen komplexe sprachliche Strukturen verarbeiten können. Komplexität ist deshalb ein sehr gut etablierter Beschreibungsparameter in der Linguistik. Neben der Anwendung des Parameters Komplexität in verschiedenen linguistischen Kontexten kann auch von einer Komplexitätsforschung gesprochen werden, der es um die grundsätzliche Frage geht, was unter sprachlicher Komplexität eigentlich zu verstehen ist und wie sie gemessen und beschrieben werden kann. Insbesondere seit der Jahrtausendwende hat der Begriff der ‚Komplexität‘ in der Linguistik viel Aufmerksamkeit erfahren (für einen Überblick siehe die Sammelbände Sampson/ Gil/ Trudgill (2009); Kortmann/ Szmrecsanyi (2012) und Hennig (2017)). Zen‐ traler Gegenstand der jüngeren Komplexitätsforschung war die Kontroverse um das sogenannte ‚Äquikomplexitätsaxiom‘ (auch: ALEC statement: „All languages are equally complex (Deutscher 2009: 243) oder „principle of invariance of language com‐ plexity” (Sampson 2009: 1)). Die Grundidee ist einfach: Alle Sprachen der Welt haben vergleichbare Aufgaben, also können sie sich in ihrer Komplexität nicht grundlegend unterscheiden (zu einer kritischen Diskussion dieser Grundannahme vgl. Gil 2009). Wenn beispielsweise eine Einzelsprache eine hohe Komplexität in der Morphologie aufweist, ist die Syntax entlastet; umgekehrt kommt eine Einzelsprache mit komple‐ xerem Satzbau mit weniger Komplexität in Wortformenbildung aus. Es kann hier nicht 60 2 Grundlagen <?page no="62"?> darum gehen, diese durchaus spannende Diskussion im Detail abzubilden. Einen guten Überblick bilden die beiden ersten genannten Sammelbände. Sehr anschaulich ist Guy Deutschers Zusammenfassung der mit ALEC verbundenen Probleme in „Im Spiegel der Sprache“ (2010: 120 ff.). Auf die Diskussion des Äquikomplexitätsaxioms wurde hier verwiesen, weil diese einerseits eine wichtige Antriebskraft für die Komplexitätsforschung insbesondere der letzten beiden Jahrzehnte war, und weil sie andererseits ein wichtiges Anwendungsfeld der Komplexitätsdiskussion offenlegt: den Sprachvergleich. In unserem Studienbuch geht es nicht um den Vergleich verschiedener Einzelsprachen, sondern um den Vergleich verschiedener Erscheinungsformen innerhalb der Einzelsprache Deutsch. Dafür kann durchaus auf grundlegende Überlegungen zur Begriffsbestim‐ mung und Messbarkeit von Komplexität aus der Komplexitätsdebatte zurückgegriffen werden. Mit den Eingangsbeispielen wurde illustriert, dass Phänomene für verschiedene Per‐ sonen unterschiedlich komplex sein können - seien sie nun sprachlicher oder anderer Natur. Komplexität ist folglich einerseits relativ zu den Nutzer/ innen des jeweiligen Phänomens. Von relativer Komplexität wird in der Linguistik die absolute Komplexität unterschieden (zu einem Vergleich von absoluter und relativer Komplexität vgl. Fischer 2017: 22. Die Unterscheidung geht zurück auf Miestamo 2008). Bei der absoluten Komplexität geht es um die Komplexität der Systeme/ Strukturen als solche, die linguistisch beobachtet/ beschrieben werden können (deshalb spricht Fischer hier auch von „Beobachterkomplexität“) - es geht hier also um eine linguistische Rekonstruktion von Komplexitätsphänomenen. Als Kriterium für die absolute Komplexität kann der Beschreibungsaufwand genutzt werden: „X ist komplexer als y, wenn die kürzeste Beschreibung von x länger ist als die kürzeste Beschreibung von y“ (Fischer 2017: 21). X und Y können dabei Systemeigenschaften (also Eigenschaften eines Sprachsystems wie etwa die nominale Flexion oder die verbalen Kategorien im Deutschen) sein oder auch im Sprachgebrauch zu beobachtende Strukturen (also die tatsächliche Realisierung der im System angelegten Möglichkeiten in der Sprachverwendung). Bei der relativen Komplexität geht es vielmehr um die „Schwierigkeit im Umgang mit dem Gegenstand, i.e. Schwierigkeit von Sprachproduktion und -rezeption, L1/ L2-Lernschwierigkeit“; also um „Benutzerkomplexität“ (Fischer 2017: 22). Bei der Diskussion um das Äquikomplexitätsaxiom ging es um die Frage der Vergleichbarkeit von Strukturen verschiedener Einzelsprachen - hier stand also die absolute Komplexität im Mittelpunkt der Diskussion. Dabei kritisiert Chipere (2003, 2009) zu Recht, dass mit der Annahme einer einheitlichen grammatischen Komplexität stillschweigend vorausgesetzt wird, dass alle Muttersprachler/ innen über eine einheit‐ liche Kompetenz der jeweiligen Einzelsprache verfügen. Dabei können durchaus indi‐ viduelle Unterschiede in der Verarbeitung grammatischer Strukturen nachgewiesen werden. Chipere kommt auf der Basis von empirischen Untersuchungen zum Verstehen von komplexen Sätzen durch Probandengruppen mit Kompetenzunterschieden zu dem 2.3 Komplexität als Gegenstand der Linguistik 61 <?page no="63"?> Schluss, dass es sich dabei um Unterschiede in der grammatischen Kompetenz handelt und nicht um Unterschiede in Bezug auf die Kapazität des Arbeitsgedächtnisses. Die Unterscheidung von absoluter und relativer Komplexität und ihre Bezüge zur Simplizität-Komplexität-Skala fasst Zeman (2017: 55) folgendermaßen zusammen: ‚Simplizität‘ ‚Komplexität‘ ‚ABSOLUT‘ Quantität 1 Element n Elemente Teil-Ganzes-Struktur Unteilbarkeit / Homogenität Konstituentenstruktur Ordnungszustand Regularität / hoher Kompressionsgrad Regellosigkeit Irregularität / niedriger Kompressionsgrad Regelhaftigkeit ‚RELATIV‘ Perzeption Verarbeitungsaufwand Transparenz niedriger Verarbeitungsaufwand Kompliziertheit hoher Verarbeitungsaufwand Abb. 7: Absolute und relative Komplexität/ Simplizität bei Zeman (2017: 55) Eine wichtige Rolle für die Modellierung der Skala spielt die Quantität. Das mag zunächst trivial erscheinen: Viele Elemente sind mehr als ein Element. Die einfache Grundannahme, dass mit erhöhter Komplexität immer ein „Mehr an“ einhergeht, kann jedoch als eine Konstante der Komplexitätsforschung betrachtet werden. Eine weitere wichtige Grundunterscheidung ist die Unterscheidung zwischen Sys‐ temkomplexität und struktureller Komplexität (Fischer 2017: 23 in Anlehnung an Dahl 2004). Fischer erläutert Systemkomplexität als Komplexität der Ressourcen/ Re‐ gularitäten einer Sprache, strukturelle Komplexität hingegen als Komplexität der Ausdrücke/ Äußerungen/ Texte, also des Sprachgebrauchs. Die Systemkomplexität ei‐ ner Einzelsprache in den Blick zu nehmen bzw. mehrere Einzelsprachen oder auch Varietäten innerhalb einer Einzelsprache in Bezug auf ihre Systemkomplexität zu vergleichen, ist eine nur schwer zu bewältigende Aufgabe. Vor dem Hintergrund der Diskussion um die Messbarkeit von Komplexität plädiert Deutscher zu Recht für eine Konzentration auf „well-defined areas“ (2009: 251). Halten wir fest: In der linguistischen Komplexitätsforschung stand in letzter Zeit die absolute Komplexität im Mittelpunkt des Interesses. Der Gegenstand der psycho‐ linguistischen Forschung ist per definitionem die relative Komplexität. Für beide Perspektiven auf sprachliche Komplexität stellt sich gleichermaßen die Frage nach 62 2 Grundlagen <?page no="64"?> ihrer Messbarkeit, die die Grundvoraussetzung für eine angemessene Modellierung der Simplizität-Komplexität-Skala bietet. - Weiterführende Literatur Fischer, Klaus (2017): Komplexität - dennoch ein nützlicher Begriff. In: Hennig, Mathilde (Hrsg.): Linguistische Komplexität - ein Phantom? Tübingen: Stauffenburg, S.-19-52. 2.4 Über Verständlichkeit hinaus I - Angemessenheit - Wurzeln in der antiken Rhetorik In der Linguistik beschäftigt man sich nicht nur mit der Verständlichkeit und Kom‐ plexität von Sprache, sondern auch mit der Frage, was ‚gute’ Kommunikation und Textqualität ausmacht. Wann kann man davon sprechen, dass ein Text ‚gelungen‘ ist, und was macht einen solchen Text aus? Verständlichkeit ist dabei ein Teilaspekt, aber gerade bei Leichter und Einfacher Sprache sind schnell Beispiele zu finden, in denen Texte zwar durch einfache sprachliche Strukturen für ihre Adressat/ innen leicht zu verstehen sind, aber dennoch ihre Funktion nicht oder nur bedingt erfüllen - z. B. weil die Texte nicht alle Informationen enthalten, die nötig sind, um eine bestimmte Handlung auszuführen oder eine Entscheidung zu treffen. Ein besonderer Fall sind außerdem Texte im Bereich Literatur und Religion: Hier ist der direkte „Zugriff “ auf Inhalte gar nicht das primäre Kommunikationsziel. Literarische Texte oder rituelle Kommunikation und mythische Texte im religiösen Kontext gehen mit ganz eigenen Formen und Gewohnheiten der Rezeption einher, die auch in barrierefreien Umsetzungen nicht unbedingt ihre Gültigkeit verlieren (vgl. Fix 2017). Welchen Stellenwert hat in diesen Fällen Verständlichkeit als Teilaspekt von Textqualität? Auch Fragen der ethisch-moralischen Angemessenheit von Äußerungen (‚darf man das sagen? ‘), z. B. in politischen Reden, gehen über Verständlichkeitsfragen hinaus. Gerade in der linguistischen Sprachkritik beschäftigt man sich auch mit solchen Aspekten. Mit der Frage, was eine gute Rede und was ein/ e gute/ r Redner/ in ist, beschäftigt sich die Rhetorik seit der Antike. Die Angemessenheit (aptum) ist dabei die wichtigste der vier sog. elokutionären Tugenden und eine (Text-)Qualität, an der sich der/ die Redner/ in orientieren sollte. In fast allen linguistischen Angemessenheitskonzepten, die sehr viel später entstanden, wird direkt oder indirekt auf Grundannahmen der antiken Rhetorik zurückgegriffen. So wird Angemessenheit in der Regel als ein Kontinuum verstanden - im Unterschied zu richtig/ falsch- oder gut/ schlecht-Urteilen über Sprache, die nur zwei gegensätzliche Bewertungsoptionen haben. Texte lassen sich also nicht einfach als gut oder schlecht, sondern als mehr oder weniger angemessen beschreiben, und zwar in Bezug auf unterschiedliche Eigenschaften. 2.4 Über Verständlichkeit hinaus I - Angemessenheit 63 <?page no="65"?> In der antiken Rhetorik hat Angemessenheit immer mit Ausbalancieren und Abwä‐ gen, mit dem Finden des richtigen Maßes zu tun. Sei es das Ausbalancieren und Abstimmen von Rednerintention und Publikumserwartung, sei es das Maß an Klarheit und verwendetem Redeschmuck usw. Die Angemessenheit einer Äußerung wird dabei immer in Relation zum außersprachlichen Kontext gesetzt. Damit verhält sich das Konzept ähnlich wie die Verständlichkeit: Was verständlich und angemessen ist, kann immer nur in Bezug auf externe Faktoren wie die Adressat/ innen (verständlich/ ange‐ messen für wen? ) oder die Kommunikationssituation (verständlich/ angemessen in Bezug auf welche Lesesituation? ) bestimmt werden. Eine moderne Darstellung und Anwendung der klassischen rhetorischen Anforde‐ rungen an die stilistische Gestaltung von Texten findet man bei Manfred Kienpointner (2005) in seinem „Stildreieck“: Abb. 8: Angemessenheitsdimensionen im „Stildreieck“ (nach Kienpointner 2005: 195). 64 2 Grundlagen <?page no="66"?> Kienpointner hat das Modell ursprünglich für sprachkritische Urteile entworfen. Er bezieht sich auf Ciceros „Über den Redner“ („De oratore“): Dieser verstehe unter dem aptum (dem Angemessenen, der Angemessenheit) „das Eingehen auf die Faktoren Redeanlass, Publikum und Redesituation“ (Kienpointner 2005: 194). Im „Stildreieck“ werden sie als Einflussfaktoren auf die „Angemessenheit der Formulierung“ darge‐ stellt. Der Begriff der Angemessenheit differenziert sich also bei Kienpointner in die drei Bedeutungsdimensionen sachliche Adäquatheit, publikumsbezogene Passendheit und situationsspezifische Angebrachtheit (Kienpointner 2005: 195). Ein Text kann demnach mehr oder weniger angemessen in Bezug auf die Sachebene/ Inhaltsebene, auf die Beziehungsebene oder auf die Gesprächssituation sein. - Angemessenheitsdimensionen nach Fix In der linguistischen Forschung zur Angemessenheit ist es weitgehender Konsens, dass die kommunikative Funktionalität sprachlicher Äußerungen das zentrale Krite‐ rium für die Bewertung ihrer Angemessenheit ist (Kilian/ Niehr/ Schiewe 2016; Kienpo‐ intner 2005): Unangemessen ist das, was kommunikativ dysfunktional ist. Als Beispiele dysfunktionalen Sprachgebrauchs nennt Kienpointner (2005: 202) Unverständlichkeit, Widersprüchlichkeit von Äußerungen, mangelhafte Plausibilität von Argumenten, diskriminierende Aspekte der Sprachnorm, mangelhafte situative Angebrachtheit, mangelnde Publikumsadäquatheit und sachliche Inadäquatheit. Auch hier wird wieder deutlich, dass Verständlichkeit nur ein Teilaspekt von Angemessenheit ist. In den folgenden beiden Angemessenheitsbegriffen (Nussbaumer/ Sieber 1994; Fix 2008c) finden wir jedoch auch linguistische Sichtweisen, für die das „bloße Funktionieren“ von Kommunikation gerade nicht das einzige Kriterium für die Bewertung als angemessen, als gelungen und ‚gut‘ ist. Sie betonen weitere Textqualitäten, die eine besondere Wir‐ kung auf den/ die Rezipienten/ in hinterlassen, den Text also beispielsweise besonders einprägsam oder attraktiv machen. Einer dieser Angemessenheitsbegriffe rückt die Perspektive der Textproduzent/ in‐ nen und den sprachlichen Alltag eines jeden Sprachbenutzers in den Mittelpunkt: Ulla Fix (1995; 2008c) versteht Angemessenheit (bei ihr: Adäquatheit) als eine „All‐ tagskategorie“, die jegliche Sprach- und Textrezeption sowie -produktion begleitet. Angemessenheit ist demnach Teil des allgemeinen sprachlichen Wissens von Sprach‐ benutzer/ innen. Jede/ r Sprecher/ in bzw. Schreiber/ in hat alltägliche Vorstellungen und Beurteilungskriterien in Bezug auf gelingende Kommunikation. Er oder sie kennt Normen des Sprachgebrauchs (z. B. Textmuster) und die Handlungsbedingungen von Textrezeption und -produktion in einer Sprachgemeinschaft. Das Wissen um kommunikative Adäquatheit ist ein Teil dieses allgemeinen sprachlichen Wissens (Fix 1995: 68). Fix unterscheidet in diesem Sinne vier Dimensionen der Angemessenheit bzw. Adäquatheit (Fix 1995: 67): 1. Angemessenheit hinsichtlich der Normen des Sprachsystems (‚Regeladäquatheit‘) 2. Angemessenheit hinsichtlich der situativen Normen (‚situative Adäquatheit‘) 2.4 Über Verständlichkeit hinaus I - Angemessenheit 65 <?page no="67"?> 3. Angemessenheit hinsichtlich ästhetischer Normen (‚ästhetische Adäquatheit‘) 4. Angemessenheit hinsichtlich Normen des außersprachlichen Kodes („parasprach‐ liche Normen“) (‚kulturelle Adäquatheit‘) Die erste Dimension „Regeladäquatheit“ entspricht im Wesentlichen der Sprachrich‐ tigkeit, betrifft also beispielsweise grammatische oder orthografische Normen. Von den meisten Modellen und auch in der antiken Rhetorik wird Sprachrichtigkeit als eigene Kategorie außerhalb des Angemessenheitskonzepts behandelt. Im Folgenden soll daher nur auf die anderen drei Dimensionen genauer eingegangen werden. Unter (2) situativer Angemessenheit/ Adäquatheit versteht Fix die immer neu zu findende Qualität eines Textes, in seiner sprachlichen Form allen Faktoren der je‐ weiligen Kommunikationssituation zu entsprechen (Fix 2008c: 12 f.). Diese Dimension entspricht also dem Angemessenheitsverständnis in Kienpointners „Stildreieck“. Fix beschreibt allerdings noch mehr Faktoren bzw. Teildimensionen: So nennt sie u. a. die Angemessenheit in Bezug auf den Empfänger/ Adressaten, den Gegenstand, den Sender, das Medium, Intention und Erwartung (Fix 2008c: 9; 1995: 67). Das Kriterium (3) der ästhetischen Angemessenheit/ Adäquatheit beschreibt eine besondere Qualität, die manche Texte auszeichnet und sie besonders gut lesbar macht: Fix bezeichnet sie auch als Wohlgeformtheit und versteht dies als einen „Mehrwert, dessen Fehlen man […] nicht einklagen wird, dessen Vorhandensein dem Rezipienten aber, ob er es sich bewusst macht oder nicht, das Leben, hier also das Lesen und Verstehen, leichter macht“ (Fix 2008c: 14). Obwohl die Bezeichnung ästhetische Angemessenheit es nahezulegen scheint, geht es bei diesem Kriterium nicht nur um literarische Texte, sondern gerade auch um Sachtexte. Faktoren, die die ästhetische Qualität bzw. Wohlgeformtheit von Texten beeinflussen, sind beispielsweise das Spannungsverhältnis zwischen Einheitlichkeit und Wechsel, zwischen Wiederholung und Variation, zwischen Spannung und Entspannung, Rhythmus, Anschaulichkeit, Erfüllung bzw. Enttäuschung von Erwartungen, Mittel wie Kontrast und Steigerung. Auch wenn Fix diesen Zusammenhang nicht herstellt, kann man hier Parallelen zur Verständlichkeitsdimension der motivationalen Stimulanz erkennen (siehe Kap. 2.2.2). Die vierte Dimension kulturelle Angemessenheit/ Adäquatheit ist bei Ulla Fix auf die Normen des außersprachlichen Kontexts bezogen. Darunter fasst sie kulturelle Bedingungen und Traditionen, die die „Rahmenbedingungen“ der Kommunikation regeln (z. B. wann gesprochen wird und wann nicht; Grade der Höflichkeit oder Symmetrie/ Asymmetrie in einer Kultur) (Fix 1995: 67). - Zürcher Textanalyseraster Eine didaktische Perspektive auf Angemessenheit bietet das „Zürcher Textanalyse‐ raster“ von Cornelia Hanser, Markus Nussbaumer und Peter Sieber (Nussbaumer 1996). Am Anfang dieses Rasters stand die Frage, wie man die Qualität von Schüler‐ texten differenziert beschreiben kann. Ergebnis ist eine umfassende Übersicht von Kriterien der Textbewertung, die Beurteilungsaktivitäten unmittelbar praktisch 66 2 Grundlagen <?page no="68"?> anleiten sollen - einerseits die Beurteilungsaktivitäten von Deutschlehrkräften im Schulkontext, aber auch Textbeurteilungen darüber hinaus. Für das Thema dieses Studienbuchs ist besonders relevant, dass der Zusammenhang von Angemessenheit und Verständlichkeit sehr deutlich herausgearbeitet wird. Auch dieses Modell bezieht sich auf klassisch-rhetorische Kategorien: So unterscheidet es zum Beispiel zwischen der (sprachsystematischen und orthografischen) Richtigkeit und drei Dimensionen der Angemessenheit (Nussbaumer/ Sieber 1994: 157 f., 160 f.). Diese leiten sich - anders als bei den bisherigen Modellen - nicht direkt aus dem außersprachlichen Kontext her: 1. Funktionale Angemessenheit: auf die Verständlichkeit und Kohärenz eines Textes bezogen; u.-a. Angemessenheit der Sprachmittel (Sachadäquatheit, Funktionsadä‐ quatheit, Ususadäquatheit), Thema und Absicht des Textes, Aufbau und Textglie‐ derung, Ausdrücklichkeit der Rezipientenführung, Erfüllung von Textmusternor‐ men. 2. Ästhetische Angemessenheit: sprachlich-formale Schönheit oder Gewagtheit. 3. Inhaltliche Relevanz. Dennoch wird auch in diesem Modell der generelle Kontextbezug der Angemessen‐ heitskategorie betont: Der ganze B-Bereich des Rasters steht unter der Frage der Angemessenheit in bezug auf…- in bezug auf die Sache, das Thema; in bezug auf den Adressatenkreis; in bezug auf die Sprachverwendungssituation; die etablierten Textmusternormen; den Usus und so weiter (Nussbaumer/ Sieber 1994: 161). In ihrem Verständnis von Angemessenheit machen die Autor/ innen die Textwirkung stark: Angemessenheit bedeutet bei ihnen einen möglichst zweckmäßigen und wirk‐ samen Einsatz sprachlich-textueller Mittel, um die gewünschte Wirkung zu erzielen. Ähnlich wie bei Ulla Fix‘ Kategorie der Wohlgeformtheit wird im Modell nicht nur die kommunikative Funktionalität zum Beurteilungskriterium. Vielmehr wird gerade die sprachlich-formale Schönheit oder Gewagtheit und die inhaltliche Attraktivität ebenfalls als Beurteilungskriterium stark gemacht (Nussbaumer/ Sieber 1994: 167). - Leichte Sprache und Angemessenheit Speziell für Leichte Sprache hat Bock (2019a; 2015c) Angemessenheitsfaktoren vorge‐ schlagen. Ziel des Ansatzes ist es - ähnlich dem Zürcher Textanalyseraster - ein Instrument zur Verfügung zu stellen, das in Texterstellungsprozessen kontextsensitive Orientierung bei Formulierungsentscheidungen ermöglicht. Die Leichte-Sprache-Pra‐ xis setzt oftmals auf Regelwerke, in denen Empfehlungen festgehalten sind, welche sprachlich-textuellen Mittel eingesetzt werden sollen und welche nicht. Diese Emp‐ fehlungen werden jedoch in der Regel nicht nach verschiedenen kommunikativen Kontexten differenziert. 2.4 Über Verständlichkeit hinaus I - Angemessenheit 67 <?page no="69"?> Abb. 9: Angemessenheitsdimensionen Leichter Sprache (Bock 2019a: 15) Die vorgeschlagenen auf Leichte Sprache bezogenen Angemessenheitsfaktoren sollen Abwägung ermöglichen: Grundsätzlich betont der Ansatz einen flexiblen Umgang mit Sprachregeln und die Anpassung an die Erfordernisse der jeweiligen Adressatengrup‐ pen, Textsorten etc. Es wird damit direkt an die bereits dargestellten Angemessenheits‐ ansätze angeschlossen: zusammengetragen werden Faktoren des außersprachlichen Kontexts sowie Inhalt und Textfunktion als zwei relevante Dimensionen von Textsor‐ ten. Zu jeder Dimension wurden Fragen formuliert: Ist der Text angemessen bezogen auf… 1. den Adressaten bzw. tatsächliche/ n Leser/ in: Ist der Text verständlich, ist er weder zu leicht noch zu schwer für die Leserschaft? Passt der Stil zu den Adressaten? Passt die Darstellung zum Vorwissen der Leser, d. h. setzt der Text nicht zu viel Vorwissen voraus und unterschätzt er auch nicht das Wissen der Adressaten (z. B. Weltwissen, die Vertrautheit mit der jeweiligen Textsorte, die Vertrautheit mit Wörtern und charakteristischen Formulierungen etc.)? 2. die Textfunktion: Macht der Text deutlich, welche Funktion er erfüllen soll? D.h.: Ist ein Nachrichtentext als sachlich-informierender Text gestaltet, und ist Wahlwerbung als Kommunikationsform erkennbar, die nicht lediglich informieren will, sondern den Leser zu überzeugen versucht etc.? 3. den Inhalt bzw. den thematisierten Gegenstand: Passt die sprachliche Darstellung zum Gegenstand? Das heißt: Wird der Gegenstand so differenziert wie nötig und so einfach wie möglich besprochen? Werden alle Informationen gegeben, die handlungsnotwendig sind und zugleich nicht mehr Informationen als zumutbar bzw. nötig? Wird mit Wertung angemessen umgegangen? 4. die Situation: Passt die sprachliche und typografische Gestaltung zur Situation, in der der Text gelesen wird? Dies kann räumliche, zeitliche und mediale Aspekte betreffen (z. B. Realisierung als Aushang, Broschüre, vorgelesener Text, …). Muss der Inhalt schnell erfasst werden oder bleibt Zeit zum mehrmaligen Lesen? 68 2 Grundlagen <?page no="70"?> 5. den Sender: Passt die sprachlich-inhaltliche und typografische Gestaltung zum Sender, d. h. zum/ zur Auftraggeber/ in? Mit „Sender“ kann der/ die Verfasser/ in eines Textes gemeint sein, insoweit er/ sie der/ diejenige ist, der/ die den Text nach außen verantwortet. Eine besondere Herausforderung entsteht, wenn eine bestimmte Sprache Teil der Corporate Identity des Auftraggebers ist. (vgl. Bock 2019a: 16) - Aufgaben 1. Vergleichen Sie die im Text beschriebenen Modelle und Ansätze von Angemessen‐ heit: a. Welche allgemeinen Annahmen teilen die Modelle, worin liegen Unter‐ schiede in den charakteristischen Perspektiven auf Angemessenheit? b. Die Modelle/ Ansätze unterscheiden verschiedene Faktoren/ Dimensionen der Angemessenheit. Welche Übereinstimmungen bestehen hier und welche Unterschiede? 2. Wählen Sie einen der Angemessenheitsansätze und erproben Sie seine Anwen‐ dungspotenziale: Schreiben Sie eine kurze, leicht verständliche Nachricht über ein aktuelles Thema, das sich an eine heterogene Leserschaft aus Kindern mit Deutsch als Zweitsprache (siehe Kap. 4.2) richtet. In welcher Weise versucht der gewählte Angemessenheitsansatz Orientierung zu geben, wie werden Textproduktion und Bewertungsprozesse konkret angeleitet? 3. Lesen Sie den folgenden Textauszug, der als Leichte-Sprache-Paraphrase der Bundestagswahlprogramme von 2017 in einem Wirtschaftsmagazin erschienen ist. a. Beurteilen Sie die Angemessenheit des Textes und seiner sprachlichen Mittel mithilfe zweier Angemessenheitsansätze. b. Vergleichen Sie: Welche Erkenntnisse und Bewertungsmaßstäbe liefern die beiden Ansätze, worin liegen Gemeinsamkeiten und Unterschiede? Die Linke sagt: In Deutschland sind viele Sachen gemein. Kinder von armen Eltern haben schlechte Chancen. Sie machen selten Abitur und studieren selten. Aber alle Kinder sollen die gleichen Chancen haben. Also soll der Staat mehr Geld ausgeben für Schulen und Lehrer. Kinder sollen kostenlos essen in der Kita und in der Schule. Kinder sollen kostenlos zur Kita und zur Schule kommen. Die Bundes·länder sollen zusammen·arbeiten. Alle Kinder sollen einen Platz in der Kita bekommen. Die Kita soll kostenlos sein. Alle Kinder sollen in die gleiche Schule gehen. Auch behinderte Kinder und Flüchtlinge. Die Schule soll den ganzen Tag offen sein. 2.4 Über Verständlichkeit hinaus I - Angemessenheit 69 <?page no="71"?> Da können die Kinder Hausaufgaben machen oder spielen. Lehrer an der Schule sollen wissen, wie Computer funktionieren. Die Ausbildung soll kostenlos sein. Wer eine Ausbildung macht, soll genug Geld verdienen. Leute ohne Abitur sollen auch studieren können. Studieren soll für alle kostenlos sein. Jeder, der studieren will, soll genug Geld bekommen. Das Geld soll er behalten. Die Lehrer an der Uni sollen genug Geld verdienen. Es sollen gleich viele Frauen wie Männer Lehrer an der Uni sein. Die CDU sagt: Wir haben schon viel gemacht. Eltern sollen entscheiden, ob ihr Kind in die Kita geht. Wenn die Eltern es wollen, soll das Kind einen Kita-Platz bekommen. Dafür haben wir schon viel gemacht. Kinder in der Grund·schule sollen auch einen Platz bekommen. Dafür soll es ein Gesetz geben. Alle Kinder sollen die gleichen Chancen haben. Dafür haben wir schon viel gemacht. Kinder mit guten Noten sollen aufs Gymnasium gehen. Der Staat soll Geld für Lehrer ausgeben. Die Lehrer sollen wissen, wie Computer funktionieren. Leute ohne Abitur sollen eine gute Ausbildung machen. Dafür soll es mehr Beratung und Schulen geben. Das haben wir auch gemacht: - Wegen uns brechen weniger Kinder die Schule ab - Wegen uns gibt es mehr Ausbildungs·plätze als Lehrlinge Jedes Bundes·land soll sich um seine Schulen selber kümmern. Vielleicht sollen Schüler billiger Bus fahren können. Darüber will die CDU mit den Bundes·ländern mal reden. Schulen sollen genug Computer haben. Alle Schulen und alle Unis sollen schnelles Internet haben. Quelle: https: / / www.brandeins.de/ magazine/ brand-eins-wirtschaftsmagazin/ 2017/ lernen/ manche-sind-schlau-manche-sind-dumm [11.07.2022] 70 2 Grundlagen <?page no="72"?> 2.5 Über Verständlichkeit hinaus II - diskurs- und soziolinguistische Perspektiven Ob vereinfachte Sprachgebrauchsformen akzeptiert werden und positiv besetzt sind, hängt nicht allein an der Frage, ob sie von ihren Adressat/ innen verstan‐ den werden. Gerade Leichte Sprache löst in der Öffentlichkeit immer wieder Kontroversen aus. In diesem Kapitel steht daher die soziale Bedeutungsdi‐ mension von Sprache und die sprachlich-diskursive Konstruktionen von Wirklichkeit im Mittelpunkt. Wie wird über Leichte und Einfache Sprache gesprochen, welche Annahmen und welche Wertungen gibt es in der gegenwär‐ tigen Gesellschaft? Und inwiefern sind Leichte und Einfache Sprache durch ihre sprachliche Praxis selbst an sozialen Zuschreibungen beteiligt? 2.5.1 Diskurslinguistische Perspektiven - Allgemeines Die Diskurslinguistik (auch: linguistische Diskursanalyse, Niehr 2014) stellt sich in die Tradition des Philosophen Michel Foucault. Sie kann als eine „Erweiterung der systematischen Interessen an der Sprache […] über die Grenzen des Satzes und Textes hinaus“ (Spitzmüller/ Warnke 2011: 14) verstanden werden. Spitzmüller und Warnke sprechen deshalb auch von einer ‚transtextuellen Sprachanalyse‘. [D]as diskurslinguistische Interesse richtet sich nicht nur allgemein auf Strukturen von kom‐ plexen, über einzelne Texte hinausgehenden Aussagenverbünden, sondern fragt vielmehr spezifisch danach, warum zu einer bestimmten Zeit bestimmte Aussagen getroffen werden - vor allem auch, warum nicht - und wie durch diese Praxis des Aussagens die Gegenstände des Sagens und Schreibens zu Wirklichkeiten werden. (Spitzmüller/ Warnke 2011: 40) Durch linguistische Analysen wird versucht, „das soziale Wissen der jeweiligen Zeit“ zu rekonstruieren (Wengeler 2003: 84); der sprachhandelnde Akteur ist dabei vom Diskurs einerseits geprägt, andererseits prägt er ihn aktiv mit. Es geht der Diskurslinguistik um Fragen der Wissens- und Machtverteilung, wie sie in Dis‐ kursen sichtbar werden. Bei Foucault heißt es: „Wer in der Menge aller sprechenden Individuen verfügt begründet über diese Art von Sprache? […] Welchen Status haben die Individuen, die (und zwar sie allein) das […] Recht besitzen, einen solchen Diskurs hervorzubringen? “ (Foucault 2008: 75) Die linguistischen Analysen können sich auf Wort-, Satz- und Textebene beziehen; typisch sind beispielsweise Untersuchungen zu Metaphern, Argumentationsmustern oder Schlagworten in Diskursen zu einem bestimmten Thema. In der germanistischen Linguistik sind unabhängig voneinander und etwa zeitgleich zwei diskurslinguistische „Lager“ entstanden: Zum einen die 2.5 Über Verständlichkeit hinaus II - diskurs- und soziolinguistische Perspektiven 71 <?page no="73"?> Critical Discourse Analysis (CDA) (auch: Kritische Diskursanalyse), zum anderen die eher deskriptiv ausgerichtete Diskurssemantik im Umfeld der Sprach(bewusstseins)ge‐ schichtsschreibung (Spitzmüller/ Warnke 2011: 78 ff.). Schematisch gesprochen kann man aus zwei diskurslinguistischen Perspektiven an die Phänomene Leichte und Einfache Sprache herangehen: Zum einen lässt sich der (1) Diskurs in Leichter/ Einfacher Sprache analysieren, zum anderen der (2) Diskurs über Leichte/ Einfache Sprache. Analysen des Diskurses in Leichter/ Einfacher Sprache zielen auf eine Be‐ schreibung und Reflexion von sprachlich-semantischen Eigenschaften dieser Sprach‐ gebrauchsformen, bleiben aber nicht bei der rein strukturellen Beschreibung sprach‐ lich-textueller Merkmale stehen. Die diskurslinguistische Perspektive zeichnet sich dadurch aus, dass sie versucht, Versprachlichungsmuster zu erkennen, die auf Wahr‐ nehmungs- und Denkgewohnheiten schließen lassen: „Diskurse sind letztlich nichts anderes als sprachlich gefasste Wissenssysteme, in denen Wissen nicht nur gespei‐ chert, sondern auch immer wieder erneuert und konfirmiert wird.“ (Roth 2009: 130). Die zentrale Frage ist also: Welches Wissen und welche Bedeutung werden in welcher Weise in Diskursen in Leichter/ Einfacher Sprache versprachlicht (und wie unterschei‐ det sich dies ggf. von nicht-vereinfachten Diskursen)? Mit Blick auf die Zielgruppen stellt sich dann auch die Frage, welches Wissen in welcher Weise zugänglich gemacht wird und wie Wirklichkeit sprachlich konstruiert wird. Eine solche Analyse kann in diachroner Perspektive erfolgen, also mit Fokus auf die Entwicklung über eine bestimmte Zeitspanne, aber auch in synchroner Perspektive, also als Momentaufnahme zu einem bestimmten Zeitpunkt. So lässt sich beispielsweise untersuchen, wie in Texten mit einzelnen Regeln Leichter Sprache (Metaphernverbot, Negationsverbot usw.) umgegangen wird, oder wodurch sich der verwendete einfache Wortschatz auszeichnet. Dies lässt sich dann mit der Frage verknüpfen, inwiefern bestimmte sprachliche Mittel musterhaft mit bestimmten Perspektiven auf ein Thema (o.Ä.) im Diskurs verbunden sind. Hier sind Vergleiche denkbar, etwa zwischen verschiedenen Textsorten, Kommunikationsbereichen, oder auch zwischen Labels wie Leichte Sprache, Einfache Sprache, Leicht Lesen usw. Denkbar sind daher Analysen auf allen sprachlichen Ebenen und sowohl einzeltextbasierte Verfahren mit einer geringen Anzahl an Texten als auch quantitative Analysen anhand großer Textkorpora. Was ist ein Diskurs? Das Konzept Diskurs ist in verschiedenen Kontexten gebräuchlich: Das hier umrissene Verständnis ist nicht gleichzusetzen mit dem allgemeinen bildungs‐ sprachlichen Ausdruck Diskurs (als Synonym für Debatte oder Gespräch). Auch der konversationsanalytische Diskursbegriff (analog zur amerikanischen discourse analysis) meint etwas anderes, nämlich gesprochene Äußerungseinheiten (Spitz‐ müller/ Warnke 2011: 9, 18 f.). Der Diskursbegriff, der für dieses Kapitel relevant ist, bezieht sich auf die linguistische Diskursanalyse, die sich u. a. auf Michel Foucault oder Reinhart Koselleck beziehen: In forschungspraktischer Hinsicht 72 2 Grundlagen <?page no="74"?> werden Diskurse verstanden als „virtuelle Textkorpora, deren Zusammensetzung durch im weitesten Sinne inhaltliche (bzw. semantische) Kriterien bestimmt wird“ (Busse/ Teubert 1994: 14), also als Verbünde von Äußerungen zu einem bestimmten Thema. In einer theoretischen Perspektive paraphrasiert Busse das Foucault’sche Diskursverständnis folgendermaßen: Diskurse sind „Formati‐ onssysteme von Wissenssegmenten“, die die Bedingungen der Möglichkeit der Produktion bestimmter Äußerungen steuern. Diskurse stellen damit für Foucault ein epistemisch wirksames ‚historisches Apriori‘ dar, welches die Produktion, das Erscheinen, die Serienbildung, die Formation und die Wirkungskraft von Aussagen steuert (Busse 2003: 24). Diskurse sind also Wissensformationen, die steuern, was wie gesagt wer‐ den kann bzw. welche Aussagen wahrscheinlicher sind als andere. Hier wird deutlich, dass Diskurse nicht auf öffentlich zugängliche (schriftliche) Texte beschränkt sind, sondern dass beispielsweise Äußerungen in alltäglichen Gesprä‐ chen den Diskurs gleichermaßen prägen bzw. von ihm geprägt werden. Diese nicht-massenmedialen Diskursäußerungen wurden als „teilnehmerorientierte Diskursrealisationen“ bezeichnet (Roth 2015). - Verteilung von Wissen und Macht: Beispiele Diskurslinguistische Analysen interessieren sich für die Verteilung von Wissen und Macht in einer Gesellschaft (vgl. Spitzmüller/ Warnke 2011). Sie sind der Auffassung, dass gesellschaftliche Wissens- und Machtstrukturen durch die linguistische Analyse von Aussagen beschrieben werden können. Außerdem basiert die Diskurslin‐ guistik auf der epistemologischen Überzeugung, „dass Sprache Wirklichkeit (Wissen, Gesellschaft Kultur etc.) nicht nur abbildet, sondern auch schafft“ (Spitzmüller/ Warnke 2011: 79). In Bezug auf Leichte/ Einfache Sprache stellt sich aus diskurslinguistischer Perspektive also beispielsweise die Frage, welche Wirklichkeit sie in ihren Texten sprachlich konstruiert. Untersucht werden kann das an ganz unterschiedlichen sprach‐ lich-textuellen Aspekten, wie die folgenden zwei Beispiele zeigen. Beispiel 1: Mittels korpuslinguistischer Verfahren wurde der Wortschatz eines umfangrei‐ chen Korpus aus Texten in Leichter und Einfacher Sprache sowie aus Texten mit verwandten Labels (zum LeiSA-Korpus, vgl. Lange 2018) untersucht (Lange/ Bock 2016: 130 f.). Mit dem Konkordanz-Analyseprogramm AntConc wurden die häufigsten Wörter sowie die häufigsten Wortverbindungen ermittelt. Dabei wurde zwischen zwei Subkorpora unterschieden: Die Listen der Wörter und Wortverbindungen der „leichten“ Texte wurden mit den Ergebnissen der Texte in Einfacher Sprache verglichen. Von den Befunden zum Wortschatz wurden 2.5 Über Verständlichkeit hinaus II - diskurs- und soziolinguistische Perspektiven 73 <?page no="75"?> Rückschlüsse auf dominante Themen und Inhalte gezogen. Wichtig für diesen Rückschluss war, dass das Korpus aus verschiedenen Textsorten und Textfunkti‐ onen (u. a. appellierende und informierende Texte) bestand, und dass die Texte aus unterschiedlichen Themenfeldern stammten (z. B. Versicherungen, Sicherheit am Arbeitsplatz, Museum). Unter den 100 häufigsten Wörtern sind in Leichte-Sprache-Texten im Ver‐ gleich zu Texten in Einfacher Sprache deutlich mehr Lexeme, die sich mit dem Thema Behinderung in Zusammenhang bringen lassen: darunter Menschen, Behinderung(en), Rechte, Werkstatt, Lebenshilfe, Hilfe (Lange/ Bock 2016: 130). Noch deutlicher ist diese Tendenz bei den häufigsten Wortverbindungen in den Leichte- Sprache-Texten: Abb. 10: Liste der häufigsten Wortverbindungen im Leichte-Sprache-Subkorpus des LeiSA-Korpus (Lange/ Bock 2016) Die Liste offenbart, dass es in den Texten anscheinend eine sprachliche und inhaltliche Fokussierung auf die Hauptzielgruppe Menschen mit (geistiger) Behin‐ derung gibt. Dies deutet eine thematische Reduktion in „leichten“ Texten an, denn der Schwerpunkt scheint bei behinderungsbezogenen Inhalten zu liegen (vgl. auch Lange/ Bock 2016: 132). Dies lässt den Schluss zu, dass diskursives Wissen 74 2 Grundlagen <?page no="76"?> den Zielgruppen nur selektiv oder in spezifischer Weise gefiltert zugänglich gemacht wird. Dies würde einer erneuten Verbesonderung gleichkommen und Partizipation am allgemeinen Diskurs nur eingeschränkt ermöglichen (ebd.). Um dies genauer zu erforschen, sind weitere Textanalysen nötig. Die einzelnen Belege aus korpuslinguistischen Wortschatzanalysen dieser Art können hierfür als Ausgangspunkt dienen. Beispiel 2: Die folgende Untersuchung ist zwar keine diskurslinguistische im engeren Sinne, sie verfolgt jedoch Fragen und nutzt Analyseverfahren, die mit diskurslinguis‐ tischen Arbeiten zumindest verwandt sind. Erika Linz (2017) wendet textlingu‐ istische Analysekategorien an: In Form von Einzeltextanalysen untersucht sie Themenentfaltung und Textfunktion in Leichte-Sprache-Texten. Ihr Zugang lässt sich als soziostilistisches Analyseinteresse charakterisieren: Sie fragt nach der sozialen Bedeutung sprachlicher Merkmale. Einer der von ihr untersuchten Texte ist die Broschüre „einfach Politik: Europa“ der Bundeszentrale für politische Bildung: Besonders wichtig ist der Frieden. Und dass es keinen Krieg gibt. In der Europäischen Union ist der Frieden sicher. Woanders gibt es Krieg. Früher gab es in Europa auch Krieg. Da sind viele Menschen getötet worden. Deutschland und Frankreich waren Feinde. Heute sind wir Freunde. Wir vertragen uns gut. Bei uns hat keiner Angst vor Krieg. Das ist wichtig. Quelle: https: / / www.bpb.de/ themen/ politisches-system/ politik-einfach-fuer-alle/ 27662 3/ europa/ [11.07.2022] Die Quintessenz ihrer Analyse fasst Linz folgendermaßen zusammen. Wir zitieren Sie hier ausführlich, da das Zitat auch anschaulich macht, wie man in empirischen Studien aus den Analyseergebnissen weitergehende Schlüsse in Bezug auf die Fragestellung ableiten und darstellen kann. Abgesehen davon, dass durch die ersten beiden Sätze semantisch inadäquat der Ein‐ druck erweckt wird, als würde ‚kein Krieg‘ nicht unter den Begriff des Friedens fallen, lässt sich in diesem Passus auch eine generelle Tendenz der Themenentfaltung in Leichte Sprache-Texten veranschaulichen: Die Vermittlung von Informationen wird hier einge‐ rahmt durch evaluative Behauptungen zur Relevanz des Gesagten, die nicht oder kaum begründet werden. […] Durch die Anreicherung deskriptiver Texte mit evaluativen 2.5 Über Verständlichkeit hinaus II - diskurs- und soziolinguistische Perspektiven 75 <?page no="77"?> Urteilen werden die Texte nicht nur suggestiver, sondern sie befördern und verstärken auch eine Asymmetrie zwischen Textautoren und -rezipienten und damit eine weitere Stigmatisierung. Indem die deskriptive Vermittlung von Informationen durch Beurtei‐ lungen und Einordnungen begleitet oder gar ersetzt wird, wird den Adressatinnen und Adressaten implizit eine eigene Urteilsfähigkeit abgesprochen. Stattdessen wird der Eindruck vermittelt, als benötigten die Adressatinnen und Adressaten moralische Vorgaben und Bewertungen als Handlungsanleitung. Erzeugt werden damit persuasive und direktive Texte, die gerade nicht - dem Partizipationsanspruch gemäß - die eigene Meinungsbildung fördern, sondern Weltdeutungen vorgeben. Evaluative Urteile und Behauptungen dieser Art lassen sich im Kontext von Textsorten, die traditionell mit der Erwartung assertorischer, vermeintlich wertneutraler Textsorten verbunden werden, möglicherweise als soziale Indices verstehen für asymmetrische Kommunikationsbe‐ ziehungen, in denen die Deutungshoheit bei einer der beiden Parteien liegt und diese - wie bei Kindern - die Weltdeutung für die andere Partei übernimmt. (Linz 2017: 156 f.) - Diskurse über Leichte und Einfache Sprache Analysen des Diskurses über Leichte und Einfache Sprache zielen im Unterschied zur ersten Perspektive auf (metasprachliche) Äußerungen. Auch in diesem Blickwinkel geht es um die Analyse von sprachlich-diskursiv vermittelten Wirklichkeitskonstruk‐ tionen sowie sichtbar werdenden Wissens- und Machtverteilungen: Welche Inklusi‐ ons- und Exklusionsmechanismen werden beispielsweise im Diskurs über Leichte Sprache sichtbar? Wer thematisiert Leichte Sprache, und wer gerade nicht? Welches gesellschaftliche Wissen und welche (eventuell wertenden) Vorstellungen zu den Zielgruppen offenbaren sich? Typischerweise haben diskurslinguistische Analysen den massenmedialen Diskurs zum Gegenstand: Es werden beispielsweise Korpora mit journalistischen Beiträgen zu einem Thema zusammengestellt. Zum Diskurs gehören aber grundsätzlich auch alle anderen Äußerungen zum selben Thema - seien es die Leserkommentare zu Online-Artikeln, Äußerungen in Social-Media-Kanälen oder auch das private Gespräch zum Thema (vgl. Roth 2015). Selbstverständlich ist es nicht möglich, alle Äußerungen zu einem Thema zu dokumentieren und zu sammeln. Ein Textkorpus, das Grundlage der diskurslinguistischen Analyse wird, und den zu untersuchenden Diskurs repräsentieren soll, stellt immer eine Auswahl von Äußerungen dar und muss daher begründet und kriteriengeleitet zusammengestellt werden (vgl. Niehr 2014: 32 ff.; Bock 2018a). Als Analyseaspekte kommen grundsätzlich alle sprachlichen Ebenen sowie weitere textbezogene Faktoren in Frage: So können diskurslinguistische Analysen beispielsweise auf Mikroebene untersuchen, welche Schlagwörter den Diskurs über Leichte Sprache prägen, welche Wertungen sich finden und mit welchen sprachlichen Mitteln gewertet wird, oder in welchen syntaktischen Mustern und mit welchen sprachlichen und visuellen Bildern Leichte Sprache thematisiert wird. Es kann aber auch auf (Sprach-)Ideologien beim Sprechen über Leichte und Einfache Sprache 76 2 Grundlagen <?page no="78"?> eingegangen werden sowie auf die Frage, wer sich eigentlich im Diskurs äußert und in welcher Rolle er/ sie dies tut (als Nutzer/ in, als Stellvertreter/ in der Zielgruppe, als Vertreter/ in eines Leichte-Sprache-Anbieters etc.). Man wird feststellen, dass nicht alle Akteur/ innen gleichermaßen im Diskurs sichtbar sind. Mit Foucault gesprochen: in unseren Gesellschaften […] ist der Besitz des Diskurses - gleichzeitig als Recht zu sprechen, Kompetenz des Verstehens, erlaubter und unmittelbarer Zugang der bereits formulierten Aussagen, schließlich als Fähigkeit, diesen Diskurs in Entscheidungen, Institutionen oder Praktiken einzusetzen, verstanden - in der Tat (manchmal auf reglementierende Weise sogar) für eine bestimmte Gruppe von Individuen reserviert. (Foucault 2008: 99 f.) Spieß (2008) und Spitzmüller/ Warnke (2011) geben in ihren Mehrebenen-Analysemo‐ dellen eine Übersicht über diskurslinguistische Analysedimensionen. Denkbar sind auch kontrastive Analysen, die beispielsweise den Diskurs über Menschen mit Behin‐ derung in Leichter Sprache vergleichen mit dem entsprechenden Diskurs in nicht vereinfachter Sprachform. Beispiel: Eine punktuelle Analyse des (frühen) Mediendiskurses zu Leichter Sprache hat Diekmannshenke (2017) vorgelegt. Er verfolgt schwerpunktmäßig einen Diskursstrang, geht also von einem vielfach diskutierten Medienbeitrag aus (einem Beitrag des damaligen Focus-Money-Chefredakteurs Frank Pöpsel) und verfolgt die Reaktionen in Leserbrief, Medienbeiträgen und sozialen Medien. Aus‐ gangspunkt seiner Diskursanalyse ist ein Vergleich mit den „üblichen“ medialen Darstellungen von sprachbezogenen Themen. Mit Bezug auf drei Spiegel-Titel charakterisiert Diekmannshenke den medialen Diskurs über Sprache und Sprach‐ wandel folgendermaßen: Es wird „das Gespenst des Sprachverfalls beschworen und ‚Rettung‘ für notwendig erklärt […]. Besonders kritisch werden - wie im Fall der Rechtschreibreform - Eingriffe von staatlicher oder institutioneller Seite bewertet.“ (Diekmannshenke 2017: 115). Ähnliches wurde in der Forschung auch bereits als generelles Merkmal laienlinguistischer Sprach- und Stilkritik beschrieben: Es dominiert ein sprachlicher Konservatismus, der als statische Haltung charakterisiert werden kann, die „willkürlich ausgewählte sprachliche Erscheinungen (von der Wortbis zur Stilebene) für erhaltenswert, vorbildlich oder angemessen erklärt“ - und alles andere als vermeintlichen Sprachverfall einordnet (Kilian/ Niehr/ Schiewe 2016: 110). Der mediale Diskurs über Leichte Sprache, den Diekmannshenke untersucht hat, weist nun teilweise deutlich andere Merkmale auf: Die mediale Berichterstattung über ‚Leichte Sprache‘ unterscheidet sich in mancher Hinsicht von der sonst üblichen Umgangsweise mit Sprach-Themen. Sie ist durchge‐ hend sachlich und um konstruktive Kritik bemüht. Ob dies aus Überzeugung geschieht oder, wie man vielleicht vermuten bzw. behaupten könnte, aus Gründen der political 2.5 Über Verständlichkeit hinaus II - diskurs- und soziolinguistische Perspektiven 77 <?page no="79"?> correctness, kann an dieser Stelle nicht beantwortet werden. (Diekmannshenke 2017: 125) Diekmannshenkes Analyse enthält durchaus auch Beiträge, insbesondere in den sozialen Medien, die Leichter Sprache ausgesprochen kritisch gegenüberstehen. Dennoch ist insbesondere der frühe massenmediale Diskurs in der beschriebenen Weise sachlich und argumentativ abwägend. Bezieht man teilnehmerorientierte Diskursrealisationen, beispielsweise Äußerungen in Kommentarforen oder sozia‐ len Medien, in größerem Umfang ein, zeigt sich ein noch differenzierteres Bild (vgl. Bock 2021): Ungewöhnlich für sprachthematisierende Diskurse sind auch hier die häufig explizit positiven Wertungen und die teilweise verteidigende Argumentation. Zugleich ist jedoch auch explizit negative Wertung häufig und es werden die „klassischen“ Sprach- und Kulturverfalls-Szenarien auf das Phänomen Leichte Sprache angewandt. - Weiterführende Literatur Umfassende Einführung in Theorien und Methoden der diskurslinguistischen Analyse, die auch für fortgeschrittene Leser/ innen interessant sein dürfte: Spitzmüller, Jürgen; Warnke, Ingo H. (2011): Diskurslinguistik. Eine Einführung in Theorien und Methoden der transtextuellen Sprachanalyse. Berlin, Boston: De Gruyter. 2.5.2 Soziolinguistische Zugänge - Sprachliche Variation und Sprachideologien Soziolinguistik beschäftigt sich mit der sozialen Bedeutung sprachlicher Variation (zu den verschiedenen Zugängen seit den 1960er Jahren vgl. Eckert 2012; Spitzmüller 2022a). Sprachliche Variation und Standardsprache Alle Sprachen sind durch Variation gekennzeichnet - Variation muss als das Wesensmerkmal von Sprache angesehen werden (vgl. auch Elspaß 2018). Das gilt auch für die Standardsprache: Sie ist ebenfalls von Variation geprägt, so wird beispielsweise zwischen einem geschriebenen und einem gesprochenen Standard unterschieden (Dürscheid/ Schneider 2019). Beide sind nicht als prä‐ skriptive Norm, sondern als Gebrauchsstandards zu verstehen, d. h. es geht um die sprachlichen Formen, die von Sprecher/ innen und Schreiber/ innen in Kommunikationssituationen tatsächlich verwendet werden und die z.-B. in einer bestimmten Weise bewertet und für un/ angemessen gehalten werden. Situatio‐ nen, in denen ein mehr oder weniger großer Druck auf Sprecher/ innen besteht, standardnah zu kommunizieren, sind durch folgende Merkmale gekennzeichnet: 78 2 Grundlagen <?page no="80"?> geringer Bekanntheitsgrad der Interaktanten untereinander; höherer Grad an Öffentlichkeit und gemeinsamer Wahrnehmbarkeit der Interaktion; höherer Grad an Überregionalität; höherer Grad an Sozialprestige; stärker formeller oder of‐ fizieller Charakter (Staffeldt 2018: 224). Eugenio Coseriu (2007) unterscheidet drei Dimensionen der Variation: diatopische (räumliche), diastratische (so‐ ziale, gruppenbezogene) und diaphasische (stil- und situationsbezogene) Verschiedenheit. Diese klassische Unterteilung ist noch immer üblich, wurde aber auch kritisiert. Klar ist, dass es weitere relevante Faktoren über diese drei hinaus gibt, die Variation bedingen. So variiert der Sprachgebrauch zwischen ein‐ zelnen Sprecher/ innen (inter-speaker variation) sowie bei einer/ einem Sprecher/ in zwischen verschiedenen Kontexten (inner-speaker variation). Varietäten sind dabei die verschiedenen Erscheinungsformen von Sprache auf der Makroebene des Sprachsystems (auch: Lekte, vgl. Löffler 2016); Varianten liegen auf der Mikroebene (z.T. kodifiziert in Variantenwörterbüchern). Sprachliche Varianten und Varietäten genießen unterschiedliches soziales Prestige. Auf diesen Umstand hat unter anderem der Soziologe Pierre Bourdieu in seinem Buch „Was heißt sprechen? “ hingewiesen: In Analogie zum ökonomischen Kapital spricht er vom „symbolischen Kapital“ der Sprache (Bourdieu 2005: 79). Damit ist gemeint, dass es in Gesellschaften Normen der Kommunikation gibt, denen Sprecher/ innen versuchen gerecht zu werden, um soziale Anerkennung zu bekommen. Unterschiedli‐ che Sprechweisen garantieren dann abhängig vom Kontext (z. B. von Gruppen, von Kommunikationssituationen) mehr oder weniger sozialen Erfolg: So sichern jugend‐ sprachliche Ausdrucksformen unter jugendlichen Peers beispielsweise soziale Aner‐ kennung. Das gilt aber nicht mehr, wenn sich dieselbe Gruppe Jugendlicher in einer Unterrichtsinteraktion mit einer Lehrperson befindet. Als besonders prestigeträchtig, und zwar in sehr vielen Kontexten, gilt das sog. Standarddeutsch (siehe unten Kasten zu Sprachideologien): Es ist ein „überaus prestige-behaftete[s] Sozialsymbol“ (Klein 2018: 59). Ähnliches gilt im Schulkontext auch für bildungssprachliche Praktiken, deren Beherrschung als Garant für Bildungserfolg gilt und die Morek und Heller u. a. als soziale „Eintritts- und Visitenkarte“ beschreiben (Morek/ Heller 2012). Die Frage nach dem Sozialprestige von Stilen und Sprachgebrauchsweisen ist immer auch eine Teilhabefrage: Davon, welcher sozialsymbolische Wert vereinfachten Varietäten wie Leichter und Einfacher Sprache zugeschrieben wird, hängt ab, ob sie den mit ihnen verbundenen Personenkreisen gleichberechtigte Teilhabe gewähren können (vgl. Bock 2019b: Kap. 7). Zumindest ist es einer der Faktoren, die relevant sind. Genießt eine Varietät in einer Gesellschaft geringes Sozialprestige, ist der soziale Erfolg des sprachlichen Handelns mit dieser Varietät von vornherein beschränkt. Um solche Konstellationen zu analysieren, ist unter anderem das Konzept der Sprachideologien hilfreich. 2.5 Über Verständlichkeit hinaus II - diskurs- und soziolinguistische Perspektiven 79 <?page no="81"?> Definition: Sprachideologien Unter Sprachideologien versteht man „sets of beliefs about language articulated by users as a rationalization or justification of perceived language structure and use“ (Silverstein 1979: 193). Sie wirken oftmals unbewusst, sind aber in jedem Sprachhandeln präsent. D.h., es gibt keinen „ideologiefreien“ Standpunkt. Sprachideologien prägen Spracheinstellungen (z. B. zu Varietäten und Varianten, zu Sprachwandel, Mehrsprachigkeit) und sind kulturabhängig sowie historisch veränderlich; indirekt prägen sie Einstellungen zu bzw. den Umgang mit sozialen Gruppen. Sie sind einerseits Orientierungshilfen im (sprachlichen) Alltag und können soziale Identitäten stiften. Andererseits sind sie latente Machtinstru‐ mente und können eingesetzt werden, um die Macht bestimmter sozialer Gruppen über andere herzustellen, zu verfestigen, zu legitimieren (vgl. Busch 2017: 81 ff.). Zu den verbreitetsten Sprachideologien gehört die „Standardsprachenideologie“ (auch: „Standardismus“), also die Vorstellung, dass das Standarddeutsche die wichtigste Varietät sei, die als Mittel der Bildung und Maßstab für Sprachrichtig‐ keit fungiert und damit eine ‚bessere‘, kontextübergreifend funktionalere, höher‐ wertige Varietät darstelle (Maitz/ Elspaß 2013: 35). Außerdem verbreitet ist die „Homogenitätsideologie“, also die Überzeugung, dass sprachliche Variation etwas Negatives sei und stattdessen die sprachliche Einheit des Deutschen gefördert werden müsse (Maitz/ Elspaß 2013: 36). Aus solchen kollektiven Überzeugungen ergeben sich Wertungen von Varietäten, die Diskriminierungspotenzial für die jeweiligen Sprecher/ innen und Schreiber/ innen bzw. Adressat/ innen haben. Sprachideologien lassen sich im Diskurs rekonstruieren. Mittels diskurslinguistischer Analyseverfahren können sprachthematisierende Äußerungen - beispielsweise Äußerungen zu Leichter und Einfacher Sprache - ausgewertet werden, insbesondere in Bezug auf Wertungen und soziale Indexikalität, also die Assoziation eines sprachlichen Phänomens mit bestimmten sozialen Gruppen und den Zuschreibungen von Eigen‐ schaften an diese Gruppen. Indem ein/ e Akteur/ in einen Sprachgebrauch bewertet (oder ihn in bestimmter Weise praktiziert) positioniert er/ sie sich zugleich immer sprachideologisch - einerseits zum jeweiligen Sprachgebrauch, andererseits zur mit diesem Sprachgebrauch verbundenen sozialen Gruppe (vgl. das Modell metapragma‐ tischer Positionierung im Diskurs: Spitzmüller 2013b). Exkurs: Varietätenlinguistik - Soziolinguistik Innerhalb der Forschung zu sprachlicher Variation und Sprachwandel gibt es verschiedene Ausprägungen und Paradigmen. Das spiegelt sich auch in den unterschiedlichen Disziplinenbezeichnungen, wie Varietäten-, Variations- und Soziolinguistik. Mit diesen unterschiedlichen Bezeichnungen gehen verschiedene Paradigmen einher, die aus einem je eigenen Blickwinkel auf sprachliche Varia‐ tion schauen. Allerdings werden die Ausdrücke nicht einheitlich verwendet, 80 2 Grundlagen <?page no="82"?> d. h. unterschiedliche Autor/ innen nehmen unterschiedliche Abgrenzungen und Charakterisierungen vor. Elspaß (2018) unterscheidet beispielsweise zwischen Soziolinguistik und einer neueren soziolinguistisch geprägten Variationslinguistik. Spitzmüller (2022a) unterteilt die Soziolinguistik in eine Variationslinguistik, interaktionale Soziolinguistik sowie kritische und metapragmatische Soziolinguis‐ tik. Wir lehnen uns hier an Spitzmüllers (2013a: 171 ff.) Charakterisierung von Varietäten- und Soziolinguistik an. Beide interessieren sich für das Verhältnis von Sprache und Gesellschaft und verknüpfen Merkmale der sprachlichen Variation mit außersprachlichen Variablen - allerdings in je spezifischer Weise: In der Varietätenlinguistik werden Varietäten und Varianten als Indizes (An-Zei‐ chen) für soziale Zugehörigkeit verstanden. Sie zeigen die soziale und regionale Herkunft der Kommunizierenden an. Soziale Kategorien (wie Alter, regionale Herkunft, Geschlecht) werden als statische, ‚gegebene‘ Kategorien verstanden, die mit sprachlichen Merkmalen verknüpft sind. Coserius drei Dimensionen der Variation (Diatopik, Diastratik, Diaphasik) zählen ebenfalls zur varietätenlin‐ guistischen Perspektive. Die (interpretative bzw. interaktionale) Soziolinguistik fragt im Unterschied danach, wie Akteure soziale Wirklichkeit kommunikativ gestalten und soziale Bedeutung mittels Sprache herstellen. Sprachliche Variation ist nicht mehr nur An-Zeichen außersprachlicher Variablen, sondern soziale Praxis: Kommunizierende positionieren sich mittels Sprachgebrauch und konstruieren interaktional Identitäten. Eine genaue Bestimmung des Feldes, das im deutschsprachigen Raum als Soziolinguistik verstanden wird, ist schwierig (vgl. Spitzmüller 2022a). Mittlerweile werden vielfältige Zugänge zu soziolingu‐ istischen Fragestellungen gewählt, darunter unter anderem diskurs-, korpus- und interaktionslinguistische; neben quantitativen Verfahren (z. B. Fragebögen) werden genauso qualitative Betrachtungsweisen (z. B. interaktionslinguistische Sequenzanalysen) realisiert. - Sozio- und varietätenlinguistische Aspekte Leichter und Einfacher Sprache Bisher wurden soziolinguistische Fragen in Bezug auf Leichte und Einfache Sprache kaum erforscht; eine Ausnahme ist die soziostilistische Untersuchung von Linz, die in Kapitel 2.3.1 vorgestellt wurde. Beide Phänomene werden aber, oftmals im Verhältnis zueinander, aus varietätenlinguistischer Perspektive reflektiert (siehe auch Kap. 1.4). Immer wieder wird Leichte Sprache dabei als Varietät des Deutschen aufgefasst, wobei gleichzeitig auf Schwierigkeiten hingewiesen wird, die eine theoretische Einordnung in das Varietätensystem mit sich bringt (vgl. Hennig 2022 sowie die Beiträge in Vanha‐ talo/ Lindholm/ Onikki-Rantajääskö 2022). Legt man einen weiten, eher unspezifischen Varietätenbegriff an (vgl. Dürscheid/ Schneider 2019: 65), kann man Leichte Sprache mit folgender Begründung als Varietät einordnen: Es liegen charakteristische sprachliche Merkmale vor, die sich von Sprachgebrauchsformen in anderen Äußerungskontexten deutlich unterscheiden. Versteht man Varietäten allerdings enger als „in sich homo‐ 2.5 Über Verständlichkeit hinaus II - diskurs- und soziolinguistische Perspektiven 81 <?page no="83"?> gene Subsysteme einer Sprache (=Lekte) […], deren Vorkommen an außersprachliche Parameter geknüpft sind (z. B. Alter der Sprecher, regionale Herkunft, Geschlecht)“ (Dürscheid/ Schneider 2019: 65), dann reicht diese Beschreibung nicht aus. Welche au‐ ßersprachlichen Merkmale könnten überhaupt bei Leichter Sprache ausschlaggebend sein? Die drei „klassischen“ Verschiedenheitsdimensionen von Coseriu (siehe Kasten „Sprachliche Variation und Standardsprache“, S. 78f.) - Diatopik (regionale Variation), Diastratik (Variation nach sozialen Gruppen), Diaphasik (Situationsabhängigkeit) - erscheinen zunächst als wenig geeignet, da Leichte Sprache (wie auch Einfache Sprache) in verschiedenen Kommunikationsbereichen, Kommunikationssituationen und somit auch unter Beteiligung verschiedener sozialer Gruppen vorkommt. Gleichzeitig ist klar, dass die Adressatengruppen bei Leichter Sprache eine heraus‐ ragende Bedeutung haben: Sie sind eine wichtige Begründung für die gewählten sprachlichen Mittel. Kann Leichte Sprache also doch über das Kriterium der distrati‐ schen Verschiedenheit (Coseriu 2007: 139) definiert werden? Ganz unkommentiert ist das sicher nicht möglich (vgl. auch Bredel/ Maaß 2016: 58; Bock 2014), da das Phänomen etwas anders strukturiert ist als klassische gruppengebundene Varietäten wie beispielsweise Jugendsprache. Die Besonderheit liegt vor allem darin, dass Leichte Sprache nicht aktiv von ihren Zielgruppen genutzt wird: Diese werden lediglich adres‐ siert. Leichte Sprache ist in diesem Sinne ein sozialdistinktives Label, das allerdings nicht dadurch hervorgebracht wird, dass sich Personen durch den Gebrauch einer bestimmten Sprachvariante in der mündlichen oder schriftlichen Kommunikation so‐ zial ausweisen. Vielmehr ist Leichte Sprache als personenkreisbezogene Zuschreibung existent. Die intendierten Adressat/ innen können sie in Kommunikationssituationen primär in einer Rezipientenrolle auswählen oder ablehnen (z. B. vereinfachte Texte, Leichte-Sprache-Verdolmetschung). Nimmt man nun wieder eine stärker soziolinguis‐ tische Perspektive ein (siehe „Soziolinguistik - Varietätenlinguistik“, S. 80f.), kann man folgende Überlegungen anschließen: Die Tatsache, dass die Praxis Leichter Sprache von ihren Zielgruppen kaum aktiv geprägt wird, da sie in der Rolle als Rezpient/ innen auftreten, hat Folgen für die soziale Positionierung der Nutzer/ innen. Sprache zeigt nicht nur soziale Zugehörigkeit an, Sprachgebrauch ist v. a. soziale Praxis, d. h. Sprache schafft soziale Beziehungen (Agha 2007). Die Praxis Leichter Sprache schafft also soziale Beziehungen zu ihren Adressat/ innen. Sie wird - wie jeder Sprachgebrauch - in bestimmter Weise bewertet: Mit ihr sind kollektive Zuschreibungen verbunden, die die Adressat/ innen in bestimmter Weise sozial (fremd-)positionieren. Diese Zuschrei‐ bungen können Inklusion oder Exklusion bewirken. Eine genaue Beschreibung dieser dynamischen Prozesse der Zuschreibung und Generierung sozialer Bedeutung bei Einfacher und Leichter Sprache steht bisher allerdings noch aus. Relevant wäre dies für die Frage, inwiefern vereinfachte Varietäten Diskriminierungspotenzial haben und wie dem ggf. zu begegnen ist (vgl. Dürscheid/ Schneider 2019: 29 ff.). Zurück zum Problem der Einordnung ins Varietätensystem des Deutschen: Es ist nicht möglich, genau zu definieren, wie viele distinkte sprachliche Merkmale vor‐ handen sein müssen, damit man von einer Varietät sprechen und eine Abgrenzung von 82 2 Grundlagen <?page no="84"?> anderen Varietäten eindeutig vornehmen kann (Dürscheid/ Schneider 2019: 65). Das ist keine Besonderheit Leichter und Einfacher Sprache. In der Leichte-Sprache-Forschung hat man sich besonders mit dem Verhältnis von Leichter Sprache und Standardsprache beschäftigt. Dieses Verhältnis wird teilweise recht unterschiedlich und auch nicht ohne Widersprüche beschrieben. Auch dies ist ein Indiz dafür, dass die Forschung hier noch am Anfang steht. Für Bredel und Maaß ist das Verhältnis von Leichter Sprache zum Standard das konstitutive Merkmal: Sie ordnen sie als „Reduktionsvarietät“ (Bredel/ Maaß 2016: 529) ein, die vom Standard abgeleitet ist. Ihr Standardverständnis folgt dabei dem klas‐ sischen normtheoretischen Verständnis, d. h. die Standardnorm ist kodifiziert (bspw. Rechtschreibung, Wortschatz, Morphosyntax, stilistische Merkmale von Wörtern) (vgl. Ammon 2004: 327). Leichte Sprache verstehen sie als eine variationsärmere Form dieser kodifizierten Standardnorm, die als „regulierte Varietät, […] auf gezielte sprachplane‐ rische Aktivitäten zurückgeht und sich im Rahmen des deutschen Standards bewegt“ (Bredel/ Maaß 2016: 58). Gleichzeitig nutzen sie den Ausdruck Standardsprache aber auch in Opposition zu Leichter Sprache, d. h. Leichte Sprache ist dann offenbar selbst kein Standard und weicht von der kodifizierten Norm ab (Bredel/ Maaß 2016: 527). Diese Konzeption findet sich auch bei anderen Autorinnen (Wagner/ Scharff 2014). Aus soziolinguistischer Sicht hat die Frage, ob Leichte Sprache als Sub- oder Nonstandard beschrieben wird oder gerade als spezifische Ausprägung der Standard‐ sprache noch eine weitere Dimension: Sie betrifft das Stigmatisierungspotenzial. Stan‐ dardsprache ist die Varietät mit hohem Sozialprestige. Wenn man Leichte Sprache - implizit oder explizit - als Sub- oder Nonstandard einordnet, nimmt man diesbezüglich eine bestimmte theoretische Akzentuierung vor. Auf die Problematik der Stigmatisierung durch Leichte Sprache ist in der Forschung bereits explizit hingewiesen worden (Bredel/ Maaß 2016: 50 ff.; Bock 2015b). Bredel und Maaß (2016: 25 ff.) stellen eine Ähnlichkeit zwischen Leichter Sprache und sog. Xenolekten fest, also solchen Sprachgebrauchsweisen, die gegenüber Nicht‐ erstsprachler/ innen zur Anwendung kommen und die sich nicht an den tatsächlichen Kommunikationsbedürfnissen der Adressat/ innen orientieren, sondern an stereotypen Wahrnehmungen und Zuschreibungen (auch: foreigner talk, Ferguson 1971). Ähnliche Phänomene zeigen sich in der Interaktion mit Kleinkindern, mit Erwachsenen mit sog. geistiger Behinderung oder mit Demenz (vgl. Sinner 2014: 198). Es handelt sich dabei immer um Kommunikation, die ein asymmetrisches Verhältnis zwischen den Kommunikationsbeteiligten herstellt. Sprachgebrauch tritt hier deutlich nicht nur als soziale, sondern auch als Machtpraxis in Erscheinung. - Weiterführende Literatur Eine kompakte Einführung in zentrale Konzepte der Sozio- und Varietätenlinguistik geben das Studienbuch von Spitzmüller, der Handbuchartikel von Elspaß sowie der Narr-Starter-Band von Dürscheid und Schneider: Spitzmüller, Jürgen (2022a): Soziolinguistik. Eine Einführung. Stuttgart: J.B.Metzler. 2.5 Über Verständlichkeit hinaus II - diskurs- und soziolinguistische Perspektiven 83 <?page no="85"?> Elspaß, Stephan (2018): Sprachvariation und Sprachwandel. In: Eva Neuland und Peter Schlo‐ binski (Hrsg.): Handbuch Sprache in sozialen Gruppen. Berlin, Boston: De Gruyter, S. 87-107. Dürscheid, Christa; Schneider, Jan Georg (2019): Standardsprache und Variation. Tübingen: Narr (narr STARTER). - Aufgaben 1. Fassen Sie zusammen: Was sind Gegenstand und Forschungsinteresse diskurslin‐ guistischer Analysen? 2. Nennen Sie die wesentlichen Gemeinsamkeiten und Unterschiede von Sozio- und Varietätenlinguistik. 3. Recherchieren und sammeln Sie Beiträge aus den Massenmedien zu Leichter Sprache. Werten Sie diese aus: Wie wird Leichte Sprache im Diskurs dargestellt? a. Wie wird Leichte Sprache bewertet? Mit welchen sprachlichen Mitteln wird bewertet? b. Welche Merkmale Leichter Sprache werden in den Beiträgen genannt und ausführlicher besprochen? Welche soziale Indexikalität zeigt sich, d. h.: In welcher Weise werden diese sprachlichen Merkmale mit sozialen Gruppen verknüpft? c. Zeigt sich in den Beiträgen die „Standardsprachenideologie“ oder zeigen sich andere Sprachideologien? 4. Recherchieren und sammeln Sie nun Äußerungen zu Leichter Sprache in sozialen Medien oder Kommentarforen zu Medienbeiträgen. Werten Sie diese aus (siehe 3. a-c): a. Welche Unterschiede zum massenmedialen Diskurs zeigen sich? b. Vergleichen Sie mit anderen Diskursen: Welche anderen vereinfachten Varietäten werden im Diskurs thematisiert und wie wird Verständlichkeit und Schwerverständlichkeit von Kommunikation (bspw. Rechts- und Ver‐ waltungskommunikation) im Diskurs thematisiert? Orientieren Sie sich bei der Auswertung an 3. a-c. 5. Diskutieren Sie in der Gruppe: Welche methodischen Schwierigkeiten ergeben sich bei der Sammlung von Texten für ein Korpus, das diskurslinguistisch untersucht werden soll? Z.B.: Welche Beiträge gehören ins Korpus, welche nicht? Was genau ist der thematische Zusammenhang beim jeweiligen Diskurs? 84 2 Grundlagen <?page no="86"?> 3 Leicht, einfach, verständlich - Forschungsstand Ein solches Kapitel zum Forschungsstand Leichter, Einfacher, verständlicher Sprache kann kaum mit einem Vollständigkeitsanspruch geschrieben werden. Es waren also zum einen Schwerpunktsetzungen nötig, zum anderen spiegelt sich in den einzelnen Kapiteln die Vielfalt möglicher Forschungsbezüge und Perspektiven. Bei aller Heterogenität der möglichen Herangehensweisen ist die gemeinsame Frage: Was macht Sprache leicht, einfach, verständlich bzw. was versteht man in der Linguistik unter sprachlicher Einfachheit und Verständlichkeit? Leichte und Einfache Sprache sind immer wieder Bezugspunkt, aber in diesem Kapitel gehen die Überlegungen besonders deutlich darüber hinaus. Sie erscheinen als zwei spezifische Phänomene im Rahmen der allgemeineren Frage nach Verständlichkeit. Das Kapitel ist nach sprachlichen Ebenen gegliedert: Es beginnt beim Wort und geht über Satz und Text hin zu Aspekten der Multimodalität schriftlicher Texte. 3.1 Wort Cordula Meißner Um Texte lesen und verstehen zu können, muss man die Wörter in diesen Texten kennen. Was Wörter (und damit die Texte, die aus ihnen aufgebaut sind) einfach oder schwierig macht, ist jedoch nicht einfach zu beantworten, denn die in der Forschung beschriebenen Schwierigkeitsfaktoren existieren nicht unabhängig voneinander und müssen je nach Zielgruppe und Kontext eine unterschiedliche Gewichtung er‐ fahren. In diesem Kapitel wird zunächst umrissen, welche Aspekte des Wissens mit Wörtern verbunden sind (Kap. 3.1.1). Danach werden die Beschreibungsansätze für die Schwierigkeit von Wörtern auf drei Ebenen dargestellt. Die auf das einzelne Wort bezogenen Faktoren betreffen Form, Bedeutung, Beziehungen im Wortschatz, Wortkomplexität und Frequenz (Kap. 3.1.2). Die wortbezogenen Schwierigkeits‐ faktoren auf Textebene umfassen die Textdeckung und die lexikalische Vielfalt (Kap. 3.1.3). Auf der Ebene schwierigkeitsbezogener Wortschatzkonzeptionen werden die frequenzbasierte Bestimmung von Wortschätzen sowie die Konzepte des Grund‐ wortschatzes und des Kernwortschatzes erläutert (Kap. 3.1.4). Abschließend wird auf Zusammenhänge zwischen den beschriebenen Faktoren sowie deren Zielgruppen- und Kontextabhängigkeit eingegangen (Kap. 3.1.5). <?page no="87"?> 3.1.1 Wörter aus der Perspektive von Einfachheit und Schwierigkeit betrachten Das Wortschatzwissen ist für das Leseverstehen die entscheidende Einflussgröße und hierfür ein stärkerer Prädiktor als etwa das syntaktische Wissen oder die Inferenz‐ fähigkeit (vgl. Laufer 1997b: 20). Die Frage, was Wörter schwierig macht, wird in unterschiedlichen Forschungsbereichen untersucht. Sie ist ein Thema im Kontext der Forschung zur Bildungssprache, wenn es darum geht, schwierigkeitsgenerierende lexi‐ kalische Merkmale dieses Registers der schulischen Wissensvermittlung zu bestimmen (vgl. z. B. Gogolin/ Duarte 2016; Köhne/ Kronenwerth/ Redder/ Schuth/ Weinert 2015). In der Lesbarkeitsforschung wird durch computerlinguistische Methoden versucht, die Lesbarkeit (Schwierigkeit) von Texten u. a. anhand von lexikalischen Faktoren zu modellieren und graduierend zu klassifizieren, mit dem Ziel, Texte hinsichtlich ihrer rezeptiven Anforderungen automatisch einstufen zu können (vgl. z. B. Hancke/ Vaj‐ jala/ Meurers 2012; Vajjala/ Meurers 2014). In der Fremdsprachenerwerbsforschung wird die Schwierigkeit von Wörtern bei der Beschreibung sprachlicher Kompetenzstu‐ fen thematisiert, denen jeweils Wortschätze eines bestimmten Inhaltes und Umfangs zugeordnet sind (vgl. Glaboniat/ Müller/ Rusch/ Schmitz/ Wertenschlag 2005). Daneben werden hier die Eigenschaften untersucht, die den Erwerb von Wörtern durch L2-Ler‐ nende beeinflussen (vgl. Laufer 1997a). In der psycholinguistischen Forschung werden Wörter im Hinblick auf die mit ihnen verbundenen Verarbeitungsprozesse und Spei‐ cheranforderungen untersucht (vgl. z. B. Ellis/ Beaton 1993; Schwanenflugel/ Gaviskà 2005; Warren 2012: 38-50, 140-155). Um der Frage nachzugehen, was ein Wort schwierig macht und wann bzw. inwieweit man von leichten oder einfachen Wörtern sprechen kann, muss zunächst betrachtet werden, was es heißt, ein Wort zu kennen. Das rezeptive, für das Leseverstehen bedeutsame Wortschatzwissen umfasst, ● die orthografische Form des Wortes zu erkennen, ● die Morpheme der Wortform zu erkennen, ● die mit der Form verbundene lexikalische Bedeutung zu kennen, ● zu wissen, welchen konzeptuellen Gehalt diese lexikalische Bedeutung aufruft und ● welche weiteren Bedeutungsassoziationen damit verknüpft sind, ● in welche grammatischen Beziehungen das Wort eingebunden ist, ● welche festgeprägten Kombinationspartner zu ihm gehören und integriert mit ihm verstanden werden müssen, ● in welchen Kontexten (Textsorten, Registern) das Wort typischerweise gebraucht wird und ● wie sich dies zum aktuell gelesenen Gebrauch verhält (vgl. Nation 2013: 49). Aus dieser Auflistung wird bereits deutlich, dass die Einfachheit oder Schwierigkeit eines Wortes nicht allein auf der Wortebene betrachtet werden kann, sondern darüber hinaus auch Faktoren einschließt, die auf Text- und Wortschatzebene wirksam werden. Das Wissen über ein Wort ist bei einzelnen Sprecher/ innen dabei graduell, es umfasst 86 3 Leicht, einfach, verständlich - Forschungsstand <?page no="88"?> die genannten Aspekte in unterschiedlichem Umfang (vgl. Zareva 2014). Zur Beschrei‐ bung des Wortschatzwissens wird die Wortschatzbreite bzw. der Wortschatzumfang (Anzahl bekannter Wörter) und die Wortschatztiefe (Menge des Wissens über einzelne Wörter) bestimmt (vgl. Laufer 1997b: 23; Nation 2013: 49 f., 205-209; Tschirner 2019: 99-106). Bei den Wörtern, die in einem Text vorkommen können, handelt es sich v. a. um um lexikalisierte, abrufbare Einheiten des Wortschatzes, d. h. Einheiten, die im mentalen Lexikon der Sprecher/ innen gespeichert sind, in der Sprachgemeinschaft konventio‐ nalisiert und als Einheit in der Bedeutung fixiert (idiomatisiert) sind (vgl. Waldenberger 2017: 257; Herbermann 2002). Zu Wortschatzeinheiten zählen Simplizia, d.h. einzelne Wörter mit einem einfachen Stamm (z. B. heute, Baum, waschen) sowie komplexe, durch Wortbildung entstandene Wörter (z. B. heutig, Baumhaus, abwaschen), aber auch Mehrworteinheiten (z. B. jemanden über den grünen Klee loben, Zähne putzen, in Betrieb nehmen) (vgl. z.-B. Römer 2019: 23-86; Fleischer/ Barz 2012: 17-25). Neben den lexikalisierten Wortschatzeinheiten können in Texten Ad-hoc-Bildungen (Okkasio‐ nalismen, z. B. Wohlfühlfrühling, vgl. Fleischer/ Barz 2012: 40) vorkommen, die u. a. mit Hilfe von Wissen über Wortbildung erschlossen werden. 3.1.2 Faktoren der Schwierigkeit auf Wortebene - Überblick In der Fremdsprachenerwerbsforschung, der Psycholinguistik und auch der Forschung zur Bildungssprache wurde eine Reihe von Merkmalen identifiziert, die für sich betrachtet das Erkennen, die Verarbeitung oder das Erlernen eines Wortes erschweren. Diese Merkmale betreffen ● die Form und ● die Bedeutung eines Wortes, ● seine Beziehungen zu anderen Wörtern im Wortschatz, ● seine formale und semantische Komplexität sowie ● seine Vorkommenshäufigkeit. Wir stellen die Merkmale hier zunächst einzeln vor. Sie werden dann in Kapitel 3.1.5 in Bezug auf Zusammenhänge zwischen den Schwierigkeitsfaktoren und deren Abhän‐ gigkeit von Zielgruppe und Sprachverwendungskontext noch einmal aufgegriffen. - Form In Bezug auf die Formseite eines Wortes stellt dessen regelhafte Aussprache (pronoun‐ cability) und seine phonotaktische bzw. orthografische Regelmäßigkeit in Bezug auf die Normen der Sprache ein schwierigkeitsbezogenes Merkmal dar. Operationalisiert wird dies mit Hilfe von Bigramm-Häufigkeiten (Abfolgen von zwei Buchstaben inner‐ 3.1 Wort 87 <?page no="89"?> halb eines Wortes einschließlich Wortanfang und -ende). Anhand der durchschnitt‐ lichen Bigramm-Frequenzen für ein Wort kann seine Schwierigkeit vorhergesagt werden (Ellis/ Beaton 1993: 584; Hashimoto/ Egbert 2019: 851). Je eindeutiger die Graphem-Phonem-Korrespondenz in einem Wort und je ähnlicher der L1, desto leichter ist das Wort für L2-Sprecher/ innen (L2 = Zweitbzw. Fremdsprache) zu lernen (Ellis/ Beaton 1993: 567 f.). Diese Faktoren sind somit in ihrer Ausprägung individuell und abhängig von der jeweiligen L1 der Lernenden. Für L1-Sprechende erklärt sich aus ihnen die Schwierigkeit von Fremdwörtern, die nicht den phonotaktischen Regeln der Sprache entsprechen (im Deutschen z. B. Garage, vgl. Kap. 2.1.3), wobei die Frequenz (hochfrequente Wörter sind von dem Regularitätseffekt weniger betroffen) und die Menge ähnlicher irregulärer Bildungen einen Einfluss haben (vgl. Warren 2012: 141 f.). Zudem werden (nichtfachliche) Fremdwörter (wie Desiderat, Definition) als ein Schwierigkeitsmerkmal der Bildungssprache beschrieben (vgl. Gogolin/ Duarte 2016: 489; Ortner 2009: 2230). Die Ähnlichkeit zu anderen Wörtern bildet einen weiteren formbezogenen Schwie‐ rigkeitsfaktor. Je mehr orthografische Nachbarn (d. h. Wörter mit gleicher Länge, die sich nur in einem Buchstaben unterscheiden z.-B. Maus, Haus) ein Wort hat, desto schwieriger bzw. kognitiv aufwändiger ist es zu erkennen. Dieser „Nachbarschaftsef‐ fekt“ ist aber abhängig von der Frequenz, d. h. er tritt nur bei niedrigfrequenten Wörtern auf: Wörter mit hochfrequenten Nachbarn werden schlechter erkannt (vgl. Hashimoto/ Egbert 2019: 847; Boot/ Pecher 2008; Warren 2012: 143). In den Bereich der auf formseitiger Ähnlichkeit basierenden Schwierigkeit fällt zudem das Phänomen der Paronymie, der form- und bedeutungsähnlichen Wörter, die zu Verwechslungen und Unsicherheiten im Gebrauch führen (z. B. effizient/ effektiv, legal/ legitim, vgl. Storjohann 2019). Besonderheiten bei Mehrsprachigkeit Für L2-Lernende wurde die Formenähnlichkeit von Wörtern innerhalb der L2 (synformy) als Schwierigkeit beschrieben (Laufer 1997a: 146-148, z. B. engl. considerable/ considerate oder dt. heimlich/ heimisch). Im Deutschen sind die Prä‐ fix- und Partikelverben ein Bereich, in dem sehr viele formähnliche und in diesem Sinne schwierige Wörter existieren, die Teil der Bildungssprache sind (z. B. erstellen/ darstellen/ einstellen/ vorstellen… oder aufgehen/ eingehen/ vorgehen/ hervorgehen…, vgl. Meißner 2014). Laufer (1997b) benennt in diesem Zusammen‐ hang die scheinbare Transparenz (deceptive transparency) von L2-Wörtern aus Perspektive der Lernenden als Herausforderung. Hierbei entstehen Verständnis‐ schwierigkeiten, wenn Lernende in einem Wort vertraute Bestandteile erkennen, es fälschlich als transparent annehmen und dem Wort daher keine Aufmerk‐ samkeit widmen. Auch die Ähnlichkeit von L2-Wörtern zu L1-Wörtern bei unterschiedlicher Bedeutung (interlinguale Homonyme, sogenannte ‚Falsche Freunde‘ (false friends) wie engl. sensible (‚vernünftig‘) und dt. sensibel) gehört zu den formseitigen Schwierigkeitsfaktoren (vgl. Laufer 1997b: 25). Der Effekt 88 3 Leicht, einfach, verständlich - Forschungsstand <?page no="90"?> ist in seiner Ausprägung beeinflusst von der Frequenz und dem semantischen sowie syntaktischen Kontext (Degani/ Tokowicz 2010). Sogenannte Kognate, also Wörter, die aufgrund einer gemeinsamen Wurzel in beiden Sprachen mit ähnli‐ cher Form und ähnlicher Bedeutung vorkommen (z. B. dt. Tradition, analysieren und engl. tradition, analyse), stellen hingegen einen erleichternden Faktor dar (Beinborn 2016: 85-87), der in der Fremdsprachenvermittlung ausgenutzt wird (vgl. z.-B. Meißner 1996). Ein genereller formbezogener Faktor für die Erlernbarkeit ist die Salienz eines Phänomens in den Inputdaten. Perzeptuell auffälligere Merkmale werden beim Lesen oder Hören leichter aus Inputdaten erkannt und erlernt. So sind beispielsweise für den Ausdruck von Temporalität lexikalische Mittel wie Temporaladverbien (gestern) auffälliger als die Tempusflexion (spielte). Unter den Wörtern sind Funktionswörter (Artikel, Pronomen, Konjunktionen) besonders unauffällig: Sie haben (aufgrund ihrer häufigen Verwendung) eine kurze, reduzierte, unbetonte Form (vgl. Cintrón-Valen‐ tín/ Ellis 2016: 3; Ellis/ Collins 2009: 331). Die Salienz stellt ein komplexes Konstrukt dar. Neben Eigenschaften des Stimulus (psychophysische wahrnehmungsbezogene Auffälligkeit) gibt es weitere Faktoren wie individuelle Assoziationen zu einem Wort oder Überraschungseffekte im Kontext (Ellis 2016). - Bedeutung Hinsichtlich der Bedeutungsseite stellt die Abstraktheit (im Gegensatz zu Konkret‐ heit) des Wortinhalts, einen Schwierigkeitsaspekt dar. Konkreta, d. h. Wörter zu denen ein bildlicher Vorstellungsinhalt aufgerufen werden kann (z. B. Hund, springen, Getränk), werden leichter/ schneller verarbeitet als Abstrakta (Ökonomie, Wahrheit, geduldig) (Schwanenflugel/ Gaviskà 2005: 1737 f.; Laufer 1997a: 149). Das Merkmal Konkretheit ist jedoch mit anderen psycholinguistisch relevanten Merkmalen verbun‐ den. Es korreliert ● mit dem Erwerbsalter (Age of Acquisition, vgl. Hernandez/ Li 2007), wobei konkrete Wörter früher erworben werden, ● mit der Vertrautheit (familiarity), insofern konkrete Wörter oft die bekannteren sind, ● mit der Bedeutungsspezifik, insofern konkrete Wörter tendenziell spezifischer und in weniger Kontexten verwendbar sind ● und schließlich ist es für Konkreta leichter, Informationen über mögliche Verwen‐ dungskontexte abzurufen (vgl. Schwanenflugel/ Gaviskà 2005: 1737). Abstrakte Wörter weisen hingegen längere Reaktionszeiten und größere Fehlerraten bei Experimenten des lexikalischen Entscheidens (vgl. Kap. 5.3.3) auf. Ursache für diesen Effekt ist, dass Konkreta auf eine doppelte Weise aufgerufen werden können, nämlich sprachlich und bildlich (Schwanenflugel/ Gaviskà 2005: 1737 f.). 3.1 Wort 89 <?page no="91"?> Einen weiteren wortbezogenen Schwierigkeitsfaktor stellt der Grad der Eindeutig‐ keit der Beziehung von Form und Bedeutung dar. Die Mehrdeutigkeit von Wörtern, d. h. wenn diese über mehrere semantisch verbundene (Polysemie, z. B. Maus als Tier oder Computerzubehör) oder unverbundene Bedeutungen (Homonymie, z. B. Bank als Geldinstitut oder Sitzgelegenheit) verfügen, erschwert das Verstehen sowie den Erwerb weiterer zu einer einmal gelernten Bedeutung, besonders für L2-Lernende (Laufer 1997a: 152). Auch im Kontext der Bildungsspracheforschung wurde Polysemie als wesentlicher Schwierigkeitsfaktor beschrieben, insbesondere, wenn zu einer all‐ tagssprachlich gebrauchten konkreten Bedeutung eine bildungssprachlich abstrakte hinzukommt (vgl. Cervetti/ Hiebert/ Pearson/ Clung 2015, Köhne et al. 2015, siehe dazu auch Kap. 3.1.5). Bei komplexen Wortschatzeinheiten (Komposita, Mehrworteinheiten, siehe auch unter ‚Wortkomplexität‘) kommt als weiterer bedeutungsbezogener Faktor die Idio‐ matizität bzw. der Grad der semantischen Transparenz hinzu. Dies betrifft die Frage, inwieweit die Gesamtbedeutung aus den Bedeutungen der Bestandteile erschlossen werden kann (Laufer 1997a: 151; Housen/ Simoens 2016: 168). Auch in der Spezifik der Bedeutung eines Wortes wird ein Schwierigkeitsfak‐ tor gesehen (konzeptuelle Schwierigkeit/ conceptual difficulty, vgl. Cervetti et al. 2015: 161). Dieser v. a. für fachlichen Wortschatz beschriebene Faktor bezieht sich auf die Menge an theoretisch-inhaltlichen Aspekten, die in der Bedeutung eines (Fach-)Wortes verbunden sind (z. B. Demokratie, Ökosystem, Metapher). Er wird auch als Eigenschaft bildungssprachlichen Wortschatzes thematisiert, für den differenzierende bzw. spezifizierende, niedrig frequente und abstrakte Ausdrücke (z. B. hochverdichtet, dünnflüssig) als Kennzeichen gelten (Gogolin/ Duarte 2016: 489 f.). Im Zusammenhang mit der fachlichen Bedeutung von Wörtern wird zudem deren Domänenspezifik oder Distribution als Faktor genannt. Dabei werden zum einen Wörter unterschieden, die in verschiedenen Fachbereichen vorkommen (und dort jeweils eine spezifische Bedeutung aufweisen, also polysem sind) und zum anderen Wörter, deren Vorkom‐ men auf eine Domäne beschränkt ist (vgl. Cervetti et al. 2015: 158; Hiebert/ Scott/ Castaneda/ Spichtig 2019: 3). Im Kontext der Bildungssprache wurde dieser Aspekt insbesondere in Bezug auf (Schulbuch-)Texte gesellschaftswissenschaftlicher Fächer hervorgehoben, da hier die Mehrdeutigkeit von Begriffen, ihre scheinbare Alltagsnähe sowie autor/ innenspezifische Bedeutungsprägungen verbreitete Schwierigkeitsfakto‐ ren darstellen (vgl. Hartung 2010; Handro 2015; Oleschko/ Moraitis 2012). Mit der Domänenspezifik sind folglich verschiedene Schwierigkeitsfaktoren verbunden: Für fachliche Novizen (wie etwa Lernende im schulischen Kontext oder Fachfremde) gelten domänenspezifische Wörter als schwierig, da sie seltener angetroffen werden und somit eher unbekannt sind, domänenübergreifende Wörter sind zwar eher bekannt, weisen aber aufgrund ihrer unterschiedlichen Bedeutungen in einzelnen Fächern die Schwierigkeit auf, in der jeweils aktuellen Bedeutung möglicherweise nicht bekannt zu sein. 90 3 Leicht, einfach, verständlich - Forschungsstand <?page no="92"?> Beziehungen im Wortschatz Wörter sind im Wortschatz und im mentalen Lexikon einzelner Sprecher/ innen nicht isoliert, sondern stehen u. a. in semantischen und morphologischen Beziehungen zueinander (Lutzeier 1995; Aitchison 2012). Diese Vernetztheit hat auch einen Einfluss auf Abruf und Verarbeitung von Wörtern. So übt die Größe der Wortfamilie, zu der ein Wort gehört, einen Einfluss auf die Abrufgeschwindigkeit aus. Eine Wortfamilie umfasst die Wörter im Wortschatz, die ein gemeinsames Grundmorphem teilen (z. B. treffen, Treffer, antreffen, betreffen als Mitglieder der Familie treff-). Wörter mit großen Familien werden schneller erkannt (Cervetti et al. 2015: 159 f.). Bei diesem Wortfamilieneffekt spielen jedoch die Häufigkeit des Basismorphems, die Häufigkeit der Familienmitglieder sowie die Frequenz des Wortes selbst und die Anzahl der Familienmitglieder eine Rolle (vgl. Carlisle/ Katz 2006). Untersuchungen zu Versprechern sowie Priming-Studien (vgl. Kap. 2.1.3) haben gezeigt, dass Wörter im mentalen Lexikon nach semantischen Beziehungen vernetzt sind. Dazu zählen Synonymie bzw. Bedeutungsähnlichkeit (Kohyponymie), Antony‐ mie, Assoziation bzw. Kollokation (vgl. Schwanenflugel/ Gaviskà 2005: 1740; Warren 2012: 43-45). Wörter können im Kontext semantisch assoziierter Einheiten (z. B. Zebra - Streifen) voraktiviert werden und daher leichter zu verarbeiten sein (siehe auch Kap. 2.1.3). Wortschatzeinheiten sind lexikologisch zudem danach unterscheidbar, welcher Wortart sie angehören. Mit Wortarten gehen ebenfalls unterschiedliche Verarbei‐ tungsanforderungen einher. So gelten Nomen als leichter erlern- und verarbeitbar, während Verben aufgrund ihrer semantischen, morphologischen und syntaktischen Schnittstellenfunktion im Erwerb und in der Verarbeitung anspruchsvoller sind (vgl. Kauschke 2007; Behrens 1999). Zudem verfügt das Deutsche mit den Partikelverben über einen häufig und produktiv gebrauchten Typ von trennbaren Verben, der in Distanzstellung gebraucht eine Verbalklammer bildet (z. B. Sie schließt die Tür zu ihrem Geschäft auf.). Der klammeröffnende Teil (das Basisverb, z. B. schließt) muss hier so lange im Gedächtnis behalten werden, bis der klammerschließende Teil (die Verbpartikel, z. B. auf, zu, ab) erscheint, denn erst dann ist die Gesamtbedeutung vollständig erkennbar (vgl. Thurmair 1991). Auch die als Funktionswörter zusam‐ mengefassten Wortarten der Artikel, Konjunktionen, Präpositionen und Pronomen sind aufgrund ihrer relationalen und oft funktional vielfältigen Bedeutung in der Verarbeitung anspruchsvoller (vgl. z. B. Ellis 2006: 167). Sie werden daher auch als schwierigkeitsgenerierende sprachliche Merkmale der Bildungssprache beschrieben (Gogolin/ Duarte 2016: 489; Heine/ Domenech/ Neumann et al. 2018: 83). - Wortkomplexität: Form, Bedeutung und Variabilität Komplexität als Schwierigkeitsfaktor wurde v. a. im Kontext der L2-Erwerbsforschung untersucht. Die dort entwickelten Modellierungen sind jedoch für die Beschreibung der Schwierigkeit sprachlicher Mittel für verschiedene Personengruppen insgesamt 3.1 Wort 91 <?page no="93"?> aufschlussreich. So unterscheiden Housen und Simoens (2016) mit Blick auf den L2-Erwerb zwischen lernerbezogener, sprachmerkmalbezogener und kontextbezoge‐ ner L2-Schwierigkeit. Die subjektive, lernerindividuelle Schwierigkeit resultiert daraus, mit welchen individuellen Fähigkeiten und Ressourcen Lernende den Merk‐ malen der L2 gegenübertreten. Dies umfasst etwa individuelle Unterschiede in Bezug auf kognitive Fähigkeiten, Sprachlerneignung, Arbeitsgedächtnis, Vorwissen, L1 und andere L2-Sprachen, Sprachstand in der L2 sowie weitere Persönlichkeitsfaktoren (Housen/ Simoens 2016: 167). Die inhärente Schwierigkeit sprachlicher Merkmale umfasst zum einen As‐ pekte auf der Seite der sprachlichen Form (formale Komplexität). Hierzu zählen: ● die Anzahl der Bestandteile, die eine Struktur enthält (und damit auch ihre Länge, z.-B. Reiniger vs. Hochdruckreiniger), ● die Variationsmöglichkeiten der Bestandteile (Allomorphe, z. B. geh-, gang-, gängin gehen, Aufgang, zugänglich), ● die Menge an Operationen, die zur Bildung bzw. Dekodierung erforderlich sind (z.-B. wäre so ein Verb im Passiv schwieriger als im Aktiv) sowie ● die Entfernung von abhängigen Einheiten, die für die Verarbeitung integriert werden müssen (z. B. im Fall von getrennt gebrauchten Verben) (vgl. Bulté/ Housen 2012: 25; Housen/ Simoens 2016: 168). Daneben gehören zur inhärenten sprachmerkmalbezogenen Schwierigkeit Aspekte auf der Seite der Bedeutung (funktionale bzw. konzeptuelle oder semantische Komple‐ xität). Dies umfasst: ● die Anzahl verschiedener Bedeutungen einer Einheit (Polysemie), ● die Art der verschiedenen Bedeutungen (sind es prototypische, erfahrungsbasierte, ikonische Bedeutungen (einfacher) oder sind es spezifische, abstrakte, relationale Bedeutungen (schwieriger); vgl. Housen/ Simoens 2016: 168). Ein dritter Aspekt betrifft die Frage, wie Form und Bedeutung aufeinander abgebildet werden. Ist die Zuordnung eindeutig bzw. regelmäßig und der Input transparent, d. h. kann die Gesamtbedeutung erschlossen werden (einfacher) oder ist dies nicht der Fall und die Struktur opak (schwieriger)? Phänomene wie Polysemie, Synonymie oder kommunikative Redundanz führen dazu, dass die Herstellung einer Zuordnung von Form und Bedeutung im Input erschwert werden kann (Housen/ Simoens 2016: 168 f.). Lerner- und merkmalbezogene Schwierigkeit sind bedingt durch den Kontext, in dem die Verarbeitung bzw. das Lernen stattfindet. So kann durch Markierung oder Hervorhebung (etwa im Unterricht) eine formal oder semantisch schwierige Einheit erschließbar gemacht und Aufmerksamkeit auf sie gelenkt werden (Housen/ Simoens 2016: 169). Insgesamt werden Wörter bzw. Wortschatzeinheiten mit höherer Komple‐ xität als schwieriger zu verarbeiten angenommen. So dauert es bei längeren Wörtern (gemessen in der Anzahl von Buchstaben) auch länger, bis sie richtig erkannt werden (Warren 2012: 141). 92 3 Leicht, einfach, verständlich - Forschungsstand <?page no="94"?> Exkurs: Wortbildungsprodukte und Verständlichkeit Das Deutsche gilt als Wortbildungssprache: Die Wortbildung, also die Bildung neuer Benennungseinheiten auf der Basis vorhandener sprachlicher Einheiten, war und ist das am häufigsten zur Wortschatzerweiterung genutzte Mittel, wes‐ halb die meisten Autosemantika (Inhaltswörter) des Deutschen Wortbildungs‐ produkte sind (vgl. Fleischer/ Barz 2012: 2). So stellen etwa bei den Adjektiven nur 10 % Primäradjektive dar (vgl. Fleischer/ Barz 2012: 3). Die meisten deutschen Wörter sind daher strukturell komplex. Wortbildung hat eine textkonstitutive Funktion, insofern Wortbildungsprodukte mit gemeinsamen Morphemen in ei‐ nem Text als Kohäsionsmittel (vgl. Kap. 3.3) fungieren. Im Gegensatz zu anderen Kohäsionsmitteln wie Pronomen oder Konnektoren basiert die Kohäsion durch Wortbildung auf der morphosemantischen Motiviertheit (Transparenz) der Bildungen, d. h. der Rekurrenz eines Grundmorphems (z. B. haus in Haus und in Wortbildungen wie Sommerhaus oder häuslich, vgl. Fleischer/ Barz 2012: 27). Da Wortbildungsprodukte, v. a. Komposita, mit ihrer formalen und semantischen Komplexität offensichtlich Schwierigkeit generieren, wird in Texten der Leich‐ ten bzw. Einfachen Sprache der Ansatz der orthografischen Aufgliederung verfolgt. Hierzu wird der Bindestrich samt Binnengroßschreibung bei substanti‐ vischem Zweitglied (Sommer-Haus) oder der Mediopunkt (Sommer∙haus) genutzt (vgl. Maaß 2020b). Pappert und Bock (2020) zeigen in einem Experiment der lexi‐ kalischen Entscheidung (siehe Kap. 5.3.3), dass die Segmentierung von Komposita durch Bindestrich bei Proband/ innen mit kognitiven Beeinträchtigungen oder funktionalem Analphabetismus zu einer Verkürzung der Reaktionszeiten führt. Der Effekt wurde unabhängig von der semantischen Transparenz nachgewiesen. D.h. auch intransparente Wörter wie Eselsohr oder Schneebesen wurden schneller gelesen, wenn sie optisch getrennt wurden. Bei einer Kontrollgruppe geübter Leser/ innen (Studierende) zeigten sich hingegen bei Segmentierung längere Re‐ aktionszeiten. Es scheinen also nicht alle Leser/ innengruppen gleichermaßen zu profitieren. Hansen-Schirra und Gutermuth (2018) zeigen für Proband/ innen mit kognitiven Beeinträchtigungen in einer Eye-Tracking-Studie kürzere Lesezeiten für Komposita, die durch die Mediopunktschreibweise segmentiert waren. Larraß und Pappert (2021) finden hingegen in einem Self-paced-Reading-Experiment (siehe Kap. 5.3.3) zum Fachtextlesen bei Realschüler/ innen der 5. Klasse nur bei einer Segmentierung der Fachwortkomposita durch Bindestrich und Binnengroß‐ schreibung eine Verkürzung der Lesezeiten, bei Mediopunkt-Schreibung zeigte sich hingegen lediglich bei langsamen Leser/ innen ein leichter Effekt. - Frequenz Häufige Wörter werden schneller und zuverlässiger erkannt, wie Reaktionszeiten und Fehlerraten in lexikalischen Entscheidungsexperimenten belegen (Warren 2012: 141). Frequenzeffekte wurden auf allen Ebenen der Verarbeitung belegt, wobei 3.1 Wort 93 <?page no="95"?> die Token-Frequenz (d. h. wie häufig eine spezifische Wortform vorkommt) zur Verfestigung (entrenchment) dieser Form führt, die Type-Frequenz (d. h. wie häu‐ fig eine bestimmte Konstruktion, z. B. ein Wortbildungsmuster, mit verschiedenen lexikalischen Einheiten vorkommt) hingegen zur Herausbildung eines Schemas der Konstruktion und damit zu ihrer Produktivität (vgl. Ellis 2012: 12 f.; Ellis/ Collins 2009: 330). Auf sprachstatistischer Grundlage wurden Regularitäten über den Zusam‐ menhang von Frequenz und Länge sowie Bedeutungsvielfalt beschrieben (Zipfsche Hypothesen): So sind häufigere Einheiten i. d. R. kürzer und verfügen über mehr Be‐ deutungen (vgl. Prün 2002: 281-285, 290-294). Die Häufigkeitsverteilung von Wörtern in natürlichsprachigen Texten folgt regelhaft dem Muster, dass es immer sehr wenige hochfrequente und sehr viele niedrigfrequente Einheiten gibt, wobei es sich bei den häufigsten Wörtern um Funktionswörter, bei den seltenen um Inhaltswörter handelt (vgl. Baroni 2009: 806-813). Neben der Frequenz spielt die Verbreitung (range, dispersion) eines Wortes in Texten und Domänen eine Rolle für seine Schwierigkeit, da die Wahrscheinlichkeit das Wort zu lernen höher ist, wenn es eine weite Verbreitung aufweist (Hashimoto/ Egbert 2019: 846; siehe auch Kap. 3.1.3). Zudem ist die kontextuelle Spezifik (contextual distinctiveness) von Bedeutung, d. h. inwieweit ein Wort sich in seinem Umfeld durch ein typisches Vorkommen anderer Wörter auszeichnet. McDonald und Shillcock (2001) weisen anhand von Experimenten der lexikalischen Entscheidung nach, dass die kontextuelle Spezifik, die sie in Form von Kookkurrenzvektoren auf der Grundlage großer Sprachkorpora ermittelt haben, einen starken Prädiktor für den lexikalischen Verarbeitungsaufwand bildet. Korpuslinguistische Arbeiten haben gezeigt, dass die reale Sprachverwendung überwiegend durch Musterhaftigkeit gekennzeichnet ist. Diese zeigt sich im signifi‐ kanten gemeinsamen Vorkommen sprachlicher Einheiten (d. h. in ihren Kollokationen bzw. Kookkurrenzen). Sprecher/ innen verfügen über fest geprägte Sprachgebrauchs‐ muster, auf die sie bei Produktion und Rezeption zurückgreifen und die durch die Analyse großer Mengen an Sprachdaten in Korpora der sprachwissenschaftlichen Analyse zugänglich sind (siehe Kap. 5.2). Lexikalische Einheiten erscheinen dabei als bedeutungstragende wiederkehrende Ko-Selektionsmuster. Dem Rückgriff auf solche Muster (idiom principle) wird für die Sprachverarbeitung größere Bedeutung beigemessen als der freien Kombination einzelner Wörter (open-choice principle) (vgl. Sinclair 1991; Ellis 2017). Psycholinguistisch werden diese Muster als vorgefertigte Sequenzen (‚formelhafte Einheiten‘) beschrieben, die als Ganze gespeichert und abgerufen werden (vgl. Wray 2002). 3.1.3 Wortbezogene Schwierigkeitsfaktoren auf Textebene Kapitel 3.1.2 hat schwierigkeitsbezogene Faktoren für Wörter bzw. Wortschatzeinhei‐ ten in Isolation betrachtet. Welche Rolle spielen nun Wörter im Hinblick auf die Schwierigkeit eines Textes? 94 3 Leicht, einfach, verständlich - Forschungsstand <?page no="96"?> Die Leseverstehensforschung hat gezeigt, dass Wortschatzwissen wesentlich für das Leseverstehen ist (Laufer 1997b, Nation 2013). Bestimmt wird dies anhand der Textdeckung, d. h. der Wortschatzmenge über die ein/ -e Leser/ -in in Bezug auf einen bestimmten Text verfügen muss, um ihn zu verstehen. Diese Deckung wird durch den Abgleich des Wortschatzes in einem Text mit (v. a. frequenzbasierten) Wortlisten (vgl. Kap. 3.1.4) bestimmt. Für das Englische wurde ermittelt, dass mindestens 95 % der laufenden Wörter in einem Text bekannt sein müssen, um ein Verständnis des gesamten Textes (welches über Leseverstehenstests geprüft wird) sicherzustellen (Laufer 2010). Dies bedeutet, dass alle 20 Wörter ein unbekanntes Wort vorkommt, also etwa eines alle zwei Zeilen (vgl. Nation 2013: 205). Für das Englische hat man auch ermittelt, dass für eine solche Deckung ein Wortschatz von 4000-5000 Wortfamilien (verstanden als Basiswort und dessen Derivationen) erforderlich ist (Laufer 2010). Als optimalen Schwellwert für selbständiges, nicht (unterrichtlich) unterstütztes Lesen hat man sogar eine Deckung von 98 % bestimmt, was einer Kenntnis von 8000 Wortfamilien entspricht (Laufer 2010, Nation 2013: 206). Die Wortschatzmenge, die für die erforderliche Deckung benötigt wird, variiert je nach Textsorte. Laut einer Untersuchung von Tschirner (2009) decken die häufigsten 1000 Wörter des Deutschen in Gesprächen 85,2 % der laufenden Wörter ab, in Belletristik 74,5 %, in Zeitungstexten 67,4 % und in Fachtexten 67,6 % (Tschirner 2009: 135, vgl. auch Nation 2013: 208). Laufer (2020) zeigt, dass die für die Deckung benötigte Wortschatzmenge nicht nur aus Wörtern bestehen muss, die aus dem Gedächtnis abgerufen werden können (sogenannter Sichtwortschatz, vgl. Ehri 2014), sondern dass sie auch aus dem (Text-)Kontext erschlossene Wörter umfassen kann. So konnten Englischlernende auf B1-Niveau, deren Sichtwortschatz nur 90 % Deckung erreichte, weitere 6,1 % Deckung durch inferierte Wörter dazu gewinnen (Laufer 2020: 1083). Die genannten Textdeckungsuntersuchungen, für die geübte Leser/ innen (Studierende) die Proband/ innen bildeten, belegen insgesamt die Wichtigkeit des beherrschten Wortschatzumfangs für das Leseverstehen. Abb. 11 illustriert das Konzept der Textdeckung anhand eines journalistischen Textes und eines Vergleichstextes in Leichter Sprache. Grau hinterlegt sind hier die Wörter, deren Lemma der Form nach Teil des B1-Zertifikatswortschatzes ist (vgl. Goethe-Institut 2016). Man sieht dabei, dass beim Leichte-Sprache-Text 95,7 % (220 Token von 230, Token = laufende Wörter, siehe auch Kap. 5.1) durch den B1-Wortschatz abgedeckt sind, während es beim journalistischen Text 78,7 % (159 Token von 202) sind; abgezogen wurden bei der Zählung Eigennamen und Zahlen, die in der Abbildung aber dennoch markiert sind. Das bedeutet, dass der Leichte-Sprache-Text mehr Wortschatz enthält, der für ein mittleres Sprachniveau als verständlich eingestuft wird, während der standardsprachliche Nachrichtentext einen größeren Teil anderer Wörter enthält und insofern als schwieriger verständlich gelten kann. Einschränkend ist zum Maß der Textdeckung anzumerken, dass dieses auf Einzelwortebene operiert und Mehrwor‐ teinheiten nicht als solche berücksichtigt werden. 3.1 Wort 95 <?page no="97"?> Abb. 11: Beispiel für eine Textdeckung durch B1-Wortschatz In der Lesbarkeitsforschung wurde genauer untersucht, welche Wortschatzzusammen‐ setzung einen Text schwieriger macht. Die Grundlage bildeten dabei Texte, die aus dem Kontext der Fremdsprachenvermittlung einer bestimmten Niveaustufe zugeordnet und damit nach Schwierigkeit bereits klassifiziert waren. Sie wurden mit Methoden der Computerlinguistik nach verschiedenen grammatischen und lexikalischen Merkmalen analysiert. Durch maschinelles Lernen wurden auf der Basis dieser klassifizierten Texte Modelle trainiert, mit deren Hilfe unbekannte Texte über die Ausprägung der Merkmale nach ihrer Schwierigkeit eingestuft werden können. Die lexikalischen Merkmale, die hier eingesetzt werden, umfassen ● das Type-Token-Verhältnis, d. h. das Verhältnis der verschiedenen vorkom‐ menden Wortformen zur Anzahl aller vorkommenden Wortformen (lexikalische Variation, siehe auch Kap. 5.1), ● die lexikalische Dichte (Anteil der Inhaltswörter an der Gesamttokenzahl) sowie ● wortartspezifische Variationsmaße (z. B. Anteil der Verben an der Gesamttoken‐ menge (Verbdichte), Type-Token-Relation bezogen auf Verben). Diese Maße der lexikalischen Vielfalt (lexical richness) wurden aus der Fremdspra‐ chenerwerbsforschung übernommen, wo sie eingesetzt wurden, um die Qualität von Lernertexten und damit den Kompetenzstand einzuschätzen (vgl. Hancke/ Vajjala/ Meu‐ rers 2012; Vajjala/ Meurers 2014). 96 3 Leicht, einfach, verständlich - Forschungsstand <?page no="98"?> Auf Textebene gilt somit der Grad der Variation der Lexik als Schwierigkeitsfaktor. Dem entsprechen die Anforderungen an die Größe des beherrschten (oder inferierten) Wortschatzumfangs seitens der Rezipient/ innen. 3.1.4 Schwierigkeitsbezogene Wortschatzkonzepte Unter dem Aspekt der Schwierigkeit wurden nicht nur Einzelwörter oder Wörter in Texten betrachtet, sondern es wurden auch spezifische Wortschätze, also Selektionen von Wörtern, konzipiert. Solche schwierigkeitsbezogenen Wortschatzkonzepte zielen darauf ab, eine effiziente Auswahl jener Wörter bereitzustellen, deren Kenntnis für die Kommunikation bzw. die Rezeption von Texten den größtmöglichen Nutzen erbringt. Ein Konzept dieser Art ist die frequenzbasierte Bestimmung von Wortschätzen für verschiedene Niveaustufen des Fremdsprachenlernens. Sprecher/ innen einer Sprache erreichen mit einem bestimmten Sprachniveau auch einen bestimmten Wortschat‐ zumfang. Um diesen Umfang zu bestimmen, wurde mittels Regressionsanalyse die Beziehung zwischen Leseniveau der Lernenden laut Sprachtest und ihrem Wortschat‐ zumfang (d. h. ihrer Leistung im Wortschatztest) modelliert. Für Deutschlernende betragen die so geschätzten Wortschatzumfänge für A1 weniger als 1000, für A2 nicht ganz 2000, für B1 etwas über 3000, für B2 etwa 4000 und für C1 über 5000 Wörter (vgl. Tschirner 2019: 101). Basierend auf Untersuchungen zum Zusammenhang von Textdeckung und Leseverstehen wird argumentiert, dass für die Auswahl der Wörter für die einzelnen Niveaustufen jeweils die häufigsten Wörter des Deutschen zugrunde gelegt werden sollten, da mit ihnen die größten Deckungswerte erreicht werden können (vgl. Tschirner 2005). Entscheidend ist dabei das Korpus (d. h. die Textsammlung, siehe Kap. 5.1), auf dessen Grundlage die Häufigkeitsliste ermittelt wurde. Es sollte im Hinblick auf Textsorten/ Diskursarten bzw. Gebrauchsdomänen ausgewogen und aktuell sein. Neben der Frequenz der Wörter ist ihre Verbreitung (Dispersion), d. h. die Gleichmäßigkeit ihres Vorkommens über die Texte im Korpus, zu berücksichtigen (vgl. Tschirner 2010: 238). Erst aus Frequenz und Verbreitung eines Wortes lässt sich seine Gebrauchsrelevanz ableiten (vgl. Koesters-Gensini 2009: 199). Für das Deutsche liegt das Frequenzwörterbuch von Tschirner und Möhring (2019) vor, welches die 5000 häufigsten Wörter der Sprache erfasst. Die Zählung basiert auf einem Korpus von 20 Mio. Token, das jeweils ca. 5 Mio. Token an gesprochener Spra‐ che, literarischen, journalistischen und wissenschaftlichen Texten umfasst (vgl. zur genauen Zusammensetzung Tschirner/ Möhring 2019: 2 f.). Das Frequenzwörterbuch ist zwar an L2-Lernende gerichtet, kann jedoch auch für die Gestaltung von Texten, die bewusst auf Basis von häufigem Wortschatz erstellt werden sollen, genutzt werden. Den frequenzbezogen ermittelten Wortschätzen stehen solche gegenüber, deren Zu‐ sammenstellung auf pragmatischen Kriterien beruht (vgl. Lange/ Okamura/ Scharloth 2015: 206). Das Konzept des Grundwortschatzes stellt eine didaktisch begründete Wortschatzauswahl dar. Manchmal spricht man z. B. auch von Allgemeinwortschatz, Basiswortschatz oder Gebrauchswortschatz (vgl. Kühn 1990: 1353): Es handelt sich um 3.1 Wort 97 <?page no="99"?> reduzierte Wortschätze, die in Bezug auf den Erst- oder Zweitbzw. Fremdsprachen‐ erwerb das Ziel der Lerneffektivierung verfolgen, indem sie für die Lernenden einen nach bestimmten Kriterien besonders wichtigen Wortschatz zusammenstellen (vgl. Kühn, 1990: 1353). Sie sollen Lernenden denjenigen Wortschatz verfügbar machen, den diese benötigen, um die gelernte Sprache (v.-a. in Alltagssituationen) hinreichend zu verstehen bzw. sich in ihr verständlich zu machen (vgl. Kühn 2010: 308). Die Bestimmung des Grundwortschatzes in aktuellen Referenzwerken für Deutsch als Fremdsprache (Glaboniat et al. 2005) folgt diesen pragmatischen Kriterien, indem Wörter nach ihrer Relevanz für Handlungszusammenhänge ausgewählt werden (also z. B. Wortschatz, der für eine Begrüßung oder beim Einkaufen benötigt wird). Da eine solche Auswahl zu unterschiedlichen Ergebnissen führen kann, unterscheiden sich die nach diesem Kriterium zusammengestellten Grundwortschätze teils deutlich (vgl. Koesters-Gensini 2009: 198 f., Lange et al. 2015: 203-206). Das Konzept des Kernwortschatzes bzw. des zentralen Wortschatzes wird hinge‐ gen über lexikologische Kriterien bestimmt und ist nicht auf didaktische Anwendungs‐ kontexte beschränkt (Haderlein 2008: 130-133). Carter (1987) hat Tests zur Bestimmung des Kernwortschatzes vorgeschlagen: Wörter des Kernwortschatzes sind demnach semantisch übergeordnet und von allgemeinerer Bedeutung, sie können andere spezi‐ fischere Wörter ersetzen, es kann für sie ein Antonym angegeben werden, sie sind in ihrem Kollokationsverhalten weniger eingeschränkt, haben ein größeres Spektrum an Unterbedeutungen, sind selbst eher ein Hyperonym, werden häufig genutzt, um Inhalte zusammenzufassen und sind in Bezug auf Register bzw. Stil neutral, verfügen also über keine konnotative Bedeutung und sind nicht an ein bestimmtes Thema gebunden (Carter 1987: 180-185; Haderlein 2008: 114-124). Zentrale Wortschätze werden gefasst als nach anwendungsorientierten Zielen aufgrund bestimmter Krite‐ rien ermittelte, „bewusst quantitativ begrenzte“ Teilmenge des „Wortschatzes einer Sprache, Sprachvarietät oder Textsammlung“ (Haderlein 2008: 130). Die Zentralität besteht damit relativ zu dem Ausgangswortschatz, auf dessen Grundlage die Auswahl geschieht (Haderlein 2008: 130). Die hier zusammengefassten Kriterien gehen für Sprachbenutzer/ innen mit einer besonderen Reichweite der Einheiten des Kernwort‐ schatzes einher, d. h. diese können für besonders viele Kommunikationssituationen bzw. -zwecke eingesetzt werden, was wiederum auch ein Kriterium der Wortschatz‐ auswahl aus fremdsprachendidaktischer Perspektive darstellt (vgl. Neuner 1991: 78). Zusammenfassend können drei Ansätze für schwierigkeitsbezogene Wortschatz‐ konzeptionen unterschieden werden: Die Auswahl der in Sprachkorpora am häufigsten vorkommenden Wörter, die Auswahl der mit einer als grundlegend bestimmten Menge an sprachlichen Handlungen verbundenen Wörter sowie die Auswahl der im Verhältnis zum Wortschatzsystem mit einer besonderen Reichweite verbundenen Wörter. Dabei liegen unterschiedliche Perspektiven zugrunde: eine lerntheoretische (sprachliches Wissen wird aus Inputdaten durch assoziatives Lernen erworben, daher ist Inputhäufigkeit entscheidend), eine didaktisch-kommunikationsorientierte (Ziel des Fremdsprachenunterrichts ist es, Handlungskompetenz zu vermitteln, daher 98 3 Leicht, einfach, verständlich - Forschungsstand <?page no="100"?> ist die Auswahl der Wörter an ihrem Handlungsbezug zu orientieren) sowie eine sprachsystematisch-lexikologische (es werden Wörter ausgewählt, die aufgrund ihrer linguistisch beschreibbaren Position im Wortschatz besonders weitreichend verwendet werden können). 3.1.5 Gibt es leichte bzw. einfache Wörter? - Zusammenhänge zwischen den Schwierigkeitsfaktoren Die bisher beschriebenen Merkmale werden in der Forschung zwar als distinkte Faktoren untersucht, sind in der realen Sprachverwendung jedoch nicht unabhängig voneinander (Bulté/ Housen 2012: 26). Der Kern der Schwierigkeit liegt nicht in einem einzelnen der beschriebenen Merkmale, sondern in ihrem Zusammenspiel (Housen/ Si‐ moens 2016: 170). So sind hochfrequente Wörter tendenziell polysemer, werden früher erworben, sind (in ihrer ursprünglichen Bedeutung) konkret, den Sprecher/ innen sehr vertraut und besitzen einen Referenzstatus, indem neu gelernte Wörter in Bezug zu diesen abgespeichert werden (Schwanenflugel/ Gaviskà 2005: 1736). Bei den häufigsten Wörtern handelt es sich um Funktionswörter, um wenige Types, die in ihrer Form kurz und von geringer Salienz, in ihrer Funktion aber vielfältig und hinsichtlich ihrer Bedeutung grammatisch-abstrakt sind (Cintrón-Valentín/ Ellis 2016: 3). Demgegenüber zeichnen sich seltene Wörter dadurch aus, dass sie Inhaltswörter, tendenziell länger bzw. strukturell komplexer und bedeutungsspezifischer sind. Einzelne Wörter sind zu‐ dem in unterschiedlichem Maße immer auch Teil von verfestigten Gebrauchsmustern. Die beschriebenen Faktoren lassen also nur im Zusammenspiel eine Aussage über die Schwierigkeit von Wörtern zu. So untersuchten im Kontext der L2-Erwerbsforschung beispielsweise Hashimoto und Egbert (2019) 33 Variablen nach ihrem Einfluss auf die Erlernbarkeit/ Schwierigkeit von Wörtern im Englischen als Fremdsprache. Die Frequenz des Wortes zeigte sich dabei als größter, aber nicht alleiniger Einflussfak‐ tor; die Polysemie, die kontextuelle Spezifik sowie die Verbreitung erwiesen sich ebenfalls als einflussreich. Die Autoren schließen daraus, dass verschiedene Aspekte der Wahrscheinlichkeit, ein Wort im sprachlichen Input kennenzulernen, für seine schwerere oder leichtere Erlernbarkeit verantwortlich sind (vgl. Hashimoto/ Egbert 2019: 860). D.h., je häufiger es ist, je verbreiteter über verschiedene Kontexte hinweg und je kookkurrenzbezogen eindeutiger (d. h. mit typischen Kombinationspartnern vorkommend) es im jeweiligen Kontext angetroffen wird, umso einfacher ist es zu lernen (zum Begriff der Kookkurrenz siehe Kap. 5.2.3). Exkurs: Experimentelle Untersuchungen zur Rolle von wortbezogenen Faktoren für die Text(aufgaben)schwierigkeit Im Kontext der Bildungsspracheforschung wurde untersucht, inwieweit die Schwierigkeit von (Schulbuch-)Texten oder Textaufgaben u. a. durch eine Ver‐ änderung der schwierigkeitsbezogenen Wortmerkmale beeinflusst wird. Dafür 3.1 Wort 99 <?page no="101"?> wurde die Wortwahl in Texten in Bezug auf u. a. Frequenzeigenschaften, Variation oder lexikalische Komplexität manipuliert. Die Hypothese, dass Texte oder Auf‐ gabenformulierungen, die weniger sprachliche Schwierigkeitsmerkmale - u. a. auf Wortebene - aufweisen, zu besseren Verstehens- oder Bearbeitungsleistungen führen, konnte von Heine et al. (2018) tendenziell bestätigt werden. Andere Studien fanden jedoch keinen Effekt (Leiss/ Domenech/ Ehmke/ Schwippert 2017; Härtig/ Fraser/ Bernholt/ Retelsdorf 2019). Leiss et al. (2017) diskutieren als mög‐ liche Ursache hierfür, dass durch die sprachlichen Vereinfachungen auch der Textinhalt so verändert wurde, dass zwischen den Textversionen keine vollstän‐ dige fachliche Informationsäquivalenz vorlag. Sie zeigen damit auch Grenzen dieses Vorgehens auf und lenken den Blick auf die mit sprachlicher Vereinfachung einhergehenden Nebenwirkungen. - Zielgruppen- und Kontextabhängigkeit der Schwierigkeitsfaktoren Wortbezogene Schwierigkeitsfaktoren sind je nach Zielgruppe und Kontext unter‐ schiedlich zu gewichten. Diese Abhängigkeit soll hier abschließend in vier Aspekten an konkreten Beispielen verdeutlicht werden. Unterschiede in der Spracherfahrung bzw. im sprachlichen Input führen zu unterschiedlichen Schwierigkeitsprofilen: Für die Gruppe der DaF-Lernenden (siehe Kap. 4.2) gibt es mit den Niveaustufen des gemeinsamen europäischen Referenz‐ rahmens für Sprachen (vgl. Trim/ North/ Coste 2001) eine Beschreibung von Sprach‐ kompetenzen in sechs Stufen (A1, A2, B1, B2, C1, C2). Diese liegen der curricularen Planung, den Lehrmaterialien sowie den Tests und Prüfungen zugrunde. Das Referenz‐ werk „Profile Deutsch“ (Glaboniat et al. 2005) spezifiziert für das Deutsche, welche sprachlichen Mittel (Sprachhandlungen, Wortschatz, Grammatik) den einzelnen Ni‐ veaustufen zugeordnet sind. In Bezug auf die Auswahl des Wortschatzes wird hier dem kommunikativ-pragmatischen Ansatz der Grundwortschatzbestimmung gefolgt (vgl. Kap. 3.1.4). Eine Gegenüberstellung des Profile-Deutsch-Wortschatzes mit Häufigkeits‐ listen zeigt, dass durch diese Auswahl z.T. Wörter auf dem niedrigsten Sprachniveau A1 nicht berücksichtigt werden, die zu den 1000 häufigsten gehören (z. B. Bedeutung, Beispiel oder laufen) und andererseits zahlreiche A1-Wörter nicht zu den häufigsten des Deutschen zählen (z. B. Marmelade, Parkverbot, zäh) (vgl. Möhring/ Wallner 2013; auch Tschirner 2009: 138-140). Für Lernende, die ihren sprachlichen Input vor allem aus dem Fremdsprachenunterricht beziehen, ergeben sich somit andere Inputfrequenzen und damit andere Erwerbsmöglichkeiten als für L1-Sprecher/ innen oder auch Lernende, welche die Sprache im Zielland erwerben und somit über den Unterricht hinaus Spracherfahrungen sammeln können. Die Aussagen, die auf der Basis von L1-Korpora über die Rolle von Frequenz in Bezug auf Einfachheit bzw. Schwierigkeit getroffen werden, können daher nur begrenzt auf Zielgruppen übertragen werden, die nicht über eine entsprechende Sprachexposition verfügen (vgl. Beinborn 2016: 81). Frequenzmaße müssten daher den gruppenspezifischen Input berücksichtigen. 100 3 Leicht, einfach, verständlich - Forschungsstand <?page no="102"?> Was einfach oder schwierig ist, kann nach Kontext variieren: Für den Bil‐ dungskontext lässt sich am Beispiel der „alltäglichen Wissenschaftssprache“ (AWS) (Ehlich, 1999) zeigen, dass Wörter, die in einem alltäglichen Kontext ‚leicht‘ erscheinen, in einem anderen (bildungssprachlichen) ‚schwierig‘ sein können. Die AWS umfasst Ausdrucksmittel, die zwar der alltäglichen Gemeinsprache entstammen, jedoch auch fächerübergreifend im Bildungskontext gebraucht werden. Dort werden sie schwierig, da sie in diesen Kontexten (z. B. in der schulischen Bildungssprache) spezifische Bedeutungen annehmen, polysem bzw. vage sind und als Realisierungen spezifischer Handlungen verstanden werden müssen. So reicht etwa das Bedeutungsspektrum des Verbs darstellen in Schulbuchtexten von konkreten Handlungen der Wiedergabe (i.S.v. ‚schauspielerisch wiedergeben‘), der visuell-bildnerischen Wiedergabe (i.S.v. ‚abbilden‘) über die sprachliche Wiedergabe (i.S.v. ‚beschreiben‘) bis hin zu einer abstrakten Identitätsbeziehung (i.S.v. ‚sein‘) (vgl. Meißner/ Wallner 2018). Die Verben der AWS basieren häufig auf alltäglich gebräuchlichen, in der Ursprungsbedeutung konkreten Verben wie etwa gehen, stellen, legen in eingehen auf, zur Verfügung stellen, zugrunde legen usw. (vgl. Meißner 2014 für einen Bestand solcher ‚figurativen‘ Verben der AWS). Demgegenüber stellen Fachwörter, die den oben beschriebenen Merkmalen zufolge als schwierig einzustufen wären, im schulischen Kontext keine differenzielle, d. h. nur bestimmte Personengruppen betreffende, Herausforderung dar, da sie für alle Lernenden neu sowie (auch durch ihre z.T. fremde Form) als Vermittlungsgegenstand auffällig bzw. bewusst sind und daher in größerem Umfang als die AWS-Ausdrücke explizit thematisiert und eingeführt werden (Köhne et al. 2015: 69). Individuelle Unterschiede haben einen Einfluss darauf, welche Wörter ein‐ fach oder schwierig sind: In Bezug auf die Zielgruppe der Deutsch Lernenden sind mit Blick auf die Frage, welche Wörter in Bildungskontexten schwierig sind, zudem die Kenntnisse in der L1 sowie weiteren Sprachen einzubeziehen. So können etwa scheinbar schwierige Fremdwörter wie Analyse, Diskussion, Interpretation, wenn es sich um Kognate (Internationalismen bzw. Eurolatinismen) mit lateinisch-griechischem Ursprung handelt, von Lernenden mit Hilfe der (i. d. R.) ersten Fremdsprache Englisch oder (v. a. bei romanischen Sprachen) mit Hilfe ihrer L1 leichter erschlossen werden (vgl. Meißner 1996; Beinborn 2016; Meißner 2020). Andere Faktoren als sprachliche Schwierigkeit können in bestimmten Kontexten die Wahl eines Wortes notwendig machen: Am Sprachgebrauch in Bildungskontexten lässt sich z. B. verdeutlichen, dass eine spezifische Wortwahl - unabhängig von den genannten Schwierigkeitsmerkmalen - in einem bestimmten Kontext funktional notwendig sein kann und sich daher nicht ohne Folgen verändern lässt. So weisen Sachaufgaben, wie sie etwa im Mathematikunterricht verwendet werden, oft in ihrer Formulierung Ausdrücke auf, die als Schlüsselwörter für die Lösung fungieren (etwa weniger oder übrig bleiben für eine Lösung mittels Subtraktion) und deren Ersetzung negative Auswirkungen auf das Lösungsverhalten hat (vgl. Daroczy/ Wolska/ Meurers/ Nuerk 2015). 3.1 Wort 101 <?page no="103"?> Die genannten Aspekte können die Vielschichtigkeit der Antwort, welche Wörter einfach oder schwierig sind, nur andeuten. Sie zeigen aber, dass sie je nach Zielgruppe und Handlungskontext spezifisch beantwortet werden muss. - Aufgaben 1. Heine et al. (2018) variieren die sprachliche Gestaltung von Textaufgaben u. a. in Bezug auf die verwendeten Wörter. Es werden drei Versionen (leicht, mittel, schwer) entworfen, die hier anhand einer Textaufgabe aus dem Fach Mathematik illustriert werden (zitiert aus: Heine et al. 2018: 87, Auslassungen im Original). a. Vergleichen Sie die Versionen im Hinblick auf die verwendete Lexik. Welche wortbezogenen Schwierigkeitsfaktoren wurden verändert? b. Welche weiteren sprachlichen Merkmale sind von den Veränderungen be‐ troffen und welche Wechselwirkungen ergeben sich? Version 1: Emil und Tarek wohnen im selben Haus. Emil war mit seinem Auto 21 Tage im Urlaub in Schweden. Tarek war zur selben Zeit mit seinem Auto in Spanien. Beide Autos sind jetzt sehr schmutzig. […] Es gibt die Putzstation oder die Waschstraße. Zur Putzstation kostet die Fahrt hin und zurück 2 Euro. Sie ist 6 km entfernt. An der Putzstation machen alle Leute ihre Autos selber sauber. Das kostet nur 0,50 Euro pro Minute. […] Version 2: Emil und Tarek bewohnen dasselbe Haus. Emil hat auf einer Urlaubsreise 21 Tage lang mit seinem Auto Schweden bereist, während Tarek zur selben Zeit mit seinem Fahrzeug in Spanien unterwegs war. Daher sind beide Autos nun sehr schmutzig, […] Sie können die Putzstation aufsuchen oder die Waschstraße benutzen. Für die Hin- und Rückfahrt zur Putzstation fallen Fahrtkosten in Höhe von 2 Euro an - sie liegt in 6 km Entfernung. Man kann dort das Auto selber reinigen, was nur 0,50 Euro pro Minute kostet. […] Version 3: Emil und Tarek sind im selben Mehrfamilienhaus wohnhaft. Nachdem Emil mit seinem Auto eine 21-tägige Urlaubsreise nach Schweden und Tarek im selben Zeitraum mit seinem Auto eine Fahrt nach Spanien unternommen hat, sind beide Fahrzeuge derzeit stark verunreinigt. […] Dazu besteht die Möglichkeit, die Putzstation in Anspruch zu nehmen oder die Waschstraße aufzusuchen. Bei erstgenannter sind Kosten für die Hin- und Rückfahrt in Höhe von 2 Euro einzuplanen. Die Anfahrtstrecke dorthin beträgt 6 km. Bei der Putzstation hat man die Möglichkeit, das Fahrzeug in Eigenarbeit zu säubern, wobei lediglich Kosten von 0,50 Euro pro Minute entstünden. […] 2. Neben dem in Kapitel 3.1.4 erwähnten Frequenzwörterbuch gibt es eine vom Institut für Deutsche Sprache (IDS) bereitgestellte frequenzorientierte Wortschatz‐ liste des Deutschen (DeReWo-Liste). Sie basiert auf der größten elektronischen Sammlung geschriebener deutschsprachiger Texte (das Deutsche Referenzkorpus (DeReKo), vgl. Leibniz Institut für Deutsche Sprache 2021, siehe auch Kap. 5.1). 102 3 Leicht, einfach, verständlich - Forschungsstand <?page no="104"?> Die DeReWo-Liste von 2012 umfasst alle Lemmata des zu diesem Zeitpunkt über 5 Milliarden Wörter umfassenden DeReKo-Korpus und weist für jedes Lemma die Häufigkeitsklasse (siehe Kap. 5.1) aus. Die Liste ist verfügbar unter: https: / / www. ids-mannheim.de/ digspra/ kl/ projekte/ methoden/ derewo [11.07.2022] a. Betrachten Sie die häufigsten Lemmata der DeReWo-Liste. Charakterisieren Sie diese Einheiten hinsichtlich der in Kapitel 3.1.2 genannten Schwierig‐ keitsfaktoren. b. Betrachten Sie nun seltenere Lemmata der DeReWo-Liste. Welche Aussagen über die Schwierigkeit würden Sie hier treffen? 3. Betrachten Sie die nicht grau hinterlegten (d.-h. nicht im B1-Wortschatz enthalte‐ nen) Wörter in Abbildung 11. a. Beschreiben Sie diese Wörter hinsichtlich ihrer Beziehungen im Wortschatz des Deutschen. b. Suchen Sie die Wörter in der DeReWo-Liste und ermitteln Sie ihre Häufigkeit. Diskutieren Sie anhand ihrer Ergebnisse die verschiedenen Ansätze schwie‐ rigkeitsbezogener Wortschatzkonzeptionen. 3.2 Satz Mathilde Hennig Ausgehend von gängigen Leichte-Sprache-Regeln beschäftigt sich das Kapitel mit der Frage, was eigentlich leichte/ einfache Sätze sind. Da ‚leicht‘ und ‚einfach‘ den Pol einer Skala bezeichnen, dessen Gegenpol ‚schwer‘ bzw. ‚komplex‘ ist, kann die Frage danach, was einen Satz leicht bzw. einfach macht, am besten durch einen Vergleich mit schweren/ komplexen Sätzen bearbeitet werden. Das Kapitel setzt bei der Frage an, was Satzkomplexität eigentlich ausmacht, um damit eine Vergleichsschablone für die Bestimmung von Satzeinfachheit zu etablieren. Dabei können Satzkomplexität und Satzeinfachheit nicht allein aus satzsyntaktischer Perspektive bestimmt wer‐ den, vielmehr spielt die satzsemantische Seite eine übergeordnete Rolle: Komplexe syntaktische Strukturen werden verwendet, um komplexe Inhalte abzubilden. Das Kapitel arbeitet meistens mit dem etablierten Begriffspaar ‚einfach-kom‐ plex‘. Der ‚einfache Satz‘ als Gegenbegriff zu Satzgefügen und Satzverbindun‐ gen hat sogar eine Tradition in der Schulgrammatik. Mit dem Begriffspaar ‚einfach-komplex‘ wird hier vor allem die Systemperspektive in den Blick genommen, d. h., die Frage, was einen Satz eigentlich aus der Perspektive des Sprachsystems und seiner Beschreibung einfach oder komplex erscheinen lässt. Das Begriffspaar ‚leicht-schwer‘ hingegen hebt stärker auf die Perspektive der Verständlichkeit ab, also die Frage, was einen Satz für einen Rezipienten leicht oder schwer verstehbar macht. 3.2 Satz 103 <?page no="105"?> Abb. 12: Einfache/ leichte vs. komplexe/ schwere Sätze im Spannungsfeld von Satzinhalt, Satzstruktur und Satzverstehen 3.2.1 Leichte Sätze in Leichter Sprache Satzbezogene Regeln in gängigen Regelwerken Der Überblick über satzbezogene Regeln bezieht sich auf die folgenden Regel‐ werke: Inclusion Europe (2009) (=-IE) Regeln des Netzwerks Leichte Sprache (BMAS 2014) (=-NW/ BMAS) Regeln der BITV 2.0 (2011) (BITV) 1. Satzlänge „Schreiben Sie kurze Sätze.“ (NW/ BMAS) „Es sind kurze Sätze [mit klarer Satzgliederung] zu bilden.“ (BITV) „14. Schreiben Sie immer kurze Sätze.“ (IE) 2. Satzstruktur „Benutzen Sie einen einfachen Satz-Bau.“ (NW/ BMAS) „Es sind [kurze] Sätze mit klarer Satzgliederung zu bilden.“ (BITV) 3. Satzinhalt „Machen Sie in jedem Satz nur eine Aussage.“ (NW/ BMAS) „Benutzen Sie positive Sprache.“ (NW/ BMAS) „16. Wenn möglich: Vermeiden Sie Verneinungen.“ (IE) 104 3 Leicht, einfach, verständlich - Forschungsstand <?page no="106"?> „1. […] Verneinungen […] sind zu vermeiden.“ (BITV) 4. Satzmodalität „Vermeiden Sie den Konjunktiv.“ (NW/ BMAS) „1. […]Konjunktiv[…]-Konstruktionen sind zu vermeiden.“ (BITV) 5. „Satzqualität“ (im Sinne von: stilistischer Qualität) „1. […] Passiv- und Genitiv-Konstruktionen sind zu vermeiden.“ (BITV) „17. Verwenden sie (sic! ) wenn möglich aktive Formen. Vermeiden Sie wenn möglich passive Formen.“ (IE) „Benutzen Sie Verben. Vermeiden Sie Haupt-Wörter. Benutzen Sie aktive Wörter. Vermeiden Sie den Genitiv.“ (NW/ BMAS) 6. Satzverknüpfung „Am Anfang vom Satz dürfen auch diese Worte stehen: oder; wenn; weil; und; aber“ (NW/ BMAS) Wenn man bedenkt, dass der Satz die zentrale Organisationseinheit von Aussagen ist, sind die vorliegenden Regeln erstaunlich knapp und unspezifisch (vgl. auch die Diskussion in Bredel/ Maaß 2016: 89 ff.). Einige der Regeln, die hier dem Satz zugeordnet wurden, werden in den NW/ BMAS-Regelwerken unter ‚Wort‘ subsumiert, und zwar die Regeln zum Genitiv, Passiv, Konjunktiv sowie zu Verben vs. Nomen. Da es dabei aber um Fragen von Satzinhalten und Satzstrukturen geht, ordnen wir sie hier dem Satzbereich zu. Trotz ihrer Überschaubarkeit bieten die Regeln interessante Anhaltspunkte für ein Verständnis von einfachen vs. komplexen Sätzen. Die folgende Übersicht soll das im Sinne von Antos (1996) als „laienlinguistisch“ einzustufende Begriffsverständnis veranschaulichen: Abb. 13: Einfache/ leichte vs. komplexe/ schwere Sätze: Begriffsverständnis der Leichte-Sprache-Regel‐ werke 3.2 Satz 105 <?page no="107"?> Aus den aufgeführten Stichwörtern lassen sich (mindestens) die folgenden Aufgaben‐ felder für eine linguistische Rekonstruktion von Satzeinfachheit bzw. Satzkomplexität ableiten, auf die im Folgenden genauer eingegangen wird: ● Satzinhalt (hier können Stichwörter wie Aussage, Negation, Konjunktiv subsum‐ miert werden); ● Satzlänge (wobei die Gegenüberstellung kurzer und langer Sätze offenbar auch den Vergleich von Sätzen mit oder ohne Nebensätze impliziert); ● Satzstruktur (Wortstellung); ● „Satzqualität“ (Nominalstil vs. Verbalstil, Aktiv vs. Passiv). Für das Verständnis von ‚Satz‘ wird die Definition aus dem Studienbuch „Nominalstil“ (Hennig 2020) verwendet. Für die Begründung und Herleitung der Definition sei auf die dortige Darstellung verwiesen. Definition: Satz Ein Satz ist eine selbstständige syntaktische Einheit, die über einen Satzinhalt und eine prototypische lineare und hierarchische Struktur verfügt. Die hierarchische Struktur ist dadurch gekennzeichnet, dass das Vollverb auf der Basis seiner Valenzpotenz bestimmte Ergänzungen verlangt. Der Satz kann darüber hinaus auch nicht valenzgebundene Angaben enthalten. Da Ergänzungen und Angaben (= Satzglieder) auch in Form eines Nebensatzes realisiert werden können, gilt nach diesem Verständnis auch ein Satzgefüge als Satz. Zu beachten ist, dass es sich bei dieser Definition um eine Definition des grammatischen Satzes handelt, nicht des orthographischen (zur Unterscheidung vgl. Ágel 2017: 11). 3.2.2 Satzkomplexität aus linguistischer Perspektive - Satzinhalt(e) Mit der „Nur eine Aussage pro Satz“-Regel des Netzwerks Leichte Sprache macht das Regelwerk den Satzinhalt zum Ausgangspunkt für die Bestimmung von Satzeinfach‐ heit. Auch wenn das Regelwerk eine Explizierung der Regel vermissen lässt, ist das Ausgehen vom Satzinhalt durchaus sinnvoll, denn schließlich bilden wir Sätze, um etwas auszusagen. Sätze sind sozusagen kein syntaktischer Selbstzweck. Was ist also unter ‚Aussage‘ zu verstehen und inwiefern ist die Frage nach den Satzinhalten relevant für die Bestimmung von Satzkomplexität? Für die Beschäftigung mit diesen Fragen greifen wir auf die Erfassung von Satzinhalten in der „Deutschen Satzsemantik“ von Peter von Polenz (2008[1985]) zurück (Abb. 14). Bei von Polenz ist die ‚Aussage‘ synonym mit ‚Prädikation‘, sie enthält obligato‐ risch das Prädikat als Aussagenkern sowie Referenzbzw. Bezugsstellen. Zu beachten 106 3 Leicht, einfach, verständlich - Forschungsstand <?page no="108"?> ist, dass ‚Prädikat‘ hier prädikatenlogisch im beschriebenen Sinne gemeint ist und folglich nicht das schulgrammatische Prädikat meint - für dieses verwendet von Polenz den Terminus ‚Prädikatsausdruck‘. Die Prädikation ist aber nur eine Seite der Medaille, sie macht den propositionalen Gehalt eines Satzes aus, dem von Polenz den pragmatischen Gehalt als „ebenso obligatorische Hälfte des Satzinhalts“ (von Polenz 2008: 92) gegenüberstellt. Den propositionalen Teil des Satzinhalts bezeichnet von Polenz als den „vorpragmatische[n] Teil im Sinne von Bühlers ‚Darstellungsfunktion‘“ (ebd.). Da das sprachliche Zeichen im Sinne von Bühler auch eine Appell- und Ausdrucksfunktion aufweist, liegt es auf der Hand, dass auch die pragmatischen Satzinhalte obligatorischer Teil des Satzinhalts sind. Dabei handelt es sich um die „sprechakttheoretischen Komponenten“ des pragmatischen Gehalts (ebd.), zu denen er auch die propositionale Einstellung/ Sprechereinstellung rechnet. Satzinhalt Prädikation / Aussage Prädikat / Aussagekern Propositionaler Gehalt / Aussagegehalt Pragmatischer Gehalt / Handlungsgehalt Relation / Aussagenverknüpfung Referenz / Bezug Quantifizierung / Größenbestimmung Illokution / Sprecherhandlung Perlokution / Bewirkungsversuch Kontakt und Beziehung Propositionale Einstellung / Sprechereinstellung Abb. 14: Satzinhalte (von Polenz 2008: 93) Zu den propositionalen (und damit grundlegenden/ einfachen und nicht komplexen) Sprechereinstellungen gehören Einstellungen wie „Für-Wahr-Halten“ und „Verneinen“. Von Polenz betrachtet beispielsweise die „Verneinung nicht als Einbettungsstruktur […], sondern als „konstitutive[n] Teil des einfachen Satzinhalts, ähnlich wie die Sprechereinstellungen zum Wahrheitswert“ (von Polenz 2008: 216). Die Zuordnung der Negation zu den elementaren Satzinhalten kann als Erklärung dafür genutzt werden, „dass wir auf Negation als Kategorie nicht verzichten können“ (Bredel/ Maaß 2016: 460). Das bedeutet aber nicht, dass Negationen nicht „kognitiv anspruchsvoll sein“ können (ebd.). Bredel/ Maaß (2016: 457) ordnen sowohl die Negation als auch irreale Konditionalgefüge als „kontrafaktische Konstruktionen“ ein: „Dabei wird ein alternativer Weltverlauf angeboten, in dem das Faktische in einem Horizont möglicher 3.2 Satz 107 <?page no="109"?> Alternativen als nicht notwendig dargestellt wird.“ (ebd.) Es wird also „eine Welt entworfen, die in dieser Form gar nicht existiert und die vom Basisraum auch nicht zugänglich ist“ (ebd.). Bredel/ Maaß sprechen von einer „Strukturähnlichkeit“ von irrealen Konditionalgefügen und Negation: „sie holen eine hörerseitige Erwartung an die sprachliche Oberfläche und löschen sie im selben Moment explizit“ (ebd.). In beiden Fällen „werden jeweils zwei sich ausschließende Szenarien aufgerufen. Die Rezipienten müssen, um korrekt zu verstehen, beide Szenarien für sich rekonstruieren können“ (Bredel/ Maaß 2016: 468) - um dann wiederum entscheiden zu können, welchem der beiden Szenarien sie den für den elementaren Satzinhalt notwendigen Wahrheitswert zuordnen müssen. Wir haben es hier also mit einem Paradox zu tun, das darin besteht, dass es sich einerseits um elementare Satzinhalte handelt, die als solche auch nicht verzichtbar sind, die aber andererseits dem Rezipienten komplexe kognitive Operationen abverlangen, bei denen aber wiederum auch (pragmatische) Faktoren wie die Erwartbarkeit einer Negation in einem Kontext für die Verständlichkeit eine Rolle spielen dürften (siehe Kap. 3.2.3). Da pragmatischer und propositionaler Gehalt laut von Polenz obligatorische Teile des Satzinhalts sind, führt das Vorhandensein dieser beiden Teile allein noch nicht zu einer Satzinhaltskomplexität. Der Satzsemantik von von Polenz können wir die folgenden Typen von komplexen/ zusammengesetzten Satzinhalten entnehmen: ● Einbettungen von Aussagen in Bezugsstellen anderer Aussagen; ● Zusätze zu Satzinhalten oder ihren Teilen; ● Verknüpfungen von Satzinhalten (Relationen); ● Reihenfolgen und Gewichtungen. Die folgende Darstellung konzentriert sich auf die beiden Typen Einbettung und Rei‐ henfolge - mit einem Schwerpunkt auf der Einbettung. Im Teilkapitel zur Einbettung werden auch die Zusätze mit berührt. Die Verknüpfung von Satzinhalten ist kein satz-, sondern ein textgrammatisches Phänomen. Dementsprechend kann hier auf die Ausführungen dazu in Kapitel 3.3 verwiesen werden. - Einbettungen: Satzkomplexität und Satzgliedkomplexität Wenn ein grammatischer Satz mehrere Prädikationen enthält, ist er komplex. Das wichtigste Verfahren, das dazu führt, nennt von Polenz „Einbettung“. Dabei geht es darum, dass eine Prädikation in eine andere Prädikation eingebettet ist, indem sie eine Referenzstelle/ Bezugsstelle dieser Prädikation besetzt (von Polenz 2008: 233.) Dies sei anhand von zwei Beispielpaaren illustriert: 108 3 Leicht, einfach, verständlich - Forschungsstand <?page no="110"?> (1a) Die Bauern freuen sich über den Frühling. (1b) Die Bauern freuen sich darüber, dass der Frühling kommt. (2a) Die Studenten bearbeiten die Aufgabe. Das dauert eine Stunde. (2b) Die Bearbeitung der Aufgabe durch die Studenten dauert eine Stunde. (1a) ist ein einfacher Satz mit einer Prädikation. sich freuen bildet den Aussagekern, die Prädikation enthält darüber hinaus die beiden Referenzstellen Die Bauern und über den Frühling. (1b) hingegen ist ein Satzgefüge mit einer eingebetteten Prädikation: Der übergeordnete Hauptsatz enthält nach wie vor das Prädikat sich freuen als Aussagekern. Die zweite Referenzstelle ist nun aber als Nebensatz mit dem Pronominaladverb darüber im Hauptsatz realisiert: darüber, dass der Frühling kommt. Der Nebensatz enthält eine Prädikation mit dem Aussagenkern kommen und der Referenzstelle der Frühling. Beispielgruppe 2 illustriert, dass auch Nominalisierungen für die Realisierung von Einbettungen in Frage kommen. Beispiel (2a) besteht aus zwei einfachen Sätzen, bei denen jeweils dem einfachen Satz eine Prädikation mit einem Aussagekern und je zwei Referenzstellen entspricht. Das Vollverb bearbeiten ist der Aussagekern des ersten Satzes, die Referenzstellen sind die Studenten (= Subjekt und Agens) sowie die Aufgaben (= Akkusativobjekt und Patiens). In (2b) erfolgt durch die Nominalisierung Bearbeitung eine Einbettung: Die Prädikation mit dem Aussagekern Bearbeitung ist nun in die Prädikation mit dem Aussagekern dauern eingebettet (zu den Folgen für die beteiligten Referenzstellen vgl. Hennig 2020). Zu mehreren Prädikationen in einem Satz können neben den Einbettungen auch Zusätze zu Referenzstellen führen, und zwar in Form von Relativsätzen und Partizipi‐ alattributen wie im folgenden Beispielpaar: (3a) Die Aufgabe, die die Studenten bearbeiten, ist schwierig. (3b) Die von den Studenten bearbeitete Aufgabe ist schwierig. Beide Beispiele weisen die gleiche Prädikationsstruktur auf. Das Prädikat lautet schwie‐ rig sein. Die Aufgabe ist die Referenzstelle zu diesem Prädikat. In die Referenzstelle eingebettet ist die Nebenprädikation mit dem Aussagekern bearbeiten. Die Studenten bilden (unabhängig von ihrer Realisierung als Subjekt in (3a) und Präpositionalergän‐ zung resp. -attribut in (3b)) eine Referenzstelle zu diesem Prädikat. Die Konstruktion mit Nebenprädikation führt hier dazu, dass die zweite Referenzstelle des Aussagekerns bearbeiten mit der ersten Referenzstelle des Aussagekerns schwierig sein übereinstimmt. Von Polenz betrachtet Attribute dieser Art als Zusätze, weil sie nicht „notwen‐ dig und konstitutiv sind, weil sie [nicht] von der Valenz des Kern-Substantivs der 3.2 Satz 109 <?page no="111"?> Nominalgruppe abhängig sind“ (2008: 258). Für unsere Diskussion ist die genaue Abgrenzung von Einbettungen und Zusätzen aber nachrangig, relevant ist in erster Linie, dass beide Verfahren dazu führen, dass ein Satz mehrere Prädikationen enthält. Wir werden deshalb im Folgenden der Einfachheit halber nicht systematisch zwischen Einbettungen und Zusätzen unterscheiden. Mit dem Hinweis darauf, dass Einbettungen sowohl durch Nebensätze (wobei hier nicht nur finite Nebensätze gemeint sind, sondern auch Infinitiv- und Par‐ tizipialkonstruktionen) als auch durch Partizipialattribute und Nominalisierungen realisiert werden können, haben wir ausgehend von der Prämisse, dass Einbettun‐ gen Satzinhaltskomplexität verursachen, den Grundstein für die Unterscheidung zwischen Satzkomplexität und Satzgliedkomplexität gelegt. Die terminologische Unterscheidung übernehmen wir von Pohl (2007: 408), der sie im Kontext seiner Untersuchung zur Ontogenese der wissenschaftlichen Schreibkompetenz in Bezug auf die Beobachtung der Schreibentwicklung von einer „komplexen Syntax“ hin zu einer „komplexen Satzgliedbinnenstruktur“ einführt. Vor dem Hintergrund der verschiedenen Realisierungsmöglichkeiten von Einbettungen erscheint uns dieses Begriffspaar sehr sinnvoll, da es mit dem landläufigen Vorurteil aufräumt, Komplexität in Sätzen entstehe im Wesentlichen durch Nebensätze. Die folgenden beiden Beispiele sollen der Illustration von Satzkomplexität und Satzgliedkomplexität dienen: (4) Nachdem er, vergeblich den Hafenmeister suchend, die Zeit genutzt hatte, um einen noch im Mittelmeer geschriebenen, an einen guten Frankfurter Freund gerichteten Brief auf die Post zu geben, den er, um ihn vor Feuchtigkeit zu schützen, in ein Baumwolltuch gewickelt hatte, trank er bei Simon Arzt auf der Terrasse anderthalb Stunden lang ungesüßten Pfefferminztee, während ein stummer Nubier mit einer weißen Serviette Gläser abtrocknete, in denen sich der Kanal im blendenden Wüstenlicht schimmernd brach. (Christian Kracht (2012): Imperium. Köln: Kiepenheuer & Witrsch) (5) Die SPD wäre gut beraten, die Sache genau zu studieren, manches davon könnte ihr in [den kommenden Gesprächen zur Anbahnung einer Sondierung zur Her‐ beiführung von Koalitionsverhandlungen zur Ermöglichung einer schwarz-roten Regierung] wieder begegnen. (Die ZEIT, 30.11.2017) In Beispiel (4) entsteht Komplexität durch mehrfache Einbettung. Das Satzgefüge enthält insgesamt sieben Nebensätze, die sich wie folgt zueinander bzw. zum Hauptsatz verhalten: 110 3 Leicht, einfach, verständlich - Forschungsstand <?page no="112"?> Abb. 15: Satzkomplexität Wie die Visualisierung der Verhältnisse durch Treppenstrukturen illustriert, bedeutet Einbettung hier in vielen Fällen Unterordnung. Allerdings sind nicht alle Nebensätze einander untergeordnet, vielmehr gibt es auch gleichrangige Nebensätze: So sind sowohl der Nebensatz Nachdem er … genutzt hatte als auch der Nebensatz während ein stummer Nubier … abtrocknete Nebensätze ersten Grades. Gleichrangig sind auch die Nebensätze vergeblich-… suchend sowie um einen Brief-… zu geben. In Beispiel (5) entsteht Komplexität nicht durch Nebensätze, sondern durch Attri‐ bution. Dabei weisen die attributiven Erweiterungen zum Kernnomen Gesprächen der maximalen Nominalgruppe eine systematische Unterordnungsstruktur auf (vgl. Hennig 2020: 52 f.): Abb. 16: Satzgliedkomplexität 3.2 Satz 111 <?page no="113"?> Man mag nun einwenden, dass Extrembeispiele dieser Art für unseren Kontext nicht relevant seien, weil sie ja gerade das Gegenteil von dem repräsentieren, was Leichte/ Einfache/ verständliche Sprache bezweckt. Aus unserer Sicht sind sie relevant für die Illustration des Gegenpols von Einfachheit und bilden somit eine Grundlage für Überlegungen zur Skalarität zwischen maximaler Einfachheit und maximaler Komplexheit. So ist folglich nicht jedes Satzgefüge und jede durch ein Attribut erweiterte Nominalgruppe per se komplex, vielmehr entsteht Komplexität durch eine Häufung von Nebensätzen bzw. Attributen. Wir folgen hier mit Hennig (2020: 160 ff.) dem Grundgedanken von Lötscher (2016: 350) zu Attribuierungskomplexität und übertragen ihn auch auf die Nebensatzkomplexität: Komplexität entsteht durch eine Anzahl von mindestens zwei Attributen bzw. Nebensätzen. Natürlich sind auch die Art und Qualität der Attribute bzw. Nebensätze relevant. Die Annäherung an Satz- und Satzgliedkomplexität auf der Basis der Anzahl der Attribute bzw. Nebensätze bietet aber zumindest einen ersten, in der Analysepraxis handhabbaren Ansatz. Auf diese Weise lässt sich Satz- und Satzgliedkomplexität beschreiben, indem die Typen der Mehrfachattribution sowie der Mehrfachnebensätze modelliert werden. Unter ‚Typ‘ ist dabei die Art der Beziehung zwischen den mehreren Attributen/ Nebensätzen zu verstehen. Interessanterweise stehen beiden Komplexitätsdomänen die gleichen Beziehungstypen zur Verfügung, wie die folgende Übersicht illustriert, die auf der Basis von Schmidts (1993: 80 f.) Überlegungen zu komplexer Attribution entstanden ist: Abb. 17: Satz- und Satzgliedkomplexität (Hennig 2020: 165) Komplexität wird häufig mit Unterordnung/ Subordination/ Einbettung gleichgesetzt. Die hier vorgelegten Überlegungen zu den Komplexitätstypen zeigen jedoch: Kom‐ plexität durch Addition (Koordination, Gleichrangigkeit) ist genauso komplexi‐ tätsrelevant wie Komplexität durch Integration (Unterordnung). Der Gedanke der Komplexität durch Addition entspricht der Annahme, dass Länge komplexitätsrelevant ist. Diese Annahme findet sich nach Bredel/ Maaß (2016: 89) in der Regel „Kurze 112 3 Leicht, einfach, verständlich - Forschungsstand <?page no="114"?> Sätze“ wieder und ist die einzige konvergierende Syntaxregel der drei oben genannten Praxisregelwerke zur Leichten Sprache. So zeigt sich in der Korpusstudie von Lange (2018: 79), dass orthographische Sätze in Leichte-Sprache-Texten durchschnittlich nur 9,36 Wörter enthalten und damit tatsächlich bezüglich des Längekriteriums den Einfachheitspol ausmachen: Der Wert wird im Einfache-Sprache-Teilkorpus der Studie mit 11,34 Wörtern pro Satz leicht überschritten und beträgt im Leicht-Lesen-Teilkorpus 12,11. Für Komplexität durch Addition - und das ist hier der Punkt - ist vor allem das Verfahren der Koordination von zentraler Bedeutung (vgl. Hennig/ Emmrich/ Lotzow 2017). Es ist kein Zufall, dass auch Bredel/ Maaß in ihrer Aufarbeitung der Syntaxregeln der Leichten-Sprache-Regelwerke der Koordination ein fast ebenso langes Kapitel widmen wie der Subordination (2016: 402 ff.). Im Gegensatz zu Bredel/ Maaß, die in dem genannten Kapitel vor allem auch auf die Koordination von Sätzen sowie auf Koordinationsellipsen eingehen, halten wir vor allem die satzinterne Koordination für komplexitätsrelevant, also die Koordination von Satzgliedern (insbesondere auch dann, wenn sie als Nebensätze realisiert werden) und Attributen. - Reihenfolgen und Gewichtungen Mit „Reihenfolgen und Gewichtungen“, dem vierten Typ komplexer Satzinhalte nach von Polenz, können die Leichte-Sprache-Regeln zur Reihenfolge der Satzglieder („einfacher Satzbau“) sowie zur Passivvermeidung in den Blick genommen werden. Es geht dabei um die Beziehung zwischen einem Prädikat und seinen Referenzstel‐ len/ Bezugsstellen bzw. Argumenten. Aus dieser Beziehung lässt sich bereits eine Grundstruktur ableiten, die der kanonischen Wortstellung mit Subjekt vor Objekt(en) und ggf. Adverbialen entspricht. Mit dieser Reihenfolge ist noch keine Gewichtung oder Perspektivierung verbunden (vgl. von Polenz 2008: 290), sie ist also einfach der linearstrukturelle unmarkierte Defaultfall. In einem Beispiel wie (6a) Die Abiturientinnen lösen die Aufgabe in Windeseile. besetzt die Abiturientinnen als erste Bezugsstelle (Agens) die erste Position in der Linearstruktur des Satzes, und zwar das Vorfeld vor dem finiten Verb resp. der linken Satzklammer, die Aufgaben (Patiens) die zweite zur Verfügung stehende Position für Referenzstellen, und zwar die Position nach dem finiten Verb, also die erste Stelle im Mittelfeld, und schließlich in Windeseile die dritte in der Linearstruktur vorhandene Position, die zweite Stelle im Mittelfeld. Es geht bei der Betrachtung dieser grundlegenden, unmarkierten Reihenfolge „zu‐ nächst nur darum, welche Bestandteile des Satzinhaltes bzw. Satzes überhaupt konsti‐ tutiv bzw. eingebettet, hinzugefügt oder verknüpft sind“ (ebd.). Für die semantische und pragmatische Erklärung der Satzgliedfolge sind laut von Polenz nun zwei weitere Aspekte zu beachten, die im Übrigen als erklärungsrelevant für das Passivverbot und 3.2 Satz 113 <?page no="115"?> die Subjekt-Prädikat-Objekt-Präferenz der Leichte-Sprache-Regeln betrachtet werden können. Eine erste Möglichkeit, vom unmarkierten Defaultfall abzuweichen, ergibt sich durch Konversen/ Umkehrungen, mit denen ein Perspektivwechsel verbunden ist (von Polenz 2008: 181 ff.) So wird in einem Passivsatz - dem Prototyp der Konverse - die Reihenfolge umgekehrt: In einem typischen Passivsatz wie (6b) Die Aufgabe wird von allen Abiturientinnen in Windeseile gelöst. erfolgt gegenüber der Aktivvariante in (6a) eine Umkehrung der beiden ersten Referenzstellen: Das Patiens besetzt nun das Vorfeld, das Agens die erste Position im Mittelfeld. Laut von Polenz dient „[d]iese Umkehrung […] der Änderung des Fokus/ Brennpunktes der Aussage, d. h. der Gewichtung in Bezug auf das primäre Interesse“ (2008: 291). Neben diesem Typ der Abweichung der Linearstruktur vom unmarkierten Default‐ fall, der auf eine klar umrissene satzsemantisch-syntaktische Operation zurückzufüh‐ ren ist, besteht prinzipiell auch die Möglichkeit, aufgrund weiterer kontextsemanti‐ scher Faktoren eine andere Gewichtung vorzunehmen. Dabei eignet sich insbesondere das Vorfeld dafür, solche Referenzstellen sozusagen prominent zu setzen, die im unmarkierten Defaultfall der Linearstruktur eine Position im Mittelfeld einnehmen: (6c) In Windeseile lösen die Abiturientinnen die Aufgaben. Die für die satzsemantische Grundstruktur des Satzes weniger zentrale Referenzstelle in Windeseile (in EVALBU, dem elektronischen Valenzwörterbuch, wird sie als fa‐ kultative Ergänzung eingestuft) erfährt durch die Positionierung im Vorfeld eine informationsstrukturelle Aufwertung. 3.2.3 Satzkomplexität und Satzverstehen - Allgemeines Im vorangehenden Kapitel zur Satzkomplexität aus linguistischer Perspektive haben wir uns um eine systemlinguistische Rekonstruktion des Komplexitätspotentials von zentralen Komponenten des Satzbegriffs bemüht, die gleichzeitig auch im Sinne der Leichte-Sprache-Regeln als potentiell relevant für eine Modellierung von Einfach‐ heit/ Komplexität betrachtet werden konnten. Damit ist ein erster Schritt getan, denn im Sinne der Prämisse „ein Phänomen, das als absolut einfach/ komplex begründet werden kann, dürfte auch relativ einfach/ komplex sein“ können aus einer solchen systemlinguistischen Rekonstruktion Annahmen für Einfachheit/ Komplexität in der Sprachverarbeitung abgeleitet werden. 114 3 Leicht, einfach, verständlich - Forschungsstand <?page no="116"?> Im Kapitel zur Satzkomplexität aus linguistischer Perspektive wurde ein Schwer‐ punkt auf die Frage nach einfachen bzw. komplexen Satzinhalten gelegt, und zwar ausgehend von der Überlegung, dass syntaktische Strukturen nicht autonom sind, sondern der Realisierung von Satzinhalten dienen. Auch aus psycholinguistischer Perspektive lässt sich diese Vorgehensweise rechtfertigen, denn: „Die semantische Verarbeitung ist dadurch gekennzeichnet, daß Satzelemente im Verarbeitungsprozeß unter Zugrundelegung bestimmter Ordnungsprinzipien zu bestimmten Bedeutungs‐ einheiten generiert werden.“ (Christmann/ Groeben 1999: 152) Auch hier wird den Prä‐ dikat-Argument-Strukturen ein zentraler Stellenwert eingeräumt: „Die semantische Satzverarbeitung besteht also in der Extraktion von Prädikat-Argument-Strukturen aus der zugrundeliegenden Satzstruktur“ (ebd.). Letzten Endes geht es also bei der Ausein‐ andersetzung mit Fragen nach der Verarbeitung von Satzstrukturen immer um das Zusammenspiel von syntaktischer und semantischer Analyse (Christmann/ Groe‐ ben 1999: 154). Dabei scheint laut Christmann/ Groeben (1999: 157) „die Annahme berechtigt, daß Leser/ innen bei der Verarbeitung von Sätzen vorrangig bestrebt sind, semantische Sinnstrukturen aufzubauen und zwar mit Unterstützung der Syntax“. Dass auch der semantische und pragmatische Kontext relevant ist, zeigt u. a. das Beispiel der Negation. Hinsichtlich der Verständlichkeit werden eine Reihe von Faktoren angeführt, die beeinflussen, ob eine Negation in ihrem jeweiligen Kontext leicht oder schwer zu verarbeiten ist: Es gibt Untersuchungen, die zeigen, dass eine Proposition zunächst positiv aktiviert wird, bevor sie negiert wird, was eine aufwendige Verarbeitung belegt (Kaup/ Zwaan 2003). Allerdings wurde auch gezeigt, dass ein günstiger Kontext das Verstehen unterstützen kann, sodass negierte Sätze sogar schneller verarbeitet werden als positive (Lüdtke/ Kaup 2006). Offenbar spielen also auch Faktoren wie die Erwartbarkeit einer Negation in einem Kontext oder die Frequenz negierter Formulierungen gegenüber Formulierungsalternativen eine Rolle. Neben den allgemeinen Fragen nach dem Satzverstehen sind für die Psycholinguistik natürlich gerade Komplexitätsphänomene von Interesse. Laut Bader (2015: 152) stand „[s]eit den Anfängen der modernen Psycholinguistik zu Beginn der zweiten Hälfte des 20. Jahrhunderts […] die Frage auf der Tagesordnung, inwieweit syntaktische Eigenschaften von Sätzen die Komplexität der Sprachverarbeitung determinieren“. Damit habe sich „die Frage nach der Komplexität von Sätzen als gleichberechtigt neben der Frage nach der Auflösung syntaktischer Ambiguitäten etabliert“ (Bader 2015: 154; zur Ambiguität siehe S. 117). In diesem Kontext beschäftigt sich die psycholinguistische Forschung u.-a. auch mit der Komplexität durch Einbettung. Im Mittelpunkt des Interesses an Komplexität durch Einbettung standen laut Bader (2015: 152) „Sätze mit doppelter Zentraleinbettung. Ein Satz S 2 ist in einen übergeord‐ neten Satz S 1 zentraleingebettet, wenn sich sowohl links als auch rechts von S 2 Teile von S 1 befinden.“ Diese gelten als mindestens schwer zu verstehen, teilweise sei „sogar die Ansicht vertreten worden, solche Sätze überstiegen die Kapazität der menschlichen Sprachverarbeitung“ (Bader 2015: 153). Dem setzt Bader die Belegbarkeit in Korpora entgegen, wie etwa durch das folgende Beispiel (ebd.): 3.2 Satz 115 <?page no="117"?> (7) Der Heimbeirat weist die Unterstellung, die Bewohner, die sich ein Glas Bier mittags wünschen, seien abhängig vom Bierkonsum, als grob diffamierend zurück. (Süddeutsche Zeitung 2014) Das Beispiel bzw. das Phänomen illustriert, dass für die psycholinguistische Forschung eher Phänomene am Komplexitätspol von Interesse sind als die gesamte Einfach‐ heits-Komplexitäts-Skala. In Bezug auf das Deutsche sind Reihenfolgefragen auch als wichtiges Untersu‐ chungsobjekt der psycholinguistischen Forschung etabliert. Neben experimentellen Daten wird dabei auch zunehmend auf Korpusdaten (siehe Kap. 5.1.) Bezug genommen. Sie geben „einen Einblick in die tatsächliche Komplexität von geschriebenen Texten“ (Bader 2015: 146) und sind für die psycholinguistische Forschung vor allem deshalb attraktiv, weil sie einen Abgleich des psycholinguistischen Labors mit der Wirklichkeit erlauben und schließlich auch Daten für Fragen nach dem Zusammenhang von Frequenz und Verstehen bereitstellen (ebd.). So verweist Bader (ebd.) in Bezug auf Fragen der Abfolge von Satzgliedern im Mittel‐ feld darauf, dass die präferierte Reihenfolge „Subjekt vor Objekt“ durch Korpusstudien nachgewiesen werden konnte. Gleichzeitig weist er aber auch darauf hin, dass diese Reihenfolge teilweise auch mit anderen Abfolgeregeln wie „belebte Satzglieder vor unbelebten Satzgliedern“ konfligiere (ebd.). In Beispielpaaren wie den folgenden wird deshalb die Abfolge Objekt-Subjekt (b) präferiert (vgl. Bader 2015: 146 f.): (8a) Anscheinend hat der Vortrag dem Gelehrten imponiert. (8b) Anscheinend hat dem Gelehrten der Vortrag imponiert. Bekanntlich spielt aber auch „die Form von Subjekt und Objekt eine große Rolle. Sind sowohl Subjekt als auch Objekt volle lexikalische Nominalgruppen wie in den bisher betrachteten Beispielen, so treten Sätze mit Objekt-vor-Subjekt-Wortstellung mit einer Rate von ca. 5-% auf. Ist das Objekt aber ein Pronomen, so erhöht sich die Rate auf ca. 60-%“ (Bader 2015: 147). Auch für das Vorfeld gilt erwartungsgemäß eine „Subjekt vor Objekt“-Präferenz. Bader/ Häussler (2010) ermitteln in einer mit dem Deutschen Referenzkorpus durch‐ geführten Korpusstudie in ihrem Teilkorpus mit variabler Vorfeldbesetzung einen Anteil von 86 % mit Subjekt im Vorfeld (2010: 727). Neben dem Kasus der Objekte sind relevante Faktoren für Varianz in der Wortstellung aber auch die Belebtheit, die Definitheit des Subjekts (Bader/ Häussler 2010: 737 ff., 747), und die Verwendung von Passivkonstruktion sowie der Auxiliare haben vs. sein, die auf eine Hierarchie semantischer Rollen (Agens - Patiens - Rezipient, vgl. Bader/ Häussler 2010: 732 ff.) hinweisen. Dabei sind allerdings nur für die Reihenfolge von Subjekt und Objekt im Mittelfeld alle genannten Faktoren relevant, für die Positionierung im Vorfeld ist es nur die Belebtheit des Subjekts (ebd.: 747). 116 3 Leicht, einfach, verständlich - Forschungsstand <?page no="118"?> Der kurze Ausflug in Ergebnisse zu Reihenfolgepräferenzen aus korpuslingu‐ istischen Studien zum Sprachgebrauch bestätigt also einerseits, dass das Subjekt tatsächlich die präferierte Satzkonstituente für die Vorfeldbesetzung ist. Andererseits belegen sie auch, dass weitaus mehr Faktoren relevant sind für die Reihenfolge der Satzglieder in einem Satz. Die korpusbasierten Angaben zu Präferenzen im Sprachgebrauch stehen im Ein‐ klang mit den Ergebnissen psycholinguistischer Satzverstehensstudien (siehe Kap. 2.1.), die für Vorfeldbesetzungen mit dem direkten Objekt einen erhöhten Verarbei‐ tungsaufwand nachweisen (Bornkessel/ Schlesewsky 2009: 133). Interessanterweise werden Phänomene dieser Art in der psycholinguistischen Forschung auch zur Theo‐ riebildung herangezogen, zeigen sie doch, dass das sogenannte Parsing (= die Analyse der Satzstruktur im Verstehensprozess) schon vor dem Verb einsetzt. Offensichtlich bietet das Deutsche für die psycholinguistische Forschung ein inter‐ essantes Testgebiet, weil es eben freiere Wortstellung erlaubt als beispielsweise das Englische. So weisen Hemforth/ Konieczny/ Strube (1993) u. a. auf die Subjekterstprä‐ ferenz in Sätzen wie Das fette Huhn bemerkte der hungrige Fuchs hin (1993: 540). Der kurze Überblick über allgemeine Satzverstehensfragen sei an dieser Stelle abgerundet durch einen Hinweis auf das im Fokus der psycholinguistischen Forschung stehende Phänomen der Ambiguität: „Wenn wir etwas lesen oder hören, stehen wir permanent vor der Aufgabe, Mehrdeutigkeiten aufzulösen.“ (Bader 2016: 148) Bader illustriert das mit dem scheinbar einfachen Beispiel: (9) Die Mutter informiert die Lehrerin. Aufgrund der Kasussynkretismen, also der Tatsache, dass viele Flexionsformen im Deutschen zusammenfallen und deshalb grammatisch nicht eindeutig sind - im vor‐ liegenden Fall kommen sowohl für die Mutter als auch die Lehrerin jeweils Nominativ und Akkusativ Singular in Frage - und der prinzipiellen Stellungsfreiheit im Deutschen liegt hier eine Ambiguität vor. Das Beispiel illustriert gleichzeitig die Relevanz der Stellungspräferenzen, sodass sich die strukturell bedingte Ambiguität bei kanonischer Wortstellung nicht verstehenshemmend auswirkt. Inwiefern Ambiguitäten eine Herausforderung für die Verarbeitung darstellen, lässt sich u. E. besonders anschaulich am Beispiel der Koordinationsellipsen zeigen. Das folgende Beispiel (10) Ele bringt Hasi ein Päckchen und Dino einen Brief. kann laut Bryant (2006: 128 f.) einerseits so verstanden werden, dass Ele Dino einen Brief bringt und andererseits aber auch so, dass Dino Hasi einen Brief bringt. Während Erwachsene die erste Lesart präferieren, muss diese Lesartpräferenz im Erwerb erst aufgebaut werden. So präferieren jüngere Kinder (Ø 4; 9) die zweite Lesart, erst im Alter 3.2 Satz 117 <?page no="119"?> von Ø 9; 8 ist die dem erwachsenen Sprachgebrauch entsprechende Lesartpräferenz erworben. - Rezeptionsstudien zu Phänomenen im Fokus von Leichte-Sprache-Regeln Der kurze Überblick zur Satzverstehensforschung in der Psycholinguistik hat ergeben, dass es zwar gewisse Überschneidungen zwischen psycholinguistischer Verstehensfor‐ schung und Satzkomplexität gibt, jedoch liegt der Fokus auf Phänomenen, die deutlich komplexer sind als die im Fokus der Leichte-Sprache-Verbote stehenden Kom‐ plexitätsphänomene. Vor diesem Hintergrund ist es gut nachvollziehbar, dass mit dem Einsetzen der linguistischen Forschung zu Leichter Sprache der Frage nach dem (Nicht-)Verstehen der im Fokus der Leichte-Sprache-Regeln stehenden Satzphänomene hohe Aufmerksamkeit geschenkt wurde. Die empirische Forschung zum Verstehen von im Fokus der Leichte-Sprache-Regeln stehenden sprachlichen Phänomenen weist als Teildisziplin der Verstehensforschung die Besonderheit auf, dass sie im Dialog mit der Leichte-Sprache-Praxis steht: Sie wählt ihre Gegenstände einerseits aus dem Kanon der Leichte-Sprache-Regeln und sie konzentriert sich andererseits auf Angehörige der Zielgruppen der Leichten Sprache als Teilnehmer/ innen ihrer Studien. Aufgrund dieser Spezifik wird den Rezeptionsstudien zu Leichte-Sprache-Phänomenen hier ein gesondertes Teilkapitel gewidmet. Im Rahmen des Leipziger Projekts „Leichte Sprache im Arbeitsleben“ wurde eine Vielzahl an textlinguistischen und grammatischen Phänomenen in den Blick genommen. Bock (2019: 46 ff.) sowie Bock/ Lange (2017: 263) bieten ein Ranking der Verstehensschwierigkeiten von im Fokus der Leichte-Sprache-Regeln stehenden grammatischen Phänomenen. Aufgrund der Fehlerquoten ihrer Probanden (Menschen mit geistiger Behinderung und funktionale Analphabeten) gelangt die Leipziger Studie zu folgendem Ranking: Durchschnittliche Fehlerraten Phänomene in Sätzen des TROG-D nicht problematisch (5,9%) Negation mit nicht; 2-Element-Sätze; Präpositionen in, auf wenig problematisch (12,5%) Subjunktionen während, nachdem; Relativsätze; Plural; Präpositionen unter, über; Personalpronomen (Nomina‐ tiv, Akkusativ/ Dativ) mäßig problematisch (37,5%) Passiv; Perfekt; Negation mit weder - noch; Doppelob‐ jektkonstruktion; Koordination mit und (+ Ellipse) (z.B. Der Schuh ist auf dem Stift und ist blau.) sehr problematisch (47,3%) Topikalisierung; Subjunktion dass (z.B. Der Junge sieht, dass die Frau sich sieht.) äußerst problematisch (75,9%) Objektrelativsätze (Relativartikel im Dativ/ Akkusativ) Tab. 4: Ranking der relativen Komplexität von grammatischen Phänomenen im Leichte-Sprache-Kon‐ text (Bock 2019a: 46) 118 3 Leicht, einfach, verständlich - Forschungsstand <?page no="120"?> Die Ergebnisse basieren auf einer Befragung der Probanden mithilfe des im Bereich der Diagnostik etablierten Tests TROG-D (Test for the reception of grammar - deutsch) (Bock 2019: 47). Die Ergebnisse müssen folglich im Zusammenhang mit dem Material eingeordnet werden und können nicht für die jeweiligen Phänomenbereiche als solche verallgemeinert werden. In Bezug auf die im Fokus der Leichte-Sprache-Regeln stehenden Phänomene lässt sich aus dem Leipziger Ranking ableiten: ● Einbettungen und Zusätze sind erwartungsgemäß besonders problematisch. Die Relativsätze, bei denen der Kasus des Relativpronomens vom Kasus des Bezugs‐ nomens abweicht, wie etwa Der Junge, den der Hund jagt, ist groß, dürften eine Herausforderung für das Verstehen mit sich bringen: Obwohl hier Genus-Nume‐ rus-Kongruenz des Relativpronomens mit dem Bezugsnomen vorliegt, muss eine abweichende Satzrollenzuordnung des denotativ identischen Referenzobjekts im Relativsatz vorgenommen werden. Im Grunde genommen gilt damit hier auch das, was Bock/ Lange in Bezug auf andere Phänomene angemerkt haben: Nicht der Zusatz an sich ist schon besonders problematisch, sondern die Kombination mit weiteren satzsemantischen und/ oder satzsyntaktischen Komplexitätsphäno‐ menen. So zeigt auch die Einordnung der Subjunktoren während und nachdem in den Bereich der wenig problematischen Phänomene, dass Einbettung nicht per se schon problematisch ist. ● Es bestätigt sich auch die Annahme, dass der Komplexitätstyp Reihenfolge/ Ge‐ wichtung Auswirkungen auf das Verstehen hat. Allerdings merkt Bock (2019: 50) an: „Im Textzusammenhang hat eine solche Voranstellung die Funktion, Infor‐ mationen so anzuordnen, dass der Zusammenhang zwischen Sätzen möglichst klar wird. Die Voranstellung kann außerdem dazu dienen, einzelne Informationen hervorzuheben. […] In isolierten Sätzen ist eine Voranstellung selten sinnvoll. Im Textzusammenhang kann sie der Verständlichkeit zuträglich sein.“ Es ist also anzunehmen, dass ein Test mit in einen Text eingebetteten Topikalisierungen zu anderen Ergebnissen führen würde. ● Weitere Phänomene aus dem Leichte-Sprache-Kontext erweisen sich als mäßig problematisch. Das gilt beispielsweise für das Passiv und die Negation mit weder noch. Die Negation mit nicht hingegen wird als nicht problematisch einge‐ stuft. Zu vergleichbaren Ergebnissen gelangen auch Bredel/ Lang/ Maaß (2016). Die Autorinnen kontrastieren die Negation mit der Negationspartikel nicht mit der Negation durch das Artikelwort kein. Sie überprüfen außerdem die verständ‐ nisfördernde Funktion des Fettdrucks des Negationsmarkers. Insgesamt ergibt die Studie aber keinen hohen Verstehensunterschied zwischen nicht und kein sowie keinen positiven Effekt des Fettdrucks. Die Autorinnen führen das darauf zurück, dass sich einerseits die Bilder, mit denen gearbeitet wurde, insgesamt stark verstehensfördernd ausgewirkt haben und dass andererseits „die reine Perzeption des Negationsmarkers […] dann kein größeres Problem darstell[t], wenn der Text 3.2 Satz 119 <?page no="121"?> ansonsten den Vorgaben an die Perzipierbarkeit entspricht“ (Bredel/ Lang/ Maaß 2016: 112). Verwiesen sei hier schließlich noch auf die Leipziger Studie zum Genitiv, die nicht Gegenstand der Gesamtübersicht in Tabelle 4 ist (Bock 2019: 55 ff.; Lange 2019). In einer Korpusstudie kann die Verwendung des Genitivs in Leichter und Einfacher Sprache klar nachgewiesen werden, woraus sich schließen lässt, dass das pauschale Genitivverbot sich in der Praxis offenbar als kaum praktikabel erweist. Dabei kommen Genitive vor allem „im Zusammenhang mit politischen und juristischen, zum Teil wissenschaftlich-medizinischen Themen vor“ (Lange 2019: 56). In der Verstehensstudie testet Lange den Genitivus possessivus, auctoris, partitivus, obiectivus und subiectivus im Vergleich zu Alternativen mit von (bspw. Das Haus des Lehrers/ von dem Lehrer brennt). Die Teilnehmer bearbeiteten jeweils sieben Genitiv- und sieben von-Items, zu denen Verstehensfragen zu beantworten waren. Insgesamt belegt der Test „eine unerwartet gute Quote an richtigen Entscheidungen von 84 %“ (2019: 61). Dennoch kommt Lange zu dem Ergebnis, dass sich die Substitution mit von für den Genitivus possessivus, den nicht erweiterten Auctoris [Morgen ist die Party ihres lieben, aber verrückten Freundes/ von ihrem lieben, aber verrückten Freund] und den nicht erweiterten Partitivus [Der Motor des Autos/ von dem Auto ist heiß] als verständniserleichternd erweist (2019: 65). Hingegen werden die Nominalisierungen, d. h. der Genitivus subiectivus [Die Ankunft des Zuges/ von dem Zug verschiebt sich] oder obiectivus [Die Lösung der Aufgabe/ (von) der Aufgabe ist schwierig], […] den Quoten nach in den meisten Fällen besser in Form des Genitivkonstrukts verstanden als mit der von-Phrase (ebd.; Beispiele auf S.-60). Weitere Untersuchungen der Satzebene in Leichter Sprache sind weniger aufschluss‐ reich. In zwei Korpusstudien wurde festgestellt, dass Texte in Leichter Sprache durchaus von den Empfehlungen der Regelwerke abweichen: Zum einen werden Nebensätze zum Ausdruck kausaler Relationen verwendet (Fuchs 2019). Zum anderen besetzen neben Subjekten auch Adverbiale die Vorfeldposition texteinleitender Sätze (Fuchs 2017). Inwiefern diese in der Standardsprache gebräuchlichen Strukturen Verständnisschwierigkeiten bedingen, bleibt eine empirische Frage. Die methodischen Schwierigkeiten (siehe Kap. 5), die mit der Untersuchung der Lesbarkeit und Verständ‐ lichkeit Leichter Sprache verbunden sind, illustrieren zwei weitere Studien. Bei einer schriftlichen Befragung zur Verständlichkeit von Sätzen und Texten vor und nach morphosyntaktischen Vereinfachungen (Lasch 2017) wurden beide Materialsets als verständlich klassifiziert. Ein Experiment zur typographischen Hervorhebung von Ausdrücken zur Satz- und Phrasennegation (nicht und kein, Sommer 2020) erbrachte zum Teil widersprüchliche Ergebnisse. In beiden Fällen lassen sich die Daten nicht zuverlässig interpretieren. 120 3 Leicht, einfach, verständlich - Forschungsstand <?page no="122"?> Lohnenswert erscheint da die Berücksichtigung von Arbeiten, die Einfachheit und Komplexität jenseits Leichter Sprache betrachten. So untersuchten zum Beispiel Beren‐ des/ Wagner/ Meurers/ Trautwein (2019) in einem Experiment, inwiefern verschiedene sprachliche Faktoren die Geschwindigkeit beeinflussen, mit der Fünftklässler/ innen Sätze leise lesen. Auf der Satzebene erwiesen sich folgende (zum Teil korrelierende) Faktoren als höchst relevant: die Satzlänge, die Anzahl der Nominalgruppen pro Satz, der Anteil komplexer Nominalgruppen und das numerische Verhältnis von Nomina und Verben. Es ist zu erwarten, dass diese Faktoren die Lesbarkeit von Sätzen auch für andere Gruppen beeinflussen. Auch wenn immer wieder und zu Recht angemahnt wird, dass weitere empirische Studien zur Erforschung der Leichten Sprache notwendig sind, lässt sich festhalten, dass angesichts des „jugendlichen Alters“ der Leichten Sprache bereits beachtliche Ergebnisse vorliegen. So kann als Gesamtergebnis aus den hier kurz angerissenen Studien zu grammatischen Leichte-Sprache-Phänomenen an dieser Stelle festgehalten werden, dass die Teilnehmer/ innen insgesamt doch deutlich bessere Verstehens‐ leistungen zeigen konnten als auf der Basis der Rigidität der Leichte-Sprache-Regeln erwartet werden konnte. Und das teilweise trotz künstlicher, komplexer, kontextfreier Testitems (vgl. Bock/ Lange 2017: 267). Insgesamt ergibt sich der Eindruck: Wenn die Probanden auch in solchen künstlichen Untersuchungskontexten bereits keine oder gegenüber den Erwartungen geringere Verstehensschwierigkeiten zeigen, kann damit gerechnet werden, dass bei stärkerer Kontexteinbettung die Verstehensleistungen sogar noch steigen: Entscheidend ist „nicht lediglich die syntaktische Struktur, auch nicht nur die Satzbedeutung […], sondern v. a. der sprachliche und pragmatische Kontext von Sätzen“. (Bock/ Lange 2017: 267) - Aufgaben 1. Sehen Sie sich die Überblicksgrafik am Kapitelanfang noch einmal an und erläutern Sie an einem selbstgewählten Beispielsatz: Wie hängen die drei Bereiche Satzstruk‐ tur, Satzinhalt und Satzverstehen zusammen, wenn man beschreiben möchte, was Sätze einfach oder komplex bzw. leicht oder schwer macht? 2. Die folgenden zwei Beispiele sind als weniger geeignete (1) und verbesserte (2) Varianten gekennzeichnete Sätze aus einem Leitfaden für verständliche Verwal‐ tungssprache („Leitsätze für eine bürgerfreundliche Verwaltungssprache“, hrsg. von der Landeshauptstadt Wiesbaden und der Gesellschaft für deutsche Sprache): (1) Gemäß § 62 Abs. 1 Nr. 1 a des Gesetzes über Naturschutz und Landschaftspflege (Bundesnaturschutzgesetz [BNatSchG] vom 25. März 2002, veröffentlicht im Bundesge‐ setzblatt Nr. 22 v. 03.04.2002, S. 1193 ff.) erteilen wir Ihnen nachträglich die Befreiung, entgegen den Verboten des § 42 Abs. 1, Nr. 1 BNatSchG ein Nest von gemäß Anlage 1 der Bundesartenschutzverordnung vom 18. September 1989, zuletzt geändert durch Verordnung vom 14. Oktober 1999 (BGB I, S. 1955), besonders geschützten Hornissen abtöten zu lassen. 3.2 Satz 121 <?page no="123"?> (2) Sie dürfen das auf Ihrem Grundstück befindliche Hornissennest beseitigen und die Hornissen abtöten. Von den Verboten des § 42 Abs. 1 Nr. 1 Bundesnaturschutzgesetz (BNatSchG) sind Sie hiermit befreit. a. Analysieren Sie auf Basis des Kapitels 3.2.2, welche satzbezogenen Merk‐ male (Satzinhalt, Satzstruktur) in (1) als komplex eingeordnet wurden und beschreiben Sie, mit welchen Mitteln sie umgeformt wurden. b. Analysieren Sie, welche Merkmale den ersten Satz in (2) zu einem strukturell komplexen Satz machen. c. Welche empirischen Ergebnisse zum Satzverstehen (Kap. 3.2.3) sind wichtig, um die Verständlichkeit der beiden Beispiele zu bewerten? d. Welche weiteren sprachlichen Merkmale in Beispiel (1) wurden verändert? Ziehen Sie hierzu auch Kap. 3.1 und 3.3 heran. 3.3 Text Das Kapitel steigt noch einmal bei einer theoretischen Grundsatzfrage ein, nämlich der Frage, was überhaupt ein Text ist. Zwei Aspekte werden dabei als zentral herausgearbeitet: Texte sind in ihrem Zusammenhang durch gram‐ matische Merkmale und durch Merkmale des kommunikativen Kontexts bestimmt. Diese beiden Aspekte werden im Folgenden aufgegriffen, um die Frage zu erörtern, was Texte leicht bzw. einfach macht. Beginnend bei Perspektiven der Praxis und bestehenden Leerstellen Leichter und Einfacher Sprache werden zu‐ nächst die psychologischen Verständlichkeitsdimensionen (siehe Kap. 2.2.2) erneut aufgenommen und empirisch basiert differenziert: Was sind die optimalen Ausprägungsgrade der vier Dimensionen? Danach stehen lokale und globale Kohärenz im Fokus (textgrammatische Aspekte). Auf lokaler Kohärenzebene werden Erkenntnisse zum verständlichkeitsfördernden Umgang mit expliziten und impliziten Mitteln der Satzverknüpfung vorgestellt (u. a. Konnektoren). Außerdem geht es um verständliche Formen der expliziten Wiederaufnahme (Koreferenz) in Texten. In Bezug auf die globale Kohärenz werden u. a. die sequentielle Textstrukturierung, Advance Organizers und Kohärenzsignale besprochen. Der kommunikative Kontext rückt dann im letzten Kapitel stärker in den Fokus, wenn es um die Frage geht, inwiefern die Explizierung von Textsorte und Textfunktion für das Textverständnis förderlich sein können und welche Realisierungsmöglichkeiten es hier gibt. 122 3 Leicht, einfach, verständlich - Forschungsstand <?page no="124"?> 3.3.1 Was ist ein Text? In der Textlinguistik gibt es verschiedene Textdefinitionen. Auch wenn es keinen allgemeinen Konsens gibt, auf den sich alle Linguist/ innen einigen können, kann man doch Definitionsmerkmale nennen, die für das Thema des Studienbuches zentral sind. Gehen wir aber zunächst vom alltagsweltlichen Textbegriff aus: Viele würden einen Text zunächst intuitiv als eine Abfolge von schriftlichen Sätzen (z. B. auf einem Blatt Papier) definieren, eventuell ist auch eine bestimmte Textlänge entscheidend. Nicht jede beliebige Aneinanderreihung von Sätzen oder Wörtern akzeptieren wir jedoch als Text. Das zeigen die folgenden beiden Beispiele: (1) Die Bundes-Regierung hat beschlossen, mehr für den Klima-Schutz zu tun. Die Regierung reagiert auf ein Urteil von dem höchsten deutschen Gericht. Das Gericht hat gesagt: Bisher ist das Klima-Schutz-Gesetz ungerecht. Darum soll es nun ein neues Gesetz geben. (https: / / www.nachrichtenleicht.de/ mehr-klima-schutz.2042.de .html? dram: article_id=497175 [11.07.2022]) (2) Die Regierung hat Sommerpause. Ich gehe meist abends joggen. Gerade deshalb sollten kleine Kinder nicht allein auf diesen Spielplatz gehen. Während Beispiel (1) ohne Weiteres als Text gelten kann, fällt es schwer, Beispiel (2) als einen Text zu akzeptieren. Woran liegt das? Dem ersten Text kann man zunächst einmal ein klares Thema zuordnen. Bei den Sätzen in Beispiel (2) kann man einen solchen thematisch-inhaltlichen Zusammenhang nicht erkennen. Bei Beispiel (1) kann man also Kohärenz zwischen den Sätzen herstellen, bei Beispiel (2) gelingt das auch nicht über entfernteste assoziative Brücken. Auf grammatischer Ebene enthalten beide Beispiele sprachliche Mittel, die die Sätze verknüpfen: Im ersten Text bezieht sich z. B. das darum im letzten Satz auf Inhalte, die in den Sätzen zuvor versprachlicht wurden. Im zweiten Beispiel gibt es solche sprachlichen Mittel auch: gerade deshalb ist ein sprachliches Verknüpfungsmittel, das normalerweise Grund und Folge verbindet. Allerdings findet sich in den Sätzen gar kein Grund, der verknüpft werden könnte, da die Sätze inhaltlich nicht kohärent sind. An diesem Beispiel wird der Unterschied zwischen Kohäsion (sprachliches Verknüpfungsmittel auf der Textoberfläche) und Kohärenz (thematisch-inhaltlicher Zusammenhang) deutlich. Das Merkmal Kohärenz ist also ganz entscheidend. Fehlt sie, wie in Beispiel (2), können wir auch nicht sagen, in welcher Kommunikationssituation (außerhalb dieses Studienbuchkontextes) eine solche Äußerung vorkommen könnte und welche Funktion sie dort haben könnte. Texte sind also einerseits durch grammatische Merkmale bestimmt (z. B. sprachliche Verknüpfungsmittel, Abfolge von Wörtern und Sätzen), andererseits durch ihren kommunikativen Kontext. Mit beiden Aspekten beschäftigt sich die Textlinguistik. 3.3 Text 123 <?page no="125"?> Definition: Text „Der Terminus ‚Text‘ bezeichnet eine von einem Emittenten hervorgebrachte begrenzte Folge von sprachlichen Zeichen, die in sich kohärent ist und die als Ganzes eine erkennbare kommunikative Funktion signalisiert.“ (Brinker/ Cöl‐ fen/ Pappert 2014: 17) Es gibt Texte, die diese Definitionsmerkmale klarer erfüllen als andere. Deshalb spricht man in der Linguistik auch von einem prototypischen Textbegriff (Sandig 2000): Eine Kurzgeschichte ist zum Beispiel ein eher prototypischer Vertreter der Kategorie Text im Vergleich zu einem Busfahrplan oder einem Straßennamenschild. Die verschiedenen Merkmale, die Texte ausmachen, sind entweder zentraler - d. h., sie müssen vorliegen, damit eine Äußerung zur Kategorie Text gezählt werden kann. Oder sie sind peripherer, d. h. manche Merkmale sind zwar oft gegeben, aber es gibt auch Vertreter, die sie nicht erfüllen und die trotzdem zur Kategorie Text gehören (z. B. Texte, die aus Textteilen mehrerer Autoren bestehen, ein dreidimensional in einen Raum projizierter Text, ein mündlich vorgetragener Text). Barbara Sandig (2000: 108) zählt zu den zentralen Definitionsmerkmalen: ● Textfunktion ● Situationalität, d.-h. Einbettung in eine Kommunikationssituation ● Kohärenz ● Kohäsion ● Thema Auf Textfunktion und Kohärenz/ Kohäsion gehen wir in den folgenden Abschnitten noch einmal genauer ein. Die Kommunikationssituation ist dann indirekt auch an‐ gesprochen, da Textfunktion und Textsorte mit einem typischen kommunikativen Kontext verknüpft sind. Weitere Aspekte, die die Linguistik in jüngerer Zeit in Bezug auf den Textbegriff diskutiert hat, sind u.-a. die folgenden: ● Medialität und Multimodalität: Texte kommen in den unterschiedlichsten medialen Kontexten vor, und sie bestehen nicht nur aus sprachlichen Zeichen. Sie enthalten oft Bilder und grafische Elemente, außerdem spielt die Typografie eine bedeutende Rolle: Sie nutzen also verschiedene Modi. Auf diese für die Verständlichkeit ganz entscheidenden Aspekte gehen wir im nächsten Kapitel 3.4 genauer ein. ● Lokalität und Materialität: Ulla Fix (2008d) hat darauf hingewiesen, dass auch der Ort der Veröffentlichung (Lokalität, z. B. Vers in Gedichtband, Vers an Toilet‐ tenwand) und der Textträger (Materialität, z. B. Papier, Stein, Textilien) konstitutiv für Texte und das Textverstehen sind. ● Linearität: Gerade bei Hypertexten wird deutlich, dass Texte und das Lesen von Texten nicht immer linear verlaufen. Texte sind hier durch Links miteinander 124 3 Leicht, einfach, verständlich - Forschungsstand <?page no="126"?> verknüpft, insofern steht auch das oben genannte Definitionskriterium der Abge‐ schlossenheit für manche Texte zur Diskussion. Aber auch analoge Texte, z. B. Zeitungstexte und Werbeanzeigen, stellen eher Cluster dar und werden nicht unbedingt linear gelesen (vgl. Eckkrammer 2002; Schmitz 2011b). 3.3.2 Was ist ein leichter bzw. einfacher Text? Perspektive der Praxis Die Forschung zu Leichter und Einfacher Sprache hat sich bisher relativ wenig mit Aspekten der Textebene befasst. Auch in den Leichte-Sprache-Regelwerken sind die Hinweise zur Textebene überschaubar, sie berühren zentrale textlinguistische Annahmen (wie Kohärenz, Textsorte, Textfunktion) im Grunde nicht. Im Regelkatalog des Netzwerks Leichte Sprache finden sich im Kapitel Text letztlich nur zwei Empfeh‐ lungen, die tatsächlich textbezogen sind: ● „Schreiben Sie alles zusammen, was zusammen gehört. Vermeiden Sie Verweise.“ (Netzwerk Leichte Sprache 2013: 20) ● „Sie dürfen einen Text beim Schreiben in Leichter Sprache verändern. Inhalt und Sinn müssen aber stimmen.“ (Netzwerk Leichte Sprache 2013: 21) Die erste Regel bezieht sich auf den Aspekt der Informationsreihenfolge und auf Verweise als Mittel, einen Text zu gliedern bzw. semantische Bezüge zu verdeutli‐ chen. Mit der zweiten Regel ist eine Reihe von Maßnahmen angesprochen, die in Leichte-Sprache-Texten genutzt werden können, um das inhaltliche Verstehen zu unterstützen (z. B. Beispiele als Veranschaulichung) oder um Komplexität zu reduzieren (z.-B. Weglassen von Inhalten, Anpassen der grafischen Gestaltung). Linguistisch fundierte Leichte-Sprache-Ratgeber (Bredel/ Maaß 2016; Maaß 2015) geben zu textuellen Fragen zwar Empfehlungen (z. B. zur Typografie, zu Verweisen und Textfunktion), diese werden aber explizit unter dem Vorbehalt der ausstehenden empirischen Überprüfung formuliert. Stärker in den Blick genommen wurden textuelle Aspekte der Verständlichkeit in empirischen Studien des LeiSA-Projekts: Untersucht wurde u. a. das Verständnis von Textsorte und Textfunktion sowie Makrotypografie als Faktor des Textverstehens (Bock 2019; 2020; Bock/ Lange 2017). In Empfehlungen für Einfache Sprache wurde die textuelle Dimension vor allem hinsichtlich kommuni‐ kativer Aspekte in den Blick genommen: So differenziert Baumert Verstehensanforde‐ rungen nach Kommunikationskontext und Dokumenttyp (u. a. E-Mail, Fragebogen, „Internettexte“, d. h. die Kategorien sind nicht identisch mit Textsorten) (Baumert 2018). Es gibt also erste Studien und theoretisch fundierte Annahmen zur rezeptiven Textsortenkompetenz bei Zielgruppen von Leichter und Einfacher Sprache. Viele Fragen sind aber zum jetzigen Zeitpunkt noch offen. Allerdings gibt es allgemeine Erkenntnisse zu Faktoren der Verständlichkeit auf Textebene, sowohl aus empirischen Studien als auch aus theoretischen Annahmen. Diese allgemeinen Verständlichkeits‐ faktoren wurden zwar meist in Studien mit Leser/ inne/ n mittlerer oder höherer 3.3 Text 125 <?page no="127"?> Lesekompetenz erarbeitet. Sie können aber auch für Leichte und Einfache Sprache als vorläufiger Bezugspunkt dienen. 3.3.3 Vier Faktoren der Textverständlichkeit Bevor wir in zentrale linguistische Textaspekte einsteigen und sie auf Verständlich‐ keitsfragen beziehen, werfen wir einen Blick auf allgemeine Faktoren der Textverständ‐ lichkeit, wie sie in der Psychologie herausgearbeitet wurden. Die vier Faktoren bzw. Dimensionen der Textverständlichkeit, die die instruktionspsychologische Forschung herausgearbeitet hat, wurden bereits in Kapitel 2.2 vorgestellt. Es gibt unterschiedliche Auffassungen darüber, welche der vier Dimensionen für optimale Textverständlich‐ keit besonderes Gewicht haben: Das Hamburger Modell gewichtet die Dimensionen Einfachheit und Gliederung stark und empfiehlt eine maximale Ausprägung (Lan‐ ger/ Schulz von Thun/ Tausch 2011: 32). D.h., als optimal verständlicher Text gilt einer, der maximal einfach und möglichst gut gegliedert ist. Den Merkmalen Kürze/ Prägnanz und anregende Zusätze ordnen die Autoren eine geringere Bedeutung zu, das Optimum sehen sie hier in einer mittleren Ausprägung (Langer/ Schulz von Thun/ Tausch 2011: 32). Norbert Groebens Konzeption unterscheidet sich davon teilweise deutlich und differenziert die Bedeutung der vier Dimensionen (Groeben 1978: 102 ff.; 1982: 203 ff.). Seinen Untersuchungen zufolge ist eine mittlere Verständlichkeitsausprägung optimal, damit Textinhalte behalten werden und Aufmerksamkeit generiert wird, und nicht eine maximale Ausprägung, wie es das Hamburger Modell fokussiert. Groebens empirische Überprüfung erfolgte mit Texten, die inhaltlich identisch waren, aber hinsichtlich der vier Verständlichkeitsdimensionen variierten (Groeben 1978: 87 ff.). Erfasst wurden die Verständlichkeit, das Behalten und das Interesse auf Seiten der Leser/ innen. Die vier Textverständlichkeitsdimensionen beinhalten folgende Merkmale (nach Christ‐ mann/ Groeben 2019: 127 f.): 1. stilistische Einfachheit: kurze Satzteile, aktive Verben, aktiv-positive Formu‐ lierungen, persönliche Wörter, keine Nominalisierungen, keine eingebetteten Nebensätze 2. semantische Redundanz: keine wörtlichen Wiederholungen, keine Weitschwei‐ figkeit 3. kognitive Gliederung/ Ordnung: Gebrauch von Vorstrukturierungen, Hervor‐ hebung wichtiger Konzepte, Verdeutlichung von Unterschieden und Ähnlichkei‐ ten, Beispiele, Zusammenfassungen, sequentieller Textaufbau 4. konzeptueller Konflikt (= motivationale Stimulanz): Neuheit und Überra‐ schung, Einfügen inkongruenter Konzepte, alternative Problemlösungen, Fragen Wie im Hamburger Ansatz betont Groeben die Bedeutung der Dimension kognitive Gliederung/ Ordnung für die Realisierung verständlicher Texte; ein deutlicher Unter‐ schied zwischen den beiden Ansätzen liegt aber in der Bewertung der Dimension Einfachheit, die Groeben relativ gering gewichtet. Zwar sei sie von Bedeutung für 126 3 Leicht, einfach, verständlich - Forschungsstand <?page no="128"?> die Verständlichkeit, nicht aber für die Behaltensleistung. Am stärksten beeinflusst wurde die Behaltensleistung von den Dimensionen kognitive Gliederung/ Ordnung und motivationale Stimulanz. D.h., ein für den/ die Leser/ in maximal einfacher und verständlicher Text ist langweilig und wenig informativ - und befördert deshalb nicht die Lernbzw. Behaltensleistung. Die Dimension semantische Redundanz war nur mit mittleren Ausprägungen der sprachlichen Einfachheit bedeutsam für die Textverständlichkeit. Aus Groebens Erkenntnissen folgt also u. a., dass der Aspekt der Gliederung durchgängig bedeutsam ist und die Dimensionen Einfachheit und motivationale Stimulanz abzuwägen sind, damit Leser/ innen weder überfordert noch unterfordert werden. Die Frage von Über- und Unterforderung der Leserschaft stellt sich insbesondere bei Leichter Sprache, die meist mit dem Postulat maximaler Einfachheit und maximaler Verständlichkeit verbunden ist. Folgt man Groebens Ansatz, sollte die Textgestaltung nicht einseitig auf Vereinfachung und Komplexitätsreduktion ausgerichtet sein. Statt‐ dessen sollten Texte so gestaltet sein, dass sie für die jeweiligen Adressat/ innen nicht nur einfach zu lesen sind, sondern ihnen auch relevante Informationen liefern, Neues enthalten, Interesse wecken, sprachlich und grafisch ansprechend sind und somit zum Lesen motivieren. Ein guter Text ist demnach einer, der seinen Leser/ innen nicht lediglich Bekanntes präsentiert - sowohl inhaltlich als auch sprachlich -, und dabei zugleich nicht durch zu viel Neues und zu große Komplexität überfordert. Groebens Ansatz bezieht sich auf Texte, mit denen Leser/ innen lernen und sich Inhalte aneignen möchten. Man kann sie aber durchaus auch für andere Bereiche reflektieren. Ältere empirische Studien haben beispielsweise gezeigt, dass Texte, die stark durchstrukturiert sind und bei denen die Kohärenzbildung durch viele explizite Formen unterstützt wird, vor allem für Leser/ innen mit wenig Vorkenntnissen verarbeitungserleichternd sind (Kintsch 1988: 307 ff.). Für Rezipient/ innen mit hohen Vorkenntnissen hingegen konnten für das tiefere Textverständnis sogar qualitativ schlechtere Verstehensleistungen nachgewiesen werden. Dies wurde damit erklärt, dass maximal verständliche Texte für Leser/ innen mit hohen Vorkenntnissen offen‐ bar keinen Anreiz mehr bieten, sich mit dem Gelesenen aktiv auseinanderzusetzen (Christmann 2008: 1103). Dieser Effekt scheint allerdings nicht stabil zu sein (Christ‐ mann/ Groeben 2019: 136). Neuere Studien schätzen den Einfluss des Vorwissens teilweise geringer ein (ebd.: 136 f.). Als eine weitere relevante Einflussgröße wurde das Wissen über Textstrukturen - also z. B. das Wissen um die Bedeutung rhetorischer Relationen, aber auch Textsortenmerkmale - identifiziert (Sánchez/ García/ Bustos 2017). Insgesamt wird deutlich, dass Unterforderung sich nicht nur negativ auf die Lese‐ motivation, sondern auch auf das Verstehen auswirken kann. Zugleich bedeutet es, dass Rezipient/ innen Mängel in der Textgestaltung bei vertrauten Themen durch Rückgriff auf ihre Vorkenntnisse (über Textstrukturen, ggf. Vorwissen) kompensieren können. Die richtige Balance zwischen Über- und Unterforderung ist also nicht nur bei Leichter und Einfacher Sprache von Bedeutung. 3.3 Text 127 <?page no="129"?> 3.3.4 Globale und lokale Kohärenz - Kohäsion und Kohärenz Je expliziter etwas sprachlich ausgedrückt ist, umso leichter ist es zu verstehen. Das Erschließen von Implizitem in Texten ist hingegen aufwendig für die Etablierung von Textkohärenz. So lautet eine gängige Grundannahme, die auch für die Leichte Sprache aufgegriffen worden ist (vgl. Bredel/ Maaß 2016: 487). Es stehen verschiedene Mittel zur Verfügung, um Implizites zu versprachlichen, es gibt aber auch Grenzen der Explizierung. Um im Rezeptionsprozess zu einer kohärenten Textrepräsentation zu gelangen, müssen satzübergreifend (lokal) und über größere Abschnitte bzw. den gesamten Text hinweg (global) semantische Relationen integriert und organisiert sowie Verknüpfungen zwischen Propositionen hergestellt werden. Weitgehend über‐ einstimmend geht man in der Verstehensforschung davon aus, dass dieser Prozess erleichtert wird, wenn der Text möglichst deutliche und klare Hinweise enthält, wie diese Verknüpfungen vorzunehmen sind (Kohärenzsignale) (Christmann/ Groeben 2019: 137). Definition: Kohärenz und Kohäsion Eine bis heute einflussreiche textlinguistische Definition von Kohärenz und Kohä‐ sion geht auf Robert de Beaugrande und Wolfgang Dressler (1981) zurück. Sie haben sieben Textualitätskriterien formuliert, die Texte als „kommunikative Okkurenzen“ erfüllen. Zwei dieser Textualitätskriterien sind Kohäsion und Kohärenz (vgl. Fix/ Poethe/ Yos 2003: 215): ● Kohärenz: inhaltliche Kontinuität bzw. Sinnzusammenhang eines Textes, der nicht unbedingt sprachlich explizit ausgedrückt sein muss. Kohärenz ist das Ergebnis eines kognitiven (Interpretations- und Schluss-)Prozesses, der abhängig ist von Verwender/ in und Kontext (Schwarz 2001: 151 f.). ● Kohäsion: (explizite) Verknüpfung der Komponenten der Textoberfläche mithilfe grammatischer und lexikalischer Mittel; zu den Kohäsionsmitteln zählen beispielsweise Konnektoren, Wiederaufnahme durch Rekurrenz oder Pronomen; für einen Überblick vgl. Averintseva-Klisch (2013). Für den Blick auf Verstehen und Verständlichkeit ist insbesondere wichtig, dass Kohärenz auf sprachlichen Informationen des Textes einerseits sowie auf Rezipien‐ tenaktivität andererseits basiert: Die Textbasis ist dabei das kontextunabhängige Bedeutungspotenzial des Textes, das vom Leser durch die Aktivierung konzeptuellen Wissens elaboriert werden muss (Schwarz 2001: 157). Kohäsion (die konventionellen Textverknüpfungsmittel) ist daher weder hinreichend noch notwendig für Kohärenz. Kohärenzherstellung ist ein Teil der Lese- und allgemein Sprachkompetenz. Als Texteigenschaft ist Kohärenz ein graduelles Phänomen (Schwarz 2001: 155). Die 128 3 Leicht, einfach, verständlich - Forschungsstand <?page no="130"?> Kohärenzbeurteilung von Texten kann variieren und ist u. a. abhängig vom Wissen der Leser/ innen. Kohärenzetablierung ist jedoch kein willkürlicher, kein hochgradig subjektiver Prozess, sondern verläuft weitgehend vorhersehbar nach bestimmten Prinzipien, die durch unsere textuelle Kompetenz und die an diese gekoppelte Konzeptualisierungsfähigkeit determiniert werden (Schwarz-Friesel 2006: 65). Auch bei nicht-kohärenten Texten können Leser/ innen im Interpretationsprozess einen bestimmten Textsinn erzeugen, beispielsweise bei Lyrik (Schwarz 2001: 156). Dies verweist darauf, dass die semantisch-konzeptuelle Kontinuität und das Verstehen dieser Kontinuität (Kohärenz) nicht identisch ist mit der interpretativen Textsinnaus‐ legung, die sehr viel weitreichender ist (Schwarz-Friesel 2006: 64). Kohärenzsignale können auf lokaler und globaler Ebene verortet sein und unter‐ schiedliche Formen annehmen. Auf der Ebene lokaler Kohärenz wurden insbeson‐ dere untersucht: ● Konnektoren und Kohärenzrelationen (explizite und implizite Formen der Satzver‐ knüpfung: Herstellung relationaler Kohärenz, vgl. Averintseva-Klisch 2013: 17 ff.), z.B. Die Straße ist nass, weil es geregnet hat. (explizite Verknüpfung) Die Straße ist nass. Es hat geregnet. (implizite Verknüpfung) ● Koreferenz (explizite Wiederaufnahme durch verschiedene sprachliche Ausdrü‐ cke, die auf dasselbe referieren: Herstellung referenzieller Kohärenz, Averint‐ seva-Klisch 2013: 79 ff.), z.B. Wir haben eine sehr gute Sängerin an unserer Oper. Die Sopranistin ist umschwärmt. Mozart liegt ihr sehr. In den folgenden zwei Abschnitten gehen wir auf beide Phänomene genauer ein. - Lokale Kohärenz: Konnektoren und Kohärenzrelationen Generell geht man in der empirischen Linguistik davon aus, dass eine Explizierung der Kohärenzrelationen durch Konnektoren den Kohärenzaufbau beim Lesen erleichtern und sich sowohl positiv auf die Lesegeschwindigkeit als auch das Verstehen und Behalten der Textinformation auswirkt (Christmann 2008: 1096). Eine ähnliche Annahme findet sich im‐ plizit auch im Regelwerk des Netzwerks Leichte Sprache: Die Konnektoren wenn, weil, und, aber, oder werden als mögliche Satzanfänge genannt (Netzwerk Leichte Sprache 2013: 19). Daraus kann man schließen, dass Konnektoren genutzt werden sollen. Zugleich empfehlen die Regeln aber an anderer Stelle das Vermeiden von komplexen Sätzen (Netzwerk Leichte Sprache 2013: 18). Im Beispiel wird ein „schlechter“ Beispielsatz mit dem Konnektor wenn in einen „guten“ ohne explizite Versprachlichung der Verknüpfung umgewandelt. Hier scheint also (auch) der Konnektor als Verstehenshürde ausgemacht zu werden. 3.3 Text 129 <?page no="131"?> Bredel und Maaß besprechen die Problematik der Satzverknüpfung in der Leichten Sprache im Abschnitt zu adverbialen Nebensätzen in differenzierter Weise. Insbeson‐ dere erörtern sie mögliche Verstehenshürden der verschiedenen Kohärenzrelationen in syntaktischer und semantischer Hinsicht (Bredel/ Maaß 2016: 391 ff.). Als besonders problematisch vermuten sie das Verstehen konditionaler Bedeutung (Bredel/ Maaß 2016: 401); als ein weiteres generelles Problem machen sie außerdem die Frage aus, in welcher Reihenfolge Teilinformationen im Satz bzw. satzübergreifend präsentiert werden sollen (Informationsstruktur) (Bredel/ Maaß 2016: 402). Die Empfehlungen, die Bredel und Maaß geben, sind nicht ganz eindeutig: Einerseits empfehlen sie, semantische Relationen explizit zu versprachlichen und nutzen auch in ihren Beispie‐ len zahlreiche Konnektoren. Andererseits empfehlen sie analog zum Regelwerk des Netzwerks Leichte Sprache auch Lösungen, mit denen Nebensätze und Konnektoren vermieden werden (Bredel/ Maaß 2016: 392 f.). Immer wieder betonen sie allerdings, dass empirische Studien noch überprüfen müssen, welche der theoretisch erörterten Empfehlungen tatsächlich wirksam sind. Aus der empirischen Verstehensforschung lassen sich allgemeine Erkenntnisse zum Thema ableiten. Studien konnten u. a. zeigen, dass es Unterschiede beim Verstehen von Kohärenzrelation gibt: Explizite kausale Verknüpfungen (weil, deshalb, daher) haben sich am besten auf das Behalten und die Lesegeschwindigkeit ausgewirkt, und zwar besser als explizit sprachlich markierte adversative (aber, jedoch) und additive (und, auch) Kohärenzrelationen sowie implizit bleibende Verknüpfungen (Mil‐ lis/ Magliano 1999). Das bedeutet also, dass die verschiedenen semantischen Relationen unterschiedlich schwierig zu verstehen sind (vgl. auch Sanders/ Noordman 2000), wie es auch Bredel und Maaß im Leichte-Sprache-Kontext annehmen. Besonders intensiv empirisch untersucht wurden kausale Relationen. Es hat sich gezeigt, dass Leser/ innen Verstehensfragen wesentlich adäquater beantworten konnten, wenn die Kausalrelationen in den gelesenen Texten durch Konnektoren explizit gemacht wurden; dies gilt sowohl für Erstsprachler/ innen (L1) als auch für Personen, die in einer Zweitsprache (L2) lesen (Degand/ Sanders 2002). Einschränkend ist allerdings festzuhalten, dass sich die Explizierung von Kausalrelationen nur dann positiv auswirkt, wenn die inhaltlichen Bezüge nicht ohnehin transparent sind oder leicht erschlossen werden können: Anhand von Sachtexten wurde empirisch belegt, dass sowohl Leser/ innen mit höheren als auch niedrigeren Lesekompetenzen davon profitieren, dass Kausalrelationen z. B. expliziert werden und die Informationsstruktur verbessert wird. Allerdings traf dies nur auf die komplexen Texte zu, nicht auf die leichten (Linderholm/ Everson/ Broek/ Mischinski 2000). Der Erwerb von Konnektoren ist Teil der Sprachentwicklung. Im Alter von 8 - 10 Jahren haben Kinder noch nicht dasselbe Konnektoren-Wissen wie (unbeeint‐ rächtigte) Erwachsene, sie können Konnektoren aber bereits beim Lesen nutzen, um Textkohärenz herzustellen; fehlende und ambige Konnektoren wie und bereiten Verstehensschwierigkeiten (Cain/ Nash 2011). Dies unterstreicht aus Spracherwerbs‐ perspektive das Potenzial von expliziten Verknüpfungssignalen und zugleich die 130 3 Leicht, einfach, verständlich - Forschungsstand <?page no="132"?> Notwendigkeit, die leserseitigen Voraussetzungen genau zu kennen, um verständliche Texte produzieren zu können: „a longer sentence in which the link between two clauses is explicitly signaled may be easier to understand than two short separate sentences, if the individual has reached a certain level of knowledge of the specific connective“ (Cain/ Nash 2011: 439). - Lokale Kohärenz: Koreferenz Viel Aufmerksamkeit haben in der Leichten Sprache pronominale Anaphern be‐ kommen, und auch in der empirischen Linguistik sind sie untersucht worden. Mit Pronomen wird dabei im Text ein Referent wieder aufgegriffen, der meist bereits durch einen anderen sprachlichen Ausdruck eingeführt wurde (z. B. Der Mann stand auf, er…). In den Regeln des Netzwerks Leichte Sprache (2013: 6) wird empfohlen, „immer die gleichen Wörter für die gleichen Dinge“ zu benutzen. Koreferenz wird damit durch Rekurrenz, die wörtliche Wiederaufnahme eines Textelements, hergestellt. Dahinter steht offenbar die Annahme, dass es voraussetzungsreicher ist, in einem Text zu erkennen, dass zwei verschiedene sprachliche Ausdrücke auf dasselbe referieren. Im Regelwerk wird das Beispiel Tablette - Pille genannt, also ein Fall von anaphorischem Gebrauch von Nominalphrasen (Substitution mit Synonymen). Bredel und Maaß (2016) haben die Aussage im Regelwerk als generelle Empfehlung für Koreferenz durch Rekurrenz ausgelegt und nicht nur auf Anaphern aus Nominalphrasen bezogen. Zum Verstehen von Anaphern benötigen Rezipient/ innen syntaktisches, lexikali‐ sches und konzeptionelles Wissen, z. B. Wissen um Genus- und Numerus-Informatio‐ nen, Wissen um Synonyme, Hypo- und Hyperonyme, Wissen über Belebtheit/ Nicht‐ belebtheit oder Skript- und Schemawissen (vgl. ähnlich Bredel/ Maaß 2016: 370 ff.). Verschiedene Anapherntypen stellen dabei unterschiedliche und unterschiedlich hohe Anforderungen an die Rezipient/ innen. Als besonders voraussetzungsreich können indirekte Anaphern gelten, da hier keine Koreferenten vorhanden sind und die Rezipi‐ ent/ innen Schlüsse aus Bezugsausdrücken ziehen müssen, um Kohärenz herzustellen. Dazu benötigen sie beispielsweise adäquates Schemawissen, wie im folgenden Beispiel (vgl. Averintseva-Klisch 2013: 41 ff.; Schwarz 2000): (3) Gestern war ich auf einer Hochzeit. Die Braut trug ein weißes Kleid und die Reden nahmen kein Ende. Bredel und Maaß haben beispielhaft gezeigt, wie solche Anaphern expliziert werden können und ihre Auflösung dabei die Kohärenzbildung unterstützt (Bredel/ Maaß 2016: 366 f.). Ungleich schwieriger ist der Umgang mit pronominalen Anaphern. Bredel und Maaß plädieren für ihre Vermeidung und sehen identische Rekurrenz als die am wenigsten verarbeitungsaufwendige Alternative an: Die Lockerung einer strikten Anaphernvermeidung in diesem Sinne sehen sie als Zuwachs von Komplexität an (Bredel/ Maaß 2016: 373). Sie weisen allerdings auch darauf hin, welche Probleme Rekurrenz für die Etablierung von Textkohärenz hat. 3.3 Text 131 <?page no="133"?> Die Vor- und Nachteile für die Textverständlichkeit sind auch auf Basis empirischer Forschung abzuwägen. In der empirischen Linguistik ist der Effekt der „repeated name penalty“ beschrieben und in der Folge immer wieder untersucht worden (Gordon/ Grosz/ Gilliom 1993). In der Studie von Gordon, Grosz und Gilliom wur‐ den Texte verglichen, die entweder nach der ersten Einführung eines Namens nur noch Wiederaufnahmen durch Pronomen enthielten oder Wiederaufnahmen durch Rekurrenz des Namens. Dabei zeigte sich, dass die Lesezeiten für die Sätze mit pronominalen Anaphern kürzer ausfielen als für jene mit Namens-Rekurrenz: Der Verarbeitungsaufwand war also bei den Pronomen geringer. Das Verständnis war allerdings in beiden Bedingungen ähnlich. Erklärt worden ist dieser Effekt damit, dass mit der Wiederaufnahme einer Nominalphrase in der Regel ein Topikwechsel markiert wird: Der/ die Leser/ in erwartet die Einführung einer neuen thematischen Einheit und verbringt Zeit damit, den Bezug richtig zu identifizieren. Pronomen signalisieren demgegenüber direkt den Bezug zu einer bereits eingeführten Nominalphrase. In anderen Studien ist auch ein Effekt auf das Textverständnis beobachtet worden (Shapiro/ Milkes 2004): Pronomen erwiesen sich als wirksamere Kohärenzmarker mit Auswirkungen auf das Verstehen. Die Fähigkeit, Pronomen als lokale Kohärenzmar‐ ker zu nutzen, scheint allerdings auch von der Lesekompetenz abzuhängen, denn Leser/ innen mit hoher Lesekompetenz erzielten bessere Verstehensleistungen bei Texten mit pronominalen Anaphern als bei Texten mit Namens-Rekurrenz. Für Le‐ ser/ innen mit geringen Lesekompetenzen galt dies allerdings nicht. Der „repeated name penalty“-Effekt wurde immer differenzierter beschrieben: So wurden u. a. Wortstellung und Satzgliedstatus als Einflussfaktoren identifiziert (Fukumura/ van Gompel 2015), außerdem der Abstand zwischen Bezugsausdruck (Antezedent) und anaphorischem Ausdruck (Eilers/ Tiffin-Richards/ Schroeder 2019). Die Ergebnisse allein zu diesem einen Koreferenz-Phänomen zeigen recht deutlich, wie schwierig es ist, einfache und generelle Aussagen dazu abzuleiten, was die Etablierung von Kohärenz und das Verstehen von Texten erleichtert. Zwar liegen Erkenntnisse vor, aber es sind sehr viele Faktoren, die Verarbeitung und Verstehen in komplexer Weise zu beeinflussen scheinen. - Zusammenfassung: Lokale Kohärenz Die Wirkung von expliziten Signalen der lokalen Kohärenzherstellung wurden viel‐ fach untersucht; trotzdem kann man mit Christmann (2008: 1097) noch immer eine teilweise uneindeutige Befundlage festhalten. Faktoren der Textsorte (narrativer oder Sachtext) scheinen ebenso eine Rolle zu spielen wie die Methode der Verstehensbzw. Verarbeitungsüberprüfung in der Studie (Lesezeiten, Verifikationsaufgaben, Ver‐ stehensfragen oder Wiedergabeaufgaben). Gleichwohl ließen sich einige Tendenzen erkennen: „Das Einfügen [expliziter Signale] koreferenzieller und kausaler Relationen führt gegenüber Texten ohne diese Relationen zu einer reibungsloseren und schnelleren Textrezeption und zu einer besseren Behaltensleistung […]. Dieser Effekt tritt insbesondere bei Leser/ innen auf, die keine expliziten Vorkenntnisse in 132 3 Leicht, einfach, verständlich - Forschungsstand <?page no="134"?> einem Inhaltsbereich haben“ (Christmann 2008: 1097, Hervorhebung B.B./ S.P.; vgl. auch Christmann/ Groeben 2019: 137, Hervorhebung B.B./ S.P.). - Globale Kohärenz Auch die Signale, die die globale Kohärenzherstellung unterstützen, waren immer wie‐ der Untersuchungsgegenstand. Kaum Hinweise dazu gibt es allerdings in Regelwerken und Ratgebern für Leichte Sprache. Bredel und Maaß (2016: 502 ff.) haben typografische Textbzw. Aussagegliederungssignale ausgearbeitet, die aber umstritten sind (siehe auch Kap. 3.4). Hinweise zu Einfacher Sprache empfehlen die Nutzung textstruktureller Signale und rhetorischer Mittel (Baumert 2018). In der empirischen Forschung sind auf der Ebene der globalen Kohärenz insbesondere ● die sequentielle Textorganisation, ● Gliederungssignale, ● sprachliche und grafische Hervorhebungen und ● Signale der thematischen Verknüpfung besprochen worden (Christmann 2008: 1097 ff.). Das Prinzip von Signalen besteht immer darin, implizite Strukturmerkmale eines Textes explizit zu machen - durch sprachliche oder grafische Mittel oder beides. Signale sind in diesem Sinne sprachliche Hinweise, die die zentralen Themen des Textes und deren Beziehung zueinander hervorheben, ohne dass weitere Inhalte hinzugefügt werden (Meyer 2003: 214). Signale können beispielsweise sein (vgl. Christmann 2008: 1098): ● Titel, Kapitelüberschriften und - unterschriften ● Wiederholung von inhaltlichen Aspekten (z. B. in Zusammenfassungen, Wieder‐ holungen von Aussagen, um sie zu betonen) ● vorangestellte Kapitelüberblicke ● rezeptionssteuernde Funktionsindikatoren (z. B. Zusammenfassend lässt sich fest‐ halten…) ● Relevanzindikatoren (z.-B. Hervorzuheben ist…) ● Aufzählungen (von zentralen Aspekten etc.) ● typografische Mittel der Hervorhebung und Gliederung In den Regeln des Netzwerks Leichte Sprache findet sich die Empfehlung „viele Abschnitte und Überschriften“ einzusetzen und wichtige Dinge hervorzuheben (Netz‐ werk Leichte Sprache 2013: 28, 30). Die Praxis arbeitet intensiv mit solchen Mitteln, besonders mit Zwischenüberschriften, außerdem mit Aufzählungen. Welche Umset‐ zungsformen hier effektiv sind, ist noch nicht erforscht. Aus Studien mit unbeeinträchtigten Leser/ innen weiß man relativ gesichert, dass Signale das Behalten der hervorgehobenen Information begünstigen und zu besser strukturierten Wiedergabeprotokollen führen, uneinheitlich sind aber die Befunde zur Gesamtbehaltensleistung (Christmann 2008: 1098). 3.3 Text 133 <?page no="135"?> Kohärenzsignale scheinen besonders für Leser/ innen mit wenig Vorwissen zum Textthema von Bedeutung zu sein. Leser/ innen mit Vorwissen erreichten hingegen sogar bessere Verstehensleistungen, wenn die Texte weniger solcher Signale enthalten (McNamara/ Kintsch/ Butler Songer/ Kintsch 1996). Das mag zunächst überraschen. Untersucht wurden in der Studie u. a. Kohärenzsignale wie die explizite Formulie‐ rung von Schlussfolgerungen und explizite Hinweise, wie Textteile aufeinander zu beziehen sind. Dass solche Signale bei Leser/ innen mit Vorwissen die Verstehensleis‐ tung verschlechterten, wird als Unterforderung gedeutet, die dazu führt, dass sich Rezipient/ innen weniger intensiv mit dem Gelesenen auseinandersetzen müssen. In dieser Erklärung spiegeln sich zwei der vier Verständlichkeitsdimensionen im Zusam‐ menspiel: sprachliche Einfachheit und motivationale Stimulanz. Mittlerweile gibt es allerdings auch Studien, die einen übergreifenden Effekt von globalen Kohärenzhilfen zeigen, unabhängig von Vorwissen, Leseverstehenskompetenz und Interesse (Schmitz 2016). Auch die sequentielle Organisation von Informationen kann die Etablierung von Kohärenz erleichtern oder erschweren. Nach der kognitiven Lerntheorie wie auch der Schematheorie verbessert die hierarchisch-geordnete Abfolge von Textinformationen das Behalten der Inhalte (Christmann/ Groeben 1996: 139). Demzufolge soll mit den inklusivsten Konzepten begonnen werden und sukzessive zu den spezielleren und konkreteren Konzepten übergegangen werden. Wenn die Leser/ innen mit dem Text‐ thema wenig vertraut sind, kann es jedoch auch günstiger sein, zuerst einen möglichst konkreten Verstehensrahmen zu präsentieren (z. B. durch ein Beispiel), in den die nachfolgenden abstrakteren Informationen im Verstehensprozess eingebettet werden können (vgl. Beishuizen/ Asscher/ Prinsen/ Elshout-Mohr 2003). Ebenfalls abgeleitet aus der kognitiven Lerntheorie sind sog. Advance Organizer (Vorstrukturierungen), die dem Text vorangestellt werden (Christmann/ Groeben 1996: 138 f.). Sie unterscheiden sich von bloßen Zusammenfassungen dadurch, dass sie relevante Konzepte beinhalten, und zwar in abstrakterer und inklusiverer Form als dies im Text selbst der Fall ist. „Die Funktion einer Vorstrukturierung besteht darin, hochinklusive Konzepte bereitzustellen, unter die das neu aufzunehmende Material subsumiert werden kann“ (Christmann/ Groeben 1996: 138). Dies kann bei Sachtexten beispielsweise auch die Explizierung von Textsorte und Textfunktion sein. - Fazit: Kohärenz Wir sind mit der Aussage in das Kapitel eingestiegen, dass die Explizitmachung von Implizitem die Herstellung von lokaler und globaler Kohärenz beim Lesen erleichtert. Tatsächlich haben viele der genannten Mittel diese Funktion und Wirkung. Es hat sich aber auch gezeigt, dass Faktoren wie Vorwissen, Leseinteresse und Textsorte teilweise entscheidend für die Wirksamkeit sind. Der Vorteil stärkerer Leser/ innen besteht v.-a. darin, die Schwächen eines Textes kompensieren zu können (Christmann/ Groeben 2019: 139). Das macht erneut deutlich, wie sehr schwächere Leser/ innen auf eine optimierte Textgestaltung angewiesen sind. Insgesamt kann man festhalten, dass nicht 134 3 Leicht, einfach, verständlich - Forschungsstand <?page no="136"?> jede Explizierung (z.-B. offensichtliche Kausalrelationen) eine Verarbeitungserleichte‐ rung darstellen, und auch nicht jede Verarbeitungserleichterung zu einem verbesserten tiefen Verständnis führt. Das richtige Maß zwischen Über- und Unterforderung, von Einfachheit und Lesemotivation spielt ebenso eine Rolle. Auch deshalb gilt: „Es gibt kein für alle Leser(innen) einheitliches Verständlichkeitsoptimum.“ (Christmann/ Groeben 2019: 139, Hervorhebung B.B./ S.P.) 3.3.5 Textsorte und Textfunktion Das Verstehen von Textsorte und Textfunktion ist in der Textlinguistik als zentral für ein adäquates Gesamttextverständnis beschrieben worden (siehe Kap. 2.2.1). In der empirischen psycholinguistischen Forschung sind Textsorten u.-a. in der Erforschung von sog. Superstrukturen präsent. Unter Superstrukturen wird dabei etwas Ähnliches verstanden wie ein Teilaspekt von Textmustern, nämlich die globale Ordnung von Textteilen, die charakteristisch ist für die jeweilige Textsorte. In Studien mit wissen‐ schaftlichen Texten (deren Struktur im angloamerikanischen stark normiert ist) wurde gezeigt, dass die Inhalte aus Texten, deren Superstruktur sich an der konventionellen Form orientiert, besser behalten werden (Rossi 1990; Dee-Lucas/ Larkin 1990). Auch bei Textsorten mit einer weniger stark festgelegten Struktur wirkt sich eine gelungene rhetorische Form, die an vertraute und erwartete rhetorische Muster anknüpft und explizite Strukturhinweise enthält, positiv aus (Christmann 2008: 1099). Exkurs: Textwelten Texte sind in unterschiedlichen „Welten“ angesiedelt (Adamzik 2004: 61 ff.). Man kann dies z. B. an Unterscheidungen wie der zwischen fiktionalen/ literarischen Texten und Gebrauchs-/ Alltagstexten erkennen. Texte unterscheiden sich also nicht nur nach der Funktion, die sie unmittelbar in einem kommunikativen Kontext erfüllen (Textsorten), sondern auch nach ihrem Wirklichkeitsbezug (Textwelten). Kirsten Adamzik unterscheidet fünf Textwelten: 0. Standardwelt: „all das, was in größtmöglichem gesellschaftlichen Konsens als ‚Realität‘ akzeptiert wird“ (Adamzik 2004: 63); I. Welt des Spiels, der Fantasie: Erfinden von möglichen Welten, Spiel mit den Welten 0-IV; II. Welt der Wissenschaft: Entwürfe möglicher Welten nach rationalen Prinzi‐ pien; III. Welt des Übernatürlichen: Glauben und Handeln im Sinne des Glaubens; IV. Welt der Sinnfindung: subjektive Deutungen und subjektive Sinngebungen. Ulla Fix (2017) hat am Beispiel literarischer und religiöser Texte gezeigt, wie durch die Einbettung in unterschiedliche Textwelten auch ganz unterschiedliche Anforderungen an die Gestaltung leichter Texte entstehen. 3.3 Text 135 <?page no="137"?> In der Leichten Sprache hat man sich bisher wenig mit der Textsorten-Problematik auseinandergesetzt. Die Praxis bietet überwiegend textsortenunspezifisch gestaltete Texte an. In der Forschung gibt es kontroverse Positionen: Bredel und Maaß (2016: 196) weisen auf die Bedeutung von Textsorten hin, gehen aber davon aus, dass es abgesehen von didaktischen Kontexten nicht möglich ist, Textsortenmerkmale umzusetzen. Weiterhin gehen sie davon aus, dass die „Kenntnis oder gar Beherrschung“ von Textsorten „für die primäre Leichte-Sprache-Adressatenschaft […] nicht oder kaum besteht“ (Bredel/ Maaß 2016: 195 f.). Fix und Bock haben demgegenüber aus einer stärker textlinguistischen Perspektive für die Beachtung von Textsortenmerkmalen plädiert (Bock 2019: 68, 75; Fix 2017: 164): Sie gehen davon aus, dass auch in vereinfach‐ ten Textfassungen textsortentypische Merkmale realisiert werden können und dass diese das Erkennen der Textsorte und damit den Aufbau eines adäquaten Situations- und Kontextmodells für die Rezipient/ innen erleichtert. Kontroverse: Textsortentypisch oder universell? Textsortenbezeichnungen innerhalb von Texten sind „normalerweise“ eher selten. Sie werden von den Rezipient/ innen aus Textmerkmalen erschlossen. Besonders in der Leichten Sprache werden textsortentypische Merkmale aber oftmals nivel‐ liert oder sind gar nicht vorhanden - sowohl in sprachlicher wie auch visueller Hinsicht. Zur Rolle von Textsortenmerkmalen als indirekten Signalen gibt es in der Leichte-Sprache-Forschung unterschiedliche Auffassungen: Die eine Position geht davon aus, dass „Indikatoren für indirekte Signalisierung […] nur in begrenztem Maße zur Verfügung“ stehen (Bredel/ Maaß 2016: 488). Die andere Position nimmt gerade an, dass die weitestmögliche Nutzung von konventionellen Textsortenmerkmalen das Verstehen erleichtert (Bock 2019: 67; s. auch Kap. 3.4 zu grafischen Textsortenmerkmalen). Es gibt Studien mit unbeeinträchtigten Leser/ innen, die belegen, dass die Umsetzung konventioneller (sprachlicher bzw. visueller) Textstrukturen das Behalten der Inhalte bzw. das Erkennen der Textsorte verbessert (Rossi 1990; Dee-Lucas/ Larkin 1990; Moys 2014). In Bezug auf Erwach‐ sene mit sog. geistiger Behinderung und funktionale Analphabeten wurde dies zum Teil auch für makrotypografische Textsortenmerkmale bestätigt (Bock 2020; siehe auch Kap. 3.4). Es wurde in der Folge auch empirisch untersucht, inwiefern Adressat/ innen Leich‐ ter Sprache Textsortenwissen haben und wie Leichte-Sprache-Texte verschiedener Textsorte und Textfunktion von ihnen gelesen und verstanden werden (Bock/ Lange 2017; Bock 2018b). Die qualitative Studie hat explorativen Charakter und arbeitete mit mündlichen Verstehensfragen. Aus den Antwortdaten konnte rekonstruiert werden, dass die meisten Befragten ein Konzept von Textsorten haben und auch adäquate Text‐ sortenbezeichnungen kennen oder ad-hoc bilden können (vgl. auch Bock 2019). Das Vorhandensein von Textsortenwissen korrespondierte allerdings nicht durchgängig mit dem erfolgreichen Erkennen der Textsorte. D.h., dass Befragte zwar beispielsweise 136 3 Leicht, einfach, verständlich - Forschungsstand <?page no="138"?> die Textsorte Gesetzestext kennen, ein vorliegendes Textexemplar in Leichter Sprache aber nicht als Gesetzestext erkannt haben. Die verschiedenen Textsorten bereiteten außerdem unterschiedlich große Verstehensschwierigkeiten: So waren der Instrukti‐ onstext sowie ein Text mit Appellfunktion häufiger unter den adäquat verstandenen Texten; während der Rechtstext mit Deklarationsfunktion zu den Texten gehörte, bei denen häufiger kein adäquates Textverständnis erreicht wurde. Dass das Erkennen der Textfunktion essenziell für das Gesamttextverständnis ist, ist eine textlinguistische Grundannahme (siehe Kap. 2.2.1; Kap. 2.4). In der Leichte-Spra‐ che-Forschung wurden deshalb Überlegungen angestellt, wie die Textfunktion, die in aller Regel implizit bleibt, expliziert werden kann. Dies ist ein sonst wenig beachteter Aspekt, der aber auch für Einfache Sprache und andere Formen der Textvereinfachung Relevanz hat. Vorgeschlagen wird eine Nennung der Textfunktion zu Beginn des Textes (Bock 2019: 67; vgl. ähnlich Bredel/ Maaß 2016: 488). Bock hat vorgeschlagen, auch Merkmale des Kontexts sowie die Textsorte explizit zu machen und führt folgende Beispiele an (Bock 2019: 66 f.): Beispiel Anleitung zum Wäschefalten Der Text zeigt Ihnen Schritt für Schritt, wie Sie die Handtücher falten müssen. Ein Foto zeigt einen Schritt. Es beginnt mit dem ersten Schritt: Legen Sie das Handtuch wie auf dem Bild vor sich hin. Sammelband zu einer wissenschaftlichen Tagung „In diesem Buch schreiben Forscher und Forscherinnen über Inklusion. Und über gleiche Rechte für alle beim Lernen. Das Buch gehört zu einem Treffen von Forschern und Forscherinnen. Das Treffen war im Jahr 2011 in Bremen. […] Auf diesem Treffen sprechen die Forscher und Forscherinnen darüber, was sie zu Inklusion denken. Nach dem Treffen schreiben die Forscher und Forscherinnen ihre neuen Gedanken auf. […] In diesem Jahr gibt es das Buch auch in Leichter Sprache. Dieses Buch lesen Sie gerade.“ (aus: Seitz 2013) Die Vorschläge zur Explizierung von Textfunktion und Textsorte knüpfen an das Prinzip von Advance Organizers an (siehe vorangegangener Abschnitt): Es werden dem Text inklusivere Konzepte als Verstehensrahmen vorangestellt, in die nachfolgende Inhalte eingeordnet werden können. Aus der empirischen Forschung zum Einfluss von Schema-Wissen auf das Textver‐ stehen lässt sich zudem ableiten, dass die explizite Benennung von Verstehenszielen die Textrezeption erleichtert (vgl. Christmann/ Groeben 1996): Textfunktion und Text‐ sorte stellen solche textbezogenen Schemata dar, die die Rezeption steuern. Dass die Explizierung von Kontextmerkmalen das Verstehen unterstützen kann, ist auch empirisch belegt: Dass der (sprachliche) Kontext beim Lesen von Wörtern und Sätzen hilft, ist gut belegt (Perfetti/ Goldman/ Hogaboam 1979; Stanovich/ West 1979; 3.3 Text 137 <?page no="139"?> Simpson/ Peterson/ Casteel/ Burgess 1989). Dies wird auf den (pragmatischen) Kontext von Texten übertragen. Man kann zudem davon ausgehen, dass bei unvertrauten Textsorten vorangestellte Beispiele das Textverständnis unterstützen können, indem diese z. B. den Verwendungskontext des Textes verdeutlichen (vgl. Beishuizen et al. 2003). Generell geht man davon aus, dass die Vermittlung abstrakter Informationen (wie es insbesondere die Textfunktion ist) erleichtert wird, wenn möglichst konkrete Interpretationskontexte bereitgestellt werden (Christmann/ Groeben 2019: 129). Hier können auch Bilder und Grafiken bei der Veranschaulichung eine Rolle spielen. - Weiterführende Literatur Christmann, Ursula/ Groeben, Norbert: Verständlichkeit: die psychologische Perspektive. In: Christiane Maaß/ Isabel Rink (Hrsg.): Handbuch barrierefreie Kommunikation. Berlin 2019, 123-145 Fix, Ulla: „Schwere“ Texte in „Leichter Sprache“ - Voraussetzungen, Möglichkeiten und Grenzen (? ) aus textlinguistischer Sicht. In: Bettina M. Bock/ Ulla Fix/ Daisy Lange (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin 2017, 163-188. - Aufgaben 1. Analysieren Sie folgendes Beispiel aus einem Regelwerk für Leichte Sprache: a. Welche Kohäsionsmittel finden sich in den beiden Beispielen? b. Welche Annahmen zur Kohärenzbildung stehen hinter den beiden als gut bzw. schlecht eingeordneten Beispielen? Wie verhalten sich diese Annahmen zum Forschungsstand? Schlecht: Wenn Sie mir sagen, was Sie wünschen, kann ich Ihnen helfen. Gut: Ich kann Ihnen helfen. Bitte sagen Sie mir: Was wünschen Sie? (Netzwerk Leichte Sprache 2013: 18) 2. Welche sprachlichen Mittel werden im folgenden Textausschnitt genutzt, um Koreferenz herzustellen? a. Beurteilen Sie vor dem Hintergrund des Forschungsstandes: Was sind mög‐ liche Verstehenshürden von Koreferenz, und wie wurde diesen Verstehens‐ hürden im Beispiel begegnet? - Ein Mädchen hat eine Groß·mutter. - Die Groß∙mutter schenkt dem Mädchen ein rotes Käppchen. - - Ein Käppchen ist eine kleine Mütze. - Das Mädchen mag das rote Käppchen sehr. - Und will das rote Käppchen immer tragen. - Deshalb heißt das Mädchen: Rot∙käppchen. 138 3 Leicht, einfach, verständlich - Forschungsstand <?page no="140"?> Quelle: https: / / www.ndr.de/ fernsehen/ barrierefreie_angebote/ leichte_sprache/ Rotka eppchen,rotkaeppchenleichtesprache100.html [11.07.2022] 3. Recherchieren Sie einen Text Ihrer Wahl und bestimmen Sie die Textsorte. (Bezie‐ hen Sie dazu die theoretischen Grundlagen in Kap. 2.2 ein.) a. Welche expliziten oder impliziten Signale der Textsorte können Sie feststel‐ len? b. Welche Signale würden Sie hinzufügen, um die Textsorte leichter erkennbar zu machen? 3.4 Multimodalität: Typografie und Bild Das Kapitel trägt dem Umstand Rechnung, dass kein Text nur aus Sprache besteht. Jeder Text hat eine visuelle Dimension, die die Verständlichkeit beein‐ flusst. Ausgehend von Beobachtungen aus verschiedenen Praxisfeldern, setzt das Kapitel zunächst bei der Theorie an: Es geht um verschiedene „nicht‐ sprachliche“ Textfaktoren, und es werden linguistische Systematisierungen von und Perspektiven auf Typografie und Bild vorgestellt, darunter die Unter‐ scheidung zwischen Mikro-, Meso-, Makro- und Paratypografie, Arten des Sprache-Bild-Verhältnisses und Bildtypen. Im darauffolgenden Kapitel geht es dann spezifisch um die (empirische) Leichte-Sprache-Forschung: Thema ist u. a., ob die üblichen mikro- und makrotypografischen Prinzipien das Verstehen tatsächlich unterstützen und welche Erkenntnisse zu Bildern vorliegen. 3.4.1 Perspektiven der Praxis Bilder werden in etlichen Kommunikationsbereichen genutzt, um Inhalte verständlich zu machen und zu veranschaulichen: Man denke an Sachbücher für Kinder, an die Bilder in Bedienungsanleitungen, an Zeitungen und Magazine, an Symbole und Icons in Infobroschüren, die Orientierung im Text geben sollen usw. Es handelt sich um Bilder unterschiedlichster Art - Fotos, farbige Zeichnungen, abstrahierte Linienbilder, komplexe Infografiken usw. -, die in den einzelnen Texten verschiedene Funktionen erfüllen. Vielleicht weniger im Blick ist die Typografie, sie stellt aber ebenfalls einen wichtigen Faktor für die Rezeption dar - man denke nur an die angepasste Schriftgröße in Erstlesebüchern oder an die bloße Textmenge, die sich in unterschiedlichen Zeit‐ schriften auf einer Seite findet (z. B. Die Bunte vs. Der Spiegel). Bilder und Typografie sind also generell wichtig als Faktoren, die die Rezeption und die Textverständlichkeit beeinflussen. Die Leichte Sprache geht auch in diesem Bereich einen spezifischen Weg: Es hat sich eine charakteristische Praxis in Bezug auf Bilder und Typografie herausgebildet. Si‐ 3.4 Multimodalität: Typografie und Bild 139 <?page no="141"?> cherlich findet sich diese Praxis nicht in allen Texten wieder, aber einige visuelle Merk‐ male sind regelrecht zum Erkennungszeichen für ‚typische‘ Leichte-Sprache-Texte geworden. Dazu zählen beispielsweise farbige Zeichnungen, die in großer Zahl in Texten eingesetzt werden. Es gibt mehrere Bild-Inventare, die von Illustrator/ innen eigens für den Leichte-Sprache-Kontext angefertigt wurden. Am bekanntesten sind sicher die farbigen Zeichnungen aus dem Bildwörterbuch der Lebenshilfe Bremen (2013). Empfehlungen zur Typografie finden sich in den meisten Regelwerken. Im Regelkatalog des Netzwerks Leichte Sprache sind dies Hinweise zu u. a. Schriftart, Schriftgröße, Zeilendurchschuss, Textausrichtung, Länge von Absätzen (Netzwerk Leichte Sprache 2013: 22 ff.); ein weiteres Thema sind „gute“ und „schlechte“ Mittel zur grafischen Auszeichnung (Netzwerk Leichte Sprache 2013: 29). Diese Empfehlungen widersprechen teilweise Erkenntnissen und Konventionen der Designpraxis (siehe z. B. die DIN 1450: 2013-04; Adler 2019). In der Einfachen Sprache gibt es keine vergleichbare verfestigte Praxis. Hier verhält es sich also ähnlich wie im Bereich der sprachlichen Normen: Einfache Texte weisen eine deutlich größere Varianz bei der visuellen Gestaltung auf. Bilder spielen insgesamt eine im Vergleich zu Leichter Sprache untergeordnete Rolle. 3.4.2 Multimodalität und Verständlichkeit in der Forschung - Was ist Multimodalität? Beim Thema Textverständlichkeit und auch beim Thema Multimodalität denkt man vielleicht als Erstes an das Zusammenspiel von Sprache und Bild in Texten. Bilder spielen zweifellos eine bedeutende Rolle. Für die Verständlichkeit sind aber - das zeigen schon die Anwendungsbeispiele aus dem vorangegangenen Kapitel - auch andere visuelle Textmerkmale entscheidend. Was genau ist also Multimodalität, und welche Erkenntnisse gibt es zu verständlichen multimodalen Texten? In der Linguistik sind semiotische Zugänge zu Text und Stil, und damit die Berücksichtigung visueller Zeichenressourcen wie Typografie und Bild, vielfach vorgeschlagen und theoretisch ausgearbeitet worden. Visualität wird mittlerweile selbstverständlich als konstitutives Merkmal von Textualität angesehen (Adamzik 2018: 27; vgl. auch Kress/ van Leeuwen 1998: 186). Die entwickelten Theorien zielen meist allgemein auf die Frage, was Texte ausmacht und welche Textmerkmale in Rezeption und Sinnkonstruktion einfließen. Exkurs: „Nichtsprachliche“ Textfaktoren Fix (2008d) geht noch einen Schritt weiter und stellt generell die Bedeutung „nichtsprachlicher“ Textfaktoren heraus: Sie führt neben der Medialität (Instru‐ mente der Textherstellung und ungeformter Textträger, z. B. Papier, Stein) und der Materialität (dem gestalteten Textträger, z. B. textsortentypische Typografie) das Kriterium der Lokalität von Texten ein. Gemeint ist damit der Publikationsort, 140 3 Leicht, einfach, verständlich - Forschungsstand <?page no="142"?> und zwar im Sinne von Orten, denen die Kultur eine bestimmte Bedeutung zugeteilt hat und die in die Sinnkonstruktion beim Lesen eines Textes mit eingehen (z. B. ein Sachtext, der als Kunsttext erkennbar wird, weil er in einem Gedichtband erscheint). Seltener wurde in der Linguistik direkt nach dem Einfluss visueller Merkmale auf die Textverständlichkeit gefragt (vgl. allerdings Ballstaedt et al. 1981). Auch die meisten Verständlichkeitsmodelle haben v. a. die sprachlichen Merkmale im Blick. Eine Ausnahme ist dabei das textlinguistische Verständlichkeitsmodell von Christoph Sauer (siehe Kap. 2.2). Der Terminus Multimodalität bzw. multimodaler Text wird meist ins Spiel gebracht, wenn Texte im Hinblick auf die verschiedenen, in ihnen vorhandenen Zeichenressourcen betrachtet werden. Definition: Multimodalität vs. Multimedialität Die Termini Multimodalität und Multimedialität werden in der Textlinguistik teilweise synonym und teilweise in Abgrenzung zueinander benutzt. In der Regel wird der Begriff des Mediums bzw. der Medialität in einem engen technischen Sinne verstanden. Modi werden dagegen meist als die verschiedenen Zeichen‐ ressourcen (z. B. Sprache, Bild, Typografie) aufgefasst, oft aber auch einfach auf die unterschiedlichen Sinneskanäle (Sehen, Hören, Fühlen) bezogen (vgl. Schneider 2018: 278). In einem Präzisierungsvorschlag von Ellen Fricke (2012) wird unter Multimodalität die enge Verzahnung von beteiligten Zeichen/ Medien verstanden, die so eng ist, dass die beteiligten Zeichensysteme einen Gesamtkode bilden („Kodeintegration“). Beispiele dafür sind die Face-to-Face-Kommunikation, in der Sprache und Gesten integriert sein können, oder die Verzahnung von Typografie und Sprache in schriftlichen Texten. Von Multimedialität spricht Fricke im Unterschied dazu, wenn mehrere Medien in einer kommunikativen Praktik oder einem Äußerungsprodukt kombiniert werden, z. B. eine Präsentation und ein Handout während eines mündlichen Vortrags oder die Einbettung eines Gebärdensprachvideos in einen Hypertext auf einer Webseite. Die „Entdeckung“ der Multimodalität schriftlicher Kommunikation in der germanisti‐ schen Linguistik war eine Perspektivenerweiterung, die „die klassischen Probleme der Sprachwissenschaft und der Kommunikationsanalyse, wie das Problem der Kohärenz, der Kompositionalität, des Verstehens oder der kommunikativen Kompetenz in neuem Licht“ darstellt (Bucher 2011: 124). Damit geht einher, dass Lese- und Textkompetenz nicht nur als Fähigkeit zur Dekodierung von Sprache verstanden werden, sondern auch die Fähigkeit umfasst, Bilder und grafische Informationen „zu lesen“ und mit den sprachlichen Informationen zu einem adäquaten Situationsmodell zu integrieren (vgl. Weidacher 2007). Im Umkehrschluss basiert die Etablierung von Kohärenz und Textverstehen nicht nur auf sprachlichen Merkmalen, sondern - je nach Textsorte und 3.4 Multimodalität: Typografie und Bild 141 <?page no="143"?> Kontext in unterschiedlicher Weise - auch auf visuellen Textmerkmalen. Besonders deutlich ist dies in Beispielen wie den folgenden: Bei nicht-linearen Texten (z. B. Hyper‐ texten) zeigt die grafische Gestaltung u. a. an, welche Textteile als zusammengehörig gelesen werden müssen und welche Funktionen Texte haben (z. B. Navigationsmenü, Schlagzeile). Bei Werbeplakaten und -anzeigen dominieren visuelle Informationen oftmals sogar gegenüber den sprachlichen, und beide sind gleichermaßen wichtig, um die Botschaft zu verstehen (vgl. Stöckl 2011). Die Beschäftigung mit Sprache-Bild-Gefügen in schriftlicher Kommunikation geschieht in der germanistischen Linguistik teilweise unter dem Ausdruck Bildlingu‐ istik (Diekmannshenke/ Klemm/ Stöckl 2011). Ulrich Schmitz hat den Ausdruck der „Sehflächen“ geprägt und meint damit „Flächen, auf denen Texte und Bilder in geplantem Layout gemeinsame Bedeutungseinheiten bilden“ (Schmitz 2011b: 25). Neben Bildern hat die germanistische Linguistik auch Typografie und Textdesign besondere Aufmerksamkeit gewidmet (Stöckl 2004; Roth/ Spitzmüller 2007; Schmitz 2011a), ebenso der Materialität von Texten (Fix 2007a). - Typografie Typografie wird in der Linguistik als Teil des Textstils verstanden (Fix 2007b; Kress 2010). Die Ganzheitlichkeit der Textgestalt kommt in der Wahrnehmung durch das Zusammenspiel verschiedener Zeichenressourcen zustande (Stöckl 2004: 7 f.): Die Typografie steht mit anderen Textaspekten, wie der thematischen Struktur, dem Inhalt, der Kommunikationssituation, der Beziehung zum Adressaten etc., in einem systematischen Zusammenhang. Definition: Typografie Der Terminus Typografie meint im Unterschied zur alltagssprachlichen Verwen‐ dung nicht nur schriftbezogene Eigenschaften i.e.S. wie Schriftart, Laufweite, Textauszeichnungen, sondern umfasst alle Gestaltungsformen schriftlicher Kommunikation, wie z. B. die Anordnung der Schrift in der Fläche, Farbgestal‐ tung, Einbindung von Bildern und grafischen Elementen, Struktur und Design eines gesamten Buches, Zeichenträger (z. B. Papiersorte, Hintergrund) usw. In Designpraxis und -forschung ist die Unterscheidung zwischen Mikro- und Mak‐ rotypografie üblich (z. B. Willberg/ Forssman 1999: 9). Für die Linguistik hat Stöckl (2004) eine Differenzierung vorgeschlagen, die auf die kommunikative Bedeutung abzielt, die einzelne Gestaltungselemente im Text entfalten können; er unterscheidet zwischen Mikro-, Meso-, Makro- und Paratypografie (Stöckl 2004: 22 f.) (siehe Tab. 5). In der Gestaltungspraxis hängen alle Ebenen des Typografischen eng miteinander zusammen und lassen sich nur im Sinne einer theoretischen Vereinfachung trennen (Stöckl 2004: 23): Die ‚höheren‘ Ebenen schließen die ‚niedrigeren‘ Ebenen daher immer 142 3 Leicht, einfach, verständlich - Forschungsstand <?page no="144"?> mit ein bzw. greifen auf deren typografische Ressourcen zurück. Wenn also beispiels‐ weise von der typischen Makrotypografie von Leichte-Sprache-Texten gesprochen wird, ist die kommunikative Bedeutung typografischer Gestaltung auf der Ebene der Textorganisation gemeint, was aber alle anderen Ebenen - insbesondere die Paratypografie der Textsorten - zwingend mit einschließt. Mikrotypografie Ebene der Schriftgestaltung und der Formausstattungsmerkmale von Schrift (z.-B. Schriftart, Schriftgröße, Zeichenabstand) Mesotypografie Gestaltung des Schriftbilds in der Fläche bzw. den Gebrauch von Schrift im Text (z.-B. Zeichen- und Wortabstand, Zeilenabstand, Schriftmischungen, Textausrichtung) Makrotypografie Organisation von Text und Textteilen, also Gliederung, Informati‐ onsverteilung und visuelle Akzentsetzungen (z.-B. Anordnung von Text und Grafik, Hervorhebungen, Absätze und Einrückungen) Paratypografie materielle Seite von Texten (Textträger, z.-B. Papiersorte, Herstel‐ lungsverfahren) Tab. 5: Typografische Bedeutungsebenen in Texten nach Stöckl (2004: 22 f.) Multimodale Verstehensprozesse verlaufen nicht-linear, d. h. grafische, bildliche und sprachliche Elemente werden nicht - wie beispielsweise rein sprachbasierte, lineare Fließtexte - in festgelegten, immer gleichen Reihenfolgen wahrgenommen und verarbeitet (vgl. Bucher 2011). Die Wahrnehmung typografischer Merkmale ist „im Sinne ihrer Schriftbildlichkeit in gewisser Weise der Entschlüsselung sprachlicher Botschaften vorgeschaltet“ (Stöckl 2004: 7 f.), d. h. Schrift muss zunächst visuell wahrgenommen werden, bevor die weitere Verarbeitung stattfinden kann. In aller Regel findet eine bewusste Wahrnehmung der typografischen und materiellen Seite von Texten nur bei Konventionsbrüchen statt. Allerdings weist Fix darauf hin, dass grundsätzlich auch Typografie und Materialität Referentialität gewinnen [können], auch sie können zur Vermittlung von Bedeutung/ Sinn beitragen […]. Der Rezipient nimmt sie wahr, und nicht nur dann, wenn sie aus den Konven‐ tionen heraustreten. Er nimmt konventionelle Zeichen der Farbenkodes, der Papiersorten, der Typographie beiläufig, unbewußt auf und ordnet ihnen (nichtbegriffliche) Bedeutungen zu. (Fix 2007a: 97) In der Verständlichkeitsforschung (siehe Kap. 2.2) wurden teilweise auch typografische Merkmale als Faktoren der Textverständlichkeit in den Blick genommen (bspw. Gliederungssignale, Hervorhebungen im Text). Dennoch ist die Typografie eher ein implizites und in jedem Fall kein Kernthema. Expliziter und häufiger hat man sich in diesem Forschungsbereich mit Visualisierungen wie Bildern, Piktogrammen etc. beschäftigt: sowohl mit deren Rezeption und Verständlichkeit als auch mit der Inter‐ aktion von Visualisierung und Text (vgl. Ballstaedt et al. 1981; Ballstaedt 1997). 3.4 Multimodalität: Typografie und Bild 143 <?page no="145"?> Grundsätzlich steht außer Frage, dass die Verständlichkeit von schriftlicher Kom‐ munikation nicht nur von sprachlichen Textqualitäten, sondern auch von der visuellen Gestaltung (Typografie auf allen Ebenen sowie Bildern) abhängt: Beides kann die Re‐ zeption von Texten erschweren oder erleichtern. Zudem hat schriftliche Kommunika‐ tion immer eine visuelle Seite, „allein schon deshalb, weil Schrift mit dem Auge gelesen wird“ (Schmitz 2018: 263). Verschiedene Zielgruppen stellen dabei unterschiedliche Anforderungen. Voraussetzung für das Verstehen von schriftlichen Äußerungen, ist die Erkennbarkeit von Zeichen sowie die Leserlichkeit und Lesbarkeit von Zeichenfolgen. Definition: Erkennbarkeit, Leserlichkeit, Lesbarkeit (nach DIN 1450) 1. Erkennbarkeit ist die „Eigenschaft von Einzelzeichen, die es ermöglicht, die Zeichen zu erfassen und zu unterscheiden“. 2. Leserlichkeit ist die „Eigenschaft einer Folge erkennbarer Zeichen, die es ermöglicht, diese Zeichen im Zusammenhang zu erfassen“. 3. Lesbarkeit ist die „Eigenschaft erkennbarer Zeichen und leserlich angeord‐ neter Zeichenfolgen, die es ermöglicht, die Information zweifelsfrei zu verste‐ hen“. Lesbarkeit ist in der Linguistik beispielsweise Thema, wenn es um das Dekodieren von Wörtern geht. Die Leichte-Sprache-Regel, laut der Wörter segmentiert werden sollen, um besser lesbar zu sein, zielt auf diesen Aspekt (vgl. Netzwerk Leichte Sprache 2013; Bredel/ Maaß 2017). Das Verstehen von Texten besteht gemäß pragmatisch-textlingu‐ istischer Perspektive aber nicht nur im Dekodieren von Zeichen und dem Erfassen von Inhalten/ Propositionen, sondern auch im Erfassen von Aspekten wie Textsorte und Textfunktion (siehe Kap. 2.2). Auch hier ist Typografie ein Verstehensfaktor (Moys 2014). Rezipientenseitig sind typografische und materielle Merkmale von Texten als Teil des kommunikativen Wissens bzw. des Textsortenwissens zu betrachten. Sie lenken die Erwartungen im Rezeptionsprozess „und dienen als Indikatoren der Text‐ sortenzugehörigkeit auch der Orientierung der Leser im alltäglichen Textuniversum“ (Stöckl 2004: 44), d. h. Rezipient/ innen können Textsorte und Textfunktion an den visuellen Textmerkmalen erkennen. Die grafische Gestaltung ist ein Kontextualisie‐ rungshinweis, der aufgrund konnotativ erschlossener Form-Funktions-Relationen und intertextueller Bezüge - also per Kontext- und Praxiswissen […] - Schlüsse über die Textfunktion, den historischen Kontext, die Akteure, die sozialen Beziehungen und den sozialen ‚Wert‘ zulässt und somit Hypothesen über die kommunikative Praxis erlaubt, deren Teil der Text […] ist (Spitzmüller 2013a: 280). 144 3 Leicht, einfach, verständlich - Forschungsstand <?page no="146"?> Bild In der germanistischen Linguistik hat man sich mit den besonderen Bedeutungs- und Kommunikationspotenzialen von Sprache-Bild-Gefügen beschäftigt (vgl. für einen knappen Überblick Brinker/ Cölfen/ Pappert 2014: 83 f.). Systematisierungsansätze be‐ treffen zum einen das Verhältnis, in dem Bilder und Sprache in Texten zueinander stehen können. Zum anderen wurden die Bilder näher betrachtet, und es wurden Typologien von Visualisierungen ausgearbeitet. Bei van Leeuwen (2005) wird eine allgemeine Unterscheidung von Spra‐ che-Bild-Verhältnissen getroffen, und zwar nach dem Informationsgehalt, der in beiden Zeichensystemen repräsentiert ist. ● Text und Bild spezifizieren oder erklären einander („Elaboration“). ● Die bildlich und sprachlich repräsentierten Informationen sind inhaltlich „ver‐ wandt“ und tragen in komplementären oder Kontrastverhältnissen gemeinsam zu einer „größeren“ Informationseinheit bei („Extension“). ● Die Informationen in Text und Bild stehen in keinem inhaltlichen Zusammenhang, auch nicht bei weitesten Assoziationen („Text-Bild-Schere“). Hartmut Stöckl (2011) unterscheidet weitere Typen bzw. Muster der Verknüpfung von Sprache und Bild und identifiziert am Beispiel von Werbeanzeigen: ● räumlich-syntaktische Muster der Sprache-Bild-Verknüpfung (z. B. räumliche Nähe/ Ferne, Reihenfolge); ● informationsbezogene Muster der Sprache-Bild-Verknüpfung (z. B. Elaboration, Extension); ● rhetorisch-semantische Muster der Sprache-Bild-Verknüpfung (z. B. spielerische Verknüpfung, logisch-argumentative Abhängigkeit). Kress und van Leeuwen (1996) haben metaphorisch davon gesprochen, dass die Rezeption von Bildern einer „visuellen Grammatik“ folge. Sie legen damit nahe, dass es Ähnlichkeiten zu Sprachrezeptionsprozessen gibt. Dies wurde in der Linguistik kritisch diskutiert (Dürscheid 2007). Typen von Visualisierungen - also „Bild-Arten“ - hat Ballstaedt (2002) unterschieden, und zwar nach ihrer kommunikativen Basisfunktion: ● Abbilder „repräsentieren Realitätsausschnitte - Gegenstände, Lebewesen, Szenen - in reduzierter Form, es fehlen etwa Oberflächenfarben, Texturen, Tiefenhinweise“ (Ballstaedt 2002: 140); dabei gibt es Abbilder unterschiedlichen Konkretheitsbzw. Abstraktionsgrades, u.-a. Realbilder, Linienbilder, schematische Abbilder; ● Charts „repräsentieren begriffliche Zusammenhänge und übersetzen sie in einfa‐ che optische Zusammenhänge“ (Ballstaedt 2002: 141), z. B. Ursache-Wirkungs-Be‐ ziehungen, Überordnungs-Unterordnungs-Beziehungen, zeitliche Abläufe in Form von Tabellen (in denen Spalten und Zeilen Beziehungen anzeigen), Zeitcharts (mit Zeitachse), Flow- oder Prozesscharts (zur Darstellung von Abläufen); 3.4 Multimodalität: Typografie und Bild 145 <?page no="147"?> ● Diagramme repräsentieren quantitative Zusammenhänge von Daten, bspw. Kreis-, Balken-, Säulendiagramme; ● Piktogramme, Icons: symbolische (auf Konvention beruhende) oder ikonische (auf Ähnlichkeitsbeziehung beruhende) schematische Bilder, die einen Begriff repräsentieren und diesen bei Rezipientin/ Rezipienten unmittelbar aktivieren sollen; ● Karten „können als Abbilder aus großer Entfernung aufgefasst werden, aber sie repräsentieren meist zusätzliche Informationen in symbolischer Form“ (z. B. Größe von Städten) (Ballstaedt 2002: 143); ● Komplexe Visualisierungen, in denen verschiedene Darstellungsformen kombi‐ niert werden, z.-B. Infografiken. Abb. 18: Abbilder unterschiedlichen Abstraktionsgrades (links, Mitte) und Piktogramm (rechts) Gerade in der Leichte-Sprache-Praxis werden Bilder intensiv diskutiert. Meist werden sie als Instrument aufgefasst, den Zugang zu Textinhalten zu erleichtern oder überhaupt erst zu ermöglichen. Dabei haben sich zum einen typische räumlich-syn‐ taktische Muster (im Sinne Stöckls) herausgebildet: Die Bilder stehen häufig rechts (teilweise auch links) neben dem Text und sind nicht integriert. Zum anderen sind es auch bestimmte Bilder, die immer wieder verwendet werden, und zwar Abbilder von Realitätsausschnitten in Form farbiger Zeichnungen. Teilweise findet man die Vorstellung, dass das Verhältnis von Sprache und Bild redundant sein soll, also beide Modalitäten im Wesentlichen dieselben Informationen repräsentieren. 3.4.3 Typografie und Bild in der Leichte-Sprache-Forschung Besonders häufig wurde der Einfluss von Bildern auf die Verständlichkeit von Leichte-Sprache-Texten untersucht, typografische Aspekte waren seltener Gegenstand von Studien. Da die Erforschung Leichter Sprache aber in verschiedenen Disziplinen angesiedelt ist, stammen die wenigsten Studien aus der Sprachwissenschaft. Die meisten sind im Bereich von sozialwissenschaftlichen Fächern wie Public Health und Sozialpädagogik, oder auch der Designforschung angesiedelt. Zwei Metastudien geben einen Überblick über die englischsprachige Leichte-Spra‐ che-Forschung (Sutherland/ Isherwood 2016; Chinn/ Homeyard 2017): Sie zeigen ei‐ nerseits, wie heterogen die Forschungszugänge und die angewendeten Methoden 146 3 Leicht, einfach, verständlich - Forschungsstand <?page no="148"?> sind. Andererseits zeigen sie, dass gerade Bilder immer wieder erforscht wurden. Gefragt wird z. B. danach, ob das Hinzufügen von Bildern bei den Leser/ innen das Textverständnis verbessert, und inwiefern verschiedene Arten von Bildern (Pik‐ togramme, Illustrationen, Fotos, …) unterschiedliche Effekte zeigen. Die Ergebnisse sind uneinheitlich: Ein Faktor, der die Wirkung beeinflusst, ist die Vertrautheit der Leser/ innen mit den verwendeten Symbolen. Diese müssen ebenso gelernt werden wie sprachliche Zeichen. Sind sie den Leser/ innen bekannt, können sie einen positiven Effekt auf das Textverständnis haben (Poncelas/ Murphy 2007; Jones/ Long/ Finlay 2007). Angesprochen ist damit insbesondere - aber nicht nur - die Verwendung von Piktogrammen bzw. Icons. Eine der beiden genannten Metastudien hat speziell die kommunikative Barriere‐ freiheit im Bereich des Gesundheitswesens im Blick (Chinn/ Homeyard 2017): Sie stellt zusammenfassend fest, dass generell der individuelle Zuschnitt von Texten wichtig ist für die Wirksamkeit von Gesundheitsinformationen. Dies gilt aber natürlich unabhängig von der Zielgruppe und nicht nur bezogen auf Leichte Sprache. Mehrere Studien bemängeln, dass Untersuchungen zur Rezeption und zu Lesestrategien von Menschen mit sog. geistiger Behinderung als Zielgruppe noch immer weitgehend fehlen. Das gilt sowohl für die sprachliche als auch für die visuelle Gestaltung von barrierefreien Gesundheitsinformationen. Typografische Aspekte werden in den Untersuchungen, von denen die beiden Me‐ tastudien berichten, im Grunde nicht berücksichtigt. Im deutschsprachigen Raum gibt es immerhin erste Forschungen in diesem Bereich. Gerade mikrotypografische As‐ pekte Leichter Sprache waren immer wieder Gegenstand von Studien in der Designfor‐ schung. Dies dürfte auch daran liegen, dass gerade die vom Regelwerk des Netzwerks Leichte Sprache (2013) empfohlene Schriftart Arial sowie die generelle Empfehlung der Schriftgröße 14 pt in allen Textarten Widerspruch unter Designerinnen und Designern auslöst. Alexander (2019: 20) stellt fest, dass die gängigen Leichte-Sprache-Regelwerke wichtige gestalterische Grundlagen übergehen. Sie beklagt eine Simplifizierung des komplexen Sinngeflechts der Typografie und zu kleinteilige und inkonsistente Regeln. Das Ergebnis, so die drastisch geäußerte Einschätzung, seien unattraktive Gestaltungs‐ beispiele und ein Schriftbild, das stark von dem der Standardtypografie abweiche. Erkenntnisse zur Lesbarkeit von Schriften liegen in ausführlicher Form vor (vgl. DIN 1450, Adler 2019; Pool 2019). Diese berücksichtigen verschiedene Formen der Sehbeeinträchtigung. In Bezug auf Leichte Sprache wurden Schriften im Hinblick auf Anforderungen an Erkennbarkeit und Leserlichkeit detailliert analysiert (Alexander 2017, 2019; Sieghart 2020a). Im Fokus waren hier meist die Anforderungen von Lesetexten (im Unterschied zu z. B. Signalisationstexten im öffentlichen Raum). Außerdem wurden empirische Studien durchgeführt, um zu überprüfen, ob es über die Berücksichtigung von Sehbeeinträchtigungen hinaus besondere Anforderungen der Adressatengruppen Leichter Sprache gibt. Die bisherigen Studien bestätigen, dass die Annahmen aus Designpraxis und -forschung auch für Leser/ innen mit (insbesondere kognitiven) Beeinträchtigungen gelten (Sieghart 2020a; für eine detaillierte Schriftana‐ 3.4 Multimodalität: Typografie und Bild 147 <?page no="149"?> lyse siehe die Studie von Alexander und Peschke in Alexander 2019): Wichtig für die Leserlichkeit ist weniger der Unterschied zwischen serifenlosen und Serifenschriften als die Unterscheidbarkeit der Buchstabenformen. Diese müssen zudem gut erkennbar und offen sein sowie einen guten Strichstärkenkontrast haben. Zudem scheint es Gewohnheitseffekte zu geben, d. h. leserlich sind die Schriften, mit denen Leser/ innen vertraut sind. Auch die Makrotypografie Leichter Sprache war bereits Gegenstand empirischer Forschung: Untersucht wurde, ob Textsorten mit einer Leichte-Sprache-typischen Makrotypografie für die Zielgruppen leichter und besser als Vertreter der jeweiligen Textsorte zu erkennen sind als Texte mit einer konventionellen, textsortentypischen Gestaltung (Bock 2020; aus Designsicht: Sieghart 2020b). Untersuchungsgegenstand der qualitativen Studie waren sechs Textsorten; methodisch wurde mit einer leitfa‐ dengestützten Befragung sowie einem geschlossenen Antwort-Auswahl-Verfahren gearbeitet. Ein Hauptergebnis der Studie ist, dass Adressat/ innen mit sog. geistiger Behinderung - anders als es die Leichte-Sprache-Landschaft i. d. R. annimmt - über grafisches Textsortenwissen verfügen: D.h., wie schon bei Mikrotypografie und Leserlichkeit sind die Leservoraussetzungen auch in diesem Bereich ähnlich denen bei unbeeinträchtigten Leser/ innen. Außerdem zeigen sowohl die qualitativen Befragungsdaten als auch die Fehlerraten der Studie bei fast allen Textsorten einen Vorteil der textsortentypischen Makrotypografie im Hinblick auf die Erkennbarkeit der Textsorte. Erwähnt werden sollen in diesem Kapitel auch die Forschungsarbeiten zu Bild und Typografie in der Leichten Sprache an der Hochschule Merseburg. In einem Sammelband mit überwiegend studentischen Arbeiten werden eine Reihe von Studien und Analysen zu Bildern und Typografie in der Leichten Sprache vorgestellt (Alexander 2019). Untersucht wurden u. a. Fragen des verständlichkeitsförderlichen Einsatzes von Bildern (Cordula Wünsche: Sprache-Bild-Beziehungen in Instruktionstexten), grafische Merkmale verständlicher Bilder (Laura Boeck, Cordula Wünsche) und der Einfluss typografischer Gliederungselemente auf die Lesbarkeit und Verständlich‐ keit (Isabelle Donner, Julia Demagin, Thomas Kutschera und Hannes Thieme). Auch hier sind die Ergebnisse teils nicht eindeutig (Alexander 2019: 138). Designer/ innen leiten aus der derzeitigen Situation vor allem die Forderung nach einer professionelleren Gestaltungspraxis im Leichte-Sprache-Feld ab und insistieren, dass Erkenntnisse aus Designforschung und -praxis berücksichtigt werden. - Weiterführende Literatur Einen vertieften Einblick in Aspekte der Rezeption multimodaler und multimedialer Texte geben die Einzelartikel im Cambridge Handbook of Multimedia Learning: Mayer, Richard E. (Hrsg.) (2014): The Cambridge Handbook of Multimedia Learning. New York: Cambridge University Press. 148 3 Leicht, einfach, verständlich - Forschungsstand <?page no="150"?> Aufgaben 1. Recherchieren Sie (das Bild) eine(r) Packungsbeilage eines beliebigen Medika‐ ments. Diese Textsorte folgt bereits bestimmten Vorgaben, um Verständlichkeit zu sichern. Stellen Sie sich nun eine/ n erwachsene/ n Leser/ in mit geringen Lesekompetenzen vor. a. Welche Maßnahmen in den Bereichen Typografie und Bild würden Sie vornehmen, um die Rezeption des Textes zu unterstützen? Begründen Sie. b. Beschreiben Sie die möglichen Maßnahmen mit Bezug auf das Kapitel theoretisch möglichst genau. 2. Gehen Sie auf die Leichte-Sprache-Webseite einer beliebigen Institution des Bun‐ des (Ministerien, Bundestag, Bundeszentrale für politische Bildung,-…). Analysie‐ ren Sie: a. Welche räumlich-syntaktischen sowie informationsbezogenen Spra‐ che-Bild-Verhältnisse liegen vor? b. Um welche Art von Bildern handelt es sich? 3.4 Multimodalität: Typografie und Bild 149 <?page no="152"?> 4 Adressatenkreise Aus der Fülle der Adressatengruppen, die man beim Thema verständlicher Sprachgebrauch besprechen könnte, greifen wir drei heraus und führen in den aktuellen Forschungsstand ein: ● Menschen mit sog. geistiger Behinderung ● DaF- und DaZ-Lernende ● gering literarisierte Erwachsene Dabei gehen wir jeweils auf allgemeine Fragen der Charakterisierung bzw. Ab‐ grenzung dieser Gruppen ein. Im Fokus stehen dann Erkenntnisse zu Sprach- und Lesekompetenzen in diesen Gruppen. Adressatenangemessenheit und die Heterogenität vieler Zielgruppen werden immer wieder als größte Herausforde‐ rungen für verständliche, adressatenangemessene Texte benannt. Das wird auch in den folgenden Kapiteln deutlich. Ausgerichtet haben wir unsere Darstellung auf die Personenkreise, die sprachlich vereinfachte bzw. angepasste Texte benötigen. So fällt jemand, der vor 35 Jahren aus der Sowjetunion eingewandert ist, dann Deutsch gelernt hat und heute als Journalist arbeitet, zwar formal in die Kategorie Deutsch als Zweitsprache. Dass er heute eher Texte benötigt, die besonders einfach und verständlich sind, als jemand mit Deutsch als Erstsprache, ist jedoch nicht der Fall. Wir sind uns solcher differenzierten Konstellationen also durchaus bewusst, weisen aber nicht immer wieder darauf hin. 4.1 Menschen mit sog. geistiger Behinderung 4.1.1 Definition des Personenkreises und Forschung zum Lesen Geistige Behinderung? Lernschwierigkeiten? Lernbehinderung? In der Forschung gibt es bereits seit etlichen Jahren Diskussionen um Bezeichnungen - vor allem aber um das, was sie beschreiben sollen: Was ist ‚geistige Behinderung‘, was sind ‚Lernschwierigkeiten‘ und wie soll das begrifflich gefasst werden? Sowohl innerhalb der sonderpädagogischen Teildisziplinen, als auch zwischen Teildisziplinen existieren unterschiedliche, semantisch nicht unbedingt deckungsgleiche Bezeichnungen (z. B. geistige Behinderung, intellektuelle Beeinträchtigung, Lernbehinderung, Lernbeeinträch‐ tigung), außerdem werden gleiche Ausdrücke mitunter in unterschiedlicher Bedeutung verwendet. Eine Eigenheit der deutschsprachigen Terminologie im Vergleich zur englischsprachigen ist die auf die Geschichte des deutschen Hilfsschulwesens zurück‐ gehende Unterscheidung zwischen geistiger Behinderung und Lernbehinderung (und <?page no="153"?> die Differenzierung in entsprechende Schulformen bzw. in die Förderschwerpunkte „geistige Entwicklung“ und „Lernen“ sowie in eigene sonderpädagogische Teildiszi‐ plinen). Die englische Terminologie zieht hier andere Unterscheidungslinien: Der Terminus intellectual disability (wie auch das veraltete mental retardation) umfasst nicht nur Menschen mit geistiger Behinderung, sondern auch diejenigen, die hier‐ zulande üblicherweise als lernbehindert bezeichnet werden (vgl. Theunissen 2008: 127). Geistige Behinderung wird also im deutschsprachigen Raum enger gefasst als intellectual disability. Dies führt teilweise zu Missverständnissen, insbesondere bei Übersetzungen. Eine einheitliche Begrifflichkeit hat sich bisher in der deutschspra‐ chigen Forschung zum Phänomenbereich geistige Behinderung nicht herausgebildet; wachsende Akzeptanz gibt es für die Bezeichnungen intellektuelle Behinderung bzw. intellektuelle Beeinträchtigung. In den USA, Großbritannien und Kanada etablierte sich im Kontext der Selbstvertretungsbewegung als Ersatz für den Ausdruck mentally retarded die Bezeich‐ nung (people with) learning disabilities (Theunissen 2008: 130). Sie wurde als (Menschen mit) Lernschwierigkeiten ins Deutsche übersetzt und insbesondere vom Netzwerk Peo‐ ple First Deutschland e. V. verbreitet. In der Leichte-Sprache-Praxis ist sie die übliche Personenbezeichnung für Menschen mit sog. geistiger Behinderung und zugleich Ausdruck von Kritik an der „alten“ Terminologie. Die Neuprägung wird in der sonder‐ pädagogischen Forschung teilweise begrüßt und übernommen (Goldbach/ Schuppener 2017), teilweise aber auch mit Skepsis gesehen, da „ein ‚Etikettenwechsel‘ allein noch kein Garant für eine Nicht-Aussonderung“ sei (Theunissen 2005: 13). Die Diskussion berührt aber auch grundsätzlich das professionelle und disziplinäre Selbstverständnis der Geistigbehindertenpädagogik (Musenberg 2015: 216). In diesem Studienbuch haben wir uns für den Ausdruck Menschen mit sog. geistiger Behinderung entschieden. Damit wählen wir einerseits einen noch immer verbreiteten Terminus, der uns im Vergleich zum Ausdruck Lernschwierigkeiten weniger missver‐ ständlich erscheint. Zugleich machen wir mit dem Zusatz sogenannte auch deutlich, dass es immer um eine Etikettierung geht, die die Teilhabemöglichkeiten derjenigen, die sie zugeschrieben bekommen, in erheblichem Maße bestimmt. Die wissenschaftliche Diskussion um die Definition von Behinderung hat sich in den letzten Jahrzehnten immer weiter entfernt von eindimensionalen Defizitbe‐ schreibungen hin zu einem Wechselwirkungsmodell von Behinderung. Behinderung wird demnach verstanden als Prozess, Resultat und Kategorie einer Wechselwirkung von personenseitigen Beeinträchtigungen und soziokulturellen Kontextfaktoren. Man kann also nicht davon sprechen, dass jemand aufgrund seiner Fähigkeiten und Eigen‐ schaften behindert ist, sondern vielmehr sind Gesellschaft und konkretes Lebensumfeld derartig gestaltet, dass der- oder diejenige mit seinen individuellen Merkmalen darin behindert wird. Personenseitige Fähigkeiten und Eigenschaften sowie soziokulturelle Kontextmerkmale passen gewissermaßen nicht zueinander, und dies führt zur ‚Behin‐ derung‘. 152 4 Adressatenkreise <?page no="154"?> Definitionen von Behinderung stellen immer externe Zuschreibungen an Personen‐ kreise vor dem Hintergrund bestimmter Normannahmen dar: Es gibt Menschen, die wir aufgrund unserer Wahrnehmung ihrer menschlichen Tätigkeit, im Spiegel der Normen, in dem wir sie sehen, einem Personenkreis zuordnen, den wir als ‚geistigbehindert’ bezeichnen (Feuser 1996: 18 Hervorh. i. Orig.). Behinderung erscheint in diesem Sinne immer als Abweichung von einer sozial gesetzten Norm und ist insofern „je nach Perspektive und Kontext das Ergebnis eines Wahrnehmungs- und Deutungsprozesses angesichts von erwartungswidrigen Merkmalen oder Eigenschaften eines Individuums“ (Dederich 2009: 37). Definition: sog. geistige Behinderung Bereits 1976 hat der Pädagoge Georg Feuser eine Definition von geistiger Behin‐ derung vorgeschlagen, die auch vor dem Hintergrund heutiger Diskussionen Aktualität genießt: Als geistig behindert gilt nach Feuser, wer aufgrund organischer, genetischer oder anderweitiger Schädigungen, insbesondere durch Beeinträchtigungen infolge sozioökonomischer Benachteiligungen und sozialer Isolation, in seinen Aufnahme- und Verarbeitungskapazitäten, die sich besonders im Zusammenhang von Wahrnehmung, Denken und Handeln sowie in der Sensomotorik zeigen, derart beeinträchtigt ist, dass er angesichts der vorliegenden Lernfähigkeit zur Befriedigung seines besonderen Erziehungs- und Bildungsbedarfs voraussichtlich lebenslanger spezieller pädagogischer und sozialer Hilfen bedarf. (Feuser 1976: 643 f.) Mit geistiger Behinderung werden oftmals als Erstes die genetischen Syndrome, insbesondere sichtbare und öffentlich besonders präsente wie das Down-Syndrom, assoziiert. Darauf ist der Phänomenbereich aber nicht begrenzt. Geistige Behinderung wurde jahrzehntelang über IQ-Schwellenwerte definiert (im deutschsprachigen Raum: Werte unter 70). In der sonderpädagogischen Forschung wird dies aber seit geraumer Zeit nicht mehr anerkannt, und auch in internationalen diagnostischen Manualen haben sich die Definitionskriterien geändert. Durchgesetzt hat sich ein Doppelkrite‐ rium, das die intellektuellen Leistungen mit dem Kriterium der sozialen Anpassungs‐ fähigkeit verbindet (Schuppener 2008: 92; Nußbeck 2008: 231; American Association on Intellectual and Developmental Disabilities 2010). Diese Sichtweise hat auch in medi‐ zinisch-diagnostischen Klassifikationen ihren Niederschlag gefunden, beispielsweise in den aktuell gültigen Fassungen der ICD-10 (Deutsches Institut für Medizinische Dokumentation und Information, DIMDI, 2018) und des DSM-5 (Falkai/ Wittchen 2015). Zu den entscheidenden Neuerungen im DSM-5 (Diagnostisches und Statistisches Manual Psychischer Störungen) gehört, dass der ungefähre IQ-Schwellenwert von 70 nicht mehr spezifiziert wird und auch die Einstufungen des Schweregrads nicht mehr an IQ-Werten festgemacht werden. Die Unterscheidung zwischen leichtem, 4.1 Menschen mit sog. geistiger Behinderung 153 <?page no="155"?> mittlerem, schwerem und extremem Schweregrad wird an der Anpassungsfähigkeit festgemacht, und zwar an der Anpassungsfähigkeit in den Bereichen Kognition (z. B. Gedächtnis, Sprache, Lesen), Soziales (z. B. Theory of mind, Kommunikation) und Alltagspraktisches (z. B. Bewältigung beruflicher Aufgaben, Umgang mit Geld). Sowohl Intelligenz als auch die Adaptionsfähigkeit sind „nicht eindeutig definierte Konstrukte, deren konkrete Erfassung mit erheblichen Problemen verbunden ist“ (Nußbeck 2008: 231). Die Bestimmung des IQs liefert darüber hinaus nur ein globales Maß unterschiedlicher Fähigkeiten, die zu einem Wert zusammengefasst sind und die je nach verwendeten Verfahren variieren können. Unausgeglichene Profile, besondere Stärken und Schwächen, die sich insbesondere bei den genetischen Syndromen finden, bleiben unberücksichtigt. (Nußbeck 2008: 233) Auch im DSM-5 werden IQ-Testwerte kritisch reflektiert: Sie „bilden annäherungs‐ weise die kognitiven Fähigkeiten ab, können aber nur unzureichend das Schlussfolgern in tatsächlichen Alltagssituationen und die Bewältigung praktischer Aufgaben wieder‐ geben“ (Falkai/ Wittchen 2015: 46). Außerdem wird die Validität der Messinstrumente in Bezug auf den Personenkreis problematisiert. Zu den Lesekompetenzen von Kindern, Jugendlichen und Erwachsenen mit sog. geistiger Behinderung gibt es nach wie vor beträchtliche Forschungsdesiderate, sowohl in Bezug auf das Wortlesen als auch in Bezug auf Textverstehenskompetenz (vgl. Di Blasi/ Buono/ Cantagallo/ Di Filippo/ Zoccolotti 2018; Di Blasi/ Buono/ Città/ Cos‐ tanzo/ Zoccolotti 2019). Generell scheint eine große inter-individuelle Variabilität die Regel zu sein; tendenziell sind die Beeinträchtigungen bei der Lesekompetenz bei schwereren Formen geistiger Behinderung gravierender, jedoch gibt es keine direkte Kopplung von IQ und Lesekompetenz (vgl. Allor/ Mathes/ Roberts/ Cheatham/ Champlin 2010: 463). Es finden sich Beispiele von Kindern mit schweren Formen der geistigen Behinderung, die dennoch unbeeinträchtigte Lesekompetenzen haben (Di Blasi et al. 2019: 1033; Groen/ Laws/ Nation/ Bishop 2006; Cossu/ Rossini/ Marshall 1993). Insgesamt gibt es in Bezug auf den Personenkreis mehr Forschung zu den frühen Stufen des Schriftspracherwerbs sowie zu hierarchieniedrigen Leseprozessebenen und Vorläuferfertigkeiten des Lesens. Die Textverstehenskompetenz von Menschen mit zugewiesener geistiger Behinderung wird in Studien eher am Rande miterfasst (z. B. Di Blasi et al. 2019). Relativ häufig untersucht wurden die phonologischen Fähigkeiten sowie die visuelle Worterkennung (lexikalische vs. nicht-lexikalische Leseroute im Sinne des Dual-Route-Modells) (vgl. den Forschungsüberblick bei Di Blasi et al. 2018; deutschsprachig: Koch 2008). Di Blasi et al. (2018) kommen zu dem Schluss, dass derzeit auf Basis der Forschungslage keine abschließende Aussage getroffen werden kann, welche Stärken und Schwächen bei lexikalischem vs. nicht-lexikalischem Wort‐ lesen charakteristisch sind für unterschiedliche Arten genetisch bedingter geistiger Behinderung (Down, Fragiles X, Williams, Prader-Willi, Velokardiofaziales Syndrom). Insbesondere sehen sie keine sichere Grundlage für die häufige Annahme, dass Kinder 154 4 Adressatenkreise <?page no="156"?> mit sog. geistiger Behinderung generelle Defizite im nicht-lexikalischen Lesen, d. h. bei den phonologischen Fähigkeiten, haben (vgl. ähnlich Koch 2008). Zukünftige Studien müssen klären, welche spezifischen kognitiven und sprachlichen Merkmale vorhan‐ dene Defizite beim Leseverstehen der Kinder bedingen (Di Blasi et al. 2019: 1033). Eine Schwierigkeit, die für das beträchtliche Forschungsdesiderat mitverantwortlich ist, ist die Heterogenität des Personenkreises: Es fehlen Erkenntnisse zu den Leseprofilen der unterschiedlichen genetischen Syndrome. Der zahlenmäßig große Anteil an Personen mit sog. geistiger Behinderung unklarer Ursache ist dabei noch nicht einmal berück‐ sichtigt. Eine Studie hat Kinder mit unterschiedlichen Schweregraden von sog. geistiger Behinderung bzw. an der Schwelle zur sog. geistigen Behinderung hinsichtlich ihrer Lesekompetenzen (Lesegeschwindigkeit und -genauigkeit beim Lesen von Wörtern, Nicht-Wörtern und Texten) verglichen (Di Blasi et al. 2019). Sie kommt u. a. zu dem Schluss, dass die inter-individuellen Unterschiede so groß sind, dass sie bedeutender zu sein scheinen als die Gruppenzugehörigkeit. Dies unterstreicht die Notwendigkeit individualisierter Lesediagnostik und -förderung. Interventionsstudien zur Leseförderung haben generell die Notwendigkeit ange‐ messener Leseförderprogramme für Lernende mit zugewiesener geistiger Behinderung aufgezeigt (Allor et al. 2010). Die Ergebnisse lassen annehmen, dass die potenziell möglichen Lesekompetenzen bei Kindern (und Erwachsenen) mit dem Label geistige Behinderung mit adäquaten Instruktionstechniken und Förderinstrumenten in der Breite höher liegen könnten als es derzeit der Fall ist (Allor et al. 2010: 463). In bundesdeutschen Schulen zum Förderschwerpunkt geistige Entwicklung stand lange die sogenannte „praktische Bildbarkeit“ im Zentrum. Der Erwerb schriftsprach‐ licher Kompetenzen spielte hingegen keine oder nur eine untergeordnete Rolle. Mitt‐ lerweile ist das „Bildungsziel Schriftsprache als einer zentralen Kulturtechnik […] heute auch im Förderschwerpunkt geistige Entwicklung (FsgE)“ unbestritten (Ratz 2012: 111). Auch im US-amerikanischen Raum wird beklagt, dass der Schriftspracherwerb eine untergeordnete Rolle einnimmt: Despite the importance of literacy in today’s society, surprisingly little attention has been given in schools to teaching reading to individuals with DS [Down-Syndrom; B.B./ S.P.], perhaps because of the assumption that their limited language skills will make learning to read impossible. Nevertheless, many individuals with DS do acquire basic literacy skills, although they may do so by a different route than their typically developing peers. (Abbeduto/ War‐ ren/ Conners 2007: 258) Auch deutschsprachige Studien mit Erwachsenen mit sog. geistiger Behinderung stellen eine große Heterogenität bei den Leseverstehens- und Textkompetenzen im Personenkreis fest. Betont wurde im Kontext Leichter Sprache u. a. die Bedeutung von Lese- und Kompensationsstrategien, da auch Personen mit sehr geringen Lese‐ kompetenzen teilweise über Lesestrategien verfügen, die Dekodier- und Textverste‐ hensschwierigkeiten kompensieren konnten und eine erfolgreiche Texterschließung ermöglichte (vgl. Bock/ Lange 2017). Aufschlüsse über die Schriftsprachkompetenzen 4.1 Menschen mit sog. geistiger Behinderung 155 <?page no="157"?> von Schüler/ innen mit Förderschwerpunkt geistige Entwicklung in der Bundes‐ republik gibt eine Studie, die sich auf die entsprechende Schülerschaft an bayrischen Sonderschulen bezieht (Ratz 2012; Ratz/ Lenhard 2013). Erfasst wurden Schüler/ innen im Alter zwischen 6 und 21 Jahren in drei Schulstu‐ fen (Grundschul-, Hauptschul-, Berufsschulstufe). Die Fragebogenstudie basiert auf Einschätzungen seitens der Lehrkräfte und ergab hinsichtlich der Lesekompetenzen, dass 12 % der Schülerinnen und Schüler in der sog. Berufsschulstufe (10.-12. Schulbe‐ suchsjahr) nach Einschätzung der Lehrkräfte sehr flüssig lesen, 21,1 % „fortgeschritten“ lesen, aber immerhin 33 % (noch) überhaupt nicht lesen (vgl. Ratz 2012: 122). Der Anteil derjenigen, die überhaupt nicht lesen, ist in allen Schulstufen etwa gleichbleibend und entspricht etwa dem Anteil von Schüler/ innen mit Komplexer Behinderung (Ratz 2012: 118). Das Leseverständnis wurde in der Studie nicht direkt erfasst, der Fragebogen enthielt aber eine Frage, die eine grobe Einschätzung des Leseprozesses (mechanisches vs. sinnerfassendes Lesen) forderte: Nach Einschätzung der Lehrkräfte lesen im Durchschnitt mehr als die Hälfte der Schüler/ innen sinnerfassend, und dieser Anteil steigt mit zunehmendem Alter (Ratz 2012: 123). Hinsichtlich der Entwicklung der Fähigkeiten über die Schulzeit hinweg, werde insgesamt „sehr gut sichtbar, dass die Schüler immer besser lesen können, je länger sie in der Schule sind“ (Ratz 2012: 119). Auch diese Studie stellt fest, dass die schriftsprachlichen Fähigkeiten sehr breit streuen (Ratz 2012: 127). In der Kompetenzentwicklung ist das Lesen dem Schreiben zeitlich immer voraus. Im Vergleich mit Grundschüler/ innen der Regelschule haben die Schüler/ innen das Lesen und Schreiben langsamer erlernt (Ratz 2012: 129). Zudem ist das Lesen in der Schülerschaft deutlich weiter entwickelt als das Schreiben. Dieses Ergebnis stellt Fragen an das zugrundelie‐ gende Entwicklungsmodell des Schriftspracherwerbs, das von einer parallelen Entwicklung ausgeht, in der sich Fortschritte im Lesen und Schreiben gegenseitig fördern. (Ratz 2012: 128) Auch die Lesekompetenz und -gewohnheiten Erwachsener mit sog. geis‐ tiger Behinderung wurden untersucht (Wilke 2016; Bonna/ Buddeberg/ Grotlü‐ schen/ Hirschberg 2020). In einer Teilstudie der aktuellen LEO-Studie zu gering litera‐ lisierten Erwachsenen in Deutschland (siehe auch Kap. 4.3) wurden die Beschäftigten in Werkstätten für Menschen mit Behinderung (WfbM) beforscht (Bonna et al. 2020). Es wurde ein Teilsample der LEO-Studie, 38 Erwachsene mit einer Behinderung, zu ihren literalen Praktiken - also zu ihren Lese- und Schreibgewohnheiten - befragt. Besonders häufig werden der Studie zufolge Zeitungs- und Zeitschriftenartikel gelesen. Auch digitale Medien spielen eine besondere Rolle, insbesondere das Lesen von kurzen Texten wie SMS und Messenger-Nachrichten. Als größere Hürde nennt die Studie dagegen längere Texte wie Briefe und E-Mails aus formellen Kontexten. Im Vergleich der Befragten mit und ohne Behinderung lesen die Beschäftigten in WfbM seltener, wobei die Unterschiede im Bereich digitaler Kommunikation am geringsten ausgeprägt sind. Insgesamt betonen die Autor/ innen der Studie, dass „behinderte Menschen keineswegs als lese- oder schriftfern einzustufen sind […]. Sie benutzen ihre 156 4 Adressatenkreise <?page no="158"?> Kompetenzen durchaus, und zwar vorzugsweise mithilfe digitaler Medien und kurzer Textformate“ (Bonna et al. 2020: 376). 4.1.2 Empirische Forschung mit dem Personenkreis Je nach methodischem Verfahren sind u. a. kognitive Faktoren wie Arbeitsgedächtnis und Aufmerksamkeitsspanne, aber auch sozial-emotionale Kompetenzen und Anpas‐ sungsfähigkeit zu berücksichtigen. Zu empfehlen ist immer, das geplante Design mit dem jeweiligen Personenkreis vorab zu erproben. Angepasst werden können bzw. müssen dann z. B. die Gesamtlänge der Erhebung, die Länge einzelner Erhe‐ bungsblocks/ Pausen, die Reihenfolge von Tests/ Aufgaben (wenn mehrere Erhebungen nacheinander geplant sind), Reihenfolge und Formulierung von Fragen, Aufzeich‐ nungsmedium (Audio, Video), vordefinierte Abbruchkriterien (bes. bei Experimenten). Die Umsetzung kann adaptiv gestaltet werden (z. B. Zulassen unterschiedlicher Reak‐ tionsarten; Vorgabe eines Zeitkontingents, in dem nur so viele Aufgaben bearbeitet werden, wie es dem/ der Studienteilnehmer/ in möglich ist). Es folgen einige Bemerkungen zur Durchführung von quantitativen Tests sowie zur Interaktion in Interview und mündlichen Befragungen. Bei diagnostischen Verfahren mit Menschen mit sog. geistiger Behinderung wird eine „adaptive Testdurchführung“ empfohlen (Schuppener 2008: 96). Dieser Hinweis gilt auch für die Anwendung quantitativ-empirischer Forschungsmethoden mit dem Personenkreis. Angesprochen werden beispielsweise folgende adaptive Maßnahmen (in Anlehnung an Schuppener 2008: 96): ● (eine größere Zahl an) Übungsaufgaben zum Vertrautmachen mit einer Methode; ● Zulassen von Wiederholungen oder „Zurückgehen“ innerhalb einer Aufgabe (bspw. beim Lesen von Wörtern); ● Unterstützung beim Verstehen einer Aufgabe (z.-B. Vorlesen von Testbögen); ● Entwicklung leichterer Aufgaben; ● Umformulierung von Instruktionen zur Sicherung der Verständlichkeit; ● variable Gestaltung der Reaktionsarten (z.-B. gestisch, sprachlich,-…). Anpassungen dieser Art müssen immer abgewogen werden, damit die methodische Umsetzung nicht fehlerhaft wird und sich ungewollte Effekte einstellen. Innerhalb des Personenkreises kann nicht selbstverständlich davon ausgegangen werden, dass alle Studienteilnehmer/ innen bei den gestellten Aufgaben stets möglichst gut abschneiden wollen und die Aufgaben im Sinne der Instruktion lösen wollen (Nußbeck 2008: 234). Daher kann es von Bedeutung sein, mehr Aufmerksamkeit auf die motivationale Stimulation zu verwenden (bspw. bereits bei der Gestaltung von Testmaterial, bei der Planung von Erhebungen) sowie vor und während der Erhe‐ bung auf individuelle Stimmungen der Teilnehmer/ innen einzugehen. Zudem muss die Problematik sozial erwünschten Verhaltens in der Erhebung reflektiert werden. Generell ist von Vorteil, wenn es die gewählten Methoden in höherem Maße als bei 4.1 Menschen mit sog. geistiger Behinderung 157 <?page no="159"?> anderen Personenkreisen erlauben, auf unvorhergesehene Konstellationen während der Durchführung zu reagieren; die Auswertung muss resultierende Besonderheiten in den Daten und die Bedingungen ihrer Entstehung berücksichtigen (Nußbeck 2008: 238; Ratz/ Lenhard 2013: 1741; Buchner 2008: 521). Zu reflektieren ist insbesondere die Validität von Daten, da „schwache oder nicht erbrachte Leistungen oder Handlungen nicht automatisch mangelnden Fähigkeiten zugeschrieben werden“ können, sondern immer in ihrer mehrfachen Bedingtheit betrachtet werden müssen (z. B. Motivation, Angemessenheit der gewählten Methode) (Nußbeck 2008: 228). Auch für die Interview- und Gesprächsführung mit Menschen mit sog. geistiger Behinderung wurden praktische Hinweise für die methodische Umsetzung zusammen‐ getragen. Diese sind allerdings von eher allgemeinem Charakter und nicht exklusiv für die Umsetzung mit diesem Personenkreis (in Anlehnung an Niediek 2015; Hagen 2002; Buchner 2008; Lingg/ Theunissen 2013), darunter: ● verständliche, adressatengerechte Formulierungen (Fragen, Rückmeldungen, In‐ struktionen,-…); ● langsames (aber nicht unnatürliches) Sprechtempo und deutliches (aber nicht künstlich-überdeutliches) Sprechen; ● Einsatz unterstützender Techniken wie Bild- oder Fragekarten, parallele mündliche und schriftliche Präsentation von Aufgaben, Fotos, narrative Landkarten etc.; ● Anknüpfen an lebensweltliche Bezüge und Erfahrungen; ● Aufmerksamkeit darauf, das Vertrauen der Befragten zu gewinnen (z. B. durch umfassende Information über das Ziel der Befragung). - Weiterführende Literatur Musenberg, Oliver (2020): Geistige Behinderung. In: Hartwig, Susanne (Hrsg.): Kulturwissen‐ schaftliches Handbuch. Berlin: Metzler, 201-204. - Aufgaben 1. Gehen Sie auf die Webseite von „Mensch zuerst - Netzwerk People First Deutsch‐ land e.V.“ (http: / / www.menschzuerst.de/ [11.07.2022]): a. Welche Terminologie wird dort für geistige Behinderung gewählt, wie wird dies begründet? b. Wie verorten Sie die Ausdrücke auf der Webseite im Begriffsfeld (sog.) geistige Behinderung - Lernschwierigkeiten - Lernbehinderung? 2. Sammeln und reflektieren Sie: Welche Aspekte des Leseverstehens beim Perso‐ nenkreis müssen noch genauer verstanden werden und welche Bedeutung hat dies für die Gestaltung von leichten und einfachen bzw. verständlichen Texten für Adressaten mit sog. geistiger Behinderung? 158 4 Adressatenkreise <?page no="160"?> 4.2 DaF- und DaZ-Lernende Pirkko Friederike Dresing Bei der Gruppe der Lernenden von Deutsch als Fremdsprache (DaF) und Deutsch als Zweitsprache (DaZ) handelt es sich um eine äußerst heterogene Gruppe. Ob es sich bei dem Erwerb einer weiteren Sprache (L2) um eine Fremd- oder Zweitsprache handelt, kann anhand der Rahmenbedingungen des Spracherwerbs abgeleitet werden, wenngleich eine klare Kategorisierung in DaF oder DaZ nicht immer trennscharf vorgenommen werden kann. So erwerben DaF-Lernende Deutsch in der Regel au‐ ßerhalb des Zielsprachenlandes, während DaZ-Lernende die Zweitsprache innerhalb eines deutschsprachigen Landes erwerben. Damit einhergehend sind die Lernenden mit unterschiedlichen kommunikativen Anforderungen konfrontiert: Während sich der Erwerb der Sprache im DaF-Kontext vor allem zu Beginn weitestgehend auf insti‐ tutionelle Situationen und methodisch und didaktisch aufbereitete Kommunikation beschränkt, werden DaZ-Lernende außerhalb von Sprachkursen mit der Bewältigung von alltäglichen Kommunikationssituationen konfrontiert, die deutlich über ihren bisher erworbenen L2-Kompetenzen liegen können (vgl. Ahrenholz 2017: 9-14, auch für weitere Unterscheidungsdimensionen). Im Fokus dieses Kapitels stehen DaZ-Lernende, die also Deutsch sowohl institutio‐ nell (gesteuert) wie auch in alltäglichen Situationen (ungesteuert) im Zielsprachen‐ land erwerben. Erwachsene DaZ-Lernende in Deutschland erfahren den gesteuerten Deutscherwerb in der Regel in teilweise verpflichtenden, sogenannten Integrations‐ kursen, Kinder und schulpflichtige Jugendliche in der Schule. Je nach individueller Spracherwerbsbiografie bringen sie ganz unterschiedlich ausgeprägte erst- und zweit‐ sprachliche Kompetenzen, insbesondere hinsichtlich literaler Vorerfahrungen und Praktiken in ihrer Erstsprache (L1), mit. So können sowohl erwachsene DaZ-Lernende als auch Kinder und Jugendliche, die Deutsch als weitere Sprache erwerben, in einem traditionellen Verständnis von Literalität (vgl. Perry 2012: 53) in mehreren Sprachen und Schriftsystemen, in anderen Schriftsystemen als dem lateinischen Alphabet (Zwei‐ schriftlernende) oder gar nicht alphabetisiert sein. Auch heute noch aktuelle Ansätze (vgl. Cazden/ Cope/ Fairclough/ Gee/ Kalantzis/ Kress/ Luke/ Luke/ Michaels/ Nakata 1996) beschränken den Literalitätsbegriff nicht auf eine rein schriftsprachlich geprägte Kom‐ petenz, sondern verstehen Literalität „als eine aktive Gestaltung von Kommunikation und Bedeutungsaushandlung in verschiedenen multimodalen und multilingualen, so‐ zialen und kulturellen Settings“ (Dresing/ Bechauf/ Möllenkamp/ Ballweg/ Grubert/ Le‐ wicki 2017: 119). Diesem Verständnis wird eine zu eindimensionale Dichotomie von alphabetisiert vs. nicht-alphabetisiert nicht gerecht, was beispielsweise eine Studie von Juffermans und Coppoolse (2012) zu unterschiedlichen Alphabetisierungserfahrungen von Menschen in Gambia zeigt (siehe auch Kap. 4.3). Laut der Studie setzen auch Menschen ohne Alphabetisierung vielfältige Strategien zum Umgang mit Schriftsprache ein, um den Alltag zu bewältigen, beispielsweise die Nutzung sozialer Netzwerke, den 4.2 DaF- und DaZ-Lernende 159 <?page no="161"?> Rückgriff auf Bilder und Symbole sowie das Erschließen von Bedeutung aus Positionierung und Kontext (Dresing et al. 2017: 120). Unter Berücksichtigung dieser vielfältigen literalen Vorerfahrungen in L1 (und L2) und daraus resultierenden unterschiedlichen (Lese-)Strategien und Lesestilen, die DaZ-Lernende jeden Alters in Unterricht und alltägliche Kommunikationssituation einbringen, kann es daher sinnvoll sein - und ist es in manchen Kontexten sogar erforderlich - sprachlich adaptierte Texte anzubieten, sodass die jeweilig unterschied‐ lich ausgeprägten Deutschkenntnisse nicht zum Hindernis von Teilhabe am gesell‐ schaftlichen Leben werden. Während sich im Unterricht eingesetzte Lehrwerke und Unterrichtsmaterialien hinsichtlich der sprachlichen Anforderungen in der Regel an den Kompetenzniveaus des Gemeinsamen europäischen Referenzrahmen (GER, vgl. Trim/ North/ Coste 2001) orientieren, finden sich außerhalb institutioneller Lern‐ umgebungen kaum an unterschiedliche Sprachniveaus adaptierte Texte. Insbesondere die schriftliche Kommunikation mit Behörden stellt viele Deutschlernende vor große Herausforderungen. Dabei ist gerade in diesem Kontext das Verstehen von schriftlichen Mitteilungen erforderlich, da sie mitunter über die weitere Lebensgestaltung entschei‐ den (z.-B. im Fall von aufenthaltsrechtlichen Belangen) (vgl. Ohm 2010: 27). In der DaZ-Didaktik finden sich deshalb vermehrt Vorschläge zum Einsatz Leich‐ ter Sprache für unterrichtliche und außerunterrichtliche Kontexte (vgl. Oomen-Welke 2017) - nicht zuletzt, weil auch das Netzwerk Leichte Sprache „Menschen, die nicht so gut Deutsch sprechen“ (Netzwerk Leichte Sprache 2013: 1) als Adressat/ innengruppe einbezieht. Inwiefern eine Orientierung an dem Regelwerk der Leichten Sprache auch für Deutschlernende sinnvoll ist oder vielmehr eine allgemein verstandene sprachliche Adaption in Anlehnung an die Kompetenzniveaus des GER in Frage kommt, diskutiert Heine anhand einer Auseinandersetzung mit ausgewählten Regeln Leichter Sprache und deren Anwendbarkeit für den DaF-/ DaZ-Kontext (Heine 2017: 406-412). Die Schwierigkeitsannahmen, die mit den Regelformulierungen einhergehen, erweisen sich in Bezug auf die Adressat/ innengruppe der DaZ-Lernenden in mehreren Punkten als problematisch, insbesondere in Bezug auf ● die lexikalische Ebene: Die Regeln Leichter Sprache empfehlen u. a. die Nutzung einfacher Wörter, die Bevorzugung von Verben (gegenüber Substantiven) sowie den Verzicht auf Fach- und Fremdwörter. Allerdings bleiben die Kriterien für die Klassifizierung eines Wortes als einfach auch für die Gruppe der DaZ-Lernenden unklar, aus erwerbstheoretischer Perspektive werden Substantive durch DaZ-Ler‐ nende leichter erworben als Verben, und Fremdwörter und Internationalismen erleichtern in bestimmten Kontexten das Verstehen; ● die morpho-syntaktische Ebene: Die empfohlene Bevorzugung des Perfekts gegenüber dem Präteritum geht zurück auf die häufige Verwendung des Perfekts in der „(konzeptionell) gesprochenen Sprache“ (ebd.: 410) und der Annahme, dass diese Strukturen deshalb leichter verständlich seien. Der in der Regel früh erfolgende Kontakt zur Schriftsprache nicht nur in unterrichtlichen Settings 160 4 Adressatenkreise <?page no="162"?> sowie die Tendenz, dass häufige Verben auch in der gesprochenen Sprache im Präteritum genutzt werden, sprechen allerdings gegen die generelle Vermeidung des Präteritums. Eine ähnliche Argumentation betrifft die empfohlene Vermeidung des Genitivs; ● die syntaktische Ebene: Empfehlungen zur Struktur von Sätzen beziehen sich auf kurze Sätze mit einfachem Satzbau und der Reduktion auf eine Aussage pro Satz. Dies bedeutet, dass Satzverbindungen und Satzgefüge vermieden und eine Platzierung des Subjekts in der Vorfeldposition bevorzugt werden sollte. Die durch eine Vermeidung von Satzverbindungen und Satzgefügen hervorgerufene Veränderung oder gar der Verlust von Informationen erfordert allerdings eine „viel größere Rezeptionsleistung“ (Heine 2017: 409) - nicht nur bei DaZ-Lernenden. Die Beschränkung der Vorfeldbesetzung durch Subjekte entspricht nicht immer einer „logischen Struktur bzw. Gedankenabfolge“ (ebd.). Das Lesen in einer Zweitsprache ist in hohem Maß von den Kenntnissen in der Zweitsprache abhängig, auch wenn die DaZ-Lernenden in ihrer L1 geübte Lesende sind (vgl. Ehlers 2017: 284). Die Automatisierung von Verarbeitungsprozessen auf den unteren Ebenen (Dekodierung) wird zum einen von der Kenntnis des Schriftsystems beeinflusst, zum anderen von dem Umfang an Wortschatz- und Grammatikkenntnis‐ sen. So können DaZ-Lernende bei Lektüren nur dann auf Wortformen im mentalen Lexikon zurückgreifen (Worterkennung), sofern Wörter und Morpheme bekannt sind (vgl. Lutjeharms 2010: 979). Gleiches zeigt sich in Bezug auf das Satzverstehen: Satzstrukturen müssen erworben sein, um sie automatisiert dekodieren und verstehen zu können (vgl. ebd.). Durch eine stärkere Fokussierung der sprachlichen Form bei den Leser/ innen verändert sich außerdem ihre Inferierfähigkeit, also insbesondere die Fähigkeit, semantische Beziehungen zu erschließen, die nicht explizit versprach‐ licht wurden. Dies führt unter anderem dazu, dass einzelne Sätze vermehrt isoliert verarbeitet und weniger in Textzusammenhänge integriert werden (vgl. Ehlers 2017: 285; Lutjeharms 2010: 979). Auch die inferenzielle Nutzung von Konnektoren oder Proformen kann aufgrund von fehlenden Deutschkenntnissen eingeschränkt sein (vgl. Ehlers 2017: 285). Diese Spezifika des Leseprozesses in einer Zweitsprache führen häufig zu einer verringerten Lesegeschwindigkeit, Leseflüssigkeit und Lesespanne (vgl. ebd.: 284); die semantische Verarbeitung kann durch eine erhöhte Aufmerksamkeit auf die Verarbeitung unterer Ebenen beeinträchtigt sein: D.h., Lesende müssen ein hohes Maß an kognitiven Ressourcen für die Verarbeitung auf Graphem-/ Phonemebene aufwenden, um Wörter zu verstehen, das sinnverstehende Lesen von Sätzen und Texten bereitet ihnen Mühe, weil sie bereits auf Wortebene ungleich mehr Ressourcen investieren müssen usw. (vgl. Lutjeharms 2010: 979). Mit dem stetigen Erwerb vor allem von lexikalischen, aber auch von grammatischen Mitteln steigt typischerweise auch die Lesekompetenz und das Textverstehen an (vgl. Heine 2017: 406). Die Lesekompetenz im Kontext schulischen Lernens und als Voraussetzung für Schulerfolg bei Schüler/ innen mit sogenanntem Migrationshintergrund sind spätestens seit den frühen 2000er Jahren und den internationalen Schulleistungsstudien wie 4.2 DaF- und DaZ-Lernende 161 <?page no="163"?> IGLU (Hußmann/ Wendt/ Bos/ Bremerich-Vos/ Kasper/ Lankes/ McElvany/ Stubbe/ Valtin 2017, Primarstufe) und PISA (OECD 2019, Sekundarstufe I) Gegenstand des bildungs‐ politischen Diskurses, denn sie attestieren dem deutschen Bildungssystem eine sehr enge Korrelation von sozialer Herkunft, sprachlicher Kompetenz und Bildungserfolg (Siebert-Ott 2013: 67). Definition: Migrationshintergrund Der Ausdruck Migrationshintergrund wird zumeist darüber definiert, dass eine Person selbst oder mindestens ein Elternteil zugewandert ist (vgl. Statistisches Bundesamt 2020). Damit bezieht er nicht nur sprachliche, sondern auch familiäre Hintergründe ein. Problematisch an dem Begriff ist zum einen, dass er in unter‐ schiedlichen Kontexten unterschiedlich definiert wird. So bezieht sich die Kultus‐ ministerkonferenz (KMK) auf drei Merkmale, von denen eines erfüllt sein muss, um von Schüler/ innen mit Migrationshintergrund zu sprechen: „keine deutsche Staatsbürgerschaft, nichtdeutsches Geburtsland, nichtdeutsche Verkehrssprache in der Familie bzw. im häuslichen Umfeld (auch wenn der Schüler/ die Schülerin die deutsche Sprache beherrscht)“ (KMK 2018: 32). Zum anderen ist er im öffentlichen Diskurs häufig negativ konnotiert. Damit einhergehend wird er von Menschen, die qua Definition in die Gruppe Menschen mit Migrationshintergrund fallen, häufig als diskreditierend empfunden (vgl. Ahrenholz 2017: 15). Zu überlegen ist grundsätz‐ lich, inwiefern eine derartige Kategorisierung selbst Differenz hervorbringt (vgl. Chlosta/ Ostermann 2017: 23). Die Ergebnisse der PISA-Studien stellen für diese Schüler/ innengruppe in der Lese‐ kompetenz u. a. einen Rückstand von bis zu 1,5 Schuljahren zu Schüler/ innen ohne so‐ genannten Migrationshintergrund fest (vgl. Fereidooni 2011: 67). Vor dem Hintergrund von Lesekompetenz als Schlüsselqualifikation im schulischen Lernen und Vorausset‐ zung zur Teilhabe am Bildungserfolg (vgl. Becker-Mrotzek/ Jambor-Fahlen 2017: 134) kommt der gezielten Förderung der L2-Lesekompetenz in unterrichtlichen Settings eine bedeutende Rolle zu. Zur Förderung von Dekodierprozessen sollten DaZ-Lernen‐ den textbasierte Wort- und Morphemanalysen sowie -übungen angeboten werden, um die automatisierte Worterkennung sukzessive auszubauen. Auch die Erarbeitung und Vermittlung grammatischer Kenntnisse wie Satzstrukturen, Konnektoren und Flexionsendungen helfen, die Dekodierung zu automatisieren (vgl. Lutjeharms 2010: 981). Die Bewusstmachung und Vermittlung von Lesestrategien stellen ebenfalls einen wichtigen Baustein in der Förderung selbstständigen Lesens dar (vgl. Kalkavan-Aydin 2018: 235 f.). Konzepte, die über eine ausschließliche Förderung der Lesekompetenz in der Zweitsprache hinausgehen, plädieren im Sinne des Multiliteracies-Ansatzes für eine mehrsprachige Leseförderung unter Einbezug der Erstsprache der Schüler/ innen, um all „ihre sprachlichen und literalen Vorerfahrungen für ihr weiteres Lernen nutzbar zu machen“ (Bürki/ Schnitzer 2018: 119). 162 4 Adressatenkreise <?page no="164"?> Eine sprachliche Adaption von Texten in Bezug auf lexikalische und grammatische Mittel kann dem Personenkreis ohne Frage eine Unterstützung bieten und Teilhabe am gesellschaftlichen Leben sowie am Bildungserfolg fördern. Texte aus Lehrwerken für DaZ/ DaF orientieren sich bereits an den Kompetenzbeschreibungen des GER - dies wäre auch außerhalb spezieller Lernumgebungen für DaZ-Lernende eine Möglichkeit, Texte für unterschiedliche Niveaustufen verständlich aufzubereiten. Die sprachliche Adaption sollte sich aber im Sinne einer transitorischen Norm (vgl. Bock 2015b; Feilke 2012) verstehen und stets als Mittel zur Kompetenzentwicklung gesehen werden. - Aufgaben 1. Vergleichen Sie die Kann-Beschreibung des Gemeinsamen europäischen Referenz‐ rahmens zum Kompetenzbereich Lesen (Trim/ North/ Coste 2001; abrufbar unter https: / / www.goethe.de/ Z/ 50/ commeuro/ i3.htm [11.07.2022], Abschnitt 3.3) mit den Regeln Leichter Sprache (Netzwerk Leichte Sprache 2013; abrufbar als PDF unter https: / / leichte-sprache.de/ download/ 1988/ [11.07.2022]). Welche Gemein‐ samkeiten und Unterschiede stellen Sie fest? 2. Reflektieren Sie dann, ob Leichte Sprache auch für DaZ-Lernende sinnvoll einzu‐ setzen wäre. 3. Wenn nein: Welche Aspekte sprechen gegen den Einsatz bei diesem Personenkreis? 4. Wenn ja: Unter welchen Bedingungen ist Leichte Sprache anschlussfähig? 4.3 Gering literalisierte Erwachsene Eine weitere Gruppe, die immer wieder als Adressatenkreis Leichter und Einfacher Sprache genannt wird, sind gering literalisierte Erwachsene, auch bezeichnet als funktionale Analphabet/ innen. Bei dieser Gruppe gibt es Überschneidungen mit den anderen beiden Personenkreisen, die in Kapitel 4.1 und 4.2 beschrieben werden, denn natürlich können Menschen mit geringen Lesekompetenzen zugleich eine geistige Behinderung haben oder Deutsch als Zweitsprache lernen. Zugleich gibt es aber auch Menschen mit geringen Lesekompetenzen ohne geistige Behinderung und Menschen mit geistiger Behinderung, die ein hohes Lesekompetenzniveau haben. Gruppenkons‐ tituierend ist das Merkmal der Lesekompetenz, genauso wie es bei den anderen beiden Personenkreisen das Merkmal der zugeschriebenen geistigen Behinderung oder die Herkunftssprache ist. So klar und eindeutig dies ist, schließen sich daran aber doch die Fragen an: Was genau sind geringe Lesekompetenzen, wo fangen ‚hohe‘ Lesekompetenzen an? Und wer bestimmt bzw. wie bestimmt man diese Grenze? Wie wird das Phänomen terminologisch gefasst? Auch bei diesem Personenkreis handelt es sich um eine äußerst heterogene Gruppe. Was weiß man über Erwachsene mit geringen Lesekompetenzen? Warum können sie weniger gut lesen? 4.3 Gering literalisierte Erwachsene 163 <?page no="165"?> Zunächst zum Begrifflichen: Ähnlich wie beim Begriff der geistigen Behinderung gibt es auch beim Personenkreis dieses Kapitels teils konkurrierende Bezeichnun‐ gen und Diskussionen um die richtige Bezeichnung. Tendenziell gibt es aber einen größeren Konsens: Verbreitet sind vor allem zwei Ausdrücke, die weitgehend überein‐ stimmend definiert werden. Man spricht am häufigsten von (funktionalem) Analphabe‐ tismus oder von geringer Literalität. Die Lesekompetenz ist bei beiden Begriffen nur ein Teil: Alphabetisierung umfasst Lese- und Schreibkompetenz, Literalität bzw. Literacy wird meist noch weiter gefasst und kann sich neben Schriftsprachkompetenzen z. B. auch auf die Kompetenz beziehen, Bilder und Symbole zu lesen, oder auf den Umgang mit digitalen Kommunikationsmedien (siehe Kasten „Literacy - Literalität“, S. 165). Definition: Drei Formen von Analphabetismus 1. Natürlicher oder primärer Analphabetismus: Liegt bei Personen vor, die noch keine Lese- und Schreibkompetenzen erworben haben. Jeder Mensch ist also zunächst ein primärer Analphabet. 2. Sekundärer Analphabetismus: Liegt vor, wenn eine Person bereits Lese- und Schreibkompetenzen erworben und diese im Verlauf der Zeit wieder verloren hat, zum Beispiel durch mangelnde Übung oder dadurch, dass An‐ wendungsgelegenheiten fehlen. 3. Funktionaler Analphabetismus: Beschreibt, dass „Lese- und Schreibkennt‐ nisse nach gesellschaftlicher Ansicht unter den Mindestanforderungen liegen“ (Schuppener 2011: 29). Der Ausdruck nimmt also nicht die Erwerbsperspektive ein wie die Begriffe 1 und 2 (werden Kompetenzen erstmals erworben oder wurden sie wieder verlernt? ), sondern setzt Lese- und Schreibkompetenzen in Relation zu gesellschaftlichen Anforderungen: Welche Lese- und Schreibkom‐ petenzen sind nötig („funktional“), um den Alltag zu bewältigen? Besonders wichtig ist für dieses Studienbuch der funktionale Analphabetismus, denn mit diesem Begriff steht die Frage der Teilhabe an literalen Praktiken und die Verständlichkeit von Texten im Mittelpunkt. Meist geht es dabei um die schriftsprach‐ lichen Anforderungen am Arbeitsplatz, aber auch Behördenkommunikation oder die Möglichkeit, an Literatur teilzuhaben. All dies sind typische Beispiele für Lesebarrieren - und zugleich typische Anwendungsfelder für Einfache und Leichte Sprache. Welche Schriftsprachkompetenzen „nötig“ sind, ist gesellschaftsabhängig und historischem Wandel unterworfen. Eine sowohl für das Individuum als auch für die Gesellschaft kritische Ausprägung literaler Kompetenz ist gegeben, wenn die literalen Fertigkeiten nicht ausreichen, um schriftsprach‐ liche Anforderungen des täglichen Lebens und einfachster Erwerbstätigkeiten zu bewältigen. Dies ist gegenwärtig zu erwarten, wenn eine Person nicht in der Lage ist, aus einem einfachen Text eine oder mehrere direkt enthaltene Informationen sinnerfassend zu lesen und/ oder sich 164 4 Adressatenkreise <?page no="166"?> beim Schreiben auf einem vergleichbaren Kompetenzniveau befindet. (Egloff/ Grosche/ Hu‐ bertus/ Rüsseler 2011: 15) Nicht zu den funktionalen Analphabet/ innen zählen Kinder und Jugendliche, die noch der Schulpflicht unterliegen sowie Menschen, die nicht (mehr) in der Lage sind, Schriftsprachkompetenzen zu erwerben. Auch Erwachsene, die in einer anderen Sprache bzw. einem anderen Schriftsystem literalisiert sind und deren Schwierigkeiten sich lediglich auf die Literalität einer neu zu erlernenden Sprache beziehen, zählen nicht zu der Gruppe der funktionalen Analphabet/ innen (vgl. Egloff et al. 2011: 15). Der Begriff funktionaler Analphabetismus wird teilweise kritisch diskutiert. Kritisiert wird zum einen, dass er an die internationale Forschung wenig anschlussfähig sei und zum anderen von Betroffenen als stigmatisierend empfunden werde (vgl. Grotlüschen/ Buddeberg 2020: 16; Steuten 2014). Tatsächlich stellt der Alternativbegriff der (geringen) Literalität als deutsche Übersetzung einen deutlicheren Bezug zur internationalen Literacy-Forschung her. Die einflussreiche Hamburger LEO-Studie hat sich daher in ihrer Neuauflage von 2018 dafür entschieden, nicht mehr von funktiona‐ lem Analphabetismus, sondern von geringer Literalität zu sprechen (Grotlüschen/ Bud‐ deberg 2020: 16). Mit beiden Begriffen wird inhaltlich auf dasselbe verwiesen. Definition: Literacy - Literalität „Mit dem Begriff ‚Literacy‘ werden nicht nur die Fähigkeiten des Lesens und Schreibens bezeichnet, sondern auch weitere grundlegende Kompetenzen wie Textverständnis, Vertrautheit mit Literatur und anderen Medien sowie Erfahrun‐ gen mit der Lese-, Bild- und Erzählkultur.“ (Kümmerling-Meibauer 2012) In der deutschsprachigen Leseforschung ist der englische Ausdruck Literacy üblich. Teilweise findet sich aber auch die Übersetzung Literalität. Wie eng oder weit Literacy bzw. Literalität im Einzelfall verstanden wird und worauf der jeweilige Ausdruck den Fokus genau legt, ist durchaus verschieden. Wenn beispielsweise im Kontext Leichter Sprache von der Teilhabe an literalen Praktiken die Rede ist, sind mit diesem Ausdruck meist schriftsprachliche Praktiken im Fokus: Leichte Sprache soll es ermöglichen, an Schriftsprache und auch an Schriftsprachkultur teilzuhaben. Teilweise (aber keineswegs immer) wird der Ausdruck Literacy begrifflich spezifiziert: Unter Functional Literacy wird zuweilen der Erwerb des Lesens und Schreibens im engeren Sinne verstanden, Visual Literacy bezeichnet die Fähigkeit, Symbole und Zeichen in Bildern zu verstehen, Media Literacy meint die Kompetenz, mit verschiedenen Medien (Printmedien, AV-Medien, interaktive Medien) umgehen zu können usw. (Kümmerling-Meibauer 2012). Mit Blick auf das Individuum müsste man sogar von Literacies bzw. Literalitäten im Plural sprechen. Jeder Mensch nutzt und braucht ganz bestimmte literale Praktiken, während andere für Alltag und Beruf nicht relevant sind. Jeder Mensch ist daher in unterschiedlichen Lese- und Schreibkontexten unterschiedlich kompetent. In Bezug 4.3 Gering literalisierte Erwachsene 165 <?page no="167"?> auf funktionalen Analphabetismus ist dies wichtig, da Betroffene teilweise ausgespro‐ chen heterogene Leseprofile haben (Ivanic/ Barton/ Hamilton 2004: 19): Während das Lesen von schulischen Texten große Probleme bereitet, können sie beispielsweise mit komplexen Handbüchern oder technischen Beschreibungen souverän umgehen. Damit kommen wir zurück zu der Frage: Was weiß man über gering literalisierte Erwachsene? Erstmals repräsentative Ergebnisse zur Literalität in Deutschland lieferte die LEO-Studie. Bis dahin gab es nur vage Schätzungen, wie viele funktionale Analphabet/ innen es eigentlich gibt. Die LEO-Studie wurde 2010 zum ersten Mal durchgeführt und 2018 in einer erneuten Erhebung fortgesetzt (Grotlüschen/ Riekmann 2012; Grotlüschen/ Buddeberg 2020). Ziel war es, die Lese- und Schreibkompetenzen der erwachsenen Deutsch sprechenden Bevölkerung zwischen 18 und 64 Jahren in Deutschland erstmals differenziert zu erfassen. Daneben gibt es internationale Vergleichsstudien wie PIAAC, die - ähnlich wie PISA für Kinder und Jugendliche - grundlegende Kompetenzen - darunter die Lesekompetenz - von Erwachsenen in 25 Staaten untersucht haben (Rammstedt 2013). Im Jahr 2018 lesen und schreiben in Deutschland laut LEO-Studie 12,1 % der Erwachsenen auf einem geringen Kompetenzniveau (Grotlüschen/ Buddeberg 2020). Das sind etwa 6,2 Millionen Menschen. Im Vergleich zur Vorgängerstudie von 2010 gab es einen leichten Rückgang: Damals waren es noch 7,5 Millionen Erwachsene (Grotlü‐ schen/ Riekmann 2012). Die aktuelle LEO-Studie beschreibt diesen Personenkreis nun genauer: Die gering Literalisierten sind mehrheitlich männlich (58,4 %) und haben mehrheitlich Deutsch als Herkunftssprache (52,6 %). Es sind alle Jahrgangsgruppen vertreten, wobei die zum Zeitpunkt der Erhebung Über-45-Jährigen den größten Anteil ausmachen ( Jahrgänge 1972 bis 1953). Interessant ist, dass 76 % der Erwachsenen mit geringen Lese- und Schreibkompetenzen einen Schulabschluss erreicht haben; 16,9 % sogar einen hohen Schulabschluss, also zum Beispiel Abitur oder Fachabitur. Eine deutliche Mehrheit ist erwerbstätig (62,3 %), die meisten davon sind Angestellte und Arbeiter/ innen. Die Ausgangslagen von gering literalisierten Erwachsenen bzw. funktiona‐ len Analphabeten sind sehr unterschiedlich (Schuppener 2011: 29): Bei manchen handelt es sich um sekundären Analphabetismus und Re-Alphabetisierung, also das Wiedererlernen verlorener Fähigkeiten. Bei anderen handelt es sich um primären Analphabetismus, d. h. sie erlernen im Erwachsenenalter zum ersten Mal Lesen und Schreiben. Ein nicht geringer Anteil an Migrant/ innen erwirbt nicht nur die deutsche Sprache, sondern erlernt parallel auch zum ersten Mal ein Schriftsystem (vgl. Feick/ Pietzuch/ Schramm 2013). Eine naheliegende Frage ist, inwiefern Diagnosen wie Lese-Rechtschreibschwäche (LRS) oder Sprachentwicklungsstörung eine Ursache von funktionalem Analpha‐ betismus sein können. Die beiden LEO-Studien haben gezeigt, dass nur ein sehr geringer Anteil der gering Literalisierten eine solche Diagnose jemals erhalten haben: 2018 waren es 7 % der Erwachsenen mit geringer Literalität, die im Laufe ihres Lebens eine LRS-Diagnose erhalten haben. Die Autor/ innen schließen daraus, dass 166 4 Adressatenkreise <?page no="168"?> sich die Anzahl der funktionalen Analphabet/ innen daher zwar teilweise, aber nicht gänzlich durch LRS-Diagnosen erklären lassen (Heilmann 2020: 263). Zugleich bedeutet eine LRS-Diagnose nicht, dass im Erwachsenenalter funktionaler Analphabetismus folgt: Auch Personen mit höheren Lese- und Schreibkompetenzen haben eine solche Diagnose erhalten, wie die LEO-Studie berichtet. Schließlich zeigt sich, dass Beeinträchtigungen (LRS, Seh- oder Hörbeeinträchtigungen) nicht ausreichen, um das Phänomen geringer Literalität zu erklären. Der Überschneidungsbereich beider Phänomene ist äußerst gering. Weder haben alle Personen mit geringer Literalität Beeinträchtigungen, noch haben alle Personen mit Beeinträchtigungen des Sehens und Hörens oder einer LRS-Diagnose im Erwachsenenalter Schwierigkeiten mit dem Lesen und Schreiben. (Heilmann 2020: 265) Definition: Lese-Rechtschreibstörung - Legasthenie - Dyslexie Eine Lese-Rechtschreibstörung wird als Entwicklungsstörung klassifiziert (ICD-10 nach DIMDI 2018: F 81.0); ihre Ursache liegt nicht in den kognitiven Fähigkeiten einer Person oder dem Mangel an Lernmöglichkeiten. Die Beeinträchtigung der Lesekompetenz kann auf beiden Leserouten (siehe Kap. 2.1.3) verortet sein, d. h. sie kann durch Probleme beim Erwerb und der Anwendung des phonologischen Rekodierens (indirekte Leseroute) und/ oder der automatisierten Worterkennung (direkte Leseroute) charakterisiert sein (Mayer 2016: 45). Die Begriffe Lese-Recht‐ schreibstörung, Lese-Rechtschreibschwierigkeiten, Legasthenie, Schriftspracher‐ werbsstörung und (Entwicklungs-)Dyslexie werden häufig synonym gebraucht. Die beiden LEO-Studien haben so differenzierte Erkenntnisse über Menschen mit geringer Literalität in Deutschland geliefert wie noch nie zuvor. Trotzdem bleiben derzeit noch Fragen offen: Einige der Zielgruppen, die Leichte und Einfache Sprache besonders adressieren, konnten nämlich in der Untersuchung nicht befragt werden (Grotlüschen/ Buddeberg/ Dutz/ Heilmann/ Stammer 2020: 55). Dazu gehören neben Menschen mit Behinderung in Heimunterbringung auch Zugewanderte ohne Deutsch‐ kenntnisse und alle Menschen, die älter als 64 Jahre waren. Bis hierher haben wir ganz selbstverständlich von geringer Literalität und niedrigen Lesekompetenzen gesprochen. Was ist damit aber genau gemeint, wo fangen ‚hohe‘ Lesekompetenzen an? Und wer bestimmt bzw. wie bestimmt man diese Grenze? In der LEO-Studie wurden Schwellenwerte definiert. Es wurden Tests erarbeitet, mit denen die Lesekompetenzen insbesondere im unteren Kompetenzbereich differenziert erfasst werden können (Bilger/ Jäckle/ Rosenbladt/ Strauß 2012: 79). Dazu mussten zunächst Annahmen über relevante Schwierigkeitsfaktoren getroffen werden: Es mussten also Merkmale erarbeitet werden, die Texte (im Test) leicht oder schwer zu lesen machen. Die LEO-Studien haben hier vielfältige Faktoren von Phonemstruktur, Wortfrequenz, Grammatik und Textsorte bis hin zur Typografie einbezogen (Har‐ tig/ Riekmann 2012: 120). Außerdem wurden Kann-Beschreibungen auf 6 Niveaustufen 4.3 Gering literalisierte Erwachsene 167 <?page no="169"?> erarbeitet, die definieren, was eine Person auf dem jeweiligen Level lesen bzw. schreiben kann (Hartig/ Riekmann 2012: 110). Alpha-Level Kann-Beschreibungen, zentrale Anforderungen 1 Buchstabenebene, prä- und paraliterales Lesen 2 Wortebene; überwiegend konstruierendes Lesen 3 Satzebene; überwiegend konstruierendes Lesen sowie lexikalisches Erlesen von Standardwörtern 4 kurze und einfache Texte; gleichermaßen konstruierendes und lexikalisches Lesen 5 mittelschwere Texte mit Illustrationen; gleichermaßen konstruierendes und lexikalisches Lesen 6 mittelschwere und angrenzende Texte, Unterhaltungsliteratur; überwiegend lexikalisches Lesen mit häufigen Rückgriffen auf die konstruierende Lese‐ strategie Tab. 6: Alpha-Levels Lesen der LEO-Studie nach Kretschmann/ Wieken 2010 In der LEO-Studie wurden die Alpha-Levels 1 bis 3 als geringe Literalität definiert, d. h. es wurde die Fähigkeit, einfache Sätze lesen zu können als Grenze hin zu „gesellschaftlich funktionaler“ Lesekompetenz festgelegt. Dies stimmt mit gängigen Definitionen für funktionalen Analphabetismus überein. Diesem Ansatz, generelle Schwellenwerte zu definieren, steht ein anderer Ansatz gegenüber: Er betont die Individualität „ausreichender“ Lesekompetenz und die Kon‐ textabhängigkeit von Lesekompetenz. Was heißt hier „funktionale“ Lesekompetenzen? Wieviel Literacy braucht der Mensch? An diese Fragen kann man wissenschaftlich unterschiedlich herangehen. Ein An‐ satz ist die Definition von Schwellenwerten. Dabei werden die Lesekompetenzen einer sozialen Gruppe mit diagnostischen Verfahren gemessen. Unter Einbezug theoretischen Wissens wird anhand der gemessenen Daten statistisch festgelegt, wo die relevante Grenze zu niedrigen, also für die Teilhabe „nicht ausreichenden“ Lesekompetenzen liegt. Ein anderer Zugang fragt nicht nach Schwellenwerten, sondern betont die Relativität und Kontextabhängigkeit von Literacy. Wel‐ che Lesekompetenzen „nötig“ sind, wird durch die gesellschaftlichen Anforderun‐ gen und durch individuelle Bedarfe bestimmt, die beide wandelbar sind. Zudem gib es ein subjektives Moment: So kann eine Person, mit diagnostiziertem Alpha‐ level 4 oder 5 - also einer höheren gemessenen Lesekompetenz - dennoch die Selbstwahrnehmung unzulänglicher Lesekompetenz haben und entsprechende Hilfsangebote aufsuchen. 168 4 Adressatenkreise <?page no="170"?> Der Unterschied zur Kompetenzmessung und zu Schwellenwerten ist also, dass die individuellen Anforderungen an und die Bedürfnisse von Leser/ innen mit ihren Lesekompetenzen stärker in den Mittelpunkt gerückt werden (Ivanic/ Barton/ Hamilton 2004). Geringe Literalität ist in diesem Sinne das, was von Betroffenen in Alltag und Beruf als unzureichende Literalität erfahren wird. In Forschungsprojekten schlagen sich die beiden Zugänge in der Weise nieder, dass nicht nur Werte aus Kompetenztests, sondern auch die subjektive Wahrnehmung der Betroffenen selbst oder Zuweisungen von Institutionen (z. B. Arbeitgeber, die Betroffene in Grundbildungskurse vermitteln) berücksichtigt werden. Der Personenkreis der gering Literalisierten kann also je nach Zugang unterschiedlich gefasst sein. Beide Perspektiven beleuchten unterschiedliche Aspekte von Lesekompetenz. Einfache und Leichte Sprache, die beide Menschen mit geringen Lesekompetenzen als Zielgruppen nennen, sind nicht unmittelbar an Alpha-Levels wie die in der LEO-Studie definierten orientiert. Teilweise werden Schwierigkeitsstufen mit Bezug auf den Gemeinsamen Europäischen Referenzrahmen für Sprachen (GER) definiert: Einfache Sprache wird dann zum Beispiel dem Niveau B1-B2 zugeordnet, Leichte Sprache A1-A2. Diese Zuordnungen sind aber meist wenig theoretisch fundiert. Direkte Bezüge zu den Kann-Beschreibungen der LEO-Studie sind nicht vorhanden, obwohl sich diese für eine Ausdifferenzierung in Schwierigkeitsstufen Leichter und Einfacher Sprache eignen würden. - Weiterführende Literatur Grotlüschen, Anke/ Buddeberg, Klaus/ Dutz, Gregor/ Heilmann, Lisanne/ Stammer, Christopher (2019): LEO 2018 - Leben mit geringer Literalität. Pressebroschüre, Hamburg. URL: https: / / l eo.blogs.uni-hamburg.de/ wp-content/ uploads/ 2019/ 05/ LEO2018-Presseheft.pdf (11.07.2022) - Aufgaben 1. In welchem Verhältnis stehen folgende Termini zueinander: primärer Analphabe‐ tismus, sekundärer Analphabetismus, funktionaler Analphabetismus, geringe Litera‐ lität? 2. Erörtern Sie, in welcher Konstellation und mit welcher Perspektive auf Lesekom‐ petenz folgende Aussagen zutreffen oder nicht zutreffen: a. Kann eine Person zugleich als funktionale/ r und sekundäre/ r Analphabet/ in eingeordnet werden? b. Kann eine Person mit einem Alpha-Level 4 im Bereich Lesen (gemäß LEO-Studie) als gering literalisierte Person eingeordnet werden? c. Kann eine Person, die die persische Sprache lesen und schreiben kann und die seit 2 Monaten einen Deutschkurs besucht, als sekundärer Analphabet eingeordnet werden? Kann er oder sie als funktionale/ r Analphabet/ in eingeordnet werden? 4.3 Gering literalisierte Erwachsene 169 <?page no="171"?> d. Kann ein 8-jähriges Kind, das in Deutschland zur Schule geht, als Analpha‐ bet/ in eingeordnet werden? e. Kann eine Person, die oft Leichte-Sprache-Texte liest, zugleich als Angehö‐ rige/ r der folgenden beiden Personenkreise - Menschen mit sogenannter geistiger Behinderung und gering literalisierte/ r Erwachsene/ r - eingeordnet werden? 3. Recherchieren Sie Büros und Anbieter von Einfacher Sprache und Leichter Sprache: Vergleichen Sie die Beschreibungen genannter Zielgruppen. Welche Tendenzen können Sie erkennen? 170 4 Adressatenkreise <?page no="172"?> 5 Empirische Zugänge zu Verstehen und Verständlichkeit In diesem Kapitel werden sowohl quantitative als auch qualitative Methoden der Untersuchung von Verstehen und Verständlichkeit vorgestellt. Im ersten Kapitel führen wir grundlegende Begriffe ein, reflektieren Klassifikationen von Forschungsmethoden und versuchen so, die methodologischen Prämissen und Erkenntnisinteressen der verschiedenen empirischen Zugänge möglichst pointiert zu fassen. Kapitel 5.2 wendet sich dann mit den Korpusmethoden zunächst den Texten und sprachlichen Strukturen zu, bevor in Kapitel 5.3 und 5.4 quantitative und qualitative Zugänge zum Verstehen auf Rezipientenseite dargestellt werden. Auf folgende experimentelle und qualitative Verfahren gehen wir in den Kapiteln im Einzelnen ein: ● Lautes Lesen ● Lexikalisches Entscheiden ● Self-paced Reading ● Blickbewegungsmessung ● Cloze Task ● Verstehensfragen und Wiedergabeverfahren (mündlich in Interviewform) ● Lautes Denken und Lautes Erinnern Aufgrund der Fülle an Methoden mussten wir auch hier auswählen und Schwer‐ punkte setzen. Dies führt z. B. dazu, dass wir auf durchaus relevante Methoden wie Fragebögen, Ratingverfahren oder Strukturlegetechniken nicht eingehen konnten. Darüber hinaus werden allgemeine Fragen der Auswahl von Studienteilneh‐ mer/ innen, der Transkription, Anonymisierung und Triangulation sowie Fragen der Forschungsethik besprochen. Als ein Forschungsprogramm, das spezifische Relevanz für die Leichte- und Einfache-Sprache-Forschung hat, reflektieren wir außerdem das partizipative Forschen in seinen Potenzialen und Grenzen für linguistische empirische Vorhaben. 5.1 Überblick und Grundbegriffe - Klassifikationen von Forschungsmethoden Eines der Hauptdesiderate in der Forschung zu Leichter und Einfacher Sprache ist nach wie vor die empirische Überprüfung ihrer Verständlichkeit. Es gilt weiter zu <?page no="173"?> erforschen, wie verständlich die in Leichter und Einfacher Sprache angewandten Vereinfachungsprinzipien für die Zielgruppen tatsächlich sind. In der experimentellen Psycholinguistik und in der anwendungsorientierten Lese- und Verständlichkeitsfor‐ schung in Linguistik und Psychologie steht ein umfangreiches Repertoire an Methoden zur Verfügung. In diesem Kapitel sollen nun einige dieser methodischen Zugänge mit ihrer methodologischen Fundierung vorgestellt werden. Wir berücksichtigen quantitative und qualitative Ansätze sowie text- und leserzentrierte Zugänge. Zudem wird ein Forschungsstil vorgestellt, der quer zu allen Methoden liegt: das partizipative Forschen, das in der Linguistik bisher noch kaum eine Rolle spielt und das selbst keine Forschungsmethode ist (Kap. 5.5). Forschungsmethoden im Bereich Leseverstehen und Textverständlichkeit werden nach verschiedenen Kriterien unterschieden und gruppiert. Eine klassische Unter‐ scheidung aus dem Bereich der Schreib- und Kommunikationsforschung, auf die in der Verständlichkeitsforschung oftmals verwiesen wird, ist Karen Schrivers (1990) Kontinuum der Methoden zur Evaluation von Textqualität. Sie bezieht sich nicht allein auf Forschungsmethoden und unterscheidet zwischen Ansätzen, die ● eher textzentriert vorgehen (bspw. Lesbarkeitsindizes (Kap. 5.3.1), Regelwerke, Checklisten für die Textproduktion), ● auf Expertenurteilen basieren (bspw. Peer-Reviews, Expertenurteile wie in der Genese des Hamburger Verständlichkeitsmodells (Kap. 2.2, 3.3), ● eher leserzentriert vorgehen (z. B. Blickbewegungsmessungen (Kap. 5.3.2), Ver‐ stehensfragen, freie Wiedergabe (Kap. 5.4.2)). Darüber hinaus lassen sich Forschungsmethoden zur Erfassung von Leseverstehen bzw. -verständnis und Verständlichkeit auch nach anderen Kriterien unterscheiden, auf die wir im folgenden Abschnitt eingehen. - Grundbegriffe Durch eine Methode kann entweder das Lesebzw. Textverstehen, also der Verste‐ hensprozess, oder das Lesebzw. Textverständnis, also das Verstehensprodukt, erfasst werden. Die Erfassung des Verstehensprodukts kann mit Christmann unterteilt werden in: ● Erhebung textnaher Verstehensprodukte: Überprüfung des Verständnisses in enger Anlehnung an den Text, z. B. Wiedergabe von Textinhalten. „Sie erfassen dabei eher das unmittelbare Textverständnis im Sinne einer Vorstellung über den Sinngehalt, wobei allerdings schwer entscheidbar ist, in welchem Ausmaß Gedächtnis und Schlussfolgerungsprozesse beteiligt sind und ob eine korrekte Antwort auf dem Verstehen von Inhalten oder auf bloßer Merkfähigkeit beruht.“ (Christmann 2009: 187) ● Erhebung textferner Verstehensprodukte: „Ausmaß, in dem die neue Textin‐ formation in das eigene Wissenssystem integriert und wie das erworbene Wissen 172 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="174"?> umgesetzt wird. Dies setzt zwar im ersten Schritt die Erfassung des Sinngehalts voraus, impliziert aber zusätzlich in mehr oder minder großem Ausmaß auch eine Loslösung von der zugrundeliegenden Textoberflächeninformation“ (Christmann 2009: 192), z.-B. Beantworten von Fragen zum Text Methoden unterscheiden sich in Abhängigkeit davon, wann sie eingesetzt werden: So gibt es simultane („on-line“) Erhebungen, die gleichzeitig mit dem Lese- und Verstehensprozess erfolgen, und retrospektive Erhebungen, die nach einem Lese- und Verstehensprozess erfolgen. Unter introspektiven Methoden werden alle jene Verfahren gefasst, bei denen Studienteilnehmer/ innen Gedanken und Emotionen verbalisieren, die Zugang zu mentalen Prozessen, beispielsweise Verstehensprozessen und Strategien, gewähren (Heine 2013: 14). Die Gesprächsdaten können zudem Aufschlüsse z. B. über subjektive Theorien und Einstellungen liefern. Mit introspektiven Methoden können Wissens‐ bestände und Prozesse erfasst werden, die den Studienteilnehmer/ innen bewusst zugänglich sind und die diese mehr oder weniger detailliert explizieren können. In Bezug auf die Erforschung von Leseprozessen und -verstehen, aber auch für die Erforschung des Textverständnisses sind introspektive Verfahren relevant, weil sie u. a. Einblicke in individuelle, vor allem hierarchiehohe Leseprozesse (vgl. Stark 2010: 65), Einblicke in das Textverständnis als Produkt des Leseprozesses oder in die Anwendung von Lesestrategien ermöglichen, die durch Befragungen oder reine Verhaltensbeobachtungen den Forschenden verborgen bleiben würden (vgl. Heine 2014: 123). Implizites Wissen und unbewusst ablaufende Prozesse sind dagegen grundsätzlich nur indirekt einsehbar, wenn zum Beispiel in einem Experiment das Verhalten bei der Lösung einer Aufgabe beobachtet wird und der/ die Untersucher/ in eine Manipulation vornimmt, die die Teilnehmer/ innen als solche nicht erkennen und die dennoch ihr Verhalten systematisch beeinflusst (Huber 2019). Man kann zwischen qualitativen Daten (z. B. Gesprächsdaten) und quantitativen Daten (z. B. Fehlerraten) unterscheiden. Beide müssen zunächst beschrieben und dann interpretiert werden. Die Auswertung qualitativer Daten erfolgt mittels rekonstruktiver Analysever‐ fahren, d. h. die Forscher/ innen müssen im Interpretationsprozess die forschungs‐ praktische Haltung vollziehen, das eigene Relevanzsystem der subjektiv-selektiven Bedeutungsgabe so weit wie möglich zurückzustellen (Lucius-Hoene/ Deppermann 2002). Es gilt die Relevanz aller Daten und das Prinzip, die Bedeutungsgehalte der Daten in einem zyklisch-iterativen Erkenntnisprozess zu verstehen (Kruse 2015: 365). Daten können generell mittels verschiedener Verfahren gewonnen werden (Dö‐ ring/ Bortz 2016, Schnell/ Hill/ Esser 2018). Bei einer Beobachtung greift der/ die Unter‐ sucher/ in nicht in das Geschehen ein, sondern erfasst das Verhalten der Beobachteten gemäß Kategorien, die entweder deduktiv zuvor bestimmt wurden oder induktiv wäh‐ rend der Beobachtung und Auswertung gebildet werden. In einem Korpus liegen diese Daten bereits aufbereitet vor. Bei einer Befragung versucht der/ die Untersucher/ in 5.1 Überblick und Grundbegriffe 173 <?page no="175"?> den Verlauf und die Inhalte durch Fragen, die die Befragten relativ unbeeinflusst und aufgrund des subjektiven Erlebens beantworten können, zu steuern. Ein Beispiel ist eine Befragung zu den in einem Text enthaltenen Inhalten (Propositionen). Bei einem (psychologischen) Test wird nach einem standardisierten Vorgehen Verhalten gemessen, und auch die Auswertung erfolgt nach standardisierten Kriterien. Ein Test kann zum Beispiel die Leseflüssigkeit oder das Leseverstehen prüfen. Bei einem Experiment werden unabhängige Variablen manipuliert, und ihre Wirkung auf abhängige Variablen wird gemessen, während Störvariablen unter Laborbedingungen weitestgehend kontrolliert werden. Ein Beispiel ist das selbstgetaktete Lesen (self-paced reading). Diese Grundbegriffe können helfen, die Methoden einzuordnen, die in den folgenden Kapiteln besprochen werden. Es ist jedoch zu beachten, dass die eine oder andere Klas‐ sifikation mehr aus einer bestimmten Forschungsrichtung geprägt ist und nicht ohne Weiteres auf andere Perspektiven übertragen werden kann. So lässt sich Lautes Denken beispielsweise als ein prozessbezogenes Introspektionsverfahren klassifizieren, das qualitativ auszuwertende Daten liefert, während die Einordnung in die Unterscheidung von Beobachtung - Befragung - Test - Experiment unüblich ist. Am ehesten ließe sich Lautes Denken wohl als Beobachtung einordnen, da der/ die Untersucher/ in nicht eingreift, der Verstehensprozess wird aber auch nicht direkt beobachtet. Lexikalisches Entscheiden ist demgegenüber zwar vordergründig auf ein Verstehensprodukt bezogen, tatsächlich soll es aber unbewusste Verstehensprozesse erfassen, und lässt sich als experimentelles Verfahren einordnen, das quantitative Daten liefert. In den einzelnen Kapiteln erfolgt in diesem Sinne immer wieder eine vorsichtige Einordnung der jeweiligen Methode, meist verbunden mit einer Darstellung der methodologischen Grundannahmen, also der Frage: Wie kann Methode X überhaupt Auskunft über Verstehen und Verständnis geben und welcher Art ist diese Auskunft? - Forschungszugänge: quantitativ - qualitativ Über die Disziplinen hinweg wird zwischen qualitativen und quantitativen For‐ schungszugängen unterschieden. Die Erforschung von Verstehen und Verständlichkeit geschieht in einer Vielzahl linguistischer Teildisziplinen, die sich eher dem qualitativen oder dem quantitativen Paradigma verbunden sehen oder beide Zugänge kombinie‐ ren (siehe S. 177f.: Abschnitt „Triangulation“). In den folgenden Kapiteln werden methodische Verfahren beider Forschungszweige vorgestellt. Um ein Plädoyer für eines der beiden Paradigmen geht es dabei gerade nicht. Vielmehr zeigt sich bei der Forschung mit Zielgruppen Leichter Sprache besonders, wie die Verbindung mehrerer Verfahren die Erkenntnismöglichkeiten systematisch erweitern kann. Entscheidend ist die Passung von Erkenntnisinteresse und methodischem Vorgehen: Jenseits der Debatten, in denen sich beide Forschungsrichtungen wechselseitig die wissen‐ schaftliche Legitimation absprechen, muss vom Forscher zunächst überlegt werden, für 174 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="176"?> welche Fragestellung und für welchen Forschungsgegenstand qualitative und quantitative Forschung jeweils angemessener erscheint. (Elsner/ Viebrock 2015a: 8) Die forschungspraktische Frage, die sich in jedem empirischen Forschungsprozess stellt, ist also: Welche Erkenntnisse können mit den jeweiligen methodischen Zugän‐ gen erarbeitet werden, und welches Vorgehen fordern die jeweiligen methodologischen Rahmen? Das Vorgehen betrifft nicht nur die Wahl der Methode im engeren Sinne und die Auswertungsverfahren, sondern u. a. auch bereits die Frage, nach welchen Prinzipien Untersuchungspersonen oder Sprachmaterial ausgewählt werden. Quantitative Forschungszugänge implizieren zunächst einmal die statistische Auswertung von sprachbezogenen Parametern, seien es quantifizierbare Merkmale von Texten oder sei es die Messung von Verhaltensparametern als Indiz für die Sprachverarbeitung. Typische Daten sind hier z. B. Vorkommenshäufigkeiten, Reakti‐ onszeiten, Fehlerraten oder EEG-Daten. Das Prinzip experimenteller Forschung in der Linguistik basiert darauf, eine möglichst weitgehende Kontrolle über die Bedingungen zu erlangen, unter denen eine Untersuchung stattfindet, und Störfaktoren, die nicht Teil der Fragestellung sind, möglichst zu kontrollieren. Studienteilnehmer/ innen be‐ wältigen daher in relativ künstlichen Settings spezifische Aufgaben. Man erarbeitet auf diesem Wege grundlegende Erkenntnisse über Prozesse der Sprachverarbeitung, beispielsweise beim Lesen. Man erfährt allerdings nicht unbedingt etwas darüber, wie Lesen „in natürlicher Umgebung“ stattfindet. In quantitativen korpuslinguistischen Analysen zielt das Bemühen bei der Korpuszu‐ sammenstellung auf große Textkorpora, in denen mögliche relevante Einflussfaktoren (bspw. Textsorten, Themen, Medialität) möglichst ausgewogen verteilt sind. Quanti‐ tatives Forschen ist (mit der Ausnahme explorativer Studien) in der Regel deduktiv und setzt so voraus, dass bereits vorab Hypothesen formuliert werden, die dann in einem kontrollierten (Test-)Setting überprüft werden. Als zentral gilt die Erfüllung der Testgütekriterien, also unter anderem die Unabhängigkeit des Ergebnisses vom/ von der Untersucher/ in. Die Untersuchungsbedingungen sind so genau zu dokumentieren, dass sich die Ergebnisse aufgrund des eng kontrollierten Settings replizieren lassen sollten. Eine Sonderform stellen Feldversuche dar, die in der natürlichen Umgebung durchgeführt werden und über eine höhere ökologische Validität verfügen, jedoch eher der Wirkung von Störvariablen ausgesetzt sind. Qualitative Forschungszugänge befassen sich mit der umfassenden Beschreibung von einzelnen Fällen, zielen also nicht auf verallgemeinerbare - auf viele Fälle zutreffende - Aussagen wie quantitative Zugänge. Es handelt sich in der Regel um Studien mit wenigen Studienteilnehmer/ innen, die gezielt nach vorab festgelegten oder im Verlauf der Untersuchung herausgearbeiteten Kriterien ausgewählt werden. Ein Interesse kann es sein, zu rekonstruieren, was in (möglichst) authentischen Kommunikationssituationen, Leseprozessen, in natürlichem Sprachgebrauch in all seiner Komplexität und Kontextgebundenheit stattfindet. Faktoren, die das Gelingen oder Misslingen eines Leseverstehensprozesses beeinflussen, sollen beispielsweise gerade nicht ausgeschaltet werden (wie im Experiment), sondern diese Faktoren sollen 5.1 Überblick und Grundbegriffe 175 <?page no="177"?> erfasst und beobachtet werden um anschließend analysiert und aufeinander bezogen zu werden. Betrachtungen dieser Art machen ein größeres Maß an Offenheit für Unvorhergesehenes in den Daten notwendig. Auch in Untersuchungskontexten, die stärker Einfluss nehmen (bspw. Interviews, Lautes Denken) gilt jedoch das Prinzip der Offenheit: Es sollen möglichst alle Einflussfaktoren, die sich auf einen Forschungsge‐ genstand auswirken, analytisch herausgearbeitet und reflektiert werden, explizit auch solche, die vorher nicht zu erwarten waren. Dabei gilt das Prinzip: Alles in den Daten ist zunächst einmal relevant und muss verstanden werden. Eine besondere Rolle spielt der sprachliche und außersprachliche Kontext: Während das Experiment auf die Isolierung der untersuchten Merkmale und Prozesse von den Kontextfaktoren zielt, arbeiten qualitative rekonstruktive Zugänge mit dem extensiven Einbezug von Kontextfaktoren in die Interpretation. Hypothesen werden typischerweise nicht vorab aufgestellt, sondern explorativ aus den sprachlichen Daten generiert. Ein deduktives Vorgehen mit vorab formulierten Hypothesen ist jedoch auch in qualitativen Forschungsdesigns möglich. Man geht von dem Grundsatz aus, dass induktives, deduktives und abduktives Schließen im qualitativen Forschungsprozess ineinandergreifen (siehe Infokasten). Die methodisch kontrollierte und im Auswertungsprozess explizit mitreflektierte subjektive Wahrnehmung der Forschungsperson wird als Bestandteil der Erkennt‐ nisgewinnung gesehen. Das Prinzip der Offenheit ist dabei eine spezifische Rekonst‐ ruktionshaltung, die das Zurückstellen der eigenen Vorannahmen und des eigenen Relevanzsystems bedeutet (Kruse 2015: 366). Intersubjektivität und die Validierung von Deutungen wird u. a. durch Interpretationsgruppen bzw. allgemein die gemeinsame (Deutungs-)Arbeit an empirischen Daten angestrebt. Qualitative Daten erlauben fall‐ basierte Existenzaussagen und zielen typischerweise auf die Bildung von Typen bzw. das Auffinden von Mustern in den Daten. Daraus folgt, dass qualitativem und quantitativem Forschungszugang unterschiedliche Gütekriterien, d. h.: Qualitätskriterien, zugrunde gelegt werden müssen und zugrunde gelegt werden. In der quantitativen Forschung besteht Einigkeit darüber, dass Erhebung und Datenauswertung den Gütekriterien Objektivität, Validität und Reliabilität genügen müssen. Insbesondere in der qualitativen Sozialforschung gibt es Diskussionen über die entsprechende Gütekriterien qualitativer Forschung, wobei in jüngerer Zeit betont wird, dass die Kriterien nicht als Entsprechung zu den quantitativen Gütekriterien strukturiert sein sollten, sondern einer eigenen Forschungslogik folgen müssten (Kruse 2015: 54ff., vgl. Strübing/ Hirschauer/ Ayaß/ Krähnke/ Scheffer 2018). Definition: Induktiv - deduktiv - abduktiv Die Ausdrücke bezeichnen drei Erkenntnisweisen, die sich in qualitativ-rekonst‐ ruktiver Forschung typischerweise verschränken (vgl. Kruse 2015; Reichertz 2012). ● Beim induktiven Schließen wird von einem geeigneten Einzelfall oder mehreren begründet ausgewählten Einzelfällen auf eine generelle Regel bzw. auf Musterhaftes geschlossen. 176 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="178"?> ● Bei der Deduktion wird andersherum von einer Hypothese ausgegangen und diese anhand konkreter Fälle (Daten) geprüft: Ziel ist hier die Falsifikation, d. h. eine beschriebene Theorie soll am Einzelfall auf ihre Gültigkeit überprüft werden. ● Die bedeutendste Rolle wird in qualitativen Analysen dem abduktiven Schlie‐ ßen eingeräumt: Ausgehend von etwas (bisher) Unverständlichem in den Daten wird nach einer neuen Regel gesucht, die das Beobachtete erklären kann. Dies wird als kreativer Prozess verstanden, in dem neues Wissen im Sinne einer neuen Perspektive auf bestehende Daten- und Wissenselemente entsteht. - Triangulation Qualitative und quantitative Forschungszugänge stehen nicht in Konkurrenz zueinan‐ der, sondern können gewinnbringend miteinander kombiniert werden. Das häufig gebrauchte Schlagwort dafür ist Triangulation. Darunter ist zunächst einmal allgemein die Kombination unterschiedlicher Zugänge zu Gegenständen empirischer Forschung zu verstehen. Am häufigsten wird Triangulation als die Kombination von qualitativen und quantitativen Zugängen thematisiert, sie umfasst aber auch die Kombination insbesondere verschiedener qualitativer Zugänge. Entscheidend ist, dass die Strategien gleichberechtigt in Studien integriert sind und systematisch und theoretisch begründet sind (Flick 2011: 49). Besonders in der (qualitativen) Sozialforschung wird das Konzept seit den 1970er Jahren diskutiert (vgl. Flick 2011: 7). Seit einiger Zeit hat die Diskussion auch in der empirisch arbeitenden Linguistik Einzug gehalten, insbesondere in Korpuslinguistik, Diskurslinguistik sowie Fremdsprachenforschung (vgl. z. B. Spitzmüller/ Warnke 2011, Baker/ Egbert 2016, Elsner/ Viebrock 2015b). Eine erste systematische Unterscheidung von Triangulationstypen legte Denzin (1970) vor. Sie prägt nach wie vor die wissen‐ schaftliche Diskussion. Denzin (1970: 301-310) unterscheidet zwischen ● data triangulation: Daten aus verschiedenen Quellen, von verschiedenen Zeitpunk‐ ten, unterschiedlicher medialer Beschaffenheit…; ● investigator triangulation: verschiedene Datenerheber, -aufbereiter, -auswerter; ● theory triangulation: Annäherung an einen Forschungsgegenstand aus unter‐ schiedlichen theoretischen Perspektiven; ● methodological triangulation (im Deutschen meist übersetzt als Methoden-Trian‐ gulation): Hier wird weiter unterschieden zwischen within-method triangulation (z. B. verschiedene Subskalen in einem Fragebogen) sowie between-/ across-method triangulation (Verwendung unterschiedlicher Methoden). Als Zielsetzung von bzw. als Argument für Triangulation werden wiederkehrend zwei Aspekte diskutiert: Zum einen wird Triangulation als Möglichkeit verstanden, die 5.1 Überblick und Grundbegriffe 177 <?page no="179"?> Validität von Forschungsergebnissen über die systematische Nutzung verschiedener Zugänge zu überprüfen. Insgesamt hat sich allerdings eine deutliche Abkehr von dieser Sichtweise vollzogen. Der Fokus liegt mittlerweile stärker auf einer anderen Funktion: Triangulation wird als Möglichkeit verstanden, eine „systematische[] Erweiterung der Erkenntnismöglichkeiten“ zu erreichen (Flick 2011: 26). Es geht also um die systematische Suche nach unterschiedlichen, einander ergänzenden Informationen, um ein vollständigeres Gesamtbild vom Forschungsgegenstand zu erzielen (vgl. auch Flick 2011: 12, Settinieri 2015: 18), ggf. auch um Schwächen bzw. Grenzen eines Zugangs, einer Methode, eines theoretisch-methodologischen Rahmens durch die Kombination mit einem zweiten Zugang gezielt zu kompensieren. The use of multiple methods, or triangulation, reflects an attempt to secure an in-depth understanding of the phenomenon in question. Objective reality can never be captured. Triangulation is not a tool or a strategy of validation, but an alternative to validation […]. The combination of multiple methods, empirical materials, perspectives and observers in a single study is best understood, then, as a strategy that adds rigor, breadth, and depth to investigation (Denzin/ Lincoln 1994: 2). 5.2 Korpusmethoden Cordula Meißner und Bettina M. Bock Die Korpusanalyse bietet eine Methode, Sprachdaten quantitativ auf häufig vorkom‐ mende, musterhafte Merkmale zu untersuchen und sie mit Referenzdatensammlun‐ gen zu vergleichen. Es werden dadurch die an der sprachlichen Oberfläche erfassbaren frequenzbezogenen Kennzeichen von Texten beschrieben. So lassen sich Daten ermitteln, die z. B. Aufschluss darüber geben, welche Wörter oder Strukturen häufiger vorkommen und damit womöglich leichter zu verarbeiten sind als andere (zu Fre‐ quenzeffekten vgl. Kap. 3.1.2). Im Rahmen gebrauchsbasierter Ansätze wird ange‐ nommen, dass die korpuslinguistische Analyse von Häufigkeiten und Mustern in den Sprachdaten in gewisser Weise Ähnlichkeiten mit der natürlichen Sprachverarbeitung bzw. dem Spracherwerb hat: Denn auch beim Verstehen von Sprache, z. B. bei Texten, abstrahieren Sprecher/ innen aus wiederkehrenden Ereignissen des Sprachgebrauchs Form- und Bedeutungsmerkmale. Das Kapitel klärt zunächst die Frage, was in der Linguistik unter einem Korpus verstanden wird (Kap. 5.2.1) und stellt den Aufbau von Korpora sowie wichtige vorliegende Korpora zum Deutschen dar (Kap. 5.2.2). Anschließend werden die grundlegenden Zugänge zu Korpora (korpusbasierte vs. korpusgeleitete Analyse) erläutert (Kap. 5.2.3) und gängige korpuslinguistische Analyseverfahren vorgestellt: Konkordanzanalyse, Wortlisten, Type-Token-Rela‐ tion, Schlüsselwörter, N-Gramme und Kookkurrenzanalysen (Kap. 5.2.4). 178 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="180"?> 5.2.1 Was ist ein Korpus? Unter einem Korpus (das Korpus, neutr.; Pl.: Korpora) wird in der Korpuslinguis‐ tik eine größere Menge von digital in strukturierter Form vorliegenden Sprachda‐ ten verstanden, die elektronisch gestützt durchsucht, sortiert, gezählt, verglichen und interpretiert werden (Lüdeling/ Walter 2010: 315, Lemnitzer/ Zinsmeister 2015: 39). In der Linguistik wird teilweise auch in anderen Kontexten von Korpora gesprochen, beispielsweise bei kleineren Textsammlungen, die nicht quantitativ, sondern als Einzeltexte analysiert werden. In der Korpuslinguistik wird jedoch das Verständnis als große, digital verarbeitbare und quantitativ auszuwertende Sammlung von Sprachdaten zugrunde gelegt. Auf diese Bedeutung beschränken wir uns auch im Folgenden. Korpora enthalten authentische Sprachdaten, d. h. Daten des realen Sprachge‐ brauchs. Sie werden für einen bestimmten Zweck nach festgelegten Kriterien zusam‐ mengestellt. Bei der Zusammensetzung quantitativ auszuwertender Korpora bilden Repräsentativität und Ausgewogenheit wesentliche Gütekriterien. Ein Korpus sollte den Sprachverwendungsbereich, den es repräsentiert, in seiner Variation und der Gewichtung einzelner Varianten abbilden. Es sollte - ausgewogen - ähnlich relevante Bereiche durch vergleichbar große Datenmengen abbilden (vgl. Lemnitzer/ Zinsmeister 2015: 48-51, Tognini-Bonelli 2001: 55-62). So wären beispielsweise für ein Korpus der deutschen Schriftsprache verschiedene Domänen (z. B. Politik, Technik, Literatur) und entsprechende Textsorten aus relevanten Zeitabschnitten zu berücksichtigen. Im DWDS-Kernkorpus des 20. Jahrhunderts wird dies etwa dadurch umgesetzt, dass pro Dekade des 20. Jahrhunderts zu gleichen Anteilen Texte verschiedener Textsorten aus den Bereichen journalistischer Prosa, Belletristik, Fachprosa und Gebrauchsliteratur gesammelt wurden (vgl. Geyken 2007). Ein Korpus stellt stets eine Stichprobe des Sprachgebrauchs dar, d.-h. es deckt den Sprachbereich, über den eine Aussage getroffen werden soll, nicht vollständig ab. Aus einem Nicht-Vorkommen im Korpus kann daher nicht auf ein Nicht-Vorhandensein des Phänomens geschlossen werden. Da Korpora Sprachgebrauchsdaten enthalten, können Verwendungsweisen vorkommen, die nicht den kodifizierten bzw. einer bestimmten Sprachtheorie folgenden Regeln entsprechen (vgl. Lemnitzer/ Zinsmeister 2015: 51-54). Das (nach eigener Aussage) größte nach Registrierung frei zugängliche Korpus für die deutsche Standardsprache ist das Deutsche Referenzkorpus (DeReKo) am Institut für Deutsche Sprache (IDS) in Mannheim. Es umfasst aktuell 53 Milliarden Token und enthält v. a. Zeitungstexte aus Deutschland, Österreich und der Schweiz, daneben Texte der Wikipedia, Zeitschriften aus verschiedenen Themengebieten, Belletristik und Fach‐ texte (vgl. Leibniz Institut für Deutsche Sprache 2022, Kupietz/ Belica/ Keibel/ Witt 2010). Die auf DeReKo basierende DeReWo-Wortliste (vgl. Stadler 2014, Kap. 5.2.4) umfasst 5.2 Korpusmethoden 179 <?page no="181"?> alle im Korpus vorkommenden Lemmata sowie Angaben zu ihrer Frequenz in Form von sog. Häufigkeitsklassen (vgl. Stadler 2014, Institut für Deutsche Sprache 2013). An‐ gaben zu Häufigkeitsklassen bietet auch das Wortschatz-Portal (vgl. Goldhahn/ Eckart/ Quasthoff 2012). Eine weitere sehr umfangreiche und größtenteils frei zugängliche Korpussammlung stellt das Portal des Digitalen Wörterbuchs der deutschen Sprache (DWDS) zur Verfügung. Neben schriftsprachlich ausgewogenen Referenzkorpora für das 20. und 21. Jahrhundert bietet das DWDS u. a. frei zugängliche Zeitungs- und Webkorpora. Das Portal ermöglicht den Zugriff auf die Korpusdaten sowie den Abruf statistischer Auswertungen zu Kookkurrenzprofilen (siehe Kap. 5.2.4) von Suchwörtern („DWDS-Wortprofil“), zur Vorkommenshäufigkeit eines Suchwortes im zeitlichen Verlauf („Wortverlaufskurven“) sowie zur Entwicklung seiner Kookkurrenz‐ beziehungen im zeitlichen Verlauf („DiaCollo“). Über das Wortprofil können statistisch assoziierte Kombinationspartner des Suchwortes nach syntaktischer Funktion sortiert abgerufen werden; man erfährt so z. B., dass für das Verb diskutieren die Wörter Thema, Frage, Problem, Vorschlag in der Objektposition, die Wörter Experte, Fachleute, Teilnehmer, Politiker in der Subjektposition am stärksten assoziiert sind. Exkurs: Häufigkeitsklassen Häufigkeitsklassen (HK) sind ein Häufigkeitsmaß, das die Frequenz eines Wortes relativ zum häufigsten Wort im Korpus angibt. Die Zuordnung eines Wortes w zur Häufigkeitsklasse K besagt, dass das häufigste Wort des Korpus 2 K mal häufiger vorkommt, als das Wort w. Das häufigste Wort des Korpus, welches in der Schriftsprache des Deutschen die Wortform der bzw. als Lemma der bestimmte Artikel ist, hat dabei immer die HK 0, alle anderen Wörter weisen größere HK auf (vgl. Perkuhn/ Keibel/ Kupietz 2012: 80). Je niedriger die HK, desto häufiger (d. h. näher am häufigsten Wort) ist das betrachtete Wort. Als in Bezug auf das häu‐ figste Wort, dessen Gebrauch in allen Korpora als ähnlich angenommen werden kann, normierte Häufigkeitsangabe sind Häufigkeitsklassen über Korpora hinweg interpretierbar. Sie werden in psycholinguistischen Experimenten als Indikator für die Geläufigkeit eines Wortes verwendet (vgl. Perkuhn/ Keibel/ Kupietz 2012: 82-83). 5.2.2 Die Struktur von Korpora Bei der Arbeit mit Korpora sind verschiedene Arten von Daten zu unterscheiden. Die Primärdaten umfassen die Texte (oder verschriftlichte Äußerungen) im Korpus. Sie sind die Datenbasis, die gezählt, ausgewertet und auf Muster geprüft wird. Gezählt werden dabei einerseits Token, d. h. die laufenden Wörter in einem Text bzw. alle einzelnen Vorkommen eines Suchwortes oder einer Struktur, sowie Types, d. h. die verschiedenen Textwörter oder Belegungen einer Struktur. Die Größe eines Korpus wird über die Tokenzahl als Anzahl aller Einheiten im Korpus sowie die Typezahl, 180 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="182"?> als Anzahl aller verschiedenen Einheiten im Korpus, angegeben (vgl. Lemnitzer/ Zins‐ meister 2015: 43 f.). Daneben umfasst ein Korpus Metadaten, welche die Primärdaten beschreiben. Hierzu gehören etwa Angaben zur Charakterisierung des Textes (Textsorte, Thema, Entstehungsjahr, Genrezuordnung etc.) sowie zu/ r Autor/ in. Anhand der Metadaten kann die Auswertung der Primärdaten präzisiert oder eingeschränkt werden (vgl. Lem‐ nitzer/ Zinsmeister 2015: 44-48). Annotationen, d. h. durch Interpretation gewonnene Auszeichnungen der Primärdaten nach linguistischen Kategorien, bilden eine dritte Art von Daten. Annotationen umfassen z. B. die Auszeichnung nach Wortart (engl. parts of speech, POS) und Lemma, nach morphosyntaktischen oder pragmatischen Kategorien oder auch nach spezielleren Aspekten wie z. B. nach Fehlern im Fall von Lernerdaten (vgl. Lemnitzer/ Zinsmeister 2015: 57-87). Sie erlauben effizientere und präzisere Abfragen, etwa nach allen zu einem Lemma gehörigen Wortformen oder nach einem bzgl. Wortart spezifizierten Lemma (z. B. diskutiert als attributives Adjektiv (ADJA) oder infiniter Teil des Verbalkomplexes (VVPP)). Die Annotation von Wortart und Lemma kann automatisch erfolgen. Für die Wortartenannotation des Deutschen hat sich das Stuttgart-Tübingen-Tagset (STTS) als Standard etabliert (vgl. Schil‐ ler/ Teufel/ Stöckert/ Thielen 1999, Zinsmeister 2015). Die Wortartenkategorien weisen dabei z.T. auch morphologische (z. B. VVPP für Partizip Perfekt) oder syntaktische (z. B. ADJA für attributives Adjektiv) Informationen mit aus. Abb. 19 veranschaulicht einen nach dem STTS getaggten und lemmatisierten Textausschnitt. Abb. 19: Annotation von Wortart (POS) und Lemma Verfügbare Korpora für das Deutsche wie das DWDS oder DeReKo bieten über ihre Suchin‐ terfaces Möglichkeiten, die Annotationen und Metadaten bei der Abfrage einzubeziehen 5.2 Korpusmethoden 181 <?page no="183"?> (vgl. dazu Hirschmann 2019: 156-172). Selbsterstellte Korpora können ebenfalls nach den beschriebenen Kategorien aufbereitet werden (vgl. Hirschmann 2019: 19-103). 5.2.3 Korpusbasierte und korpusgeleitete Analysen Durch Korpusanalysen können Häufigkeiten und Muster im Sprachgebrauch aufgedeckt werden. Eine solche gebrauchsbasierte Sprachbeschreibung erlaubt Rückschlüsse auf Sprachverarbeitung und Spracherwerb (vgl. Stefanowitsch 2011: 272, Ellis 2017). So wurde auch in Bezug auf sprachliche Schwierigkeit die Bedeutung von Frequenzeffekten nachgewiesen (siehe Kap. 3.1.2). Korpusmethodisch lassen sich für die gebrauchsbasierte Analyse von Merkmalen sprachlicher Schwierigkeit zwei grundsätzliche Vorgehensweisen unterscheiden: Zum einen kann man durch Korpusanalysen empirisch prüfen, inwieweit und in welchem Umfang bestimmte Phänomene in Texten eines bestimmten Sprachver‐ wendungsbereiches vorkommen. Wie häufig sind z. B. Partikelverben, wie häufig sind weilim Vergleich zu denn-Sätzen usw. Dieses Vorgehen wird als korpusbasiert (corpus based) bezeichnet. Hier dient die Datensammlung des Korpus dem Testen einer zuvor theoriegeleitet formulierten Hypothese. Es wird z. B. angenommen, dass weil- und denn-Sätze für die Frage der Textverständlichkeit relevant sind und gezielt nach deren Vorkommen im Korpus gesucht. Man geht also schon mit einer konkreten Hypothese in die Analyse hinein und richtet sie nach diesen gewählten Kategorien aus. Es erfolgt eine erschöpfende Auswertung des Korpus mit dem Ziel, empirische Evidenz bzw. quantitative Tendenzen aus der Analyse der Sprachverwendungsdaten zu ermitteln. Korpusbasiertes Vorgehen erfordert zunächst eine Operationalisierung des Untersuchungsgegenstandes: Damit dieser im Korpus abfragbar gemacht werden kann, muss er in Formen übersetzt werden, deren Häufigkeit gezählt werden kann (vgl. Tognini-Bonelli 2001: 65-83). Möchte man z. B. Komplexität von Sätzen untersuchen, könnte man dies u. a. über eine Suche und Zählung der Formen unterordnender Konjunktionen (dass, weil usw.) oder, bei einem entsprechend aufbereiteten Korpus, der Wortart (KOUS) operationalisieren. Die andere Vorgehensweise bezeichnet man als korpusgeleitet (corpus driven). Hierbei werden vorab keine Festlegungen getroffen, welche linguistischen Kategorien relevant sind, und es werden stattdessen die sich in den Daten zeigenden Gebrauchsmuster ermittelt und beschrieben. D.h., man legt sich in der Analyse z. B. nicht auf bestimmte Satztypen fest, sondern sucht offen nach sprachlichen Mustern, die sich im Korpus zeigen. Erst auf Basis der ersten Analysedaten nimmt man eine linguistische Beschreibung bzw. Kategorisierung vor. Natürlich sind auch diese Analysen nicht „hypothesenlos“ und rein datengeleitet, aber sie erhalten bewusst eine Offenheit für unerwartete Kategorien, die sich im Rahmen der Korpusanalyse zeigen können. Das Korpus bildet dabei die Grundlage, auf der Beschreibungseinheiten formuliert werden. Ein solches Vorgehen will davor bewahren, nur Strukturen zu erfassen, die mit zuvor festgelegten Kategorien kompatibel sind (vgl. Tognini-Bonelli 2001: 84-100, Bubenhofer 2009: 101). 182 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="184"?> Korpusbasiertes und korpusgeleitetes Vorgehen sind nicht für alle Forschungsfragen gleichermaßen geeignet. Je nach Ausrichtung der Analyse muss ein Vorgehen gewählt werden; auch Kombinationen (erst korpusgeleitet - dann korpusbasiert) sind üblich. Mittels korpuslinguistischer Methoden lassen sich in Abhängigkeit von der ge‐ wählten Korpuszusammensetzung Merkmale des Sprachgebrauchs auf verschiedenen Granularitätsstufen untersuchen (z. B. Standardsprache, sprachliche Varietäten, (do‐ mänen- und medienspezifische) Textsorten). So können etwa anhand von Lerner‐ korpora, d. h. Sammlungen von Texten, die von L2-Lernenden produziert wurden, Lernervarietäten beschrieben werden (vgl. Granger/ Gilquin/ Meunier 2015). Oder es lassen sich häufige Wörter in ihren sprachlichen Kontexten und typische Sprachge‐ brauchsmuster beim Sprechen über bestimmte Themen ermitteln. Durch kontrastive Korpusanalysen können z. B. auch Spezifika des Sprachgebrauchs in einzelnen Verwendungszusammenhängen ermittelt werden. 5.2.4 Korpuslinguistische Analyseverfahren Mit Hilfe von Korpusanalysesoftware lassen sich Korpusdaten quantitativ und qua‐ litativ auswerten. Korpuslinguistische Analyseverfahren werden etwa in der Fremd‐ sprachenerwerbsforschung eingesetzt, um Eigenschaften der zu erlernenden Sprache (auch kontrastiv zu anderen Sprachen) zu beschreiben, Lernersprache hinsichtlich Verwendungsmustern und Kompetenzentwicklung zu analysieren oder curriculare so‐ wie sprachtestbezogene Entscheidungen empirisch zu fundieren (vgl. Meißner/ Lange/ Fandrych 2022). Die im Folgenden genannten Analyseverfahren sind je nach Aufbe‐ reitung des Korpus auf der Ebene von Token, POS-Tag oder Lemma anwendbar. Es handelt sich um: ● Konkordanzanalyse ● Wortlisten ● Type-Token-Relation ● Keywords/ Schlüsselwörter ● N-Gramme ● Kookkurrenzanalysen Software für die Korpusanalyse Es gibt eine Reihe kostenloser Analyseprogramme, mit denen korpuslinguisti‐ sche Analysen selbst erstellter Korpora durchgeführt werden können (vgl. für eine Übersicht Wiechmann/ Fuhs 2006). Hilfreiche Analyseprogramme sind z.B.: ● AntConc: kann u. a. Wortlisten erstellen, Keywords (Schlüsselwörter), N-Gramme und Kollokationen errechnen ● Simple Concordance Program: erstellt Wortlisten, durchsucht Korpus ● Open Corpus Workbench: komplexeres System zur Verwaltung und Ana‐ lyse von größeren Korpora, kann auch mit annotierten Daten umgehen 5.2 Korpusmethoden 183 <?page no="185"?> Außerdem gibt es Programme, mit denen Wortarten-Annotationen in selbst erstellten Korpora durchgeführt werden können (vgl. einführend zur Aufberei‐ tung eigener Korpora Hirschmann (2019: 19-103). ● TreeTagger: annotiert Texte automatisch nach Lemma und Wortart (nach den Wortartenkategorien des STTS) ● WebLicht: online (für Hochschulangehörige) zugängliches Portal, über das eigene Texte nach verschiedenen Kategorien aufbereitet und annotiert wer‐ den können; es werden kombinierbare Werkzeuge u. a. zur Tokenisierung, Wortartenannotation und Lemmatisierung, aber auch zur Erkennung von Eigennamen und zur syntaktischen Annotation (Parsing) angeboten Die Ergebnisse einer Korpusabfrage werden in Form einer Konkordanz (KWIC von engl. Keyword-in-Context) präsentiert. Hierbei werden die Kontexte, in denen das Suchwort vorkommt, in Zeilen untereinander angezeigt. das Suchwort steht dabei in der Mitte. Durch die Sortierung des rechten und linken Kontextes können Muster im Gebrauch des Suchwortes identifiziert werden. Abb. 20 zeigt das exemplarisch anhand der Suche nach dem Doppelpunkt in populärwissenschaftlichen Texten in Einfacher Sprache. Die Konkordanzsuche macht die verbreitete Verwendung des Doppelpunktes als Satzverknüpfungsmittel deutlich, die eigentlich typisch für Leichte Sprache ist und die Nebensätze bzw. lange Satzkonstruktionen vermeiden helfen soll (vgl. Netzwerk Leichte Sprache 2013: 17). Abb. 20: Konkordanzansicht einer Suche nach dem Doppelpunkt mit Sortierung nach dem linken Kontext im Programm AntConc. Das geladene Korpus umfasst die Ausgabe „Erde und Menschen“ der Zeitschrift „einfach POLITIK“ der Bundeszentrale für politische Bildung, (Quelle: https: / / www.bpb.de/ s hop/ lernen/ einfach-politik/ 332217/ erde-und-menschen [11.07.2022]) 184 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="186"?> Um den durch das Korpus repräsentierten Sprachgebrauch insgesamt zu charakteri‐ sieren, kann eine Wortliste erstellt werden. Sie führt alle im Korpus auftretenden Wortformen-Types bzw. Lemmata nach der Häufigkeit ihres Vorkommens auf und macht so häufige und seltene Wörter sichtbar (vgl. Hunston 2002: 67). Die Häufig‐ keitsverteilungen in Texten und Korpora folgen dem Muster, dass immer wenige hochfrequente (v. a. Funktionswörter) und viele niedrigfrequente Einheiten erscheinen (vgl. Kap. 3.1.2). Der über korpusbasierte Wortlisten ermittelte häufigste Wortschatz bildet die Basis für die Bestimmung frequenzbasierter Grundwortschätze (vgl. Kap. 3.1.4). Mittels Wortlisten kann man so beispielsweise vergleichen, welche Wörter ty‐ pisch für Leichte und Einfache Sprache sind oder für Texte, die sich an unterschiedliche Adressat/ innen richten (z. B. jüngere Kinder vs. Jugendliche). Man kann außerdem auswerten, ob die Wörter, die z. B. als häufigste auf der Liste zu einem Analysekorpus erscheinen, mit den häufigsten Wörtern des Deutschen übereinstimmen oder ob sich hier Wortschatzbesonderheiten eines Korpus zeigen (siehe unten auf dieser Seite: Keywords/ Schlüsselwörter). Anhand der Wortliste sind auch die Informationen zur Anzahl der Types und Token im Korpus zugänglich. Maße der lexikalischen Vielfalt greifen auf diese Werte zurück, um die Textqualität bzw. -schwierigkeit zu beschreiben. Für die Type-To‐ ken-Relation (kurz: TTR von engl. type-token-ratio) wird die Anzahl der Types durch die Anzahl der Token dividiert. Der Quotient liegt zwischen 0 und 1 (bzw. 0 % und 100 %), je näher er bei 1 liegt, desto größer ist die lexikalische Vielfalt (vgl. Perkuhn/ Kei‐ bel/ Kupietz 2012: 86 bzw. E6-2). Die TTR findet u. a. Anwendung zur Einschätzung des Schwierigkeitsgrades von Texten in der Lesbarkeitsforschung (vgl. Kap. 3.1.3). Die Gleichsetzung von hoher lexikalischer Vielfalt und Schwerverständlichkeit, die immer wieder anzutreffen ist, ist jedoch problematisch. Die TTR ist abhängig von der Textlänge bzw. Korpusgröße und nimmt mit steigender Textlänge bzw. Korpusgröße ab (vgl. Perkuhn/ Keibel/ Kupietz 2012: E6-3). Sie ist also nicht zwischen Texten bzw. Korpora mit unterschiedlichem Umfang vergleichbar. Es handelt sich zudem um ein rein formbasiertes Maß, welches die Art der gezählten Wörter nicht berücksichtigt (etwa, ob es sich hierbei um Fachwörter oder Einheiten des Grundwortschatzes handelt). Über den Vergleich der Wortliste eines Untersuchungskorpus (Spezialkorpus) mit der eines Referenzkorpus lassen sich mittels Signifikanztests die Keywords (Schlüsselwörter) des Untersuchungskorpus ermitteln, d. h. Wörter, die in diesem signifikant häufiger auftreten, als aufgrund ihrer Vorkommenshäufigkeit im Referenz‐ korpus zu erwarten wäre. Durch Keyword-Analysen kann der inhaltlich und stilistisch charakteristische Wortschatz eines im Untersuchungskorpus abgebildeten Sprachver‐ wendungsbereichs ermittelt werden (vgl. Hunston 2002: 67 f.). Analog zur Wortliste können für das gesamte Korpus die häufigsten Wortfolgen (N-Gramme) bestimmt werden. Die Abfrage erfolgt musterbasiert, d. h. es wird nicht nach bestimmten Wörtern und den Wörtern in ihrer unmittelbaren Umgebung gesucht, sondern es wird beispielsweise nach den häufigsten 2-, 3- oder 4-Wortverbindungen 5.2 Korpusmethoden 185 <?page no="187"?> in einem Korpus gesucht (für ein Beispiel siehe Kap. 2.5). Bei wortartenannotierten Korpora kann dies auf Abfolgen von Wortarten ausgeweitet und so die Häufigkeit syntaktischer Strukturen betrachtetet werden (vgl. etwa Zeldes/ Lüdeling/ Hirschmann 2008). Lexikogrammatische Gebrauchsmuster lassen sich in Korpora mit Hilfe von Kook‐ kurrenzanalysen ermitteln. Hierzu werden die in einem definierten Abstand signi‐ fikant häufig mit dem Suchwort vorkommenden Einheiten berechnet (vgl. Hunston 2002: 68-75). Im Unterschied zu den rein musterbasierten N-Grammen wird also ein bestimmter Ausdruck abgefragt. Neben wortbezogenen Kookkurrenzen (auch: Kollokationen) werden durch die Kollexemanalyse (collostructional analysis) statis‐ tische Assoziationen zwischen grammatischen Strukturen und Lemmata ermittelt (vgl. Stefanowitsch/ Gries 2009). Anhand von Kookkurrenzanalysen kann man zudem die Verwendungstypik und die Bedeutung sprachlicher Ausdrücke bestimmen (vgl. Hunston 2002: 76-79). Hierdurch lassen sich Rückschlüsse auf die Speicherung und Verarbeitung von Wortschatzeinheiten ziehen (vgl. Kap. 3.1). Auch diskurslinguistische Analysen greifen auf diese wortbezogenen korpuslin‐ guistischen Analyseverfahren zurück (Bubenhofer 2009), auch wenn ihr Interesse über die Wortebene hinausgeht (siehe Kap. 2.5). Es gibt nicht ‚die‘ typische diskurslinguis‐ tische Herangehensweise oder Fragestellung. Man kann aber sagen, dass sich viele Analysen stärker für semantische als strukturelle Aspekte interessieren. Diskursse‐ mantisch fokussierte Korpusanalysen untersuchen zum Beispiel die Verteilung von Wörtern in einem Diskurs zu einem bestimmten Thema (Wortdistribution), häufig mit Blick auf den zeitlichen Verlauf: Wie oft tauchen z. B. die Wörter sowie Kom‐ posita mit Behinderung vs. Beeinträchtigung vs. Schwierigkeiten im massenmedialen Leichte-Sprache-Diskurs auf, seit wann wird das eine häufiger gebraucht als das andere? In welchen Teilen des Korpus (z. B. unterschiedlich politisch ausgerichtete Medien) ist welcher Ausdruck häufiger und in welcher Bedeutung werden die Aus‐ drücke jeweils gebraucht? Über das DWDS-Portal kann die Häufigkeit abgefragter Wörter direkt in zeitlichen Verlaufskurven visualisiert werden. Zudem lässt sich die Veränderung von Kollokationen zu einem Suchwort im Zeitverlauf visualisiert abrufen („DiaCollo“). Diskurse werden außerdem untersucht, indem typische Kookkurenzen erfasst werden (korpusbasiert durch Abfragen von als relevant erachteten Ausdrücken und ihren Nachbarn) oder korpusgeleitet durch die Errechnung von N-Grammen. Die KWIC-Beleglisten bilden zudem einen Ausgangspunkt für qualitative Textanalysen, da sie den weiteren sprachlichen Kontext der fokussierten Ausdrücke und Muster an‐ zeigen; quantitative und qualitative Auswertungsverfahren werden dann trianguliert (Bubenhofer 2009). Exkurs: Korpusanalysen zu schwierigkeitsbezogenen Fragestellungen Seltener Gebrauch als Ausdruck von Schwierigkeit im L2-Erwerb: Zeldes, Lüdeling und Hirschmann (2008) untersuchen Erwerbsschwierigkeiten im Deut‐ schen als Fremdsprache. Um schwierige Strukturen zu identifizieren, vergleichen 186 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="188"?> sie in wortartenannotierten Korpora aus Texten von L1- und L2-Sprecher/ innen die Vorkommenshäufigkeit aller Wortformentypes sowie aller Wortartentag-Ab‐ folgen (Bi- und Trigramme). Schwierigkeit wird dabei über Abweichungen in der Gebrauchshäufigkeit operationalisiert. D.h. als schwierig für den Erwerb werden solche Types und N-Gramme eingeordnet, die im L2-Korpus im Vergleich zum L1-Korpus seltener vorkommen. Grade von Fachsprachlichkeit als Häufigkeit bestimmter Strukturen: Fachsprachlichkeit gilt als ein Faktor, der Texte schwerverständlich machen kann. Hierzu zählt v. a. der verstärkte Gebrauch von nominal verdichteten (z. B. Komposita, Attribute) und syntaktisch komplexen Strukturen (z. B. komplexe Sätze, Passiv). Niederhaus (2011) untersucht im korpuslinguistisch-quantitativen Paradigma vergleichend den Fachlichkeitsgrad von Berufsschullehrbuchtexten der Fächer Körperpflege und Elektrotechnik. Sie operationalisiert den Fachlich‐ keitsgrad über die Vorkommenshäufigkeit fachsprachentypischer Strukturen (Wortbildungen, komplexe Sätze, Attribute, Passiv u. a.). Hierfür werden die zusammengestellten Textkorpora zunächst automatisch nach Wortarten getaggt und anschließend manuell nach den fachsprachlichen Phänomenen annotiert, die dann quantitativ ausgewertet werden. Eigenschaften von Texten in Leichter und Einfacher Sprache: Han‐ sen-Schirra und Gutermuth (2018) untersuchen exemplarisch anhand eines di‐ rekten Vergleichs von intralingualen Übersetzungen einer standardsprachlichen Webseite (1.398 Token) in Einfache und in Leichte Sprache, welche Unterschiede sich in Bezug auf Token- und Typezahl sowie TTR in diesen Textfassungen ergeben und ziehen daraus Rückschlüsse auf die Textschwierigkeit. Lange (2018) untersucht anhand von Korpora aus Texten in Leichter Sprache (404 Texte, 639.826 Token), in Einfacher Sprache (300 Texte, 779.278 Token) und Texten mit dem Etikett „Leicht Lesen“ (88 Texte, 350.872 Token) Unterschiede in den sprachlichen Charakteristika dieser drei Formen vereinfachter Texte. Die Korpora umfassen Exemplare verschiedener Textfunktionen und Textsorten. Um zu überprüfen, inwieweit in den Texten die Empfehlungen der Leichten Sprache zur Vermeidung bestimmter Lexik Anwendung finden, werden für die drei Teilkorpora die häu‐ figsten Wörter und Wortarten ausgewertet. Korpuslinguistische Analysen ermöglichen häufigkeitsbasierte Aussagen über den tatsächlichen Sprachgebrauch. Sie können so eine empirische Grundlage für die Beschreibung und Gestaltung von Texten in Leichter bzw. Einfacher Sprache bieten. Um das Potenzial korpusmethodischer Analysen für diesen Anwendungsbereich aus‐ schöpfen zu können, müssen jedoch in noch deutlich größerem Umfang Korpora spezifischer Sprachverwendungsbereiche für diese Varietät aufgebaut und zugänglich gemacht werden. 5.2 Korpusmethoden 187 <?page no="189"?> Aufgaben 1. Das Verb kommen ist im Deutschen sehr häufig. Im Häufigkeitswörterbuch von Tschirner und Möhring (2019: 12) wird es auf Rang 62 gelistet. Betrachten Sie im DWDS die über das ‚Wortprofil‘ (https: / / www.dwds.de/ d/ ressources [11.07.2022]) abrufbaren Kookkurrenzen des Verbs kommen. a. Welche Verwendungsweisen können Sie beobachten? b. Für welche Textsorten sind diese typisch? c. Welche Schlussfolgerungen ziehen Sie daraus in Bezug auf eine Einstufung des Verbs als einfach oder schwierig? 2. Im Regelwerk des Netzwerks Leichte Sprache (2013: 4) wird genehmigen als schlechtes und erlauben als gutes Beispiel angeführt. Untersuchen Sie beide Verben mit Hilfe des DWDS. Wenn man die Netzwerk-Regel anwenden möchte, um leicht verständliche Texte zu schreiben: Was könnte an der Empfehlung zu den beiden Wörtern problematisch sein? 5.3 Quantitative Zugänge zum Leseverstehen Das Kapitel widmet sich zunächst Lesbarkeitsindizes (Kap. 5.3.1) und damit der Frage, wie sich die Lesbarkeit von Texten quantitativ erfassen lässt. Was messen klassische Verfahren, was erfassen sie nicht? Welchen Beitrag kann hier die Computerlinguistik leisten? Im zweiten Teil stehen dann experimentelle Zugänge zum Lesen im Mittel‐ punkt (Kap. 5.3.2): Was ist ein Experiment? Was ist bei der Durchführung eines psycholinguistischen Experiments zu beachten? Welche experimentellen Paradigmen zur Untersuchung des Lesens gibt es überhaupt? Was ist jeweils kennzeichnend für die Methoden? Genauer eingegangen wird auf folgende experimentelle Paradigmen: ● Lautes Lesen ● Lexikalisches Entscheiden ● Self-paced reading ● Blickbewegungsmessung ● Cloze Task 5.3.1 Lesbarkeitsindizes Zu den wichtigsten Ergebnissen der Lesbarkeitsforschung gehören sogenannte Les‐ barkeitsformeln, die quantitativ erfassbare Eigenschaften auf Wort- und Satzebene nutzen, um die Schwierigkeit von Texten zu bestimmen. Es werden nur Informationen 188 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="190"?> betrachtet, die mit einfachen Mitteln auslesbar sind. Wesentliche Faktoren in den Formeln sind die Wortlänge und die Satzlänge (vgl. Best 2006), Leerzeichen und Satzzeichen dienen der Bestimmung der Wort- und Satzgrenzen. Somit sind die Maße auf eine sehr oberflächliche Weise formorientiert und beziehen linguistische Informationen wie die morphologische oder syntaktische Komplexität, semantische Eigenschaften oder gar die Kohärenz als textuelles Kriterium nicht (direkt) in die Bestimmung der Komplexität ein. Lesbarkeitsindizes im Netz Mit dem für das Deutsche angepassten Flesch-Index und dem Lesbarkeitsindex LIX sind zwei Verfahren zur kostenlosen Erprobung online verfügbar: ● Flesch-Index: https: / / fleschindex.de/ [11.07.2022] ● LIX: https: / / www.psychometrica.de/ lix.html [11.07.2022] Man kann hier einen Text mittels Kopieren und Einfügen einspeisen und erhält einen numerischen Wert, der den Text auf einer Skala zwischen leichter und schwerer Lesbarkeit einordnet. Nähere Informationen zu den Formeln, die diesen und weiteren Verfahren zugrunde liegen, finden sich beispielsweise bei Ballstaedt (2019: 320-322). Obwohl sie also mit sehr einfachen Maßen arbeiten, können Lesbarkeitsindizes einen recht guten ersten Eindruck davon liefern, wie leicht oder schwer ein Text zu lesen ist. Dies hängt damit zusammen, dass einerseits Wort- und Satzlänge selbst komplexi‐ tätsrelevante Faktoren für das Dekodieren sind (siehe Kap. 2.1), dass andererseits aber auch weitere relevante Faktoren typischerweise mit der Wort- und Satzlänge zusammenhängen. Auf der Wortebene (siehe Kap. 3.1) besteht ein systematischer Zusammenhang zwischen der Vorkommenshäufigkeit oder Frequenz und der Länge: Häufige Wörter sind im Durchschnitt kürzer als seltene Wörter (vgl. Zipfsche Hypothesen, S. 94). Es handelt sich um ein Phänomen der sprachlichen Ökonomie, da bei einer häufigeren Verwendung kurzer Wörter die durchschnittliche Länge von Äußerungen minimiert wird. Wenn die Lesbarkeitsindizes nun Texte mit im Durchschnitt kürzeren Wörtern als leichter lesbar einordnen als solche mit längeren Wörtern, klassifizieren sie mit hoher Wahrscheinlichkeit gleichzeitig Texte mit häufigen Wörtern als leichter lesbar als Texte mit seltenen Wörtern. Ähnliches gilt für den Faktor der morphologischen Komplexität. Morphologisch einfache Wörter sind in der Regel kürzer als morphologisch komplexe Wörter. Allerdings stoßen die quantitativen Maße an ihre Grenzen, wenn z. B. lexikalische Mehrdeutigkeiten vorliegen (z. B. Peter und Meike gingen zu ihrer Bank. Ist jetzt das Geldinstitut oder die Sitzgelegenheit gemeint? ). Potenziell falsche Vorhersagen würden sie treffen, wenn in einem Text viele Personalpronomina im anaphorischen Gebrauch vorkämen. Diese Wörter sind kurz, aber der Bezug ist in manchen Fällen 5.3 Quantitative Zugänge zum Leseverstehen 189 <?page no="191"?> nicht leicht zu erkennen, wodurch sie trotz ihrer Kürze schwer zu verstehen sind (siehe Kap. 3.3). Dies gilt insbesondere, wenn beispielsweise ungeübte Leser/ innen aufgrund mangelnder (schrift)sprachlicher Erfahrungen die sprachspezifischen Auflösungsprä‐ ferenzen für Pronomina (vgl. Ariel 1990) nicht erworben haben (z. B. Klaus grüßte Hans, als er aus dem Haus trat. Wer trat aus dem Haus, Klaus oder Hans? ). Lerner/ innen des Deutschen als Zweit- oder Fremdsprache können hier nicht-zielsprachliche Auflö‐ sungspräferenzen zeigen, die denen in der Erstsprache entsprechen (vgl. Schimke/ de la Fuente/ Hemforth/ Colonna 2018). Zudem haben sie die Genera unter Umständen noch nicht so weit erworben, dass sie sie zur Identifikation eines Bezugsnomens nutzen könnten (z. B. Der Teller fiel auf eine Tasse. Sie zerbrach. Was zerbrach? Der Teller oder die Tasse? ). Auch in linguistischen Darstellungen wird die Satzlänge als ein Komplexitätskrite‐ rium genannt (siehe Kap. 3.2). Die Satzlänge kann aufgrund nominaler und verbaler Gegebenheiten variieren. Im verbalen Bereich erhöhen Verbpartikeln (z. B. Er schläft schnell ein), analytische Verbformen und Modalverben (z. B. dass er nicht aufgeweckt werden soll) die Anzahl der Wortformen. Nominale Konstituenten lassen die Satzlänge potenziell noch weiter anwachsen. Dies hängt zunächst von der Anzahl der Argumente (Ergänzungen) des Verbs und von der Anzahl der Adjunkte (Angaben) im Satz ab. Von nominalen Verdichtungen spricht man, wenn Nominalphrasen (mehrfach) attribuiert (z.-B. die kurz vor dem Einsturz stehende Mauer zum seit der zunehmenden Gehbehinde‐ rung der alten Dame verwildernden Nachbargarten) und/ oder Sätze nominalisiert und in andere Sätze integriert werden (z. B. das unbeabsichtigte Einfärben der Stirn des Kunden durch den Friseur). Die resultierenden Konstituenten lassen mit den enthaltenen Wörtern die Satzlänge ansteigen, ihre Komplexität ist aber nicht rein quantitativ zu erfassen. Zur Komplexität tragen nämlich die hierarchische Strukturierung und die notwendige Interpretation etwa nicht typisch realisierter semantischer Rollen bei (vgl. z. B. im obigen Beispiel das Genitivattribut der Stirn zur Nominalisierung das Einfärben, das außerhalb der Nominalisierung direktes Objekt die Stirn des Verbs einfärben wäre). Während komplexe Konstituenten dennoch auch quantitativ erfasst werden, gehen andere Komplexitätsphänomene nicht in Schätzungen ein, die nur Wörter zählen. Hier sind u. a. Wortstellungsvarianten zu nennen, die sich nicht in der Anzahl der Wörter, wohl aber in der Abfolge syntaktischer Funktionen unterscheiden und aufgrund von Wortstellungspräferenzen schwerer (z. B. Die Schülerinnen lobt die Lehrerin, ein Objekterstsatz) oder leichter zu verstehen sind (z. B. Die Lehrerin lobt die Schülerinnen). Wortzählende Maße können sogar in die falsche Richtung gehende Vorhersagen machen. Ein Beispiel ist die Einordnung von elliptischen Sätzen, in denen ein Weniger an Wörtern (potenziell) zu einem Mehr an (Verarbeitungs-)Komplexität führt. Dies gilt u. a., wenn bei der Interpretation koordinierter Sätze ein nur einmal realisiertes Verb ein zweites Mal aufgerufen werden muss (z.-B. Peter mag Kaffee und Eva Tee). Die geschilderten Probleme stellen allerdings nicht per se ein Hindernis für quantita‐ tive Analysen der Textkomplexität dar. Potenzial für die Komplexitätsschätzung liegt in computerlinguistischen Ansätzen, die ausgehend von einer Wortartenannotation 190 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="192"?> Phrasenstrukturbäume aufbauen (siehe Kap. 5.2.2) und so u. a. auch Verbalkomplexe und komplexe Nominalphrasen identifizieren können. Einige Arbeiten zur Komplexität von Schulbuchtexten liegen hier bereits vor (Berendes/ Vajjala/ Meurers/ Bryant/ Wag‐ ner/ Chinkina/ Trautwein 2018, Bryant/ Berendes/ Meurers/ Weiss 2017). Unter Hinzu‐ ziehung von Korpusdaten könnte man auch Übergangswahrscheinlichkeiten zwischen Wörtern und Phrasen berechnen (vgl. Jurafsky 2003), die häufigere von selteneren Konstruktionen unterscheiden ließen. Kritisch wäre jedoch zunächst die Frage, wel‐ che Korpusdaten die sprachlichen Erfahrungen einer bestimmten Leser/ innengruppe angemessen abbilden. Für das Deutsche als Fremdsprache könnte eine Datenbank her‐ angezogen werden, die Wörter und Konstruktionen Niveaustufen des Gemeinsamen Europäischen Referenzrahmens für Sprachen zuordnet (Glaboniat et al. 2005). - Weiterführende Literatur Diese Einführung gibt in Kapitel 11 einen soliden Überblick über Lesbarkeitsindizes und bietet weitere für das Lesen relevante Kapitel: Ballstaedt, Steffen-Peter (2019): Sprachliche Kommunikation: Verstehen und Verständlichkeit. Tübingen: Narr. - Aufgaben 1. Bitte suchen Sie einen Text, der Ihnen leicht vorkommt, und einen Text, der Ihnen schwer vorkommt. a. Lassen Sie diese Texte von den online verfügbaren Lesbarkeitsrechnern klassifizieren. b. Gelingt die quantitative Einordnung gut, oder erkennen Sie Probleme? 5.3.2 Lesen im Experiment - Datenerhebung mittels Experiment Nur selten werden Experimente im Rahmen induktiver Forschung durchgeführt, in der Regel wird ein deduktiver Forschungsansatz verfolgt: Man beginnt mit der Formulierung einer Hypothese, erhebt dann in einem oder mehreren Experimenten Daten und entscheidet anhand dieser Daten über die Zurückweisung oder Beibehaltung der Hypothese. Da die Interpretation der Ergebnisse wesentlich von der eingangs formulierten Hypothese abhängt, muss diese allgemeingültigen Qualitätsstandards genügen. Dazu zählt, dass der aktuelle Stand der Forschung berücksichtigt und zur Begründung der Hypothese herangezogen wird. Außerdem müssen die in der Hypothese verwende‐ ten Ausdrücke eindeutig sein. Bei Bedarf muss der/ die Forschende nicht eindeutige Ausdrücke für seine/ ihre Zwecke definieren. Und schließlich muss die Hypothese 5.3 Quantitative Zugänge zum Leseverstehen 191 <?page no="193"?> empirisch prüfbar sein. Dies gelingt mit der Operationalisierung, die den Ausdrücken in der Hypothese Variablen zuordnet, die dann manipuliert oder gemessen werden. Kennzeichnend für ein Experiment ist (vgl. Huber 2019), dass die Wirkung einer unabhängigen Variable auf eine abhängige Variable geprüft wird und dass dies unter Laborbedingungen geschieht, in deren Rahmen sich die Wirkung von Störvariablen kontrollieren lässt. Wird eine Testung dagegen in der natürlichen Umgebung durch‐ geführt und können Störvariablen wirken, spricht man von einem Feldversuch. Das Experiment hat gegenüber dem Feldversuch also Vor- und Nachteile. Ein Nachteil ist, dass es nicht in der natürlichen Umgebung durchgeführt wird und mithin die Rahmenbedingungen andere sind (z. B. Lesen im Labor vs. in einer Schulklasse). Die Gefahr ist, dass das Experiment nicht ökologisch valide ist, d. h. dass sich die Befunde nicht auf die natürliche Situation übertragen lassen. Andererseits hat das Experiment den Vorteil, in Bezug auf die Testqualität valide zu sein, also die Wirkung der unabhängigen Variable(n) auf die abhängige Variable zu messen (z. B. die Lesegeschwindigkeit in Abhängigkeit von der Komplexität der Nominalphrasen) und nicht die Wirkung der im Feld nicht kontrollierbaren Störvariablen (z. B. die Lesegeschwindigkeit in Abhängigkeit vom Lautstärkepegel der Klasse). Testgütekriterien Bei Experimenten ist wie bei Tests die Güte zu beurteilen. Die wichtigsten Kriterien sind die Objektivität, die Validität und die Reliabilität. 1. Objektivität bezieht sich auf die Unabhängigkeit der Daten vom/ von der Versuchsleiter/ in. Wenn eine andere Person das Experiment leitet, sollten sich die Ergebnisse gleichen. 2. Validität ist gegeben, wenn gemessen wird, was gemessen werden soll. Dazu gehört, dass die Variablen gut operationalisiert sind und dass keine Störvariablen wirken. 3. Reliabilität bezieht sich auf die Zuverlässigkeit der Messung, also darauf, dass das Messinstrument funktioniert und keine zufälligen Fehler liefert. Dies kann geprüft werden, indem man ein Experiment repliziert, also unter gleichen Bedingungen noch einmal durchführt. Leseexperimente gehören zu den Verhaltensexperimenten, d. h. in ihnen wird eine spezifische Form des sprachlichen Verhaltens untersucht. Sie sind wie ein Großteil der Korpusstudien und die Lesbarkeitsindizes den quantitativen Methoden zuzuordnen. Gemessen oder gezählt wird das Verhalten oder die Reaktion auf Reize, die sogenannten Stimuli. Dies mag an das behaviouristische Reiz-Reaktions-Schema erinnern, das Verhalten als von äußeren Einflüssen bestimmt erfasst. Tatsächlich ist die moderne Kognitionsforschung aber an dem interessiert, was die Behaviouristen noch als black box angesehen haben, nämlich an den kognitiven Prozessen und Repräsentationen. Da sich diese nicht direkt beobachten lassen und sie auch nicht oder nicht zuverläs‐ sig dem Bewusstsein und damit der Selbstbeobachtung (Introspektion) zugänglich 192 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="194"?> sind, versucht man in Verhaltensexperimenten durch geschickte Manipulationen die Funktionsweise der Kognition zu erfassen (vgl. Dietrich/ Gerwien 2017: 12-21). Diese Manipulationen können in der Auswahl der Teilnehmenden (z.-B. erfahrene vs. unge‐ übte Leser/ innen) sowie des Materials (z. B. hochvs. niedrigfrequente Wörter) oder in Varianten der Durchführung (z. B. kürzere vs. längere Präsentation der Wörter auf einem Monitor) liegen. Die Reaktionen auf die Reize können auf verschiedene Weisen erfolgen. Häufig werden Reaktionszeiten gemessen wie z. B. der Sprecheinsatz beim lauten Lesen, die Zeit bis zu einem Tastendruck oder bei der Blickbewegungsmessung die Dauer der Betrachtung (genauer: Fixation) eines Worts oder einer Phrase (für Details siehe Kap. 5.3.3). Alternativ können auch Antworten klassifiziert werden, z. B. als richtig oder falsch. Von den Verhaltensmaßen, also hier von Reaktionszeiten und Antworttypen, zu unterscheiden sind physiologische Messungen, bei denen z. B. der Herzschlag oder die Hirnaktivität gemessen wird. Bevor auf die verschiedenen experimentellen Paradigmen eingegangen wird, in denen Lesedaten erhoben werden, sollen die Gemeinsamkeiten psycholinguistischer (d. h. die kognitive Verarbeitung von Sprache betreffender) Experimente dargestellt werden. - Kleine psycholinguistische Methodenlehre Sprachliches Verhalten ist ein Untersuchungsgegenstand an der Schnittstelle zwischen Psychologie und Sprachwissenschaft. In psycholinguistischen Experimenten werden linguistisch interessante Fragestellungen mit psychologischen Methoden unter‐ sucht. So werden z. B. in Leseexperimenten Erkenntnisse über das gewonnen, das zwischen der visuellen Wahrnehmung geschriebener Zeichen und ihrer Interpretation passiert, sowie darüber, wie der zeitliche Verlauf des Lesens und Verstehens zu model‐ lieren ist. Da den Lesenden die beteiligten Repräsentationen und Prozesse allenfalls teilweise selbst bewusst sind und diese auch nicht direkt von außen beobachtbar sind, wird das Verhalten der Lesenden bei der Lösung einer experimentellen Aufgabe erfasst. Bei der Planung, Durchführung und Auswertung psycholinguistischer Experimente sind einige methodische Entscheidungen zu treffen (vgl. Sichelschmidt/ Carbone 2003). Dokumentiert und berichtet werden diese Entscheidungen per Konvention nach Vorga‐ ben der American Psychological Association (APA). Die Vorgaben werden regelmäßig aktualisiert in einem Handbuch zusammengefasst (zuletzt American Psychological Association 2020). Die nachfolgende Gliederung orientiert sich an diesen Vorgaben. Reicht ein Experiment? Generell gilt, dass in der Regel mehrere Experimente zur Prüfung einer Hypothese durchgeführt werden müssen. Dies liegt zum einen daran, dass bei experimen‐ tellen Manipulationen die relevanten unabhängigen Variablen selten selektiv manipuliert werden können. Zumeist kommt es zu Konfundierungen. Wird z. B. ein sprachliches Merkmal manipuliert, variiert mit diesem häufig auch ein anderes sprachliches Merkmal. Dann werden mehrere Experimente benötigt, 5.3 Quantitative Zugänge zum Leseverstehen 193 <?page no="195"?> um die Wirkung eines Merkmals zu isolieren. Zum anderen kommt es bei einem sprachlichen Phänomen überwiegend zu einem komplexen Zusammenspiel mehrerer Variablen, und die Wirkung der einzelnen Variablen kann in diesem Zusammenspiel nicht identifiziert werden, weil es dazu eines Vielfachen der verfügbaren Stichproben bedürfte. In der Regel ist es von daher insbesondere bei komplexen Fragestellungen ratsam, die Anzahl der in einem Experiment manipulierten Variablen zu reduzieren und anstelle eines großen Experiments mehrere kleine Experimente durchzuführen. Bei der Publikation von Forschungsergebnissen gibt es eine relativ feste Struktur, die im Folgenden vorgestellt wird. So wird beispielsweise auch bei Studien aus mehreren Experimenten nur eine Einführung verfasst. Der Methodenbericht mit Teilnehmer/ in‐ nen, Material und Durchführung, der Ergebnisbericht und die Diskussion sind ggf. für die Experimente getrennt zu verfassen. In den Diskussionen wird jeweils die Notwendigkeit eines weiteren, nachfolgend berichteten Experiments begründet. Eine Abschlussdiskussion leistet dann die Gesamtinterpretation der Ergebnisse und ordnet die Befunde in den Stand der Forschung ein. - Einführung Der Darstellung des methodischen Vorgehens in Publikationen ist eine Einführung voranzustellen, die die theoretischen Grundlagen umreißt und einen Überblick über den aktuellen Stand der Forschung gibt. Der Forschungsüberblick soll die aktuelle Arbeit motivieren, indem er offene Fragen aufzeigt. Darüber hinaus soll er zu den theoretisch begründeten Hypothesen hinführen, mit denen er abschließt. Typisch sind im psycholinguistischen Kontext universelle Unterschiedshypothesen, die also eine potenziell für alle Sprachbenutzer/ innen gültige Aussage treffen und aus denen sich die Vorhersage eines Unterschieds in den Ergebnissen für zwei oder mehr experimentelle Bedingungen ableiten lässt. Zu beachten ist, dass die zur Formulierung der Hypothesen verwendeten Ausdrücke entweder im Forschungsgebiet eindeutig definiert sind oder im vorausgehenden Text definiert wurden. Die Hypothesen müssen zudem empirisch überprüfbar sein. Hier schließt die Operationalisierung an, bei der die in der Hypothese verwendeten Ausdrücke auf Variablen im Experiment abgebildet werden. Werden im Rahmen der Darstellung des Forschungsstands „Vorbildstudien“ re‐ feriert, an denen sich die aktuelle Arbeit orientiert, ist die Qualität dieser Studien vorab kritisch zu prüfen. Ein Kriterium kann der Publikationsort sein. Beiträge in psychologischen oder auch linguistischen Zeitschriften haben in der Regel ein strenges Peer-review-Verfahren durchlaufen, das der Qualitätskontrolle dient. Inwiefern dies auch für Beiträge in Sammelbänden und für Dissertationen zutrifft, lässt sich mitunter nicht so leicht beurteilen. Generell sollten die methodischen Details etwaiger Vorbild‐ studien gut dokumentiert sein, damit sie auch kritisch betrachtet werden können. 194 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="196"?> Methode Der Methodenteil eines Experimentalberichts soll so präzise sein, dass das beschriebene Experiment von anderen Forscher/ innen nachvollzogen, kritisch bewertet und bei Bedarf unter gleichen oder leicht veränderten Bedingungen erneut durchgeführt werden kann. a. Teilnehmer/ innen Obwohl Aussagen über alle Sprachverwender/ innen getroffen werden sollen, nimmt an einem Experiment allgemein nur eine Stichprobe (einige Sprachverwender/ innen) und nicht die Grundgesamtheit der Sprachverwender/ innen (alle Sprachverwender/ innen) teil. Entsprechend kritisch ist zu überlegen, wer an einem Experiment teilnehmen soll. Wie sind die Personen zu bezeichnen, die Daten zu einem Experiment beitragen? Anstelle der Bezeichnung als Versuchspersonen (engl. subjects) hat sich inzwi‐ schen die Bezeichnung als Teilnehmer/ innen (engl. participants) durchgesetzt, die die Anerkennung des aktiven Beitrags zum Experiment besser widerspiegelt. Weniger angemessen ist die Bezeichnung als Proband/ innen, da so Teilnehmer/ in‐ nen an einem Test bezeichnet werden. Diese Bezeichnung wäre irreführend, da es tatsächlich in einem Experiment, anders als in einem Test, nicht um eine individuelle Leistungsbeurteilung geht. Die für die Teilnahme am Experiment zu erfüllenden Voraussetzungen sind im Anwer‐ bungsprozess zu kommunizieren. Hierzu können z. B. der sprachliche Hintergrund (ein- oder mehrsprachig), eine „normale“ Hör- und Sehfähigkeit und das Alter zählen. Weitere für die Interpretation der experimentellen Daten relevante Informationen können in einem Fragebogen oder auch in einem Test ermittelt werden. Zum Schutz personenbezogener Daten sind geeignete Vorkehrungen zu treffen. Nach Möglichkeit wird eine Aufwandsentschädigung („Versuchspersonengeld“) gezahlt. Teilnehmer/ innenmerkmale können Teil der experimentellen Manipulation sein, wenn z. B. die Lesegeschwindigkeit von Zweitmit Viertklässler/ innen verglichen wird oder die Worterkennung in der Erst- und Zweitsprache Deutsch. In diesen Fällen spricht man von einem between subjects-Design. Wenn alle Teilnehmer/ innen dieselben experimentellen Manipulationen z. B. des Materials erfahren, spricht man von einem within subjects-Design. Wie viele Teilnehmer/ innen benötigt werden, lässt sich aus der erwarteten Effekt‐ größe und der erwarteten Variation ermitteln. Häufig können aber auch Vorbildstudien Aufschluss über die zu erhebende Stichprobengröße geben. Generell gilt, dass immer dann, wenn eine größere Variation in den Reaktionen erwartet wird, Daten von mehr Teilnehmer/ innen zu erheben sind, als wenn eine kleinere Variation erwartet wird. Häufig entscheidet man sich mit dem Ziel, Aussagen über alle Sprachverwender/ in‐ nen zu treffen, doch für eine relativ homogene Gruppe: Studierende sind an Univer‐ 5.3 Quantitative Zugänge zum Leseverstehen 195 <?page no="197"?> sitäten als Studienteilnehmer/ innen leicht zu gewinnen. Häufig verfügen sie über die Zeit zur Studienteilnahme und sind hierzu auch motiviert, sei es aus dem Interesse an der Forschung oder aufgrund einer studiengangsspezifischen Verpflichtung zur Teilnahme an empirischen Studien, dem Ableisten von „Versuchspersonenstunden“. Studierende haben den Spracherwerb zumindest in der Erstsprache weitestgehend abgeschlossen und sind vermutlich noch nicht nennenswert von altersbedingten kognitiven Einschränkungen betroffen. Außerdem ist davon auszugehen, dass sie über eine recht hohe Kompetenz sowohl in der gesprochenen als auch in der geschriebenen Sprache verfügen. Damit sollten etwaige Störvariablen, die sich aus kognitiven oder sprachlichen Beeinträchtigungen ergeben, ausgeschlossen werden können. Zudem sollte die Streuung der Daten vergleichsweise gering sein und somit sollten systemati‐ sche Effekte unabhängiger Variablen auf die abhängige Variable gut nachweisbar sein. Eine größere Variation der Antworten oder Reaktionszeiten ist bei heterogenen Teilnehmer/ innengruppen wie Sprecher/ innen des Deutschen als Fremdsprache, funktionalen Analphabet/ innen oder Menschen mit sogenannter geistiger Behinde‐ rung zu erwarten. Hier kann dem Bedarf einer größeren Stichprobe das Problem der geringeren Verfügbarkeit entgegenstehen, ggf. ist eine Reduzierung der unabhängigen Variablen und die Auswahl eines weniger streuungssensitiven experimentellen Para‐ digmas angezeigt. b. Material Eine Besonderheit psycholinguistischer Experimente ist, dass nicht nur die Teilneh‐ mer/ innen, sondern auch die items (Exemplare des sprachlichen Materials) eine Stichprobe darstellen. Es sollen Aussagen über alle Wörter, Sätze oder Texte mit den systematischen Eigenschaften des im Experiment präsentierten Materials getroffen werden, erhoben werden aber nur Daten in Reaktion auf eine Materialauswahl. Entsprechend sorgfältig hat diese zu erfolgen. Da die statistische Generalisierung über items nur möglich ist, wenn die Streuung zwischen den items geringer ist als etwaige Effekte der experimentellen Manipulation, wird möglichst homogenes Material verwendet. Das Material kann in psycholinguistischen Leseexperimenten aus Wörtern, Sätzen oder Texten bestehen. Definition: Item Von einem item spricht man, wenn entweder identische Wörter oder Sätze bzw. Texte mit identischen Wörtern präsentiert werden. Gemeint sind mit identischen Wörtern die Lemmata (siehe Kap. 5.2), die Wortformen können morphologisch variieren und z.-B. unterschiedlich flektiert sein. Gerade auf der Wortebene muss die Manipulation häufig zwischen Wörtern erfolgen (between items-Design), z. B. wenn hoch- und niedrigfrequente Wörter präsentiert werden. Ein Beispiel für eine Manipulation innerhalb von Wörtern (within items-De‐ 196 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="198"?> sign) wäre die Segmentierung von Wörtern mittels Bindestrich. Hier wird ein item in zwei Bedingungen präsentiert, einmal ohne Bindestrich zusammengeschrieben und einmal mit Bindestrich segmentiert: Luftpumpe Luft-Pumpe Als Beispiel mit morphologischer Variation dient ein Satz mit einer syntaktischen Funktionsambiguität, die über die Kongruenz des Verbs mit der ersten oder zweiten Nominalphrase desambiguiert wird. Hier handelt es sich wieder um ein item in zwei Bedingungen: (1a) Die Schüler grüßen die Lehrerin. (1b) Die Schüler grüßt die Lehrerin. Bei Sätzen oder Texten gilt in Bezug auf die Lemmaidentität die Ausnahme, dass einzelne Wörter in items mit der experimentellen Manipulation variieren können, wenn z. B. wie im nachfolgenden Beispiel zusätzlich zum Effekt der Kongruenzmar‐ kierung ein Effekt der Plausibilität auf syntaktische Funktionszuweisungen geprüft werden soll. Hier wird auch deutlich, dass bei mehreren Manipulationen in einem item Ausprägungen verschiedener Variablen zusammengefasst werden. Im Beispiel werden zwei Variablen manipuliert, die die Identifikation des Subjekts beeinflussen können. Beide Variablen sind zweistufig (2*2-Design): Das Verb kongruiert mit beiden Nominalphrasen oder nur mit der zweiten, und es ist neutral im Hinblick auf die Plau‐ sibilität der Nominalphrasen, oder es passt besser, wenn die zweite Nominalphrase das Subjekt ist. Ein item kommt somit in vier Bedingungen (Variablenstufenkombinationen) vor: (2a) Die Schülerin grüßt die Lehrerin. (2b) Die Schülerin grüßen die Lehrerinnen. (2c) Die Schülerin tadelt die Lehrerin. (2d) Die Schülerin tadeln die Lehrerinnen. Kontrolliert werden Eigenschaften des Materials, die nicht manipuliert werden, aber als Störvariablen wirken und die Verarbeitung beeinflussen können (vgl. Sichel‐ schmidt/ Carbone 2003), wie z. B. die Länge und Vorkommenshäufigkeit von Wörtern (siehe Kap. 3.1). Entsprechend sorgfältig hat die Materialauswahl zu erfolgen. Dazu gehört, dass man mindestens das Vier-Augen-Prinzip anwendet und nicht eine Per‐ son alleine das Material erstellt. Weiter objektiviert werden sowohl experimentelle Manipulationen als auch die Kontrolle von Störvariablen durch Vortests z. B. zur Plausibilität oder Akzeptabilität des zu verwendenden Materials. Die Ergebnisse der 5.3 Quantitative Zugänge zum Leseverstehen 197 <?page no="199"?> Vortest sind entweder in einem separaten Unterkapitel oder mit der Darstellung des Materials zu berichten. Damit die Sorgfalt der item-Konstruktion geprüft werden kann, ist das gesamte experimentelle Material zugänglich zu machen. Dies kann in Form eines Anhangs geschehen oder in einer Datenbank. Typischerweise wird in psycholinguistischen Experimenten derart konstruiertes Material präsentiert. Seltener wird authentisches Material verwendet, das nicht oder allenfalls annäherungsweise über eine kritische Auswahl auf potenzielle Störvariablen kontrolliert ist. Folglich können etwaige Effekte nicht so sicher wie bei Verwendung kontrollierten Materials auf die manipulierten unabhängigen Variablen zurückgeführt werden. Dafür ist die sogenannte ökologische Validität höher, d. h. das beobachtete Verhalten tritt vermutlich wahrscheinlicher auch in alltäglichen Situationen auf. Wird dasselbe Material in einem Experiment mehrfach präsentiert, kommt es sehr wahrscheinlich zu Wiederholungseffekten. Sofern die Wiederholungseffekte nicht Gegenstand der Untersuchung sind, werden sie unter kontrollierten Bedingungen vermieden, indem identische items in mehreren Bedingungen über Listen verteilt werden. Die Listen folgen einem lateinischen Quadrat (engl. Latin square): Es gibt so viele Listen wie Bedingungen, die within items manipuliert werden. Die Anzahl der items ist ein Vielfaches der Bedingungen. Jede Liste enthält jedes item nur einmal, aber in einer jeweils anderen Bedingung. In jeder Liste kommt jede Bedingung gleich häufig vor. - Liste 1 Liste 2 Liste 3 Liste 4 item 1 A B C D item 2 B C D A item 3 C D A B item 4 D A B C Tab. 7: Beispiel für die Verteilung von Bedingungen über Listen und items nach einem lateinischen Quadrat. Abgebildet sind vier Bedingungen A-D. Lesebeispiel: Liste 1 wird mit Studienteilnehmer 1 umgesetzt, d. h. dieser liest item 1 in Bedingung A, item 2 in Bedingung B usw. Nach jeweils vier items würde die Verteilung der Bedingungen über Listen wiederholt. Nicht-experimentelles Füllmaterial (engl. fillers) wirkt insbesondere auf der Satz‐ ebene der Homogenität und Vorhersagbarkeit des experimentellen Materials entgegen und soll so die Anwendung von Strategien durch die Teilnehmer/ innen verhindern. Es dient also gewissermaßen der „Ablenkung“ und wird nicht in die Auswertung einbezogen. Das Füllmaterial sollte mehr items beinhalten als das experimentelle Material und sich sowohl lexikalisch als auch strukturell davon unterscheiden. Zur Ressourceneinsparung werden manchmal zwei Experimente auf einmal durchgeführt, und die items des einen Experiments dienen dem anderen Experiment als Füllmaterial. 198 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="200"?> Ggf. muss die Aufgabe dieselbe sein, aber das Material und die Manipulationen müssen sich unterscheiden. Zur Vermeidung von Reihenfolgeeffekten werden die Listen mit dem experimentel‐ len Material und dem Füllmaterial pseudorandomisiert. Anders als eine Randomisie‐ rung folgt eine Pseudorandomisierung Beschränkungen. So kann festgelegt werden, wie häufig kritische items allgemein oder in einer bestimmten Bedingung aufeinander folgen dürfen, ob experimentelle items gleich zu Beginn des Experiments oder auch nach einer Pause präsentiert werden oder ob hier zunächst Füllmaterial präsentiert wird usw. Zudem sollte eine strikte Alternation, d.-h. eine regelmäßige Abwechslung, des experimentellen Materials und des Füllmaterials oder auch eine strikte Alternation der Bedingungen ausgeschlossen werden, da diese die Vorhersagbarkeit des Materials erhöhen würden. c. Durchführung Details der Durchführung betreffen die technische Ausstattung, den Ablauf einer experimentellen Sitzung, die Instruktion der Teilnehmer/ innen, das sogenannte Trial‐ schema inklusive der Messung und die Dauer der Sitzung. Experimentelle Manipula‐ tionen können neben den Teilnehmer/ innen und dem Material auch die Durchführung betreffen. Die Durchführung sollte generell vor dem eigentlichen Experiment geprobt werden, und etwaige kritische Details sollten optimiert werden. In der Regel werden psycholinguistische Experimente an einem Computer durch‐ geführt, an den verschiedene Geräte zur Ein- und Ausgabe angeschlossen sind. Die Ausgabe von Material zum Lesen erfolgt über den Monitor, für den in einem ausführlichen Bericht die Größe und die Position zur/ zum Teilnehmenden anzugeben sind. Bei sehr kurzen Präsentationsdauern ist die Bildwiederholrate des Monitors (engl. refresh rate) zu beachten. Unter Umständen werden Lautsprecher für das Abspielen von Warntönen benötigt. Wird als Eingabe ein Tastendruck verlangt, kann dieser über die herkömmliche Tastatur oder einen mit weniger Streuung messenden externen Tastenblock erfolgen. Für die Erfassung lautsprachlicher Antworten bedarf es eines Mikrofons und eines Aufnahmegeräts, z. B. der Soundkarte des Computers. Soll die Artikulationslatenz unmittelbar gemessen und nicht in der Aufnahme ermittelt werden, wird ein sogenannter voice key benötigt, der zwischen Mikrofon und Computer geschaltet wird und die Zunahme des Luftstroms über eine vordefinierte Grenze erfasst. Spezifischere und auch teurere Geräte werden für die Blickbewegungsmessung und für die Messung ereigniskorrelierter Potenziale (engl. event-related potentials, ERP) benö‐ tigt (siehe S. 208-212). Zur Messung von Reaktionszeiten bedarf es generell besonderer Software (siehe Kasten Experimentalsoftware). Schließlich ist zu dokumentieren, wie der/ die Teilnehmende zu den Geräten platziert wird. Experimentalsoftware Hier werden ausschließlich ausgewählte nicht-kommerzielle Programme aufge‐ führt, die noch aktualisiert werden und mit denen sich Leseexperimente durch‐ führen lassen. 5.3 Quantitative Zugänge zum Leseverstehen 199 <?page no="201"?> ● DMDX (http: / / www.u.arizona.edu/ ~kforster/ dmdx/ dmdx.htm [11.07.2022]) ist ein vielfach bewährtes Windows-Programm, das speziell für psycholingu‐ istische Experimente entwickelt wurde, das aber von den Nutzer/ innen die Verwendung eines speziellen Codes mit eigener Syntax verlangt. ● OpenSesame (https: / / osdoc.cogsci.nl/ [11.07.2022]) und PsychoPy (https: / / w ww.psychopy.org/ [11.07.2022]) sind für psychologische Experimente im Allgemeinen entwickelt worden. Beide Programme sind mit verschiede‐ nen Betriebssystemen kompatibel und kommen mit benutzerfreundlichen Schnittstellen daher. Neuerdings erlauben sie auch die Durchführung von Online-Experimenten. Im Netz gibt es verschiedene Listen mit weiterer Experimentalsoftware. Exempla‐ risch sei hier die von Sonja Eisenbeiss zusammengestellte Seite zu Software für psycholinguistische Experimente in der Feldforschung genannt: https: / / experimentalfieldlinguistics.wordpress.com/ links/ software/ [11.07.2022] Psycholinguistische Experimente finden üblicherweise in einer Sitzung, unter Um‐ ständen aber auch in mehreren Sitzungen statt. Der Ablauf einer experimentellen Sitzung ist, wenn die Aufgabenanordnung nicht Teil der experimentellen Manipulation ist, für alle Teilnehmenden gleich zu halten. In der Sitzung werden zunächst nach einer Einverständniserklärung erforderliche personenbezogene Daten mittels Fragebogen oder Test erhoben (vgl. S. 195), evtl. werden zur Vermeidung von Ermüdungserschei‐ nungen auch Teile ans Ende der Sitzung oder in eine andere Sitzung verlagert. Außerdem werden die Teilnehmer/ innen instruiert, wie das Experiment abläuft und was ihre Aufgabe ist. Informationen zur Fragestellung der Untersuchung werden zunächst nicht gegeben, da sie das Verhalten der Teilnehmer/ innen im Experiment beeinflussen könnten. Inwiefern ist die Instruktion wichtig für die Interpretierbarkeit der Da‐ ten? Sollen Fehlerraten ermittelt werden, muss die Instruktion den Hinweis enthalten, dass möglichst korrekt geantwortet werden soll. Sollen Reaktionszeiten erfasst werden, muss der Hinweis enthalten sein, dass möglichst schnell reagiert werden soll. Andernfalls wüsste man nicht, ob der/ die Teilnehmende häufiger korrekt oder schneller hätte antworten können, und die Messung wäre nicht valide. Die Daten dürften ggf. nicht interpretiert werden. Wie die Aufgabenanordnung kann auch die Instruktion Teil der experimentellen Manipulation sein. Gilt dies nicht, soll auch die Instruktion für alle Teilnehmer/ innen gleich sein. Schriftliche Instruktionen helfen, die kommunizierten Details konstant zu halten. Bei leseungeübten Teilnehmer/ innen sind zur Reduzierung der Lesebelastung jedoch sowohl mündliche Befragungen als auch mündliche Instruktionen nach einem Leitfaden zu erwägen. Auf die Instruktion folgt das Experiment. 200 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="202"?> In einem Experiment ist eine Aufgabe oder Aufgabenkombination zumeist viele Male in Folge auszuführen. Der Wechsel zwischen der Präsentation von Stimuli und der Reaktion wird in einem sogenannten Trialschema festgelegt. Zu Beginn eines trials oder Durchgangs wird zur Fokussierung der Aufmerksamkeit häufig für einige Milli‐ sekunden ein Fixationskreuz oder -stern gezeigt, zu dem womöglich noch ein Warnton abgespielt wird. Im Anschluss wird in Leseexperimenten zumeist ein geschriebenes item, also ein Wort, Satz oder Text, auf dem Monitor präsentiert. Anzugeben ist, welche Farbe Schrift und Hintergrund haben, welche Schriftart verwendet wird, wie groß die Schrift ist und wie sie ausgerichtet ist. Häufig muss auf dieses item reagiert werden, sei es mit einer Äußerung oder per Tastendruck. Das item kann nach einem bestimmten zeitlichen Intervall noch vor der Reaktion oder unmittelbar nach der Reaktion vom Monitor verschwinden. Eventuell wird es durch ein Fixationszeichen ersetzt. Nach ei‐ nem kurzen Interstimulusintervall folgt zumeist der nächste Durchgang. Die zeitlichen Parameter, also wie lange Fixationszeichen, Ton und item präsentiert werden, wie lang etwaige Pausen sind und wie lange auf eine Reaktion gewartet wird, sind anzugeben, und auch, ob eine Rückmeldung (feedback), z. B. zur Korrektheit der Antwort, gegeben wird. In Leseexperimenten wird häufig auf eine Rückmeldung verzichtet, da diese die Verarbeitung des nächsten items oder die Reaktion darauf stören könnte. Die Aufgabe sollte vor dem Experiment in einigen Durchgängen geübt werden, damit diese bei den experimentellen items keine Schwierigkeiten bereitet. Zwischen dem Übungsblock und dem eigentlichen Experiment können noch Rückmeldungen zur Aufgabenbearbeitung gegeben werden, nicht aber in etwaigen Pausen zwischen den Experimentblöcken. Wenn es z. B. bei leseschwächeren Teilnehmer/ innen eine größere Variation in der Durchführungsdauer gibt, sollten Abbruchkriterien in Bezug auf die maximale Durchführungsdauer definiert sein. Die durchschnittliche Dauer der Sitzungen ist zu dokumentieren. Endet mit der Sitzung die Teilnahme an der Studie, besteht ein ethischer Anspruch auf Aufklärung über die Fragestellung. - Ergebnisse An dieser Stelle kann keine Einführung in die Statistik gegeben werden, sondern es soll ein grober Überblick über das Vorgehen bei der Analyse der Daten aus psycholinguistischen Experimenten gegeben werden. Für statistische Details sei auf entsprechende Einführungen verwiesen (z.-B. Albert/ Marx 2016, Gries 2021). Nachdem einige Teilnehmer/ innen das Experiment abgeschlossen haben, sollte man die Daten sichten und prüfen, ob die Messung funktioniert. Zu diesem Zeitpunkt werden ausschließlich deskriptive Daten betrachtet. Zunächst ist zu prüfen, ob der Datensatz die zu erwartende Anzahl an Daten enthält (also zum Beispiel die Anzahl der items multipliziert mit der Anzahl der Teilnehmenden). Auch sollte geprüft werden, ob es richtige und falsche Antworten gibt bzw. ob der Großteil der Reaktionszeiten inner‐ halb des Zeitlimits liegt. Treten Probleme auf, sind die methodischen und technischen Details zu überdenken und bei Bedarf anzupassen. Ggf. beginnt die Datenerhebung von Neuem, und die bis dahin erhobenen Daten sind nicht verwertbar. 5.3 Quantitative Zugänge zum Leseverstehen 201 <?page no="203"?> Dieselbe Sichtung der Daten wird nach Abschluss der Erhebung vorgenommen. Außerdem wird jetzt auch nach möglichen Effekten der experimentellen Manipulation geschaut. Übungs- und Füllmaterial wird in der Regel früh herausgefiltert. Die Anzahl gültiger und ungültiger Werte im Experiment, pro Teilnehmendem und pro item sowie pro experimenteller Bedingung wird erfasst. Eine hohe Anzahl ungültiger Werte kann zum Ausschluss der Daten einzelner Teilnehmer/ innen oder items von der weiteren Analyse führen. Ein solches Vorgehen ist zu begründen. Als Faustregel gilt, dass nicht mehr als 5 % der in den experimentellen Bedingungen erfassten Daten von der weiteren Analyse ausgeschlossen werden sollten. An die Sichtung der Daten schließt sich die deskriptive Analyse an. Zur deskrip‐ tiven Statistik gehören z. B. bei richtigen vs. falschen Antworten die Anzahl der Werte pro Antwortkategorie und experimenteller Bedingung, bei Reaktionszeiten Maße der zentralen Tendenz und der Streuung pro experimenteller Bedingung. Bei heterogenen Gruppen ist eine größere Streuung zu erwarten als bei homogenen Gruppen. Im Bericht sind zu den Leser/ innen sprechende Bedingungsbezeichnungen zu wählen. Deskriptive Daten können in Tabellen oder Abbildungen dargestellt werden. Sowohl kategoriale Antworten als auch Reaktionszeiten unterliegen einer systema‐ tischen, der experimentellen Manipulation geschuldeten Variation, sowie einer zufäl‐ ligen Variation. Um nun die systematische von der zufälligen Variation unterscheiden zu können, braucht man inferenzstatistische Verfahren. Nachdem früher über eine längere Zeit unveränderte Verfahren wie t-Tests und Varianzanalysen gerechnet wurden (vgl. Albert/ Marx 2016), haben sich inzwischen wesentlich leistungsfähigere, einer ständigen Weiterentwicklung unterworfene Modelle durchgesetzt (vgl. Gries 2021). Die Entscheidung für das eine oder andere Verfahren erfordert fortgeschrittene und auf dem aktuellen Stand gehaltene Statistikkenntnisse. Bei jedem Verfahren sind die zwei Stichproben, nämlich Teilnehmer/ innen und items, zu berücksichtigen, über die generalisiert werden soll. Kann man in psycholinguistischen Experimenten etwas beweisen? Da man es in der Regel mit universellen Aussagen (z. B. „Für alle Leser/ innen des Deutschen mit Schwierigkeiten bei der Graphem-Phonem-Zuordnung gilt, dass …“) und nicht mit Existenzaussagen (z. B. „Es gibt eine/ n Leser/ in des Deutschen mit Schwierigkeiten bei der Graphem-Phonem-Zuordnung, der/ die…“) zu tun hat, kann man die Aussage anhand einer Stichprobe (z. B. einer Gruppe von Leser/ innen des Deutschen mit Schwierigkeiten bei der Graphem-Phonem-Zu‐ ordnung) nur falsifizieren und nicht verifizieren. Verifizieren könnte man eine universelle Aussage nur, wenn man die Grundgesamtheit untersuchen würde (z. B. alle Leser/ innen des Deutschen mit Schwierigkeiten bei der Graphem-Pho‐ nem-Zuordnung). Eine Existenzaussage lässt sich dagegen wohl mit nur einem positiven Befund verifizieren, allerdings wiederum nur bei einer Untersuchung der Grundgesamtheit falsifizieren. Falsifizierte Hypothesen können modifiziert und erneut getestet werden. 202 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="204"?> Diskussion Die Diskussion oder Interpretation der Daten ist strikt vom Bericht der Ergebnisse zu trennen. Werden mehrere Experimente berichtet, schließt sich an die Diskussion des letzten Experiments in einem separaten Kapitel die Abschlussdiskussion an, die eine Interpretation aller berichteten Experimente begründet. Eine gute Diskussion greift die in der Einführung angesprochenen Theorien und Befunde auf und setzt die Befunde der aktuellen Studie dazu in Beziehung. Wird bei der Untersuchung von Stichproben ein Effekt gefunden, sind vorsichtige Formu‐ lierungen zu wählen: Die eingangs formulierten Hypothesen sind nicht bewiesen worden, sondern es sind Belege oder Evidenzen für die Hypothesen gefunden worden. Methodische Beschränkungen der Studie und etwaige Störvariablen sind explizit zu benennen, und ihr möglicher Einfluss auf die Ergebnisse ist zu diskutieren. Alternative Erklärungen für die gefundenen Effekte sind kritisch zu erörtern. Bei sogenannten Nulleffekten kann kein Effekt der Manipulation nachgewiesen werden. Da dies nicht heißt, dass die betreffende Größe keinen Einfluss auf die Grundgesamtheit hat, dürfen Nulleffekte nicht als Evidenz gegen eine Hypothese interpretiert werden. Ein Ausblick auf notwendige weitere Untersuchungen sollte sich an eine Zusammenfassung beant‐ worteter und offener Fragen anschließen. 5.3.3 Experimentelle Paradigmen Ein experimentelles Paradigma geht mit spezifischen Details der Durchführung einher, die u. a. auch das zu präsentierende Material beschränken. Es gibt eine Vielzahl von Paradigmen, mit denen sich das Lesen untersuchen lässt. Hier soll eine Auswahl vorgestellt werden, die die gängigsten Verfahren auf der Wort-, Satz- und Textebene umfasst. Insbesondere für erste Untersuchungen ist ein einfaches Verfahren zu empfeh‐ len, das mit vergleichsweise geringem zeitlichem und finanziellem Aufwand potenziell deutliche Effekte produziert. Deutliche Effekte sollten relativ robust gegenüber der größeren Variation der Reaktionszeiten sein, die in heterogenen Gruppen zu erwarten ist. - Lautes Lesen Das laute Lesen von bekannten Wörtern gelingt geübten Leser/ innen scheinbar mühelos. Beginnenden oder anderweitig ungeübten Leser/ innen sowie Menschen mit einer spezifischen Lesestörung bereitet das laute Lesen von Wörtern jedoch unter Umständen Schwierigkeiten. Die auftretenden Fehler werden diagnostisch genutzt, zum Beispiel im Rahmen von Tests zum schulischen Leseerwerb oder zur Feststellung von Lesestörungen aufgrund neurologischer Erkrankungen. Verwendet man lautes Lesen als experimentelles Paradigma zur Untersuchung der Worterkennung (vgl. Forster/ Chambers 1973), werden mindestens bei geübten Leser/ innen weniger die Fehler betrachtet als die Reaktionszeiten. Die englische 5.3 Quantitative Zugänge zum Leseverstehen 203 <?page no="205"?> Bezeichnung als naming ist potentiell irreführend, da nicht das Benennen von Bildern oder Objekten gemeint ist (engl. picture/ object naming), sondern das laute Lesen von Wörtern (auch word naming). Den Teilnehmer/ innen wird ein Wort auf dem Monitor gezeigt, das sie möglichst schnell laut lesen sollen. Die Artikulationslatenz wird im Signal oder mittels voice key gemessen. Das Wort kann bis zum Artikulationseinsatz zu sehen sein oder nach einem festgelegten Intervall bereits vor dem frühsten erwarteten Artikulationsbeginn vom Monitor verschwinden. Mit der Messung der Artikulationslatenz sind generell methodische Probleme verbunden. Zum einen ist die Artikulationsart des Lauts am Wortanfang ein Störfaktor, der bei der Materialerstellung kontrolliert werden muss. So sollten z. B. Onsets mit einem Plosiv gleich häufig in den verschiedenen experimentellen Bedingungen vorkommen. Zum anderen unterscheidet das Messgerät nicht zwischen dem Beginn der Artikulation des Worts und nicht-sprachlichen Geräuschen wie z. B. einem Räuspern oder Schmatzen. Folglich sollte auch bei Verwendung eines voice keys immer eine Audioaufnahme mitlaufen, sodass die Messung mit Signalen in der Aufnahme abgeglichen werden kann. In dem experimentellen Paradigma wurden bereits verschiedene Effekte nachge‐ wiesen (vgl. Balota/ Yap/ Cortese 2006, Kap. 2.1.3), so Längen- und Frequenzeffekte. Scheerer (1987) hat für das Deutsche lautes Lesen von Lehnwörtern und nicht entlehn‐ ten Wörtern verglichen und längere Lesezeiten für Lehnwörter gefunden, die auf die orthographische Irregularität zurückgeführt werden. In einer Primingstudie zum lauten Lesen von morphologisch komplexen Wörtern im Deutschen haben Drews und Zwitserlood (1995) lediglich orthographische, aber keine morphologischen Effekte gefunden. Sie argumentieren dafür, dass lautes Lesen Effekte erfasst, die bei der phonologischen Dekodierung ohne lexikalischen Zugriff entstehen. Der Fokus des experimentellen Paradigmas liegt demnach auf der Verbindung zwischen graphemati‐ scher und phonologischer Repräsentation (Yap/ Balota 2015: 31) und hier genauer auf der Dekodiergenauigkeit und Automatisierung. Damit sollte sich das Paradigma auch dazu eignen, bei weniger geübten Leser/ innen das laute Lesen auf der nicht-lexikalischen Route experimentell zu untersuchen. Entsprechende Studien stehen unseres Wissens noch aus. - Lexikalisches Entscheiden Eine Alternative zum lauten Lesen ist das visuelle lexikalische Entscheiden. Hier wer‐ den Buchstabenketten auf dem Monitor präsentiert; die Aufgabe der Teilnehmenden ist es, möglichst schnell und möglichst richtig zu entscheiden, ob es sich bei der Buchstabenkette um ein z. B. im Deutschen existierendes Wort handelt oder nicht. Die Antwort erfolgt per Tastendruck. Anders als beim lauten Lesen, das über phonologisches Dekodieren lösbar ist, muss für die Entscheidung über den Wortstatus auf das mentale Lexikon zugegriffen werden. Entsprechend eignet sich das Paradigma zum Beispiel zur Beantwortung der Frage, ob morphologisch komplexe Wörter erst erkannt werden, nachdem sie in ihre 204 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="206"?> Bestandteile zerlegt wurden (Drews/ Zwitserlood 1995). Eine detailliertere Diskussion der Unterschiede zwischen dem Paradigma des lauten Lesens und dem des visuellen lexikalischen Entscheidens findet sich bei Balota/ Yap/ Cortese (2006). Damit die lexikalische Entscheidung relevant und für die Teilnehmenden nicht vor‐ hersagbar ist, werden je zur Hälfte existierende Wörter und Pseudowörter präsentiert. Pseudowörter sind phonologisch und orthographisch regulär, sodass ihr lexikalischer Status nicht an der Form ablesbar ist, sondern erst mit dem Zugriff auf das mentale Lexikon entschieden werden kann. Die Fragestellung bezieht sich in der Regel auf die existierenden Wörter und bedingt hier weitere Manipulationen. Diese können verschiedene Form- und Bedeutungsa‐ spekte umfassen (Yap/ Balota 2015). So kann zum Beispiel die Länge der Wortformen, ihre Vorkommenshäufigkeit, die bereits angesprochene morphologische Komplexität oder die Konkretheit der Bedeutung variiert werden (siehe Kap. 3.1). Da eine Vielzahl itemspezifischer Faktoren Einfluss auf lexikalische Entscheidungen nimmt, sind diese Faktoren, sofern sie nicht Teil der experimentellen Manipulation sind, als Störfaktoren zu kontrollieren. Wie beim lauten Lesen handelt es sich auch beim lexikalischen Entscheiden um eine kostengünstige Methode. Als technische Ausstattung wird nur ein Rechner mit Experimentalsoftware, Monitor und Tastatur benötigt, sofern verfügbar sollten die Reaktionen per Tastenblock erfasst werden. Die Buchstabenketten werden zentral auf dem Monitor gezeigt und verschwinden entweder nach einem bestimmten Zeitintervall oder bei einem Tastendruck wieder. Die Teilnehmenden sollen in der Regel leise lesen, ungeübte Leser/ innen evtl. auch laut, und möglichst schnell z. B. die rechte Taste drücken, wenn ihnen ein existierendes Wort gezeigt wird, bzw. die linke Taste, wenn ihnen ein nicht existierendes Wort gezeigt wird. Idealerweise erfolgt die für die Fragestellung relevante Entscheidung per Tastendruck mit der dominanten Hand. Wird die lexikalische Entscheidungsaufgabe mit einer Priming-Manipulation kombiniert, erscheint vor der Buchstabenkette ein sogenannter Prime, der entweder zum Zielwort relatiert ist oder nicht. Gemessen wird dann, ob der Prime die Antworten beeinflusst. Bei morphologischen Fragestellungen hat es sich bewährt (vgl. Forster/ Mohan/ Hector 2003), den Prime nur sehr kurz (ca. 60 ms, die genaue Dauer ist in Abhängigkeit von der Bildwiederholungsfrequenz des Monitors zu bestimmen) zu präsentieren und zu maskieren. Die Teilnehmenden sehen dann bewusst nur eine Maske (z. B. ########) gefolgt von einer Buchstabenkette (z. B. Handtuch) zur lexikalischen Entscheidung. Die Präsentation der Maske wurde aber kurz durch die Präsentation eines morphologisch relatierten Primes (z.-B. Tuch) unterbrochen. Gemessen werden neben Fehlern bei der lexikalischen Entscheidung Reaktions‐ zeiten für richtige Antworten. Trifft eine Person viele falsch positive Entscheidungen bei Pseudowörtern oder entscheidet sie sogar auf Zufallsniveau, sind ihre Entschei‐ dungen nicht zuverlässig, und auch die korrekten Antworten dürfen nicht ausgewertet werden. 5.3 Quantitative Zugänge zum Leseverstehen 205 <?page no="207"?> Typischerweise nehmen an Experimenten zum visuellen lexikalischen Entscheiden Erwachsene teil, die den Leseerwerb erfolgreich abgeschlossen haben. Es konnte jedoch gezeigt werden, dass die Methode auch bei Grundschulkindern ( Jahrgänge 2 bis 4; Hasenäcker/ Schroeder 2019) sowie bei funktionalen Analphabet/ innen und Menschen mit Intelligenzminderung anwendbar ist (McKoon/ Ratcliff 2016, Pappert/ Bock 2020). Grundschüler/ innen sind sogar für kurz präsentierte maskierte morphologische Primes sensitiv (Hasenäcker/ Beyersmann/ Schroeder 2020). Künftige Studien werden zeigen, inwiefern dies auch für andere ungeübte Leser/ innengruppen gilt und ob ggf. die Präsentationsdauer der Primes angepasst werden muss. - Self-paced reading Beim self-paced reading, auf Deutsch auch zeitlich selbstbestimmte Textdarbie‐ tung (Günther 1989), handelt es sich um eine vergleichsweise einfache Methode zur Erhebung von Lesezeiten für Sätze und Texte. Teilnehmende lesen einen Satz oder Text, indem sie durch Drücken einer Taste das jeweils nächste Segment, in der Regel ein Wort oder eine Phrase, anfordern. Die Reaktionszeiten vom Erscheinen eines Seg‐ ments bis zum Tastendruck zur Anforderung des nächsten Segments werden als Maß für den Verarbeitungsaufwand für das betreffende Segment interpretiert. Prinzipiell lassen sich Daten zu lexikalischen, syntaktischen, semantischen, pragmatischen und textuellen Fragestellungen erheben. Besonders häufig wird self-paced reading jedoch zur Untersuchung von Effekten auf der Satzebene verwendet ( Jegerski 2014). Typischerweise werden die unabhängigen Variablen im präsentierten Material manipuliert. Die Manipulation kann zum Beispiel den Kontext betreffen, in dem ein Satz präsentiert wird. Gegebenenfalls können Lesezeiten für identische Sätze bzw. Wörter oder Phrasen verglichen werden. Häufiger betrifft die Manipulation aber einen Satz, sodass Lesezeiten für kritische Segmente verglichen werden, die sich zum Beispiel in einem Wort unterscheiden. Gegebenenfalls sind Unterschiede in der Wortlänge oder Vorkommenshäufigkeit als Störvariablen zu beachten, wobei Wortlängenun‐ terschiede mit den Reaktionszeiten annäherungsweise verrechnet werden können (Ferreira/ Clifton 1986). Enthält ein Satz ein Wort mehr als der andere, muss entschieden werden, wie mit den Lesezeiten für dieses Wort umgegangen wird. Eine Lösung liegt in der phrasenweisen Präsentation und der Berücksichtigung der Wortanzahl als Störvariable. Erwartet wird, dass jedes zusätzliche Wort in der Phrase einen Anstieg der Lesezeit bedingt. Wenn dennoch kürzere Lesezeiten gefunden werden, kann der Effekt nicht auf die Störvariable zurückgeführt werden (z. B. The horse [that was] raced past the barn fell). Sollen Lesezeiten am Satzende gemessen werden, ist mit längeren Lesezeiten aufgrund der einsetzenden Satzinterpretation zu rechnen. Diese wrap up-Effekte können unter Umständen mit einem „Nachklapp“ am Satzende umgangen werden (Bader 1996). Werden längere Sätze präsentiert, ist zudem ein Zeilenumbruch einzuplanen, der nicht mit dem kritischen Segment zusammenfallen sollte, da auch hier störende Prozesse auftreten können. 206 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="208"?> Wie für lexikalische Entscheidungsexperimente wird für self-paced reading-Experimente keine besondere technische Ausstattung benötigt. Genutzt werden kann ein Rechner mit Experimentalsoftware, Monitor und Tastatur bzw. einem externen Tastenblock. Es gibt verschiedene Arten, wie die zu lesenden Sätze oder Texte angezeigt werden (Günther 1989). Zunächst ist zwischen einem stationären und einem beweglichen Fenster zu unterscheiden (Abb. 21). Bei einem stationären Fenster wird der Satz oder Text nach einem Fixationszeichen segmentweise in einer zentralen Position auf dem Monitor präsentiert. Ein Wort oder eine Phrase ersetzt dann jeweils das zuvor gelesene Wort oder die zuvor gelesene Phrase. Wird dagegen ein bewegliches Fenster gewählt, erscheinen die Segmente nacheinander in Leserichtung auf dem Bildschirm. Dabei ist wiederum zwischen einer kumulativen und einer nicht kumulativen Präsentations‐ weise zu unterscheiden. Bei der kumulativen Präsentationsweise ist mit jedem Tastendruck ein zusätzliches Segment zu sehen, und die zuvor angeforderten Segmente des Satzes oder Textes werden weiterhin auf dem Monitor gezeigt. Da Teilnehmende bei der kumulativen Präsentation aber dazu neigen, erst einen gesamten Satz anzufordern, bevor sie mit dem Lesen beginnen, und dann die Lesezeiten nicht mehr sinnvoll einzelnen Segmenten zuzuordnen sind, wird von dieser Präsentationsweise abgeraten ( Jegerski 2014). Stattdessen ist eine nicht-kumulative Präsentation zu wählen, bei der das zuletzt angeforderte Segment verschwindet, wenn das nächste Segment erscheint. Masken wie Rautenzeichen oder Unterstriche anstelle von Buchstaben können die Positionen der bereits oder noch nicht gelesenen Wörter markieren. Damit die Position der Masken bzw. Wörter und Phrasen nicht mit den angezeigten Zeichen variiert, ist eine nicht skalierbare Schrift wie z. B. Courier New zu wählen. Wenn Leer- und Satzzeichen nicht maskiert werden, sondern erhalten bleiben, liefern sie Informationen über die Wort- und Satzlänge, die auch beim natürlichen parafovealen Lesen (siehe Kap. 2.1.2) verfügbar werden. Abb. 21: Illustration der wortweisen Präsentation mit stationärem Fenster (oben) und mit beweglichem Fenster und Maske (unten). 5.3 Quantitative Zugänge zum Leseverstehen 207 <?page no="209"?> Eine Studie belegt, dass ein self-paced reading-Experiment, in dem Sätze in einem beweglichen Fenster nicht-kumulativ mit Maske präsentiert werden, Effekte ähnlich gut erfasst wie ein Experiment mit Blickbewegungsmessung ( Just/ Carpenter/ Wooley 1982). Spezifisch für das Paradigma sind den Autor/ innen zufolge jedoch sogenannte spill over-Effekte, bei denen sich z. B. eine Verarbeitungsschwierigkeit nicht unmit‐ telbar in den Lesezeiten für das kritische Segment, sondern erst in den Lesezeiten für das folgende Segment zeigt. Die Teilnehmenden werden instruiert, dass sie das jeweils nächste Segment mög‐ lichst schnell per Tastendruck anfordern sollen, dass sie aber auch darauf achten sollen, dass sie das Gelesene verstehen. Eine Zusatzaufgabe wie das Beantworten von Entscheidungsfragen zum Inhalt erlaubt es der Versuchsleitung, die Verstehensleistung der Teilnehmenden zu kontrollieren. Zu beachten ist jedoch, dass Antwortfehler auf Verarbeitungsschwierigkeiten beim Lesen des Satzes bzw. Texts oder der Frage zurückzuführen sein können. Soll die zusätzliche Lesebelastung minimiert werden, ist alternativ die Präsentation von sogenannten probe words zu erwägen. Die Teilneh‐ menden sollen dann entscheiden, ob ein gezeigtes Wort im zuvor Gelesenen vorkam (vgl. Mesch/ Pappert 2021). Mit (fortgeschrittenen) Fremdsprachlerner/ innen wurden bereits zahlreiche self-pa‐ ced reading-Experimente durchgeführt ( Jegerski 2014). Inzwischen liegen auch Studien vor, die das Paradigma mit Grundschüler/ innen ab dem zweiten Schuljahr erfolgreich anwenden (Schimke 2015, Mesch/ Pappert 2021). Dagegen ist zur Durchführbarkeit mit den Zielgruppen für Leichte Sprache insgesamt noch recht wenig bekannt. Allerdings liegt eine Studie vor, in der gering Literalisierte zunächst einen Text ohne Lesezeitmes‐ sung gelesen haben und dann die Entscheidungszeit über eine Satzaussage zum Text erfasst wurde (McKoon/ Ratcliff 2018). Exkurs: Leseflüssigkeit Von der Lesezeitmessung zur Erfassung überindividueller Prozesse beim typi‐ scherweise leisen Lesen sind Verfahren abzugrenzen, die die individuelle Ge‐ schwindigkeit des lauten Lesens diagnostisch erfassen. In Tests der Leseflüssigkeit werden mit der Automatisierung und der Genauigkeit sowie mit der Geschwin‐ digkeit und Intonation Indikatoren erfasst, die einen ersten Aufschluss über die Leseleistungen auf der Wort- und Satzebene geben (Rosebrock/ Gold 2018). - Blickbewegungsmessung beim Lesen Der Tastendruck beim self-paced reading ist eine vermittelte Reaktion, da sie nicht das Lesen selbst erfasst, sondern zusätzlich noch die Entscheidung zur Anforderung des nächsten Segments und die motorische Reaktion einschließt. Wesentlich direkter lässt sich das Lesen mittels Blickbewegungsmessung (engl. eye tracking) untersuchen (zu den physiologischen Grundlagen siehe Kap. 2.1.1, für eine Einführung in die Methode siehe Günther 1989; Radach/ Günther/ Huestegge 2012). Bei der Blickbewegungsmes‐ 208 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="210"?> sung lesen die Teilnehmenden typischerweise auf dem Monitor präsentierte Sätze oder Texte, währenddessen die Fixationen auf vordefinierten Segmenten erfasst werden. Die Teilnehmenden müssen in der Regel als Zusatzaufgabe wie beim self-paced reading Inhaltsfragen zum Gelesenen beantworten, damit sie das Präsentierte auch sorgfältig lesen. Häufig werden tatsächlich innerhalb einer Studie beide Methoden kombiniert, sodass nacheinander ein self-paced reading Experiment und ein Experiment zur Blick‐ bewegungsmessung beim Lesen durchgeführt werden. Sind Fragestellung und Material identisch, ist darauf zu achten, dass niemand an beiden Experimenten teilnimmt. Die Ergebnisse sind in Bezug auf die Gesamtlesezeiten häufig ähnlich, allerdings erlaubt die Blickbewegungsmessung mit verschiedenen Maßen auch eine zeitliche Auflösung der am Lesen beteiligten Prozesse. Anders als beim self-paced reading werden bei der Blickbewegungsmessung Regressionen nicht unterbunden, sondern werden als relevante Maße zum Beispiel für Verstehensschwierigkeiten ausgewertet. Insgesamt bildet die Methode damit auch besser die natürliche Lesesituation ab. Exkurs: Blickbewegungsmessung im visual world-Paradigma In psycholinguistischen Studien wird nicht nur das Lesen mittels Blickbewegungs‐ messung untersucht, sondern auch die auditive Sprachverarbeitung sowie die Satzproduktion (vgl. Kaiser 2013). In Experimenten zur auditiven Sprachverarbeitung hören die Teilnehmenden z. B. einen Satz und sehen gleichzeitig eine visuelle Szene (engl. visual world), die potenzielle Referenten enthält. Die Referenten können in einem Bild oder als reale Objekte z. B. in einer vier-Felder-Anordnung auf einem Tisch präsentiert werden, sodass auch kleine Handlungen ausgeführt werden können. Fixationen auf Referenten werden zum Gehörten in Beziehung gesetzt. So lässt sich z. B. ermitteln, aufgrund welcher sprachlicher Informationen der/ die Teilnehmende einen Referenten identifiziert. In Satzproduktionsaufgaben mit Blickbewegungsmessung wird in der Regel eine Bildbeschreibungsaufgabe gestellt. Gemessen werden auch hier Fixationen auf den dargebotenen Referenten. Angenommen wird, dass die Teilnehmenden die Referenten fixieren, deren Versprachlichung sie planen. Die entsprechenden Prozesse lassen sich also noch vor der Artikulation erfassen. Anders als bei den zuvor vorgestellten experimentellen Paradigmen braucht man für die Durchführung eines Experiments zur Blickbewegungsmessung eine über einen Rechner mit Monitor und eine Experimentalsoftware hinausgehende besondere technische Ausstattung. Diese besteht aus dem Gerät zur Blickbewegungsmessung (engl. eye tracker) und einem Computer zur Verarbeitung der Blickbewegungsdaten zusätzlich zu jenem Computer, der die visuelle Satz- oder Textpräsentation steuert. Die Steuerung des Geräts und die Koordinierung der Informationen zwischen den beiden Rechnern erfolgen über eine spezielle Software. Zu den zusätzlichen Kosten für die Geräte kommt ein höherer Zeitaufwand für die aufwendigere Datenaufbereitung. 5.3 Quantitative Zugänge zum Leseverstehen 209 <?page no="211"?> Es sind verschiedene Geräte verfügbar. Zunächst sind stationäre Geräte zur Nut‐ zung im Labor von tragbaren Geräten zu unterscheiden, die die Untersuchung der Leseprozesse in einer vertrauten Umgebung und unter natürlicheren Bedingungen wie z. B. im Klassenzimmer erlauben. Die Geräte unterscheiden sich zudem in ihrem generellen Aufbau und den damit verbundenen Bewegungseinschränkungen. Ältere Blickbewegungsmessungsgeräte gewinnen eine hohe Messgenauigkeit durch eine besonders starre Apparatur. Der Kopf des Lesenden wird durch eine Kinn- und eine Stirnstütze weitestgehend fixiert, unter Umständen wird sogar noch ein individuelles Mundstück angefertigt, auf das die Teilnehmenden während der Messung beißen sollen und das für eine besondere Fixierung sorgt (vgl. Rayner/ Sereno 1994). Ein deutliches Mehr an Bewegungsfreiheit bringen Geräte, die wie ein Helm auf dem Kopf getragen werden (engl. head-mounted) und die nicht nur mittels auf Bügeln unterhalb der Augen justierbarer Kameras die Augenbewegungen erfassen, sondern mit zusätzlichen Kameras auch die relative Position des Kopfes zum Monitor bestimmen, sodass Kopfbewegungen mit Blickbewegungen verrechnet werden können. Unter Umständen ist die Verwendung der Helme jedoch bei jüngeren Kindern oder motorisch unruhigen Personen problematisch. Mit zunehmender Rechenleistung lassen sich inzwischen auch Blickbewegungen beim Lesen mit sogenannten remote-Systemen erfassen, die unterhalb des Monitors angebracht werden und die Teilnehmenden nicht zusätzlich zur Lesesituation in ihren Bewegungen einschränken. Gemessen wird z.-B. die Reflektion infraroten Lichts durch die Cornea und/ oder Pupille. Erfasst werden entweder die Fixationen beider Augen oder die des dominanten Auges, das zuvor in einem Test identifiziert wurde. Vor der Messung der Blickbe‐ wegungen beim Lesen und evtl. auch in Pausen während des Experiments sind Kalibrierungen zur Verrechnung von Augen- und Blickpositionen notwendig, bei denen die Teilnehmenden in verschiedenen Bildschirmpositionen präsentierte Punkte fixieren sollen. In Experimenten ermöglichen die Geräte nicht nur die Erfassung der Blickbewegungen beim Lesen, sondern auch eine fixationsabhängige Manipulation des zu lesenden Texts. So können verschwommene vs. scharfe Zeichen präsentiert werden (Radach/ Günther/ Huestegge 2012), oder ein Wort kann durch ein anderes ersetzt werden (Rayner 1998). In beiden Fällen werden parafoveal und foveal unterschiedliche Informationen verfügbar. Von der Erfassung von Augenpositionen mit einer bestimmten Abtastrate zur Identi‐ fikation verarbeitungsrelevanter Blickbewegungen sind verschiedene Datenverarbei‐ tungsschritte zu vollziehen. Hierzu gehört die Unterscheidung von physiologischen Augenbewegungen und Sakkaden sowie die Korrektur der Blickpositionen aufgrund der Kalibrierungsdaten oder einer visuellen Inspektion. Auch wenn die Daten von der mit dem Gerät gelieferten Software aufbereitet werden, ist das Vorgehen exakt zu dokumentieren (vgl. Kliegl/ Laubrock 2018). In Abhängigkeit vom Material und der experimentellen Manipulation werden auswertungsrelevante Regionen im Material bestimmt (engl. areas of interest, AOIs), für die dann Maße berechnet werden, die mehrere Fixationen zusammenfassen. Gängige Maße für Lesezeiten auf Wörtern oder 210 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="212"?> Phrasen sind (a) die Dauer der ersten Fixation (engl. first fixation duration), (b) die Dauer aller Fixationen, bevor die kritische Region zum ersten Mal verlassen wird (engl. first pass reading time oder gaze duration), und (c) die aufaddierte Dauer aller Fixationen in der Region einschließlich Fixationen nach Regressionen (engl. total reading time). Zudem können Sakkadenlängen und der Durchmesser der Pupille erfasst werden. Die Methode hat ein großes Potenzial zur Erfassung von Leseprozessen in vergleichs‐ weise homogenen Gruppen. Bei der Durchführung von Experimenten mit heterogenen Lesendengruppen ist zu bedenken, dass sowohl neuromotorische Beeinträchtigungen als auch atypische Blickbewegungsmuster im Zusammenhang mit Entwicklungsdyslexien (Radach/ Günther/ Huestegge 2012) die Generalisierbarkeit und Interpretierbarkeit der Daten beschränken können (vgl. Deilen/ Schiffl 2020). Weniger subtile Blickbewegungen wie die bei der Integration von Text- und Bildinformationen können dagegen Aufschluss über individuelle Fixationsmuster geben (vgl. Bock/ Dresing 2021). - Cloze task Bei der in der Psycholinguistik verwendeten Variante des cloze task handelt es sich um eine Vervollständigungsaufgabe, bei der in einen vorgegebenen Satz ein Wort eingefügt werden soll, das aus dem bis dahin unvollständigen Satz einen semantisch und grammatisch vollständigen Satz macht. Die Tilgungen werden systematisch vorgenommen, betreffen ganze Wörter und dienen dazu, den Einfluss verschiedener Faktoren auf die Vorhersagbarkeit von Wörtern im Kontext zu bestimmen. In der Regel wird ein Satzfragment vorgegeben, an dessen Ende eine Vervollständigung einzufügen ist. Alternativ wird ein Satz mit einer Lücke in einer satzinternen Position vorgegeben. Die Teilnehmenden werden instruiert, dass die erste Vervollständigung, die ihnen einfällt, die beste ist. Hier liegt ein Problem der Aufgabe, da die Lösung nicht frei von strategischen oder sonst von den Teilnehmenden kontrollierbaren Prozessen ist. Exkurs: C-Test Die heute in der Psycholinguistik verwendete Variante weicht in der systemati‐ schen Bestimmung von Lücken von der ursprünglichen Form ab (Taylor 1953). Die ursprüngliche Variante hat in abgewandelter Form als sogenannter C-Test Eingang in die Sprachstandsfeststellungen bei Fremdsprachenlerner/ innen gefunden (vgl. http: / / www.c-test.de/ deutsch/ index.php [11.07.2022]). Bei dieser Variante werden Texte mit zahlreichen in Bezug auf sprachliche Faktoren zufäl‐ ligen Tilgungen präsentiert. Die Tilgungen folgen einem starren Muster, z. B. wird in Texten ab dem zweiten Satz bei jedem zweiten Wort die zweite Hälfte abgeschnitten. Bei mehrfachen Tilgungen pro Satz sind die im Satz enthaltenen Informationen deutlich reduziert, und entsprechend viel muss der/ die Getestete leisten, um die Lücken zu füllen. Es wird davon ausgegangen, dass der C-Test sprachliches Wissen auf verschiedenen Ebenen abfragt und so zur Bestimmung eines fertigkeitenübergreifenden Sprachstands genutzt werden kann. 5.3 Quantitative Zugänge zum Leseverstehen 211 <?page no="213"?> Ein cloze task ist ohne technische Ausstattung als Papier-und-Bleistift-Aufgabe durch‐ führbar. In der Vorbereitung von Experimenten zur Messung Ereigniskorrelierter Potenziale (siehe Kasten) wird die Aufgabe häufiger als Vortest zur Materialkonstruk‐ tion genutzt, wenn die Vorhersagbarkeit eines Worts im Kontext manipuliert werden soll. Exkurs: Experimente zur Messung Ereigniskorrelierter Potenziale (EKP) Bei der Messung Ereigniskorrelierter Potenziale (auch Ereignisrelatierter Po‐ tenziale, ERP) mittels Elektroenzephalogramm (EEG) handelt es sich um eine nicht-invasive neuropsychologische Methode. Man misst mittels Elektroden die Spannung an der Kopfhaut und erfasst Spannungsschwankungen in Ab‐ hängigkeit von einer experimentellen Manipulation. Die messbaren Spannungs‐ schwankungen sind sehr gering und müssen über die Addition vieler einzelner Messungen ermittelt werden (vgl. Kotz/ Herrmann/ Frisch 2009). Da das Verfahren empfindlich für motorische Reaktionen wie zum Beispiel Augenbewegungen oder das Drücken von Tasten ist, werden Sätze ohne Zutun der Teilnehmenden wort- oder phrasenweise in einem zentralen Fenster präsentiert (engl. rapid serial visual presentation). Werden in einem Satz sprachliche Beschränkungen verletzt, löst dies im Vergleich zu einem ähnlichen Satz ohne diese Verletzung ein spezifisches Muster in den Ereigniskorrelierten Potenzialen aus. Dies gilt z. B. für das Beispiel The pizza is too hot to cry, das im Vergleich zu demselben Satz mit eat statt cry eine Negativierung nach ca. 400 ms auslöst, die gemäß Polarität und Zeitfenster als N400 bezeichnet wird (Kutas/ Petten 1994). Neben diesem vermutlich lexikalisch vermittelten Erregungsmuster gibt es weitere Komponenten, z. B. auch solche, für die eine syntaktische Vermittlung diskutiert wird. Das Verfahren ist sehr zeitauflösend, gibt aber kaum Aufschluss auf die Lokali‐ sation der Effekte im Gehirn. Bislang liegen noch keine Erfahrungen mit hetero‐ genen Lesendengruppen vor. Empfehlungen und Desiderate zur Anwendung in der Leichte-Sprache-Forschung formulieren Borghardt/ Deilen/ Fuchs/ Gros/ Han‐ sen-Schirra/ Nagels/ Schiffl/ Sommer (2021). Vergleichsweise einfache cloze tasks könnten perspektivisch aber auch helfen, die Vorhersagbarkeit von Wörtern für spezifische Leser/ innengruppen zu untersuchen. Hier können morphologische, syntaktische und semantische Faktoren manipuliert werden. Dies lässt sich am Beispiel Morgen rauche ich meine letzte … illustrieren (siehe Kap. 2.1.4). Die Vervollständigung ist semantisch beschränkt, da ein rauchbares Objekt eingefügt werden muss. Und sie ist morphosyntaktisch beschränkt, da ein feminines Nomen im Singular eingesetzt werden muss. Die Aufgabe hat Verstehens- und Produktionsanteile und schließt potenziell verschiedene sprachliche Ebenen ein. 212 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="214"?> Weiterführende Literatur Eine sehr gut lesbare Einführung in die Tücken des Experimentierens gibt: Huber, Oswald (2019). Das psychologische Experiment: Eine Einführung (7. Aufl.). Bern: Hogrefe. Ein umfassender Überblick über die methodischen Aspekte psycholinguistischer Ex‐ perimente findet sich hier: Sichelschmidt, Lorenz/ Carbone, Elena (2003): Experimentelle Methoden. In: Gert Rickheit/ Theo Herrmann/ Werner Deutsch (Hrsg.): Psycholinguistik: Ein internationales Handbuch (S.-115- 124). Berlin: De Gruyter. Eine nicht mehr ganz neue, aber dennoch das Wesentliche zusammenfassende Einfüh‐ rung in psycholinguistische Experimente zum Lesen gibt: Günther, Udo (1989): Lesen im Experiment. Linguistische Berichte, 122, 283-320. - Aufgaben 1. Skizzieren Sie ein Experiment, in dem Sie eine selbst gewählte Regel Leichter Sprache testen. a. Formulieren Sie eine Hypothese. b. Welche Kriterien müssten Teilnehmende erfüllen? c. Wie sähe mögliches Material aus? Geben Sie ein Beispiel. d. Welches experimentelle Paradigma würden Sie wählen? e. Wie würden Sie die Teilnehmenden instruieren? f. Was sollte gemessen werden? g. Welche Ergebnisse erwarten Sie? 5.4 Qualitative Zugänge zum Leseverstehen Qualitative Verfahren zur Erfassung des Lesens und des Textverständnisses basieren häufig auf unterschiedlichen Arten von mündlichen Äußerungen der Studienteilnehmer/ innen. Einige Verfahren stellen wir vor, auch mit Blick auf Herausforderungen für die Umsetzung mit spezifischen Personenkreisen. Im ersten Kapitel 5.4.1 wird zunächst die Auswahl von Studienteilnehmer/ in‐ nen diskutiert. Kapitel 5.4.2 fasst dann unter der Überschrift des Interviews mehrere Verfahren zur Erfassung des Textverständnisses zusammen: (1) Fragen zum Text sowie (2) Wiedergabeverfahren, und zwar: freie Reproduktion, strukturierte freie Wiedergabe, Zusammenfassungen sowie gelenkte Reproduk‐ tion. Auf das Verfahren des Cued Recall (gebundene Textreproduktion) und Verifikationsverfahren wird am Rande eingegangen. Das dritte Unterkapitel 5.4.3 widmet sich dann dem Lauten Denken sowie dem Lauten Erinnern. Gerade die Beantwortung von Fragen als auch die Wiedergabeverfahren können 5.4 Qualitative Zugänge zum Leseverstehen 213 <?page no="215"?> grundsätzlich mündlich oder schriftlich durchgeführt werden. Wir beschrän‐ ken uns auf Ausführungen zur mündlichen Umsetzung. Ein wichtiger Aspekt wird es daher sein, die Rolle der an der mündlichen Interaktion beteiligten Forschungsperson zu reflektieren: als Faktor des Gesprächsverlaufs, der Hervor‐ bringung von Sinnstrukturen in der Interaktion, als Aspekt der Auswertung von Gesprächsdaten. Aufgrund des Fokus auf Mündlichkeit gehen wir in Kapitel 5.4.4 abschließend auf die Transkription mündlicher Sprachdaten ein. 5.4.1 Auswahl der Studienteilnehmer/ innen: Qualitatives Sampling Anders als repräsentative Untersuchungen greifen qualitative Untersuchungen nicht auf Zufallsstichproben zurück - und zwar nicht nur, weil sie in aller Regel wesentlich kleinere Fallzahlen untersuchen, sondern vor allem, weil sie in einer grundlegend anderen Logik Fälle auswählen. Die Logik statistisch repräsentativer Fallauswahl ist die Abbildung von Verteilungsmerkmalen einer Grundgesamtheit in einer kleineren Stichprobe durch zufällige Ziehung einer hinreichend großen Zahl an Fällen. Die Größe der Zufallsstichprobe soll dabei Verzerrungen in der Merkmalsverteilung ausgleichen. Dieser Zugang setzt u. a. voraus, dass die Verteilung bestimmter Merkmale in der Grundgesamtheit bekannt ist, und dass überhaupt festlegbar ist, was die konkrete Grundgesamtheit ist. Wie sollte man z.-B. die Grundgesamtheit bei einem repräsenta‐ tiven Korpus von Textsorten des Deutschen ermitteln? Die Korpuslinguistik legt hier entsprechend andere Auswahlprinzipien zugrunde, siehe Kapitel 5.2. Das Prinzip qualitativer Fallauswahl ist das der systematischen Kontrastierung. Auch qualitative Studien versuchen die Heterogenität eines Untersuchungsfeldes, einer „Grundgesamtheit“, zu berücksichtigen. Realisiert werden kann dies durch zwei praktische Prinzipien der Fallauswahl (des Samplings): 1. Theoretisch begründete Vorabfestlegung: Heranziehung von empirischen Fällen auf der Basis von zuvor theoretisch begründeten Merkmalsausprägungen; dabei wird eine Spanne von extrem unterschiedlichen Feldtypen aufgebaut (Kruse 2015: 248 f.). 2. Begründung der Fallauswahl im Verlauf der Datenerhebung: theoretical sam‐ pling (vgl. Glaser/ Strauss 1998). Fälle werden sukzessive und auf Basis permanent stattfindender Analyse der bereits ausgewählten Fälle im Prozess des Datenerhe‐ bungsprozesses gesampelt; Prinzip der Fallauswahl ist die maximale und minimale Variation der Fälle. Die für die Forschungsfrage relevanten Variationsmerkmale werden also erst im Verlauf des Forschungsprozesses identifiziert, außerdem sind theoretische Überlegungen für die Festlegung relevanter Merkmale von Bedeutung (Kruse 2015: 249). 214 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="216"?> Exkurs: Personenkreiskonstituierende Auswahlkriterien Bereits die Festlegung, welche Personen als zu einem bestimmten Personenkreis zugehörig verstanden werden sollen, erfordert die Definition und Begründung von Merkmalen: Die Definition von geistiger Behinderung hat sich beispielsweise in den letzten Jahrzehnten so verändert, dass eine reine Definition über eine Intelligenzminderung, und damit das Auswahlkriterium IQ, als unzureichend angesehen wird (siehe Kap. 4.1). Es ist aber wahrscheinlich nur selten möglich, im Rahmen von Studien zur Verständlichkeit von Sprache, erst eine umfassende Tes‐ tung verschiedener Kompetenzen und Fähigkeiten bei allen Studienteilnehmer/ in‐ nen durchzuführen. Die wenigsten Menschen haben zudem eine nachlesbare „Diagnose“, die sie genau diesem Personenkreis zuschreiben würden. Wie geht man also vor, wenn man Personen mit zugeschriebener geistiger Behinderung akquirieren will? Wer wird eigentlich gesucht und wo sucht man? Versteht man Behinderung auch als sozial konstituiert, liegt es nahe, nach solchen sozialen Zu- und Festschreibungen von geistiger Behinderung zu suchen und diese zum maßgeblichen Auswahlkriterium zu machen. In der Schule sind Kinder und Jugendliche dieses Personenkreises beispielsweise Etiketten wie „Förderschwer‐ punkt geistige Entwicklung“ zugeordnet. Bei Erwachsenen gibt es derartige Etiketten nicht mehr, aber es gibt Institutionen, denen Menschen mit sog. geistiger Behinderung „zugewiesen“ werden, beispielsweise Wohnheime und Werkstätten. Die Anbindung an diese Orte können dann als Auswahlkriterium dienen (siehe Beispiel unten). Eine Verallgemeinerung von Analyseergebnissen aus qualitativen Samples „hinsicht‐ lich ihrer verteilungstheoretischen Lagerung“ ist nicht das Ziel (Kruse 2015: 240): „Es wird nicht gefragt, wie oft ein bestimmter Typus (ein Muster bestimmter Merk‐ malsausprägungen […]) in der Realität vorkommt, sondern wie genau sich ein Typus aus welchen Merkmalen […] strukturiert, wie er phänomenal erscheint.“ (Kruse 2015: 240 f., Hervorhebung im Original) Ziel des Samplings ist also nicht statistische Repräsentativität, sondern qualitative Repräsentation. Beispiel Im Forschungsprojekt „LeiSA“ (Bock 2019a, Goldbach/ Bergelt 2019) wurden Leichte-Sprache-Texte hinsichtlich ihrer Verständlichkeit empirisch untersucht. Dabei wurde mit Studienteilnehmer/ innen aus zwei Personenkreisen gearbeitet: Erwachsene mit sog. geistiger Behinderung sowie gering literalisierte Erwach‐ sene. Ziel war es, die soziale Realität zu erfassen, d. h. maßgeblich für die Definition und Eingrenzung der Personenkreise waren die „Etikettierungen“ und institutio‐ nellen Zuweisungen in der Lebenswirklichkeit der Personen, da dies maßgeblich Biografien und Teilhabemöglichkeiten (vor-)bestimmt. Wer als Kind einer Schule für geistig Behinderte zugewiesen wird (und damit als geistig behindert etiket‐ tiert wird), hat beispielsweise nicht dieselbe Chance einen Schulabschluss zu 5.4 Qualitative Zugänge zum Leseverstehen 215 <?page no="217"?> erwerben, der eine Berufsausbildung ermöglicht. Das Forschungsprojekt hat sich damit dagegen entschieden, Kriterien wie den IQ, medizinische Diagnosen oder Werte aus Kompetenztests zum Auswahlkriterium für die Untersuchungsgruppe zu machen, da diese als nicht hinreichend informativ angesehen wurden bzw. ihnen nach Auffassung der Forscher/ innen ein eindimensionales Verständnis von Behinderung zugrunde liegt. Stattdessen wurden diejenigen Personen als geistig behindert/ als funktionale Analphabeten aufgefasst, die in ihrer Lebenswirklich‐ keit diese Zuweisung (mit allen biografischen Folgen) erfahren haben. Für die Akquise wurde entsprechend ein institutioneller Zugang gewählt: ● Kontakt zu Menschen mit sog. geistiger Behinderung wurde über Werkstätten für Menschen mit Behinderung (WfbM) aufgenommen; Samplingkriterien waren neben dem Schwerbehindertenstatus die zumindest zeitweise Beschäf‐ tigung in einer WfbM sowie die Etikettierung als geistig behindert am aktuel‐ len Arbeitsplatz. ● Kontakt zu gering literalisierten Erwachsenen wurde über Grundbildungs‐ kurse sowie Selbsthilfegruppen hergestellt; Samplingkriterium war hier die Zugehörigkeit zu einer dieser Institutionen, da diese darauf verweist, dass die Personen sich selbst oder ihr Umfeld sie als „defizitär“ hinsichtlich der literalen Kompetenzen wahrnehmen/ wahrnimmt. Die Leseverstehenskompetenzen beider Gruppen wurden ebenfalls erhoben und fungierten als weiteres, die Zusammensetzung der Untersuchungsgruppe diffe‐ renzierendes Samplingkriterium. Ziel war eine Untersuchungsgruppe mit mög‐ lichst heterogenen Lesekompetenzen in beiden Teilgruppen; dazu wurden suk‐ zessive Teilnehmer/ innen gesampelt: die Gatekeeper/ innen in den Organisationen empfahlen in diesem Prozess sukzessive potenzielle Studienteilnehmer/ innen auf Basis zunächst nur vermuteter Lesekompetenzen, diese wurden dann in einer Lesediagnostik genauer bestimmt. Um Studienteilnehmer/ innen für eine qualitative Untersuchung zu gewinnen, „müssen diese - so banal es klingt - erstens ausfindig gemacht, zweitens kontaktiert und drittens für das Interview gewonnen werden“ (Kruse 2015: 250). Für das „Finden“ von Studienteilnehmer/ inne/ n, also die Akquise, können je nach Forschungsfrage und konkretem Forschungsfeld folgende Strategien eingesetzt und kombiniert werden (Kruse 2015: 250 ff.): ● Schneeballsystem: Es werden Personen angesprochen, die wiederum andere Personen ansprechen sollen, die wiederum andere ansprechen sollen, um geeignete Studienteilnehmer/ innen zu finden. ● Gatekeeper/ innen bzw. Multiplikator/ innen: Insbesondere, wenn Studienteil‐ nehmer/ innen aus bestimmten Institutionen und Organisationen gesucht werden (z. B. Schulen, Werkstätten für Menschen mit Behinderung, Integrationskurse, Selbsthilfegruppen, Logopädie-Praxen), eignet sich dieser Ansatz; Gatekeeper/ in‐ 216 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="218"?> nen, also „Türöffner“, und Multiplikator/ innen können potenzielle Studienteilneh‐ mer/ innen auch von einer Teilnahme an der Untersuchung überzeugen. ● direkte Recherchestrategien: z. B. Suche über Internetpräsenzen, Telefonbü‐ cher, Aufgeben von Anzeigen in Zeitschriften und Zeitungen, Aufrufe in sozialen Medien, „pick-up“ (direktes „Aufgreifen“ vor Ort). Bei der Erstkontaktaufnahme mit den Studienteilnehmer/ innen sind jeweils angemes‐ sene Kanäle und Formen zu wählen. Bei Menschen mit sog. geistiger Behinderung und anderen marginalisierten Gruppen bietet es sich beispielsweise an, ein erstes persönliches Treffen (individuell oder in Gruppe) anzusetzen, in dem das Projekt vorgestellt wird, Ablauf der Studie, Umgang mit den Daten (siehe Kap. 5.6) etc. erläutert werden und Möglichkeiten zur Rückfrage gegeben werden. Um Personen für ein Forschungsprojekt zu gewinnen, muss berücksichtigt werden, dass sie sich in der Regel folgende Fragen stellen (in Anlehnung an Kruse 2015: 254): ● Was ist das für ein Projekt, warum und wozu wird es gemacht? ● Wieso soll gerade ich mitmachen und nicht jemand anderes, und was habe ich davon? ● Was genau muss ich in der Untersuchung machen? ● Was passiert mit meinen Daten? Für ein Beispiel-Infoschreiben zur Gestaltung der Erstkontaktaufnahme (im sozialwis‐ senschaftlichen Kontext) vgl. Kruse 2015: 258. 5.4.2 Interviews: Fragen zum Text, Wiedergabeverfahren Unter Mitarbeit von Janine Kaczmarzik - Überblick über Verfahren Die beiden qualitativen Verfahren, die in diesem Kapitel im Mittelpunkt stehen, können unterschiedlich umgesetzt werden - je nachdem, welche Ebene oder Facette des individuellen Textverständnisses fokussiert werden soll. Sowohl bei der Beant‐ wortung von Fragen zum Text nach der Lektüre als auch bei Wiedergabeverfahren muss das individuelle Textverständnis eines/ einer Befragten aus den Äußerungen erst rekonstruiert werden. Christmann ordnet beide als Methoden zur Erhebung „textferner“ Verstehensprodukte ein, d. h. es geht nicht nur darum, das Verständnis des unmittelbaren Text-Sinngehalts durch die befragte Person zu erfassen, sondern darüber hinaus auch etwas darüber zu erfahren, wie sie Textinformationen in das eigene Wissenssystem integriert (Christmann 2009: 192). Sichtbar wird dies z. B. darin, dass die Person sich bei der Beantwortung der Fragen bzw. der Wiedergabe von der Textoberfläche, insbesondere den Formulierungen, löst und diese nicht bloß reproduziert. 5.4 Qualitative Zugänge zum Leseverstehen 217 <?page no="219"?> Auf Basis von Christmanns Darstellung charakterisieren wir nun die zwei Verfahren aus der empirischen Verständlichkeitsforschung: - (1) Fragen zum Text Mit einer Befragung nach der Textlektüre kann entweder das erworbene Fakten- und Zusammenhangswissen erhoben werden (wissensorientierte Fragen: „Abfragen“ von Inhalten), oder es kann die individuelle Integration ins Wissenssystem der Befragten, also das tiefere Textverständnis, überprüft werden (verständnisorientierte Fragen) (Christmann 2009: 192). Fragen können zudem auf unterschiedliche Textebenen zielen: 1. auf die Mikrostruktur des Textes (z. B. Wortverstehen, lokale Kohärenz, zentrale Konzepte des Textes, Wer-Fragen), 2. auf die Makrostruktur des Textes (z. B. globale Kohärenz, Zusammenfassung des Gesamttextes, Fragen zum Textaufbau), 3. auf das Situationsmodell (siehe Kap. 2.2.2; z. B. Erklärfragen, Anwendungsfragen, Bewertungsfragen, Fragen zur pragmatischen Einbettung des Textes, zur Textfunktion) (Christmann 2009: 192 f.). Das tiefere Textverständnis kann nur mit Fragen erfasst wer‐ den, die auch auf das Situationsmodell zielen. Es bieten sich insbesondere solche Fragen an, die verlangen, dass die Befragten Inferenzen ziehen, also nicht lediglich direkt im Text ausgedrückte Propositionen wiedergeben (z. B. Fragen zu typischen Verwen‐ dungskontexten eines Textes, Warum- und Wie-Fragen zu Textinhalten) (Christmann 2009: 193). - (2) Wiedergabeverfahren Mit einer Aufforderung zur freien Wiedergabe kann man sich der individuellen Textsinn-Repräsentation, also dem jeweiligen Gesamttextverständnis, annähern. Es gibt vier Verfahren, die besonders gängig sind (Christmann 2009: 193 f.): ● Freie Reproduktion: Die Befragten werden aufgefordert, den Gesamtsinn des Textes so genau und so vollständig wie möglich wiederzugeben. ● Strukturierte freie Wiedergabe: Die Aufforderung zur möglichst genauen und vollständigen Wiedergabe wird durch eine vorgegebene Strukturierung unter‐ stützt: Diese Strukturierung kann entweder in einem inhaltlichen Raster (z. B. Teilthemen, thematische Aspekte) oder in einem strukturellen Raster (z. B. „Allge‐ meine Aussagen - Details - Beispiele - Anwendungen“ etc.) bestehen. Bei der mündlichen Durchführung bietet es sich zur Entlastung des Arbeitsgedächtnisses der Befragten an, die Rasterstruktur visuell vorzulegen. ● Zusammenfassungen: Bei längeren Texten und je nach Forschungsfrage ist es sinnvoll, nicht um eine möglichst genaue und vollständige Wiedergabe zu bitten, sondern von den Befragten eine möglichst treffende Zusammenfassung des gelesenen Textes zu fordern. Dies erfordert, dass diese erfassen und wieder‐ geben können, was der inhaltliche Kern des Textes ist, dass sie Informationen selektieren, gewichten, integrieren, verdichten, generalisieren und in den Kontext setzen. Zusammenfassungen können so zeigen, wie ein Text verstanden wurde, 218 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="220"?> welche Informationen als besonders wichtig angesehen und behalten wurden. Eine entlastende Variante stellen vorgegebene Zusammenfassungen mit Auslassungen dar, die von den Befragten zu ergänzen sind. ● Gelenkte Reproduktion: Es werden einzelne Wörter bzw. Wortfolgen (z. B. Satz‐ anfänge) vorgegeben und die Befragten werden gebeten, die Satzanfänge auf Basis des Gelesenen fortzusetzen (auch Satz-Ergänzungs-Methode). Im Unterschied zur freien Reproduktion haben die Befragten hier weniger Spielraum, welche Inhalte sie wiedergeben, auch die Form ist vorgegeben. Sicherzustellen ist, dass die vorgegebenen Formulierungen für die Studienteilnehmer/ innen verständlich sind und der Bezug zum Text für sie erkennbar ist. Bei allen Wiedergabeverfahren kann die Auswertung quantitativ oder qualitativ erfol‐ gen: Bei der quantitativen Auswertung erfolgt eine rein inhaltsorientierte Analyse der Gesprächsdaten, indem ausgezählt wird, wie viele semantische Einheiten reproduziert wurden. Dies setzt voraus, dass der gelesene Text für die Auswertung analytisch in ent‐ sprechende Einheiten (Propositionen, Teilthemen, Satzinformationen,-…) zerlegt wird (Christmann 2009: 194). Die qualitative Auswertung setzt, immer in Abhängigkeit vom jeweiligen Erkenntnisinteresse, deduktive und induktive Kategorienbildung voraus (vgl. für einen Überblick über Auswertungsparadigmen Kruse 2015); generelle Fragen sind: Wie inhaltlich angemessen sind die geäußerten Assoziationen, wie stringent und plausibel, wie kohärent und vernetzt werden die Wissenselemente verbalisiert (Christ‐ mann 2009: 194)? Wenn die Wiedergabe nicht rein monologisch (bspw. als Reaktion auf einen schriftlichen Impuls), sondern - z. B. durch eine initiale Frage oder Aufforderung, durch Nachfragen, Bitten um Elaborierung, Strukturvorgaben, und insbesondere auch Rückmeldeaktivitäten seitens der Interviewer - als Gesprächsinteraktion realisiert wird, sollten ergänzend zur inhaltsbezogenen Analyse gesprächsanalytische Aspekte berücksichtigt werden (siehe die folgenden Abschnitte des Kapitels). Exkurs: Weitere qualitative Verfahren Cued Recall (gebundene Textreproduktion): Bei diesem Zugang wird anders als bei den genannten Befragungs- und Wiedergabeverfahren lediglich das punk‐ tuelle Verständnis erhoben (Christmann 2009: 189). Es wird nach der Lektüre ein Wort („cue“) vorgegeben und dazu aufgefordert, denjenigen Satz des Textes zu reproduzieren, in dem das Wort vorgekommen ist. Es sollen also lokale Informa‐ tionen in isolierter Weise reproduziert werden. Das Verfahren ist ökonomisch in Durchführung und Auswertung, allerdings erlaubt es keine Rückschlüsse auf das tiefere Textverständnis und die individuelle Integration ins Wissenssystem. Verifikationsverfahren werden bei Christmann (2009: 192) ebenfalls als Ver‐ fahren zur Erhebung „textnaher“ Verstehensprodukte eingeordnet. Vorgegebene Sätze müssen von den Studienteilnehmer/ innen hinsichtlich ihrer Richtigkeit beurteilt werden, d. h. diese müssen entscheiden, ob eine Aussage zum vorher gelesenen Text passt oder nicht (siehe Exkurs zur Problematik der Ja-Sage-Ten‐ 5.4 Qualitative Zugänge zum Leseverstehen 219 <?page no="221"?> denz S. 223f.). Die zu beurteilenden Sätze können sich dabei nicht nur auf den Textinhalt beziehen, sondern auch auf Kontext-Merkmale, also auf die Verwen‐ dungssituation des Textes. Die Erhebung der Urteile kann ergänzt werden um eine mündliche Befragung, die auf Begründungen und Elaborierungen für die getroffenen Entscheidungen zielt. - Allgemeines zum Interview als Erhebungsmethode Sowohl die Beantwortung von Fragen als auch Wiedergabeverfahren können münd‐ lich oder schriftlich durchgeführt werden. Angesichts der Zielgruppen Leichter und Einfacher Sprache beschränken wir uns auf die mündliche Umsetzung. Deshalb wählen wir das Dachkonzept des Interviews als Ausgangspunkt unserer Darstellung. Interviews dürfen zunächst einmal nicht als reine Verbalisierungen subjektiver Deutungen und Wissensbestände verstanden und analysiert werden, sondern sie müssen immer als Interaktionen verstanden werden, in denen Interviewer/ in und Studienteilnehmer/ in soziale Sinnstrukturen gemeinsam hervorbringen (vgl. Depper‐ mann 2013, Arendt 2014). Auch das sog. Prüfen in der Leichten Sprache, das teilweise als fester Bestandteil des Texterstellungsprozesses gesehen wird (siehe Kap. 1.3), kann die Form einer Befragung im Gespräch annehmen - jedoch ohne, dass dabei eine strenge methodische Umsetzung verfolgt wird. Gerade um eine solche theoretische und methodische Fundierung der Durchführung und Auswertung von Interviews zum individuellen Textverständnis geht es aber im Folgenden. Nach einer Textlektüre geführte Interviews, die Fragen zum Text oder eine Auf‐ forderung zur Wiedergabe des Verstandenen enthalten, können als introspektive Verfahren eingeordnet werden, die qualitative Daten generieren (siehe Kap. 5.1). In der Linguistik sind typischerweise Spracheinstellungen und Sprachbiografien Gegenstand von Interviews (vgl. Deppermann 2013: 2, Cuonz/ Studler 2014, König 2014). Im Kontext von Untersuchungen zum Textverständnis sind die Texte selbst sowie die subjektive Sinnkonstitution des Gelesenen (und ggf. auch der Verstehensprozess und -strategien) Gegenstand des Interviews. Arten von Interviews Neben den Verfahren zur Verständlichkeitsüberprüfung gibt es verschiedene Ar‐ ten von Interviews: etwa narrative, halbstrukturierte und szenische Interviews so‐ wie ethnografische, partnerschaftliche und fokussierte Formen (vgl. Deppermann 2013: 2, Mey/ Mruck 2020: Kap. 2.1). Sie lassen sich nach verschiedenen Kriterien differenzieren. Um diese Fülle an Varianten zu ordnen, wurden unterschiedliche Systematiken entwickelt: Hopf (2012: 351 f.) beispielsweise differenziert ● nach dem Grad der Steuerung bzw. (Vor-)Strukturierung des Interviews durch Fragen, 220 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="222"?> ● nach dem Grad der Fokussierung auf bestimmte Themen seitens des Inter‐ viewers/ der Interviewerin und ● nach der Sprachhandlung, die beim/ bei der Interviewten primär evoziert werden soll (z.-B. Narration, Bewertung, Argumentation). Helfferich (2009: 37 ff.) unterschiedet Interviewformen u. a. auch nach der Rol‐ lendefinition zwischen Interviewer/ in und Interviewten (z. B. monologisch vs. dialogisch-diskursiv). Relevant im Kontext von Verständlichkeitsuntersuchungen ist insbesondere der Grad an Offenheit und (Vor-)Strukturierung von Interviews: Offenheit und Struk‐ turierung bilden dabei zwei Pole eines Kontinuums (vgl. Kruse 2015: 218). Ein typischer Vertreter offener Interviews - solche also, die wenig durch vorab festgelegte Fragen strukturiert sind - ist das narrative Interview. Hier wird der/ dem Befragten zunächst ein Thema vorgegeben oder eine Frage gestellt, zu der er/ sie sich im Rahmen einer Spontanerzählung frei äußern sollen. Erst, wenn die Ausführungen beendet sind, soll der/ die Interviewer/ in eingreifen und gegebenenfalls weiterführende Fragen stellen (vertiefend z. B. Kruse 2015: 151 ff.). Das Leitfadeninterview ist im Gegensatz dazu stärker strukturiert. Hier greift der/ die Interviewer/ in von Anfang an stark in den Gesprächsverlauf ein, indem er/ sie Fragen aus einem zuvor festgelegten Leitfaden stellt (Helfferich 2009, zur Entwicklung von Interviewleitfäden: Kruse 2015: 209 ff.). Leitfaden-gestützte Interviews arbeiten ebenfalls mit vorab ausgearbeiteten Frageformulierungen, während der Interviewinteraktion reagiert der/ die Interviewende aber stärker auf den Gesprächsverlauf, passt die Reihenfolge der Fragen an, folgt Elaborierungen der Interviewten durch Nachfragen etc. In Interviews können „[s]ubjektive Sinngebungen der Untersuchten, die der direk‐ ten Beobachtung nicht, oder wenigstens nicht systematisch und nicht hinreichend explizit, zugänglich sind“ - wie beispielsweise individuelle Sinnkonstruktionen aus einer Textrezeption -, direkt erfragt werden (Deppermann 2013: 3 f.). Der Vorteil gegenüber Beobachtungsverfahren ist daher u. a., dass sie „genau die Informationen […] elizitieren, die für das Forschungsvorhaben interessieren“ (Deppermann 2013: 3). Somit wird der Zeitaufwand für die Durchführung planbarer. Durch systematisches Sampling der Befragten und dadurch, dass allen Teilnehmer/ innen einer Untersuchung in der Regel dieselben oder ähnliche Fragen gestellt werden, ist zudem Vergleichbarkeit gewährleistet (ebd.). Zu den methodologischen Problemen gehört jedoch die Reaktivität der Erhebung: Studienteilnehmer/ innen neigen zum Beispiel allgemein zu sozial erwünschtem Ant‐ wortverhalten; dies muss bei Durchführung und Auswertung kritisch berücksichtigt werden (siehe Exkurs S. 223f.). Außerdem gibt es eine grundsätzliche Differenz zwischen Handeln und Kognitionen einerseits und dem Berichten über Handeln und Kognitionen andererseits: „Ein einfacher Rückschluss vom Gesagten auf Kognitionen […] ist nicht möglich, es wäre ein repräsentationaler Fehlschluss“ (Deppermann 5.4 Qualitative Zugänge zum Leseverstehen 221 <?page no="223"?> 2013: 6). Ganz konkret ist bei einem Interview zur Erfassung des Textverständnisses beispielsweise zu beachten, dass bewertende Aussagen über die Verständlichkeit eines Textes (‚Der Text war gut zu verstehen.‘) nicht unbedingt identisch mit der im Leseprozess tatsächlich subjektiv wahrgenommenen Verständlichkeit sein müssen. Auch der Rückschluss auf das tatsächliche Textverständnis (Was wurde verstanden, und ist dies textsinn-adäquat? ) ist über solche bewertenden Äußerungen aus Interviews kaum möglich. Ein Vorbehalt, der teilweise gegenüber dem Einsatz von Interviews vorgebracht wird, sind beschränkte Ausdrucksfähigkeiten oder auch der beschränkte Ausdrucks‐ wille von Befragten: Es stellt sich die berechtigte Frage, inwieweit qualitative Interviews bei Zielgruppen eine unproblematische Anwendung finden können, die sprachlich weniger ausdrucksbetont sind, oder sich scheuen, über sich zu erzählen oder Dinge zu thematisieren, die aus unterschiedli‐ chen Gründen Sprachproblematiken bzw. Tabus aufweisen oder es eben nicht gewohnt sind, sich gegenüber anderen umfassend kommunikativ auszudrücken. (Kruse 2015: 282) Kruse weist jedoch ausdrücklich darauf hin, dass nicht nur Sprecher/ innen mit Erfahrung in elaborierten kommunikativen Ausdrucksformen geeignete Interview‐ partner/ innen sind, sondern dass auch „wortkarge“ Interviews Wirklichkeit teilweise prägnant zum Ausdruck bringen, z. B. auch dadurch, dass etwas nicht gesagt wird. Interviews bieten insofern Zugang zu impliziten Sinnstrukturen (Deppermann 2013: 5). Zwischen Interviewaussagen und Wirklichkeit liegen jedoch „mannigfaltige Prozesse der selektiven Encodierung und Filterung, der nachträglichen Reinterpretation vom Späteren her und der diskursiven Überformung durch soziale Darstellungskonventio‐ nen“ (Deppermann 2013: 6), die ebenfalls rekonstruiert werden müssen. Interviews sind für die Befragten keine alltägliche Routinesituationen (siehe unten zur Rahmensitua‐ tion am Beispiel von Zielgruppen Leichter Sprache). Sie generieren keine natürlichen Sprachdaten; ihre ökologische Validität ist insofern fraglich (Deppermann 2013: 7). Al‐ lerdings sind alle genannten Punkte keine methodologischen Probleme des Interviews per se: Sie werden erst angesichts bestimmter Erwartungen, welche Wirklichkeit mit Interviews erschlossen werden kann, zum Problem. Werden sie als mitkonstituierende Faktoren der Interviewinteraktion verstanden und Interviews konsequent als Inter‐ aktionen analysiert, „in denen soziale Wirklichkeit nicht abgebildet, sondern selbst aktiv hergestellt wird“, dann können die genannten Probleme „produktiv Erkenntnis generierend gewendet werden“ (Deppermann 2013: 8). Bei der Verständnisüberprüfung zielen die Interviewfragen grundsätzlich „auf das subjektive Sinnverstehen der Befragten in Bezug auf [ein bestimmtes] (Medien-) Dokument“ (zum Zusammenhang von Subjektivität des Sinnverstehens und Struktu‐ rierungsgrad des Interviews: Helfferich 2009: 38 f., Kruse 2015: 158). Dieses liegt in den Äußerungen der Befragten nicht einfach offen zutage, sondern muss rekonstruiert werden: Warum äußert sich jemand in der Weise (z. B. über einen gelesenen Text) im Interview? Nicht nur sein/ ihr subjektives Textverständnis beeinflusst, was und wie 222 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="224"?> er/ sie es sagt. Der/ Die Befragte trifft z. B. auch - nicht unbedingt bewusst - Annahmen darüber, was gegenüber dem/ der Interviewer/ in kommentar- oder erklärungsbedürftig ist, was als selbstverständlich geteiltes Wissen vorausgesetzt und deshalb gerade nicht versprachlicht werden muss usw. Exkurs: Sozial erwünschte Antworten und Ja-Sage-Tendenz Sozial erwünschtes Antwortverhalten und eine Ja-Sage-Tendenz (bei geschlosse‐ nen Fragen) sind generelle methodische Herausforderungen bei Befragungen. Insbesondere marginalisierten Personengruppen wird jedoch eine verstärkte Neigung hierzu zugeschrieben. Wenn Befragte beispielsweise Antworten geben und Reaktionen zeigen, die nicht wahrheitsgemäß und authentisch sind (z. B. bei einer Frage wie Wie oft lesen Sie? ), sondern die vor allem Ausdruck dessen sind, was die Befragten in der Situation für sozial gebilligt halten, dann spricht man von sozial erwünschtem Verhalten. „Dies fußt auf der Befürchtung, eine wahrheitsgetreue Auskunft führe zu Nachteilen oder Ablehnung. Entscheidend bei der Entstehung von s[ozialer] E[rwünschtheit] ist das Zusammenspiel der inneren Befragtenmerkmale (z. B. Motiv) und der wahrgenommenen situativen Bedingungen.“ (Wirtz 2014: 1552) In der empirischen Forschung mit Menschen mit geistiger Behinderung wird insbesondere die Ja-Sage-Tendenz, also die Tendenz, auf Ja/ Nein-Fragen signifi‐ kant häufiger mit ja zu antworten, reflektiert. Es wird darauf hingewiesen, dass dies keine generelle Disposition innerhalb dieses Personenkreises sei, sondern vielmehr auf individuelle Erfahrungen (wie z. B. Entscheidungsmöglichkeiten im Alltag, Bildungserfahrung) zurückzuführen sei, die eine solche Neigung erzeugen können (Hagen 2002: 303 f.). Methodisch zu reflektieren sei insbesondere die Frageformulierung: Eine Antworttendenz zum Ja könne auch durch Suggestivität einer Frage (die es ohnehin zu vermeiden gilt), den Fragekontext oder die Komplexität einer Frage erzeugt werden (Niediek 2015: Kap. 1). Auch wenn in einer Frageformulierung bzw. Reaktion der Interviewerin/ des Interviewers Zweifel oder Unentschiedenheit zum Ausdruck gebracht werden, neigten die Befragten eher zur Zustimmung (Hagen 2002: 294). Sozial erwünschtes Antwortverhalten wurde insbesondere in der Psycholo‐ gie im Kontext von Persönlichkeitstests diskutiert. Mummendey (1981: 207) beschreibt Kontrollmaßnahmen, die allerdings nicht in jeder Konstellation an‐ wendbar sind, darunter: 1. Kontrolle durch Itemkonstruktion, d.-h. die Antwortmöglichkeiten und auch die Fragen werden so konstruiert, dass sie hinsichtlich der Forschungsfrage wenig transparent sind und nicht klar erkennbar ist, was eine sozial er‐ wünschte Reaktion eigentlich wäre 2. Kontrolle durch Kombination von Antwortmöglichkeiten, die hinsichtlich ihres Grades sozialer Erwünschtheit ausbalanciert sind 5.4 Qualitative Zugänge zum Leseverstehen 223 <?page no="225"?> 3. Kontrolle durch Instruktion, „z.B. in Gestalt der Aufforderung, ganz besonders ehrlich zu antworten und sich nicht davon leiten zu lassen, welche Antwort sozial erwünscht und welche weniger erwünscht sei.“ (Mummendey 1981: 207) Die Bedeutung der Instruktion wird in unserem Studienbuch auch in Bezug auf Lautes Denken und Lautes Erinnern noch reflektiert (siehe Kap. 5.4.3). Eine ge‐ nerelle Möglichkeit für Studien mit marginalisierten Personenkreisen ist z. B. die explizite Vergabe einer „Experten-Rolle“ an den/ die Befragte/ n in der Instruktion (siehe unten: Abschnitt „Durchführung von Interviews und Datenauswertung“). In jedem Fall müssen Effekte sozialer Erwünschtheit in der Auswertung von Gesprächsdaten reflektiert werden. - Aspekte der Durchführung und Auswertung: Verstehen und Asymmetrie im Gespräch Zur Rahmensituation von Interviews gehört eine Asymmetrie der Beteiligtenrol‐ len: Der/ die Interviewer/ in verfügt beispielsweise über ein einseitiges Fragerecht und das ausschließliche Recht zur Themensteuerung, während der/ die Befragte ein mono‐ logisches Rederecht hat, das weit über andere Kommunikationssituationen hinausgeht; der/ die Befragte muss sich außerdem damit abfinden, dass der/ die Interviewer/ in ihr bzw. sein Verstehen zwar offenbart, aber keine eigenen Erfahrungen und Einstellungen (Deppermann 2013: 15 f.). Beim Interview mit Menschen mit sog. geistiger Behinderung und anderen Zielgruppen Leichter Sprache ist die Asymmetrie nicht nur auf Interakti‐ onsebene, sondern auch in Bezug auf andere Aspekte teils ausgeprägt vorhanden: Seien es die sprachlich-kommunikativen Ressourcen, die individuell zur Verfügung stehen, um sich auszudrücken und in die Interaktion einbringen zu können, oder sei es die wahrgenommene bzw. zugeschriebene Asymmetrie hinsichtlich der Lesekompetenzen und -gewohnheiten von Interviewer/ in und Befragten und die Tatsache, dass in dieser Konstellation Textverständnisschwierigkeiten offenbart werden sollen. Bezieht man jedoch das übergeordnete Ziel der Interviews in die Überlegungen ein, sind eben diese möglichen Asymmetrien auch eine Ressource: Die individuellen Erfahrungen und Wahrnehmungen der Befragten sind essenziell für die Erforschung von Verständlichkeit, es entsteht damit eine Notwendigkeit, sie zu verbalisieren. Sie kommen aber nicht nur explizit formuliert zum Ausdruck, sondern auch implizit. Den Befragten kann in diesem Sinne die Rollenverteilung im Interview erläutert werden, und es kann ihnen eine inhaltliche „Experten-Rolle“ ausdrücklich zugeteilt werden. Dies kann dazu beitragen, dass die Asymmetrie der Beteiligungsrollen im Interview nicht als generelle soziale Asymmetrie missverstanden wird, sondern sich nur auf die Organisation des Gesprächs in Form eines Interviews bezieht. Im Idealfall hilft dies auch, Befangenheit und Vorbehalte gegenüber der Befragung abzubauen. Möglich ist z. B. eine Instruktion zu Beginn des Interviews bzw. schon vor der Textrezeption, wie: 224 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="226"?> Dieser Text möchte besonders leicht verständlich sein. Wir möchten von Ihnen wissen, wie gut verständlich er tatsächlich ist. Nur Sie als Leser (Leserin) können uns sagen, was an dem Text gelungen ist, und was noch nicht gut verständlich ist. Wichtig ist, dass es nicht an Ihnen liegt, wenn Sie etwas nicht verstehen, sondern am Text. Wenn Sie den Text gelesen haben, stelle ich Ihnen Fragen zum Text. Es geht nicht darum, dass Sie möglichst viele richtige Antworten geben. Ich frage Sie also nicht ab, sondern es ist ein Interview, das ich mit Ihnen führe, weil sie besonders gut Auskunft geben können, wie verständlich der Text für Sie ist. Wir möchten also Ihre ganz persönliche Erfahrung mit dem Text erfassen, und hier gibt es keine richtigen oder falschen Antworten. Auch wenn die Befragten diese Experten-Rolle annehmen, können noch Effekte sozial erwünschten Antwortverhaltens eine Rolle spielen: Mangelndes Verständnis wird beispielsweise nicht direkt geäußert, sondern kaschiert, Antworten werden geraten, aus Unsicherheit wird gar keine Antwort gegeben oder inhaltlich verwandte Themen extensiv ausgeführt. Fehlende Antworten sind also „nicht ausschliesslich auf Leerstel‐ len in den inneren Ressourcen zurückzuführen […]. Naheliegend ist die Annahme, dass die im Prinzip abrufbare Information willentlich zurückgehalten wird, da ihre direkte Kommunikation für sozial nicht wünschbar gehalten wird“ (Cuonz 2010: 131). Zudem werden in der Regel nicht alle für das Verständnis einer Aussage relevanten Informationen verbalisiert - Gesagtes und Gemeintes sind also nicht deckungs‐ gleich. Verbalisiert wird v. a. das, was nicht als selbstverständlich geteiltes Wissen der konkreten Interaktionsbeteiligten vorausgesetzt werden kann. Grundlage sind die (nicht unbedingt bewussten) Annahmen der Beteiligten über gegenseitig vorhandenes Wissen. In Interviews zum Textverständnis kann dies z. B. dazu führen, dass für offen‐ sichtlich und selbstverständlich Gehaltenes von den Befragten gar nicht versprachlicht wird. Das Fehlen von erwarteten Äußerungen kann daher nicht einfach als mangelndes Textverständnis gedeutet werden. Es ist vielmehr Ausdruck einer grundsätzlichen „Unvollständigkeit“ und partiellen Vagheit: „Es ist diese immanente und typische Vagheit [von Äußerungen im Gespräch], die bewirkt, daß mehrere Hörer denselben Redebeitrag unterschiedlich interpretieren können“ (Bublitz 2001: 1331). Je weniger Übereinstimmungen in den Erfahrungsräumen der Interviewpartner/ innen existieren (common ground, vgl. Clark 1996), umso größer ist daher die Gefahr für Missverständ‐ nisse, da Unterschiedliches als selbstverständliches Wissen implizit gelassen wird. Wie kann mit den Herausforderungen bei der Durchführung und Auswertung von Interviews produktiv umgegangen werden? Zunächst einige grundsätzliche Reflexio‐ nen: In Interviews, mit denen das Textverständnis erfasst werden soll, ist Verstehen bzw. Verständlichkeit zunächst einmal auf zwei Ebenen relevant: ● auf der Ebene des Interviewgegenstands: Das Textverständnis der Befragten ist Thema des Gesprächs mit dem/ der Untersucher/ in; ● auf der Ebene der Interviewinteraktion: Das gegenseitige (Nicht-)Verstehen von Interviewer/ in und Befragten bzw. dessen Anzeige ist ein Faktor im Gesprächsver‐ lauf. 5.4 Qualitative Zugänge zum Leseverstehen 225 <?page no="227"?> Exkurs: Verstehen im Gespräch Auch die Gesprächsforschung beschäftigt sich mit Verstehensprozessen. Sie interessiert sich allerdings weniger für Verstehen als kognitiven Prozess. Ihr Ausgangspunkt sind vielmehr die in der Interaktion sicht- und hörbaren Verste‐ hensdokumentationen sowie Verstehensthematisierungen. Unter Verstehensdo‐ kumentationen versteht man all diejenigen beobachtbaren Aktivitäten, die an‐ zeigen bzw. erschließen lassen, wie eine Aktivität in einer Interaktion verstanden wurde bzw. zu verstehen ist (Deppermann 2007: 230). Verstehensdokumentatio‐ nen können explizit formuliert sein oder sich implizit erschließen lassen; sie sind selektiv und an den jeweiligen pragmatischen Gegebenheiten orientiert. Spezielle Formen, die untersucht wurden, sind z. B. Formulierungsaufnahmen, Selbst- und Fremdkorrekturen und bestimmte Interjektionen (Deppermann 2007: 257). Verstehensthematisierungen sind eine spezifische Form der Verstehensdoku‐ mentation: Hier wird der Verstehensprozess selbst bzw. sein Ergebnis explizit thematisiert; häufig werden dazu metakognitive Verben genutzt (z. B. verstehen, meinen, wissen) (Deppermann 2007: 230). Die Gesprächslinguistik hat hier v. a. die Thematisierung von Verstehen/ Nichtverstehen von Handlungen innerhalb der ak‐ tuellen Interaktion im Blick. Sie haben ein besonderes rhetorisches Potenzial und werden beispielsweise von Interaktionsbeteiligten eingesetzt, um den weiteren Gesprächsverlauf zu steuern. Bei Interviews zur Erhebung des Textverständnisses spielt dies eine Rolle; das wesentliche thematisierte Verstehensobjekt - der zuvor gelesene und von Dritten produzierte Text - liegt allerdings außerhalb der unmittelbaren Interaktionssituation. Einen breiteren Überblick zu Aspekten der mündlichen Verständigung, auch über gesprächsanalytische Perspektiven hinaus, bietet Ballstaedt (2019). Die Verstehenspflichten zwischen Interviewer/ in und Befragten sind „asymmetrisch verteilt, etwa hinsichtlich der Notwendigkeit, das gewonnene Verständnis dem Ge‐ sprächspartner anzuzeigen“ (Deppermann 2010: 9), das Frage- und Rückmeldever‐ halten seitens des Interviewers/ der Interviewerin wird methodisch kontrolliert. Er/ sie befindet sich die meiste Zeit in der Rolle des Zuhörers/ der Zuhörerin. Als solche/ r geht er/ sie prinzipiell davon aus, dass die Interviewten sich kooperativ an der Befragung be‐ teiligen und dass ihren Antworten „Bedeutung, Funktion und Kohärenz zukomm[en]“ (Bublitz 2001: 1331). Allen Äußerungen wird zunächst einmal Relevanz zugeschrieben. Eine Herausforderung ist der Umgang mit schwer verständlichen Befrag‐ ten-Aussagen. Sie können als „Störungen der Verständniszuschreibung […] je nach Ausmaß und Gewicht entweder in Erwartung späterer Klärung zunächst hingenom‐ men oder umgehend thematisiert“ werden (Bublitz 2001: 1331). Abhängig ist dies auch davon, ob eine unmittelbare Thematisierung, z. B. durch direkte Nachfrage, von den Befragten als face-bedrohend wahrgenommen wird, sich also gegen das gewünschte Selbstbild (face, vgl. Goffman 1955) der Befragten richten könnte: So können gerade unsichere, wenig ausdruckserfahrene Interviewpartner/ innen die Thematisierung der 226 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="228"?> Unverständlichkeit ihrer Äußerungen als Defizitzuschreibung erleben. Allgemein kann die ungewohnte Interviewinteraktion verunsichern und dazu führen, „dass expressive Fähigkeiten der Befragten nicht zum Tragen kommen, da sie an andere, vertrautere Routinen von Interaktionspraxis gebunden sind“ (Deppermann 2013: 16). Die Nicht-Alltäglichkeit von Interviews kann aber auch entlasten und erzählförderlich wirken, da sie „davon befreit, Einverständnis herzustellen (sic) zu müssen, die/ den InteraktionspartnerIn zu schonen und mit Blick auf die dauerhafte Aufrechterhaltung einer Sozialbeziehung zu agieren“ (Deppermann 2013: 16). Der/ die Forscher/ in muss mit den Befragten eine Kommunikationsbeziehung einge‐ hen, in der „das kommunikative Regelsystem des Forschungssubjekts“ gelten gelassen wird (Kruse 2015: 283). Bei manchen Personenkreisen ist möglicherweise forscherseitig noch stärker als bei anderen eine sensible, empathische Gesprächsführung gefordert; das Interviewverfahren muss offen sein für die situativen Gegebenheiten und erlauben, flexibel auf Besonderheiten der Gesprächssituation und der Gesprächsteilnehmer/ in‐ nen einzugehen (vgl. Buchner 2008: 521, Lingg/ Theunissen 2013: 141 ff.). Äußerungen der Befragten müssen „im Rahmen der Interpretation unter Miteinbeziehung der Lebenswelt der Betroffenen kontextualisiert“ werden (Buchner 2008: 525) - dies gilt auch und gerade bei Fragen zur Textverständlichkeit. Die Anforderungen bzw. Herausforderungen an die Interaktionsbeteiligten sollten sowohl bei der Durchführung als auch Auswertung von Interviews angemessen reflektiert werden. Auf Seiten der Interviewten gehören zu den zentralen Herausfor‐ derungen u.a.: ● Aufgabe in der Studie und Rollenverteilung im Interview verstehen und annehmen, ● Text lesen und verstehen, relevante Wissensbestände aktivieren, ● metakognitive Kompetenzen: sich möglichen Verstehensproblemen bewusst wer‐ den, sie genauer lokalisieren und reflektieren können, ● metasprachliche Kompetenzen: über Sprache und Text sprechen können, z. B. Verstehensprobleme beschreiben können, ● sprachliche und kommunikative Kompetenzen: sich in der Interviewsituation aus‐ drücken und in der Interaktion sprachlich handeln können, die Fragen verstehen etc. ● emotionale und motivationale Voraussetzungen: den Mut fassen, über Verstehens‐ defizite zu sprechen bzw. diese zu zeigen, die Motivation und die Ausdauer haben, in einer anspruchsvollen, unnatürlichen Kommunikationssituation wie dem Interview über einen längeren Zeitraum kooperativ mitzuwirken. Auf Seiten des Interviewers/ der Interviewerin bestehen zentrale Herausforderun‐ gen u.-a. darin: ● Fragen adressatenangemessen und verständlich sowie präzise und suggestionsfrei zu formulieren, 5.4 Qualitative Zugänge zum Leseverstehen 227 <?page no="229"?> ● eine Gesprächsatmosphäre zu schaffen, in der sich die Befragten möglichst frei äußern können (und wollen) und das Interview nicht als „Prüfungssituation“ erleben, ● sich auf die Perspektive der Befragten einzulassen, ● offen zu bleiben für Unerwartetes im Gesprächsverlauf und den Interviewten zunächst einmal eine kooperative Grundhaltung zu unterstellen, ● angemessene Verfahren zur Klärung (relevanter) schwer verständlicher Äußerun‐ gen von Befragten im Interview anzuwenden, ● das eigene Verständnis der Befragten-Äußerungen während der Interaktion kon‐ tinuierlich zu reflektieren, ● Folgefragen zu formulieren, die weitere Äußerungen zum Textverständnis der Befragten generieren. Die Analyse von Interviews sollte sowohl unter inhaltlichen sowie unter gesprächs‐ linguistischen Gesichtspunkten erfolgen: Voraussetzung dafür ist, dass das Interview nicht lediglich als geglätteter Text wiedergegeben wird, sondern detaillierter tran‐ skribiert wird (siehe Kap. 5.4.4). Eigenheiten der Interviewdurchführung (Gesprächs‐ atmosphäre, eventuelle Störungen usw.) können bereits während und unmittelbar nach der Erhebung in einem separaten Postskript notiert werden (vgl. Kruse 2015: 278 ff.). Insgesamt ist entscheidend, auch die konkreten Umstände der Erhebung genau festzuhalten und zu reflektieren. Interviews nicht nur inhaltsbezogen, sondern auch als Interaktion und soziale Praxis zu analysieren, bedeutet, Äußerungen nicht aus ihrem Gesprächskontext herauszulösen, sondern sie immer vor dem Hintergrund der Interaktion, in die sie eingebettet sind, auszuwerten (Arendt 2014: 15 mit Bezug auf Talmy 2011). Das Beispiel unten soll diese Herangehensweise noch einmal deutlicher machen. Mittels gesprächslinguistischer Analysemethoden kann herausgearbeitet werden, wie Interviewer/ in und Befragte/ r im Interview gemeinsam Sinn erzeugen (Deppermann 2013: 12ff., Imo/ Lanwer 2019, vgl. König 2017: 201ff.): Abhängig vom jeweiligen Analyseziel können hierfür systematisch die verschiedenen Interviewphasen (Eröffnungs-, Kern- und Beendigungsphase) und Strukturebenen (Gesprächsphase, -sequenz und -beitrag) betrachtet werden. Das grundsätzliche Ziel der Gesprächsanalyse besteht darin, „das komplexe Dialog‐ geschehen auf die für das jeweilige Erkenntnisinteresse relevanten Aspekte zu reduzieren und transparent zu machen, ohne die strukturellen Zusammenhänge zu vereinfachen“ (Brinker/ Sager 2010: 175). Weitere spezifische linguistische Zugänge, die zur Auswertung von Interviewdaten genutzt werden können, sind z. B. die Narrationsanalyse und die Positionierungsanalyse (vgl. Deppermann 2013). Beispiel Inhaltsorientierte und gesprächsanalytische Analyse von Interviewdaten greifen oftmals ineinander. Eine Problematik bei der Auswertung von Befragungen zum Textverständnis ist beispielsweise der Umgang mit inhaltlich widersprüchlichen Aussagen seitens der Befragten: Wie interpretiert man Äußerungen, in denen ein 228 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="230"?> Befragter einerseits Textinhalte treffend zusammenfasst und z. B. den Verwen‐ dungskontext eines Textes adäquat beschreibt, aber zugleich, und möglicherweise in ähnlicher Ausführlichkeit, auch Assoziationen zum Verwendungskontext und zum Textthema äußert, die inhaltlich inadäquat sind? Im folgenden Ausschnitt aus einem Interview passiert etwas Ähnliches: Der Befragte äußert zunächst As‐ soziationen zum Textthema (Brief-, Post- und Fernmeldegeheimnis) und schließt diese Darstellung inhaltlich ab. Dann (ab Zeile 19) setzt er noch einmal neu an und elaboriert seine Assoziationen bzw. ergänzt neue inhaltliche Aspekte, die nur teilweise mit dem zuvor Gesagten kompatibel und zudem - anders als die Darstellung bis dahin - recht fragmentarisch sind. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 I: - B: - - - - - - - - - - - - - - I: B: - I: B: - I: B: - Äh, kannst du trotzdem sagen, worum ’s in dem Tex geht? (07: 07-07: 10) Na ja, es geht wegen / äh wegen Brief. Oder wenn hier jetzt einer zum Beispiel ‘ne Post bekommt (.) und den geht’s / denjenigen nichts an, (.) dann muss er das bloß annehmen und darf nicht reingucken. Dann muss da erst derjenige warten und dann muss der das Paket übergr/ überreichen. Also wenn (da) jetzt zum Beispiel / °h Die Post kommt jetzt zu mir und sagt: ‚Hier, wo ist (.) ihr Nachbar? ‘ und dann hab ich gesagt: ‚Der ist nicht da‘, dann muss ich auf das Paket an/ annehmen und warten, bis die es nächs/ / bis die wieder da sind und dann muss ich das Paket überreichen. Hm_hm, hm_hm. (.) Also das ist so wie (‘n) Paket oder Telefonnachrichten oder so. Hm_hm. (.) Oder wie privat / (..) Also das is wie / [(.) [Alles klar.] wie] eine Arbeitsstelle oder so. (07: 12-07: 52) (Transkript JB22_20170801_S2 [07: 07-07: 52], leicht adaptiert; Forschungsprojekt zum Prüfen von Texten in Leichter Sprache, gefördert von der Bundesvereinigung Lebenshilfe e. V.; Transkripti‐ onskonventionen: eckige Klammern = Überlappung; / = Wort- oder Satzabbrüche; (.) und (..) = Sprechpausen, °h = hörbares Einatmen) 5.4 Qualitative Zugänge zum Leseverstehen 229 <?page no="231"?> Wie kann die gesprächsanalytische Betrachtung hier genauer verstehen helfen, wie die inhaltlichen Äußerungen zu interpretieren sind? Man betrachtet dazu Sequenz für Sequenz, welche Handlungen von Interviewer/ in und Befragten ausgeführt werden und wie sie sich gegenseitig bedingen. Allgemein ist auch relevant, ob in den Äußerungen der Befragten Spuren des Formulierungsprozes‐ ses sichtbar sind: Gibt es z. B. Indizien für mühevolles, von Selbstkorrekturen geprägtes Formulieren (oder das Gegenteil), und bringt dies Aufschlüsse in Bezug auf die inhaltliche Adäquatheit der Äußerung? Interaktionslinguistische Aspekte von Interviews können am besten untersucht werden, wenn die Daten in einem entsprechenden Transkriptionssystem ver‐ schriftlicht wurden (siehe Kap. 5.4.4) und die Audio-/ Videomitschnitte in die Analyse einbezogen werden. Das Transkript-Beispiel wurde nach einem inhalts‐ orientierten Transkriptionssystem verschriftlicht (Dresing/ Pehl 2018) und mit gesprächsanalytischen Transkriptionskonventionen „angereichert“ (nach Selting et al. 2009). Auch wenn es damit weniger genau ist als ein gesprächsanalytisches Transkript, dokumentiert es doch die Aktivitäten der Beteiligten: Im Fall des Bei‐ spieltranskripts sind die Rückmeldeaktivitäten des Interviewers (unterstrichen) aufschlussreich. Nachdem der Befragte seine erste Darstellung abgeschlossen hat, folgt nach einem Hm_hm, hm_hm (Z. 18) und einer kurzen Pause eine weitere Äußerung des Befragten. Dies wiederholt sich noch einmal in ähnlicher Weise (Z. 21) und lässt darauf schließen, dass der Befragte die Rückmeldesignale als Aufforderung zur weiteren Elaboration versteht (vgl. Arendt 2014). Erst nach der eindeutig abschließenden Rückmeldung Alles klar (Z. 24) beendet der Befragte nach Abschluss der begonnen Phrase seine inhaltlichen Ausführungen. Das Beispiel zeigt zum einen, wie das Interviewerverhalten Einfluss darauf hat, welche Inhalte in welcher Weise von den Interviewten realisiert werden. Zum anderen kann es aber auch Interpretationshilfe sein, denn man kann davon ausgehen, dass die in der Sequenz zuletzt ergänzten fragmentarischen Äußerungen des Befragten eher Effekte der Interviewführung sind als Ausdruck davon, dass der Befragte noch weitere inhaltliche Aspekte ausführen möchte, ihm dabei aber die Darstellung weniger gut gelingt als vorher. - Fragen und Unterstützungstechniken Besondere Aufmerksamkeit gilt bei Interviews der Frageformulierung: „Fragen gehö‐ ren zu den mächtigsten Instrumenten der Gesprächssteuerung.“ (Deppermann 2013: 24) Je nach syntaktischem Fragetyp und inhaltlichen Kategorien etablieren sie unter‐ schiedlich enge und strikte Antworterwartungen. Dennoch gilt: Interviewte reagieren auf Fragen nicht wie abhängige Variablen. Ihre Reaktionen sind durch Fragevorgaben nicht so klar determiniert, wie dies in Diskussionen über Suggestivfragen, 230 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="232"?> geschlossene Fragen oder in den Fragen verwendete Deutungskategorien oft angenommen wird (Deppermann 2013: 23). Deppermann zeigt in der Analyse, wie auch vermeintlich methodisch fehlerhaftes Interviewerverhalten zu Befragten-Äußerungen führen kann, die im Sinne der For‐ schungsfrage aufschlussreich sind. Gleichwohl warnt er davor, dies als „interviewme‐ thodisches anything goes“ zu verstehen. Schulungen und wiederkehrende Supervisi‐ onen können dazu beitragen, für die Besonderheiten der Kommunikationssituation Interview zu sensibilisieren und methodisch kontrolliertes Verhalten zu trainieren. Gerade die Frageformulierungen können gut vorbereitet und im Vorfeld ausführ‐ lich reflektiert werden. Bei Personenkreisen, mit denen die Forscher/ innen eventuell wenig vertraut sind, können die Fragen in Pilotinterviews - also „Testläufen“ im Vorfeld, die nicht in die Datenauswertung einbezogen werden - erprobt werden. Wenn möglich, können Sprach- und Lesekompetenzen der Studienteilnehmer/ innen im Vorfeld diagnostisch erhoben werden. So banal es klingt: Die Fragen müssen für die jeweiligen Befragten verständlich formuliert sein. Bei kommunikativ eingeschränkten oder wenig ausdrucksaffinen Personenkreisen erfordert dies größere Aufmerksamkeit. Gegebenenfalls müssen sprachlich vereinfachte Fragen unterschiedlicher Komplexität und (elaborierende, paraphrasierende) Formulierungsvarianten vorbereitet werden, die dennoch der Forschungsfrage gerecht werden müssen. Hinsichtlich der inhaltlichen und sprachlichen Angemessenheit von Fragen wurde vorgeschlagen, in einer Befra‐ gung mit komplexeren Fragen zu beginnen, um zu prüfen, ob die Fragen verständlich sind und um nicht vorschnell das Anforderungsniveau der Fragen abzusenken (Hagen 2002: 301). Auch die zu lesenden Texte müssen selbstverständlich - abhängig von Aufgabe und Forschungsinteresse - eine dem Personenkreis angemessene Komplexität aufweisen. Bei allen genannten Aspekten kann nicht nur Überforderung, sondern auch Unterforderung ein Problem sein. Generell müssen erwartbare Merkmale des jeweiligen Personenkreises berücksich‐ tigt werden (z. B. Sprach-, Lesekompetenz, kognitive Voraussetzungen, wie allgemeine Konzentrationsfähigkeit, Arbeitsgedächtniskapazität, auditive und visuelle Merkfä‐ higkeit etc.), und die Durchführung muss entsprechend adaptiv gestaltet werden. Menschen mit Down-Syndrom besitzen beispielsweise eine tendenziell schwach ausge‐ prägte Arbeitsgedächtnisleistung: Das auditive Gedächtnis ist dabei häufig schwächer als das visuelle Kurzzeitgedächtnis (Abbeduto/ Warren/ Conners 2007: 248). Um dem zu begegnen, könnten Strukturierungsvorgaben im Interview zusätzlich visualisiert vorgelegt werden. Unterstützungstechniken Nicht alle Methoden, insbesondere sprachzentrierte Methoden wie Interviewver‐ fahren, sind für alle Personen bewältigbar: Bei Interviews beinhalten die Voraus‐ setzungen seitens der Befragten insbesondere „ein Mindestmaß an Fähigkeiten zur symbolischen Kommunikation“ (Niediek 2015) (siehe S. 234 Anforderungen an Befragte). Zwischen gewähltem methodischem Setting und Studienteilneh‐ 5.4 Qualitative Zugänge zum Leseverstehen 231 <?page no="233"?> mer/ in muss eine Passung hergestellt werden, und dazu müssen ggf. Entlastungs- und Unterstützungsmaßnahmen vorgenommen werden, die aber zugleich der Forschungsfrage gerecht werden müssen. Beispielsweise wäre Vorlesen als Un‐ terstützungsmaßnahme beim Lesetext selbstverständlich nicht angemessen, wenn das Leseverstehen erfasst werden soll, aber denkbar, wenn es um das globale Sinn‐ verstehen geht (mit Abstrichen bei der Vergleichbarkeit durch unterschiedliche Modalitäten). Das Vorlesen von Fragen aus einem Fragebogen wäre weitgehend unproblematisch. In Bezug auf sozialwissenschaftliche qualitative Interviews werden folgende Unterstützungstechniken diskutiert: Bild- und Fragekarten, Fotos, narrative Landkarten. Niediek weist allgemein darauf hin, dass alle Unter‐ stützungstechniken erlernt werden müssen und „keinesfalls grundsätzlich die Verständlichkeit der Frage erhöhen“ (Niediek 2015: Kap. 3). Für Interviews mit Verstehensfragen nach einer Textlektüre nennt Kaczmarzik (2019) zwei Prinzipien, die anhand des Personenkreises Menschen mit sog. geistiger Behin‐ derung und anhand des Prüfprozesses der Leichten Sprache entwickelt wurden: 1. Lass den Befragten seine Gedanken so eigenständig wie möglich formulieren. 2. Verweise regelmäßig auf den Text zurück, insbesondere dann, wenn der/ die Befragte in seinen Äußerungen den Textbezug verliert. Das erste Prinzip der maximalen Selbständigkeit ist an das generelle Prinzip der Offenheit und Zurückhaltung seitens der/ des Interviewenden angelehnt (Kruse 2015: 70, 151). Dazu gehört laut Kaczmarzik (2019), dass bei den Verständnisfragen nach einer Textlektüre in der Regel mit einer weitestgehend offenen und allgemeinen Frage be‐ gonnen wird, die den Befragten viel Freiraum für individuelle Schwerpunktsetzungen lässt (z. B. Worum geht es in dem Text? ; fokussierter: Was erfährt man aus dem Text über Thema XY? ). Insbesondere dann, wenn ein/ e Befragte/ r mehr Orientierung benötigt, oder um Elaborationen zu initiieren, kann eine weniger offene Frage angeschlossen werden (z.-B. Welche Aufgabe hat Person XY im Text? ). Auch geschlossene Fragen, ggf. unterstützt durch Bilder oder Gesten, können - z.-B. bei eingeschränkter sprachlicher Ausdruckskompetenz oder Unsicherheit - zielführend sein (z. B. Muss man laut Text erst diesen [Zeigegeste] oder jenen Schritt [Zeigegeste] ausführen? ). Geschlossene Fragen nach der Verständlichkeit eines Wortes oder einer Textpassage können dann auch der Auftakt für weitere offenere Nachfragen sein. Das zweite Prinzip adressiert die Problematik, dass Befragte (zu) allgemein und nicht mit erkennbarem Bezug zum gelesenen Text antworten. Ein Beispiel wäre, dass ein Ausdruck aus einem Text isoliert aufgenommen und zu diesem singulären Ausdruck in weitschweifiger Weise Assoziationen, individuelle Erfahrungen und Haltungen ausge‐ führt werden. Zwar können auch solche „Ausschweifungen“ aufschlussreich sein: Sie können beispielsweise themenbezogenes Wortschatzwissen belegen, die Vertrautheit mit Aspekten des Textthemas sowie subjektive Assoziationen, die ein Text eröffnet, zeigen. Bis zu einem gewissen Maße lassen sich also auch aus solchen Äußerungen 232 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="234"?> Schlussfolgerungen ziehen, wie ein Text verstanden wurde. Dennoch ist es sinnvoll, in der Formulierung neuer Fragen immer wieder auf den Gegenstand des Interviews - den gelesenen Text - Bezug zu nehmen. Abbildung 22 zeigt einige Situationen in Prüfprozessen, die dazu Anlass geben können, sowie mögliche steuernde Intervie‐ wermaßnahmen (u. a. Aufforderung zur Paraphrase, zum Textbeleg, Wiederholung der Instruktion, Fokussierung durch Frageformulierung). Dies sind sicher nur einige der möglichen Fälle, die in Interviews auftreten können. Abb. 22: Typische Situationen in Prüfprozessen, in denen auf den Text zurückverwiesen werden kann (nach Kaczmarzik 2019) - Weiterführende Literatur Einen guten Überblick über Methoden der empirischen Verstehens- und Verständlich‐ keitsforschung gibt Christmann: Christmann, Ursula (2009): Methoden zur Erfassung von Literalität. In: Bertschi-Kaufmann, Andrea/ Rosebrock, Cornelia (Hrsg.): Literalität. Bildungsaufgabe und Forschungsfeld. Wein‐ heim: Juventa, S.-181-200. Zur translationsbezogenen Perspektive siehe auch: Hansen-Schirra/ Gutermuth 2019. Zur Frageformulierung finden sich ausführlichere Hinweise bei: Albert/ Marx 2016: 70 ff., Freed/ Ehrlich 2010, Graesser/ Person/ Huber 1992, Kruse 2015: 209 ff., de Ruiter 2012; zur Konzeption von Leitfäden inklusive Beispielfragen für die Befragung von Menschen mit sog. geistiger Behinderung gibt es Hinweise bei Kaczmarzik 2018: 178 f. Auch die Prozessebenen kognitiv orientierter Leseverstehenskonstrukte, die z. B. in Lesekompetenzmodellen aufgenommen wurden, können für die Fragen-Entwicklung genutzt werden (vgl. Rosebrock/ Nix 2014, siehe Kap. 2.2). 5.4 Qualitative Zugänge zum Leseverstehen 233 <?page no="235"?> Aufgaben 1. Planen Sie ein Interview: Recherchieren Sie Texte, die als Rezeptionsgegenstand für eine Befragung oder ein Wiedergabeverfahren geeignet sind, und wägen Sie für verschiedene Personenkreise ab, welche Texte sich jeweils eignen und warum. 2. Erstellen Sie einen Leitfaden mit Fragen zu einem ausgewählten Text, zu dem das Textverständnis erfasst werden soll. Wählen Sie einen konkreten Personenkreis, den Sie befragen möchten, und beachten Sie alle im Kapitel genannten Herausfor‐ derungen der Interviewinteraktion und der Fragegestaltung. 5.4.3 Lautes Denken, Lautes Erinnern Pirkko Friederike Dresing - Lautes Denken als simultanes introspektives Verfahren Bei der Methode des Lauten Denkens sollen die Untersuchungsteilnehmer/ innen alles laut aussprechen, was ihnen bei der Lektüre des Textes durch den Kopf geht. Die Methode basiert „auf Annahmen der Informationsverarbeitung als Problemlösetheo‐ rie“ (Heine 2013: 14), zu deren Ausarbeitung Ericsson & Simon (1993) entscheidend beitrugen. Grundlegend ist die Annahme, dass man von verbalisierten Gedanken, Emotionen und Wahrnehmungen auf kognitive Prozesse schließen kann: Man geht davon aus, dass aktivierte Gedächtnisinhalte mit einer verbalen Form assoziiert sind, die laut ausgesprochen werden kann und die die mentalen Prozesse nicht entscheidend beeinflusst oder verändert (vgl. Heine 2013: 14). Diese Auffassung wird allerdings kontrovers diskutiert und eine Veränderung von kognitiven Prozessen beim Lesen, wie z. B. eine intensivere Auseinandersetzung mit dem Text durch die Verbalisierung, kann nicht ausgeschlossen werden (vgl. z.-B. Konrad 2010: 486). Für die Methode des Lauten Denkens ist wesentlich, dass nur im Arbeitsgedächtnis verarbeitete Leseprozesse verbalisiert werden können, nicht hingegen automati‐ sierte Prozesse, was wiederum zur Folge hat, dass nur der Einsatz von Lesetexten sinnvoll ist, „durch die auch tatsächlich mental zugängliche und potentiell mit einer verbalen Form verbundene Abläufe angeregt werden“ (Heine/ Schramm 2016: 175). Das Laute Denken ermöglicht dann u.-a. einen Zugang zu ● text- und leser/ innenbasierten (bottom-up und top-down) Prozessen, ● Textverständnis und Verstehensschwierigkeiten, ● Empfindungen und Eigenschaften der Leser/ innen, ● Kontextvariablen des Leseprozesses, wie z.-B. die Beschaffenheit des Lesetextes, ● Anwendung von Lesestrategien (vgl. Stark 2010: 64-66). Das Verbalisieren der gegenwärtigen Gedanken, Empfindungen und Wahrnehmungen stellt einige Anforderungen an die Untersuchungsteilnehmer/ innen. Sie müssen 234 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="236"?> ● ablaufende kognitive Prozesse bewusst wahrnehmen, ● aus den vielzähligen, parallel ablaufenden Prozessen (un)bewusst zu verbalisie‐ rende Gedanken auswählen und ● die bewusst wahrgenommenen Prozesse, ohne sie zu interpretieren, in Sprache umsetzen können (vgl. Stark 2010: 71-75). Das Laute Denken ist demnach eine kognitiv und sprachlich sehr voraussetzungsreiche Methode, deren Einsatz für bestimmte Personengruppen, wie z. B. jüngere Kinder, Menschen mit sog. geistiger Behinderung oder mehrsprachige Untersuchungsteilneh‐ mer/ innen, Herausforderung sein kann. Exkurs: Lautes Denken und Mehrsprachigkeit Auch für introspektive Verfahren gilt, dass die ohnehin schon sehr individuellen Prozesse der Sprachverarbeitung und die sprachliche Verknüpfung mit einer mentalen Repräsentation bei mehrsprachigen Untersuchungsteilnehmer/ innen noch stärker variieren (vgl. Heine 2013: 20, Heine 2014: 130). In den bisherigen Mo‐ dellen zum Lauten Denken, die primär durch die Annahme von Einsprachigkeit geprägt sind, wird lediglich darauf verwiesen, dass die Wahl der Sprache keinen Einfluss auf das Verbalisieren der Gedanken habe, vorausgesetzt, dass ausreichend Sprachkenntnisse in der Fremdbzw. Zweitsprache zur Verfügung stehen und Sprachwechsel in der Erhebungssituation möglich seien (vgl. Heine 2013: 20 f.). Nach dieser Annahme liegt eine verbale Repräsentation für beide Sprachen zu‐ grunde, die je nach Verfügbarkeit der sprachlichen Form in der einen oder anderen Sprache verbalisiert werden kann. Allerdings kann selbst bei Sprecher/ innen mit einer hohen fremdsprachlichen Kompetenz nicht von „eine[r] völlig ausgegli‐ chene[n] Sprachproduktion“ (Heine 2013: 22) ausgegangen werden. Heine (2010) verweist auf lexikalische Suchprozesse in der Fremdsprache, Pausen und das Ausbleiben von Sprachwechseln in von ihr erhobenen Laut-Denk-Protokollen. Diese Vorgehensweisen gelten als „separate Problemlöseprozesse“ (Heine 2013: 23), die unterschiedliche Verfahren wie z. B. das Umformulieren der Gedanken oder Formulierungsabbrüche nach sich ziehen können und zu einer Veränderung der kognitiven Aktivität, wie z. B. zu einer „Aktivierung von Sinnzusammenhän‐ gen und damit Vertiefungen von Gedächtnisinhalten bzw. Lernprozessen“ (Heine 2013: 23 f.) führen können. Neuere Modelle gehen davon aus, dass nicht nur eine Repräsentation für beide (oder mehrere) Sprachen vorliegt, sondern dass je nach Gebrauch der Erst- oder Fremd-/ Zweitsprache auch erst- und fremd-/ zweitsprachliche Konzepte aktiviert werden (vgl. Heine 2013: 24). Auch wenn die Auswirkungen einer Datenerhebung in der Fremd-/ Zweitsprache noch unklar sind, steht fest, dass sich mehrsprachigkeitsbedingte Artefakte in introspektiven Daten finden lassen, die bei der Datenanalyse und -interpretation berücksichtigt werden müssen (vgl. Heine 2013: 26). Um die Artefakte zu minimieren, sollte mehrsprachigen Proband/ innen eine freie Sprachwahl in der Datenerhebung ermöglicht werden. 5.4 Qualitative Zugänge zum Leseverstehen 235 <?page no="237"?> Beim Einsatz des Lauten Denkens ist zu beachten, dass viel weniger ausgesprochen als tatsächlich gedacht wird, weil Prozesse parallel ablaufen und nicht alles verbalisiert werden kann, was insbesondere die Möglichkeit einer quantitativen Auszählung bestimmter Phänomene beim Lauten Denken beschränkt (vgl. Heine/ Schramm 2016: 175). Außerdem bewirkt die Erhebungssituation möglicherweise, dass die Gedanken aufgrund des Wunsches der Untersuchungsteilnehmer/ innen, die soziale Erwartung der Forscher/ innen zu erfüllen, anders geäußert werden, als wären die Proband/ innen für sich allein (soziale Erwünschtheit) (vgl. Heine/ Schramm 2016: 175). Deshalb kommt der Vorbereitung und Durchführung der Datenerhebung eine besondere Bedeutung zu, um die Reaktivität der Methode so gering wie möglich zu halten und die Validität der Daten zu garantieren (vgl. Knorr/ Schramm 2007: 175-177, Stark 2010: 68-71). Alle forschungspraktischen Entscheidungen sollten im Rahmen einer Pilotierung erprobt und ggf. angepasst werden. Für die Planung der Untersuchung sollten insbesondere folgende Punkte beachtet werden: ● Auswahl der Texte: Da nur bewusst ablaufende Leseprozesse verbalisiert wer‐ den können, sollten Lesetexte gewählt werden, die für die Untersuchungsteilneh‐ mer/ innen nicht zu einfach zu verarbeiten sind. Bei zu einfachen Lesetexten laufen die Prozesse fast ausschließlich automatisiert und infolgedessen nicht bewusst ab (vgl. Stark 2010: 71). ● Übungsaufgabe: Das laute Äußern der Gedanken, Empfindungen und Wahrneh‐ mungen kann ganz individuell als eine einfache, natürliche oder schwierige, unnatürliche Aufgabe empfunden werden, sodass es vor der Datenerhebung geübt werden sollte (vgl. Knorr/ Schramm 2012: 188). Die Übungsaufgabe sollte dabei eine Ähnlichkeit zu der späteren Lektüreaufgabe aufweisen, um darauf vorzu‐ bereiten, aber sich dennoch in gewissem Maße von ihr unterscheiden, um einem Gewöhnungseffekt vorzubeugen (vgl. Heine 2014: 127). Auch das Demonstrieren des Lauten Denkens beispielsweise anhand eines Videos mit exemplarisch laut geäußerten Gedanken wird zur Vorbereitung eingesetzt (vgl. Heine/ Schramm 2007: 178). Es sollte allerdings die Möglichkeit in Betracht gezogen werden, dass dann eine unerwünschte Nachahmung des modellierten Verhaltens in der tatsächlichen Datenerhebungssituation stattfinden kann. ● Erzählimpuls: Eine sorgfältige Einführung in das Laute Denken spielt eine wichtige Rolle, um ein späteres, unerwünschtes oder zur Korrektur ggf. nötiges Eingreifen in den Laut-Denk-Prozess zu vermeiden. Die zur Vergleichbarkeit von Daten standardisierte Laut-Denk-Instruktion sollte dabei den Grund für die Laut-Denk-Aufgabe offenlegen, beschreiben, was das Laute Denken ist, konkreti‐ sieren, in welcher Detailtiefe und auf welcher Verarbeitungsebene verbalisiert werden soll und bei mehrsprachigen Untersuchungsteilnehmer/ innen Informatio‐ nen zur Sprachwahl enthalten (vgl. Knorr/ Schramm 2012: 188). Als Beispiel für einen entsprechenden Laut-Denk-Impuls führen Heine und Schramm (2007: 178) folgende Formulierung an: 236 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="238"?> Sprich bitte alles laut aus, was dir in den Sinn kommt und durch den Kopf geht, während du die Aufgabe löst. Dabei ist es wichtig, dass du nicht versuchst, zu erklären oder zu strukturieren, was du tust. Stell dir einfach vor, du bist allein im Raum und sprichst mit dir selbst. (für ein weiteres Beispiel eines Impulses vgl. Stark 2010: 69) ● zurückhaltendes Verhalten der Forschungsperson: Um die kognitiven Pro‐ zesse während der Lektüre nicht zu unterbrechen oder Interaktionsversuche seitens der Untersuchungsteilnehmer/ innen zu minimieren, sollte sich die/ der For‐ scher/ in während der Datenerhebung außerhalb des Blickfeldes der Proband/ innen befinden oder gar den Raum verlassen (vgl. Heine 2014: 127). In einigen Fällen kann es allerdings erforderlich sein, an das Laute Denken zu erinnern, wenn Proband/ innen das laute Äußern der Gedanken nicht selbstständig fortführen. Entscheidet man sich für gelegentliche Erinnerungen, so sollten sie möglichst wenig Raum einnehmen und eher auffordernd statt fragend formuliert sein, um weder eine soziale Interaktion noch Äußerungen auf einer metakognitiven, erklärenden Ebene zu initiieren (vgl. Heine/ Schramm 2007: 179; Stark 2010: 70), z.B.: „Erzähl weiter! “ vs. „Was denkst du noch? “ - Lautes Erinnern als retrospektives Verfahren Bei retrospektiven Verfahren werden die Proband/ innen nach Beendigung der Lektüre zu erinnerten Gedanken während der Lektüre bzw. gegenwärtigen Kommen‐ tierungen und Reflexionen zu der Lektüre befragt (vgl. Knorr 2013: 33). Die retrospektiv erhobenen Aussagen der Untersuchungsteilnehmer/ innen knüpfen direkt an ihre Erinnerungen an. Aus diesem Grund sollten die retrospektiven Datenerhebungen so bald wie möglich an die vorangegangene Lektüre durchgeführt werden (vgl. Gass/ Mackey 2017: 47). Eine genaue maximale Zeitspanne wird kontrovers diskutiert, empfohlene Angaben zum maximalen zeitlichen Abstand variieren zwischen 3 und 72 Stunden (vgl. Gass/ Mackey 2017: 47, Heine/ Schramm 2016: 176, Heine 2014: 129). Um diese Erinnerungen zu aktivieren und die Proband/ innen in die Situation der Lektüre zurückzuführen, werden vermehrt Video-, Audiostimuli oder Transkripte eingesetzt (vgl. Heine 2014: 128). Eine Form der Retrospektion wird als Lautes Erinnern oder Stimulated Recall (vgl. Heine 2014: 128) bezeichnet und bezieht sich auf Gedanken, Wahrnehmungen oder Empfindungen während der Lektüre. Während der Terminus Stimulated Recall impliziert, einen Stimulus (in Form von Audio-/ Videoaufzeichnungen oder Transkrip‐ ten) zur Aktivierung der erinnerten Gedanken einzusetzen, geschieht dies beim Lauten Erinnern nicht zwingend (Knorr/ Schramm 2012: 186). Abzugrenzen vom Stimulated Recall ist der sogenannte Cued Recall (vgl. Christmann 2009: 189). Hierbei handelt es sich um eine Methode zur gezielten Ermittlung von textnahem Leseverstehen (siehe auch Kap. 5.4.2). Entscheidend für die Methode des Lauten Erinnerns ist, dass die Pro‐ band/ innen, wie beim Lauten Denken auch, selbst entscheiden, welche Gedanken bei der Retrospektion fokussiert und ungefiltert verbalisiert werden (vgl. Knorr/ Schramm 5.4 Qualitative Zugänge zum Leseverstehen 237 <?page no="239"?> 2012: 185). Sollen sich die Proband/ innen im Rahmen der Methode des Lauten Erinnerns in die Situation der Lektüre zurückversetzen und damit an die mentalen Prozesse erinnern, ist anzumerken, dass im Vergleich zum simultanen Lauten Denken nicht mehr auf Gedanken im Arbeitsgedächtnis zurückgegriffen werden kann, sondern diese aus dem Langzeitgedächtnis rekonstruiert „und zu Zwecken der Verbalisierung im Arbeitsgedächtnis prozessiert werden“ (Knorr/ Schramm 2012: 187) müssen, „wo sie aber mit bereits vorhandenen Wissensbeständen verknüpft worden sind“ (Heine 2014: 128). Für die Planung der Untersuchung sollten folgende Aspekte beachtet werden: ● Übungsaufgabe: Auch beim Lauten Erinnern spielen eine Übungsbzw. Demonst‐ rationsphase eine wichtige Rolle. Im Zentrum der Übungsaufgabe steht das Trai‐ nieren der Äußerung erinnerter Gedanken. Hierzu kann beispielsweise die Lösung einer Aufgabe videografiert werden und die Untersuchungsteilnehmer/ innen im Anschluss daran gebeten werden zu verbalisieren, wie die Aufgabe bearbeitet wurde (vgl. Feick 2012: 206 f.). ● Erzählimpuls: Ein gelungener Impuls für das Laute Erinnern fokussiert insbeson‐ dere, dass Gedanken der Untersuchungsteilnehmer/ innen von Interesse sind, die während der dargebotenen Lektüre gedacht wurden, und nicht die gegenwärtigen, die videografierte Handlung kommentierenden Gedanken (vgl. Knorr/ Schramm 2012: 194). Um die Untersuchungsteilnehmer/ innen anzuregen, die Gedanken dann zu äußern, wenn sie im Arbeitsgedächtnis reaktiviert sind, bietet es sich an, bei Einsatz von Audio- oder Videostimuli die Aufnahme selbst stoppen und wieder starten zu lassen (vgl. Knorr/ Schramm 2012: 194). Ein Impuls für das Laute Erinnern im Anschluss an erhobene Blickbewegungsdaten könnte beispielsweise lauten: Du wirst jetzt ein Video ansehen, das deine Blickbewegungen beim Lesen zeigt. Ich kann zwar sehen, wohin du im Text geschaut hast, aber weiß nicht, was du dabei gedacht hast. Ich möchte, dass du mir sagst, was dir durch den Kopf ging, als du den Text gelesen hast, und das Video immer dann stoppst, wenn du Gedanken erinnerst. (angelehnt an Feick 2012: 209) Je nach Dauer der aufgezeichneten Lektüre kann es sinnvoll sein, nur Teile des videografierten Leseprozesses für das Laute Erinnern auszuwählen, die zur Beant‐ wortung der Fragestellung besonders relevant erscheinen. Alternativ können die Untersuchungsteilnehmer/ innen gebeten werden, aus ihrer Sicht wichtig erscheinende Sequenzen zu benennen, die die Grundlage für das Laute Erinnern bilden (vgl. Knorr/ Schramm 2012: 195). Die Entscheidung für eine Vorauswahl sollte sehr bewusst und individuell für das eigene Forschungsprojekt getroffen werden, da mit jeder vorherigen Festlegung die aus der Retrospektion gewonnenen Daten beeinflusst werden. Im Gegensatz zum Lauten Erinnern werden bei retrospektiven Befragungen, z. B. in leitfadengestützten Interviews, nicht die erinnerten Gedanken, sondern Gedanken in Form von Kommentaren oder Reflexionen, die die Proband/ innen in der Interviewsi‐ tuation selbst denken, fokussiert (vgl. Heine 2014: 128). Ein weiter Unterschied ist, dass 238 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="240"?> in retrospektiven Befragungen nicht die Untersuchungsteilnehmer/ innen, sondern die Forschungsperson den Fokus der retrospektiven Betrachtung wählt. Retrospektive Befragungen werden häufig zu Triangulationszwecken mit zuvor gewonnenen Primär‐ daten, wie beispielsweise Laut-Denk- oder andere Beobachtungsdaten, eingesetzt (vgl. Heine 2013: 15). Anwendungsbeispiel: Bildverstehen im Kontext von Deutsch als Zweit‐ sprache (DaZ) Zur Untersuchung von Bildverstehen im DaZ-Kontext wurden vier erwachsene Deutschlerner/ innen gebeten, in Zweiergruppen über ausgewählte Fotoserien aus einem DaZ-Lehrwerk zu sprechen (vgl. Dresing 2018). Die Deutschlernenden be‐ suchten zum Zeitpunkt der Datengenerierung einen B1.2-Deutschkurs. Die Bilder entstammten Lektionsauftaktseiten aus Lehrwerken der Niveaustufen A2.1 bis B1.2. Sie bestanden aus Fotoserien von vier bis sechs Fotos und enthielten darüber hinaus einen Bildtitel, einen Aufgabentitel sowie eine halb-standardisierte Auf‐ gabenstellung, z.B.: „Sehen Sie sich die Bilder an. Was geschieht? Sprechen Sie.“ Für die gesamte Datenerhebung wurde aufgrund der Vielzahl an unterschiedlichen Erstsprachen die Sprache Deutsch von der Forscherin festgelegt. Ein Tablet mit ei‐ ner Übersetzungs-App stand den Untersuchungsteilnehmer/ innen zur Verfügung, wurde in der Datenerhebung aber nicht genutzt. Die videografierten Gespräche wurden in einem zweiten Schritt als Stimulus für retrospektive Befragungen genutzt, um weitere Erkenntnisse über das Bildverstehen zu erlangen, die durch die Beobachtung der Gespräche allein nicht zugänglich waren oder unklar blie‐ ben. Dabei wurden den Untersuchungsteilnehmer/ innen in leitfadengestützten Interviews von der Forscherin ausgewählte Ausschnitte aus den videografierten Gesprächen gezeigt, zu denen auf die jeweiligen Situationen zugeschnittene Fragen gestellt wurden, wie z. B. „Könnt ihr mir beschreiben, wie ihr im Gespräch vorgegangen seid? “ oder „Inwiefern war die schriftliche Aufgabe wichtig für euer Gespräch? “ Die Anlage der Untersuchung ermöglichte die Identifikation von zwei zentralen Vorgehensweisen und allgemeinen Strategien der Bildrezeption. Der triangu‐ lierende Einsatz der retrospektiven Befragung erwies sich als ergiebige Mög‐ lichkeit, weitere Erkenntnisse zum Strategieneinsatz zu generieren. Die Festle‐ gung der verwendeten Sprache Deutsch führte in keiner Situation zu größeren Verständigungsschwierigkeiten, der gelegentliche Sprachwechsel zu Englisch oder Umschreibungen ermöglichten das Fortführen der Gespräche bei Formulie‐ rungsschwierigkeiten in der Zweitsprache. Obwohl es zu keinen beobachtbaren Kommunikationsschwierigkeiten kam, ist nicht auszuschließen, dass Gedanken aufgrund der zweitsprachlichen Kompetenz gar nicht oder abgewandelt, entspre‐ chend den Ausdrucksmöglichkeiten, verbalisiert wurden. Dieser Aspekt wurde in der Interpretation sowie in der Beurteilung der Reichweite der Ergebnisse kritisch berücksichtigt. 5.4 Qualitative Zugänge zum Leseverstehen 239 <?page no="241"?> Grenzen der Anwendung Introspektive Verfahren können einen fruchtbaren Beitrag zur Beantwortung ganz un‐ terschiedlicher Fragestellungen zu Leseprozessen und Leseverstehen leisten. Dennoch handelt es sich bei introspektiven Verfahren um sprachlich wie kognitiv vorausset‐ zungsreiche Methoden, die anfällig für Störvariablen sind. Dies umfasst insbesondere folgende Aspekte, die zum Teil schon Gegenstand der Überlegungen waren. Die Umsetzung von konzeptuellen Repräsentationen in sprachliche und die anschlie‐ ßende Verbalisierung ist ein höchst individueller Prozess, der unterschiedlichen Personen unterschiedlich „gut“ gelingt und nicht nur Personen mit geringer zweit‐ sprachlicher Kompetenz Probleme bereitet. Auch jüngere Kinder oder Menschen mit sog. geistiger Behinderung können Schwierigkeiten haben, die Gedanken, Empfindun‐ gen und Wahrnehmungen entsprechend genau und umfangreich zu verbalisieren. Börnert, Grubert und Wilbert (2016: 173) verweisen darauf, dass insbesondere Kinder beim Lösen von Aufgaben häufig nur die Antwort nennen, aber nicht auch ihren Lösungsweg verbalisieren. Bei Menschen mit sog. geistiger Behinderung können außerdem rezeptive und produktive Sprachkompetenzen deutlich auseinanderfallen; allgemein kann bei diesem Personenkreis nicht von einer einfachen Entsprechung zwischen sozialen, sprachlichen und kognitiven Fähigkeiten ausgegangen werden (vgl. Schuppener/ Bock 2018: 234), was in der Konzeption von Untersuchungssettings sowie in der Auswertung Berücksichtigung finden muss. Die interindividuellen Kompetenz‐ unterschiede sind teilweise beträchtlich, weshalb möglichst in einer Pilotierung geprüft werden muss, ob und wie sich introspektive Verfahren anwenden lassen. Insgesamt gilt die allgemeine Sprachkompetenz als einflussreiche Variable. Die Suche nach Formulierungen und Ausdrucksmöglichkeiten können den Leseprozess beeinflussen oder zu einer Umformulierung von Gedanken führen (vgl. Bilandzic 2017: 408). Auch äußerlich fragmentierte und scheinbar wenig ergiebige und inkohärente Äußerungen von Personen mit geringen Ausdruckskompetenzen können sich aber in der Interpre‐ tation als aussagekräftig erweisen. Je geringer die kommunikativen Kompetenzen der interviewten Person, desto höher sind […] die Anforderungen an eine sorgfältige und gegenstandsgerechte Analyse des später vorliegenden Datenmaterials. […] Dabei sollte die Auswertung nicht ausschließlich auf den Inhalt rekurrieren, sondern muss die ‚Produktionsbedingungen‘ und ‚Produktionsprozesse‘ der Aussagen mit berücksichtigen. (Niediek 2015: Abschnitt 3) Mit der Herausforderung, Gedanken in eine sprachliche Form zu überführen und zu verbalisieren, geht die Selektion von Gedanken einher. Stehen keine Ausdrucksmög‐ lichkeiten für bestimmte Gedanken zur Verfügung, können sie in abgewandelter Form oder gar nicht verbalisiert werden (vgl. Heine 2014: 131). Auch von den Untersuchungs‐ teilnehmer/ innen als irrelevant eingeschätzte Gedanken können zu unvollständigen Verbalprotokollen führen (vgl. Bilandzic 2017: 408). Auch bei der Datenerhebung mit introspektiven Verfahren handelt es sich um eine soziale Situation, die Proband/ innen dazu verleiten kann, im Sinne einer sozialen 240 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="242"?> Erwünschtheit für die Untersuchung besonders relevante Daten zu produzieren, Gedanken zu interpretieren, zu sortieren oder zu erklären (vgl. Stark 2010: 74 f.). Eine derartige Aufbereitung der Gedanken sollte durch eine genaue Versuchsinstruktion sowie das Üben der lauten Verbalisierung, so gut es geht, minimiert werden (siehe auch Kap. 5.4.2). Letztlich stellt sich die Frage nach der Reaktivität der Methoden, d.-h. inwieweit die Methoden als solche die ablaufenden Prozesse bei der Lektüre beeinflussen (vgl. Konrad 2010, Stark 2010: 76 f., Bilandzic 2017: 409 f.). Die Reaktivität der Methoden sowie die Validität der Daten hängen im hohen Maß von der genauen Planung und Durchführung der Datenerhebung ab. Berücksichtigt man die oben genannten Punkte, stehen mit den dargestellten Verfahren Methoden zur Verfügung, die wertvolle Einbli‐ cke in mentale Prozesse bei der Lektüre ermöglichen und komplexe Zusammenhänge (zumindest teilweise) abbilden können. - Weiterführende Literatur Afflerbach, Peter (2000): Verbal reports and protocol analysis. In: Kamil, Michel L./ Mosenthal, Peter B./ Pearson, P. David/ Barr, Rebecca (Hrsg.): Handbook of reading research. Vol. III. Mahwah, NJ: Lawrence Erlbaum Associates, 163-179. Bowles, Melissa (2010): The think-aloud controversy in second language research. New York: Routledge. Würffel, Nicola (2006): Strategiegebrauch bei Aufgabenbearbeitungen in internetgestütztem Selbstlernmaterial. Tübingen: Narr. - Aufgaben 1. Sie möchten erforschen, wie erwachsene Zweitsprachenlerner/ innen Texte in Lehrbüchern lesen. Insbesondere interessiert Sie dabei, welche Strategien die Lerner/ innen bei der Rezeption dieser Texte einsetzen. Überlegen Sie: Wie können Sie forschungspraktisch vorgehen? Entwerfen Sie eine kurze Projektskizze. 2. Betrachten Sie Ihre Projektskizze nun etwas genauer und prüfen Sie: Welche Möglichkeiten und Grenzen bieten dabei das/ die gewählte/ n Verfahren? Welche konkreten Vorüberlegungen und Vorbereitungen müssen Sie anstellen, damit die Methode/ n möglichst wenig reaktiv und Ihre Daten möglichst valide sind? 5.4.4 Transkription - Transkribieren und Transkriptionskonventionen Nach der Aufnahme von Sprachdaten, beispielsweise im Rahmen von Interviews oder Laut-Denk-Erhebungen, stellt sich die Frage, wie sie für die anschließende Analyse und Interpretation verschriftlicht, also transkribiert werden sollen. Dafür 5.4 Qualitative Zugänge zum Leseverstehen 241 <?page no="243"?> liegen unterschiedliche Transkriptionskonventionen und Transkriptionssysteme vor. Sie unterschieden sich darin, wie genau und welche Merkmale gesprochener Sprache transkribiert werden, und damit auch darin, welcher zeitliche Aufwand entsteht. Aber warum ist es überhaupt nötig, die Sprachdaten zu transkribieren? Können nicht auch die Audio- und Videodateien direkt analysiert und interpretiert werden? Dann entstünden schließlich auch keine Fehler und Reduktionen durch die Verschriftlichung. Die Aufgabe von Transkripten als Sekundärdatenmaterial besteht zunächst einmal darin, über die alleinige (wort-)semantische, d. h. lexikalische Dimension des Texts hinaus so viele Informationen der Art und Weise der gesprochenen Sprache wie möglich in der Verschriftlichung zu ‚konservieren‘. Ziel ist, dass mit dem so entstandenen Text methodisch ausführlich und ohne Zeitdruck gearbeitet werden kann. (Kruse 2015: 342) Zwar müssen in der Auswertung Audio-/ Videoaufnahmen immer mit herangezogen werden, aber aufgrund der Flüchtigkeit und Schnelligkeit der aufgenommenen Daten ist es nicht möglich, sie hinreichend genau zu rezipieren und umfassend zu erfassen. Aus diesem Grund basieren Analyse und Interpretation maßgeblich auf den „ent‐ schleunigten“ und Flüchtiges fixierenden Transkripten. Im Transkript werden die Daten in der jeweils festgelegten Genauigkeit beschrieben und Interpretatives zunächst so weit wie möglich zurückgestellt. Dennoch ist jede Transkription keine objektive Abbildung von Primärdaten, sondern eine Konstruktion (Kruse 2015: 346). Auch aus diesem Grund ist der Abgleich mit der Originalaufnahme immer notwendig. Kruse bringt dies in einer prägnanten Forderung auf den Punkt: Traue niemals deinem Transkript! […] Es bildet keine objektive Datenbasis, sondern eine fehleranfällige und subjektive Rekonstruktion komplexer sprachlicher Kommunikation. (Kruse 2015: 347) Für jedes Forschungsprojekt muss bestimmt werden, wie genau die Transkription erfolgen soll und welche sprachlichen, para- und nonverbalen Phänomene relevant sind (Deppermann 2008: 47). Gängige Transkriptionssysteme bieten dafür oft Abstu‐ fungen der Transkriptionsgenauigkeit (z. B. im Gesprächsanalytischen Transkrip‐ tionssystem (GAT) 2: Minimaltranskript, Basistranskript, Feintranskript, vgl. Selting et al. 2009). Rein inhaltsorientierte Transkriptionssysteme glätten die Merkmale ge‐ sprochener Sprache weitgehend, einzelne Aspekte der Inteviewinteraktion werden zwar sichtbar gemacht, allerdings in vergleichsweise grober Form (z. B. Dresing/ Pehl 2018). Folgt man der Auffassung von Interviews als interaktiver, pragmatisch einge‐ betteter Ko-Konstruktion von Sinn (Deppermann 2013, siehe Kap. 5.4.2), müssen diese Spuren des Interaktiven und des prozesshaften Formulierens im Transkript sichtbar gemacht werden, um die Sinnebene des Interviews adäquat zu erfassen und auszuwerten. Vermeintliche „Füllwörter“ wie äh und hm sind demnach nicht ohne Weiteres weglassbar, sondern bedeutungstragend: Die linguistische Interaktionsfor‐ schung konnte zeigen, dass scheinbar bedeutungslose Phänomene (wie Pausen, ähs, 242 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="244"?> hms etc.) systematisch eingesetzt werden und regelhaften Verwendungsweisen und Interpretationen unterliegen (Deppermann 2008: 39 f.). Dies gilt für Alltagsgespräche wie auch für Interviewinteraktionen mit ihren spezifischen Rahmenbedingungen. Auch beim Lauten Denken kann der Prozess des Formulierens genauere Aufschlüsse, beispielsweise über Schwierigkeiten beim Verbalisieren und Korrekturen, geben und sollte somit entsprechend genau transkribiert werden. Bekannt ist beispielsweise, dass Sprecher/ innen mit verschieden intonierten Interjektionen (hm, mh_hm, ah) sehr unterschiedliche Rückmeldungen an ihre Interaktionspartner/ innen geben, Pausen können je nach Platzierung, Länge und nachfolgend fortgesetzter Kommunikation ebenfalls sehr unterschiedlich interpretiert werden (Deppermann 2008: 39 f.). Alltagsgespräche wie auch Interviews sind keine rein sprachlichen Phänomene - sie sind multimodal. Mimik, Gesten, Blick- und Körperbewegung werden ebenfalls eingesetzt und tragen zur Sinnkonstitution bei. Gerade Menschen mit Schwierigkei‐ ten, sich sprachlich zu äußern, nutzen eventuell Gesten und Blickbewegungen, um Ausdrucksschwierigkeiten zu überbrücken und sich verständlich zu machen (vgl. das Beispiel in Goodwin/ Goodwin 2004). Transkripte müssen daher auch diese Aspekte abbilden können. Allerdings gibt es für die visuelle Transkription bislang keinen vergleichbaren Standard. Vorschläge für multimodale Transkriptionskonventionen finden sich bei Mondada 2018, 2019; Diskussion bei Deppermann 2018. Gängige Transkriptionssoftware ● EXMARaLDA (Extensible Markup Language for Discourse Annotation) besteht aus mehreren Software-Tools (Open Access), mit denen Korpora gesprochener Sprache erstellt, verwaltet und analysiert werden können. Mit dem Partitur-Editor können Transkripte angefertigt werden, der Partitur-Edi‐ tor ist kompatibel mit allen gängigen gesprächsanalytischen Transkriptions‐ konventionen. ● FOLKER (FOLK EditoR): Transkriptionstool (Open Access), das für das „Forschungs- und Lehrkorpus Gesprochenes Deutsch“ (FOLK) am Institut für Deutsche Sprache entwickelt wurde, ausgerichtet auf die Konventionen des GAT-Minimaltranskripts. ● f4transkript: Transkriptionstool (lizenzpflichtig, kostenfreie Demoversion mit beschränkter Abspieldauer) aus der qualitativen Sozialforschung; selbe Softwarefamilie wie f4analyse, das ermöglicht Transkripte zu kodieren, zu strukturieren, Memos zu schreiben usw. f4x bietet eine relativ zuverlässige Spracherkennung für Interviews, allerdings sind automatische Transkripte stets nur eine erste Basis für die eigentliche Transkription. 5.4 Qualitative Zugänge zum Leseverstehen 243 <?page no="245"?> Wichtigste Transkriptionskonventionen: Minimaltranskript (nach GAT 2) (Selting et al. 2009) Sequenzielle Struktur/ Verlaufsstruktur [ ] [ ] Überlappungen und Simultansprechen Ein- und Ausatmen °h / h° Einbzw. Ausatmen von ca. 0.2-0.5 Sek. Dauer °hh / hh° Einbzw. Ausatmen von ca. 0.5-0.8 Sek. Dauer °hhh / hhh° Einbzw. Ausatmen von ca. 0.8-1.0 Sek. Dauer Pausen (.) Mikropause, geschätzt, bis ca. 0.2 Sek. Dauer (-) kurze geschätzte Pause von ca. 0.2-0.5 Sek. Dauer (--) mittlere geschätzte Pause v. ca. 0.5-0.8 Sek. Dauer (---) - längere geschätzte Pause von ca. 0.8-1.0 Sek. Dauer (0.5) (2.0) gemessene Pausen von ca. 0.5 bzw. 2.0 Sek. Dauer (Angabe mit einer Stelle hinter dem Punkt) Sonstige segmentale Konventionen und_äh Verschleifungen innerhalb von Einheiten äh öh äm Verzögerungssignale, sog. "gefüllte Pausen" Lachen und Weinen haha hehe hihi silbisches Lachen ((lacht))((weint)) Beschreibung des Lachens <<lachend> hallo> Lachpartikeln in der Rede, mit Reichweite <<: -)> soo> "smile voice" 244 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="246"?> Rezeptionssignale hm ja nein nee einsilbige Signale hm_hm ja_a nei_ein nee_e zweisilbige Signale ʔhmʔhm mit Glottalverschlüssen, meistens verneinend Sonstige Konventionen ((hustet)) para- und außersprachliche Handlungen und Ereig‐ nisse <<hustend> hallo > sprachbegleitende para- und außersprachliche Hand‐ lungen und Ereignisse mit Reichweite ( ) unverständliche Passage ohne weitere Angaben (xxx), (xxx xxx) ein bzw. zwei unverständliche Silben (solche) vermuteter Wortlaut (also/ alo) (solche/ welche) mögliche Alternativen ((unverständlich, ca. 3 Sek)) unverständliche Passage mit Angabe der Dauer ((… )) Auslassung im Transkript → Verweis auf im Text behandelte Transkriptzeile - Anonymisierung Aus datenschutzrechtlichen Gründen dürfen Transkripte keine Rückschlüsse auf Inter‐ aktionsbeteiligte bzw. im Fall von Interviews auf die befragten Studienteilnehmer/ in‐ nen zulassen (siehe Kap. 5.6). Laut Kruse haben sich folgende Anonymisierungsregeln bewährt (Kruse 2015: 258): ● Anonymisierung von Personennamen, ● Anonymisierung von Ortsangaben: u. a. geografische Namen, aber ggf. auch Namen von anderen Räumen wie Straßennamen, Arbeitsstellen etc., 5.4 Qualitative Zugänge zum Leseverstehen 245 <?page no="247"?> ● Anonymisierung von Berufsangaben: Je nach Forschungsfrage ist dies nicht immer möglich, da für die Analyse relevante Kontextinformationen verloren gehen können. Es gibt unterschiedliche Fälle, mit denen entsprechend unterschiedlich umgegangen werden kann: Ein Fall ist, dass Äußerungen eines Interaktionsbeteiligten im Transkript Namen enthalten. Hier ist es sinnvoll, sie entweder durch andere Namen zu ersetzen, die kontextuell passend sind (z. B. indem sie die Herkunftssprache eines Personenna‐ mens aufnehmen, wenn dies relevant ist), oder abstraktere Umschreibungen zu wählen (z. B. K-Stadt, Name des Dorfes, Ort 1). Die Ersetzung muss in jedem Fall gekennzeichnet werden. Ein anderer Fall ist die generelle Anonymisierung von Studienteilnehmer/ in‐ nen bei der Speicherung von Forschungsdaten. Erstellt werden Kodes, die in einer separat aufzubewahrenden Liste den Klarnamen zugeordnet werden. In Transkripten werden die Kodes dann teilweise als Sprecherkürzel übernommen. 5.5 Partizipatives Forschen Unter partizipativer Forschung versteht man den Einbezug von wissenschaft‐ lichen „Laien“ in den Forschungsprozess. Dies kann sehr unterschiedliche Formen annehmen, eine der bekanntesten Formen ist die sogenannte Citizen Science („Bürgerwissenschaft“). Das Kapitel fokussiert partizipative Ansätze aus der Forschung zu marginalisierten Gruppen und fragt danach, ob und wie sie in der linguistischen Verständlichkeitsforschung genutzt werden könnten. Relevant ist diese Frage auch, weil die Leichte-Sprache-Praxis den konsequenten Zielgruppeneinbezug fordert - auch in der Forschung -, und Forschungsförder‐ institutionen diese Forderungen teilweise unterstützen. Partizipative Forschungsansätze sind kein homogenes Forschungsprogramm. Sie ha‐ ben unterschiedliche Traditionen und Bezüge in einer Reihe von Fächern, darunter die Natur- und Gesellschaftswissenschaften, aber auch die Geisteswissenschaften. In Linguistik und Sprachdidaktik sind sie bislang wenig verbreitet. In der Linguistik wird vereinzelt mit Citizen-Science-Ansätzen (siehe Kasten unten) gearbeitet, allerdings sollen diese nicht im Mittelpunkt dieses Kapitels stehen. Definition: Citizen Science Unter Citizen Science („Bürgerwissenschaft“) versteht man die aktive Beteiligung von wissenschaftlichen Laien an der Forschung. Meist handelt es sich um naturwis‐ senschaftliche Forschung (z. B. Vogelbeobachtung, Sammlung von Insekten). Der Ausdruck wird aber teilweise auch in der Linguistik für partizipative Forschungs‐ 246 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="248"?> projekte genutzt. Hier werden die Bürger/ innen z. B. aufgefordert, Vorkommen von Sprache zu beobachten und zu dokumentieren oder Sprachbeispiele zu kom‐ mentieren. Ein historisches Beispiel ist die Sammlung von Dialekten durch Georg Wenker für den Deutschen Sprachatlas (vgl. Schmidt/ Herrgen 2001-2009). Er ver‐ schickte im 19. Jahrhundert Fragebögen mit einer Reihe von Sätzen an Lehrkräfte. Diese sollten die Sätze in den örtlichen Dialekt übersetzen. Typisch für aktuelle Citizen-Science-Projekte sind digitale Technologien. So nutzt beispielsweise ein Projekt zur Sammlung von visueller Mehrsprachigkeit in der Stadt (sogenannte linguistic landscapes) eine eigens dafür entwickelte App (Purschke 2020). Nutzer/ in‐ nen können Sprachvorkommen fotografieren und mit einem Standort verknüpfen. Anders als die partizipativen Forschungsansätze, die in diesem Kapitel im Mittel‐ punkt stehen, sind die einbezogenen Laien bei Citizen Science ausschließlich oder vorrangig Forschungsobjekte, d. h.: Datenquellen. Sie sind in der Regel nicht als Entscheidungsbeteiligte in den Forschungsprozess einbezogen. Forschung, die unter dem Ausdruck Citizen Science firmiert, ist zudem meist keine engagierte Wissenschaft. Die verschiedenen Ansätze, auf die in diesem Kapitel Bezug genommen wird, haben gemeinsam, dass sie aus der - vor allem qualitativ-sozialwissenschaftlichen - For‐ schung zu marginalisierten Personenkreisen stammen, und zwar besonders aus der Forschung zu Menschen mit Behinderung. Es handelt sich um Formen „engagierter Wissenschaft“, also Forschung, die sich dem Ziel verschreibt, mit den erarbeiteten Ergebnissen gesellschaftliche Entwicklungen zu beeinflussen (vgl. Bourdieu 2001). Forschung, die in dieser Weise „engagiert“ ist, ist gerade für die Linguistik, aber auch für die Sprachdidaktik, ungewöhnlich und wie gesagt bislang kein fest verankertes Paradigma im Fach. Nach wie vor gibt es gerade in der Linguistik Kontroversen darüber, wie deskriptiv oder kritisch linguistische Forschung sein sollte oder sein darf (vgl. exemplarisch Meinhof/ Reisigl/ Warnke 2013; Spitzmüller 2022b). Diese Frage soll aber in diesem Kapitel nicht erneut aufgerollt werden. Vielmehr wollen wir direkt fragen: Worin könnte der Mehrwert einer engagierten partizipativen Linguistik, die sich mit dem Themenfeld dieses Studienbuchs beschäf‐ tigt, liegen? Wie könnte sie aussehen und welche Anwendungsbeispiele gibt es bereits? Welche grundsätzlichen Fragen stellen sich, und welche Grenzen und Besonderheiten gibt es im Vergleich zu sozialwissenschaftlichen Forschungsgegenständen? Durch die Entdeckung des Forschungsgegenstands Leichte Sprache hat sich in der Linguistik ein gewisses Interesse für partizipative Forschungsansätze entwickelt. Das bedeutet aber nicht, dass sich das Anwendungsfeld auf diesen engen Gegenstandsbe‐ reich beschränkt. Man kann zunächst einmal zwei grundsätzliche Fragen stellen: 1. Welchen Mehrwert könnte es für linguistische Verständlichkeitsstudien haben, die jeweiligen Adressatenkreise nicht nur zu beforschen, sondern auch aktiv als Gestalter/ innen in die Studienentwicklung und -planung einzubeziehen? 5.5 Partizipatives Forschen 247 <?page no="249"?> 2. Welche Potenziale könnte ein solcher Einbezug für den Wissenstransfer in die jeweils relevanten Gesellschaftsbereiche haben (Stichwort: engagierte Wissen‐ schaft)? Darüber hinaus stellt sich natürlich die Frage nach einer angemessenen, spezifisch linguistischen Umsetzungspraxis. Diese Frage kann derzeit kaum abschließend beant‐ wortet werden. Bevor wir die Potenziale für die Linguistik reflektieren können, müssen wir aber einen Blick auf die Ursprünge werfen: Was ist unter partizipativer Forschung zu verstehen? Partizipatives Forschen hat unterschiedliche Traditionen und wurde im deutschsprachigen Raum in verschiedenen Disziplinen rezipiert (zu Traditionen in der qualitativen Sozialforschung: Unger 2014: 3 ff.; zur Tradition in der Geistigbehin‐ dertenforschung: Chappell 2000). Definition: Partizipative Forschung Partizipative Forschung „ist ein Oberbegriff für Forschungsansätze, die soziale Wirklichkeit partnerschaftlich erforschen und beeinflussen. Ziel ist es, soziale Wirklichkeit zu verstehen und zu verändern. […] Ein grundlegendes Anliegen der partizipativen Forschung ist es, durch Teilhabe an Forschung mehr gesellschaft‐ liche Teilhabe zu ermöglichen. Es handelt sich also um ein klar wertebasiertes Unterfangen“ (Unger 2014: 1). Partizipative Forschungsmethoden sind auf die Planung und Durchführung eines Unter‐ suchungsprozesses gemeinsam mit jenen Menschen gerichtet, deren soziale Welt und sinnhaftes Handeln […] untersucht wird. In der Konsequenz bedeutet dies, dass sich Erkenntnisinteresse und Forschungsfragen aus der Konvergenz zweier Perspektiven, d. h. vonseiten der Wissenschaft und der Praxis, entwickeln. Der Forschungsprozess wird im besten Falle zum Gewinn für beide Seiten (Bergold/ Thomas 2012: 1) Zentrale Bestimmungselemente partizipativen Forschens sind gemäß diesen sozialwis‐ senschaftlichen Definitionen: ● Einbezug der beforschten Personenkreise als aktive Gestalter/ innen des For‐ schungsprozesses, ● Erkenntniszugewinn durch die Zusammenführung wissenschaftlicher und nicht-wissenschaftlicher Perspektiven, ● Engagement: positive Einflussnahme auf die Gesellschaft als Anlass, Ziel und Leitlinie für Forschung. Als Vorteil partizipativer Vorgehensweisen wird in der Literatur besonders die Mul‐ tiperspektivität der Deutungsarbeit und die kontextsensible Datenerhebung genannt (Unger 2014: 94 f.): Der Forschungsprozess kann durch die partizipative Kollaboration von vornherein auf die Erfordernisse des jeweiligen Forschungsfeldes 248 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="250"?> ausgerichtet werden, was besonders bei Gruppen, Lebens- und Erfahrungswelten relevant ist, die für Forschung schwer zu erreichen sind. Zudem können die Daten aus verschiedenen Perspektiven ausgewertet werden - was qualitative Daten voraus‐ setzt, die entsprechend interpretiert werden müssen. Auch die Rückkopplung von Forschungsergebnissen in die Praxis kann erleichtert werden. Als Nachteile werden u. a. der Zeitaufwand und die anspruchsvolle Vorbereitung und Durchführung ge‐ nannt. Zudem sind der gemeinsamen Theoriebildung von Wissenschaftler/ innen und Beforschten Grenzen gesetzt (Unger 2014: 96 ff.). Für die Linguistik bleibt grundsätzlich zu reflektieren, für welche Daten- und Studienarten partizipative Umsetzung einen Erkenntniszugewinn bedeuten kann. In der Tradition der Geistigbehindertenpädagogik ist mit partizipativer For‐ schung (participatory research) zunächst einmal allgemein der Einbezug von Menschen mit Behinderung in akademische Institutionen (Forschung, Lehre) gemeint. Auch hier kann man nicht von einem einheitlichen Verfahren sprechen, sondern eher von einem „Forschungsstil“ mit spezifischer Programmatik (Chappell 2000: 38). Gemeinsam ist den Ansätzen, dass sie den an der Forschung beteiligten Personen mit ihren Per‐ spektiven, Lernprozessen und ihrer individuellen und kollektiven (Selbst-)Befähigung stärker in den Mittelpunkt rücken. Unger weist darauf hin, dass partizipatives Forschen deshalb „nie ein rein akademisches Unterfangen” ist, sondern immer „ein Gemein‐ schaftsprojekt mit nicht-wissenschaftlichen, gesellschaftlichen Akteuren” (Unger 2014: 2). Als Grundsätze partizipativen Forschens mit Menschen mit Behinderung wurden benannt (Chappell 2000: 38 f.): ● Eine Forschungsfrage kann von Personen mit Behinderung oder von Forscher/ in‐ nen ohne Behinderung identifiziert werden; die Interessengemeinschaft der Men‐ schen mit Behinderung soll auf eine neue Forschungsfrage aufmerksam gemacht werden. ● Personen mit und Forscher/ innen ohne Behinderung arbeiten zusammen, um eine umfassende Erörterung der Forschungsfrage zu erreichen. ● Zwischen Personen mit Behinderung, Forscher/ innen und weiteren Expert/ innen werden Allianzen geschlossen, wobei diese Allianzen im Interesse von Menschen mit Behinderung handeln müssen. Die partizipative Zusammenarbeit soll also in allen Stadien des Forschungsprozesses erfolgen: Nicht nur in der Ergebnisauswertung, sondern bereits in der Entscheidung, welche Forschungsfragen welche Relevanz haben, in der Wahl angemessener Metho‐ den, der Form der Ergebnisdarstellung usw. Ein weiteres programmatisches Anliegen ist, dass Menschen mit sog. geistiger Behinderung durch die Forschungstätigkeit einen persönlichen Mehrwert erfahren (z. B. gestärktes Selbstbewusstsein, Grundzüge einer Emanzipation). Die Forschung soll damit selbst dazu beitragen, diskriminierungsfreie Praktiken in der Gesellschaft umzusetzen und zu etablieren (vgl. Goldbach/ Schuppener 2017: 309). Dieser Aspekt wird insbesondere in der sonderpädagogischen Leichte-Spra‐ che-Forschung thematisiert. 5.5 Partizipatives Forschen 249 <?page no="251"?> Menschen mit sog. geistiger Behinderung verfügen nicht über diejenigen Fähig‐ keiten, die Erfolg im kompetitiven Wissenschaftssystem garantieren. Dennoch geht man in partizipativen Ansätzen programmatisch davon aus, dass sie ihrer Rolle als Forschende nachkommen können (Chappell 2000: 41). Teilweise sind sie in Forschungs‐ projekten als Angestellte von Universitäten beschäftigt. Als Akteure und Akteurinnen ihrer Lebenswelt verfügen sie über relevante Wissensbestände und sind zur kritischen Reflexion in der Lage: Sie werden als erkennende Subjekte gesehen, deren Wissensbestände und Deutungen nicht nur Gegenstand von wissenschaftlichen Analysen sind, sondern die selbst in einem empirischen Forschungsprozess neues Wissen generieren. (Unger 2016: 58) Sie können dabei unterschiedliche Rollen einnehmen, u. a. die Rolle als Ko-For‐ schende in Studien, als Mitglieder in Beratungsgremien, als Interviewende oder als (Mit-)Herausgeber/ innen von Publikationen (Goldbach/ Schuppener 2017: 305; Unger 2014). Eine verbreitete Umsetzungsform partizipativer Forschung in der Sozialwissenschaft ist die Arbeit mit Fokusgruppen (Bohnsack 2012: 372). Fokusgruppen werden als eine Form von Gruppendiskussion verstanden; es gibt hier unterschiedliche Umsetzungs‐ formen (Bohnsack 2012: 372; Breitenfelder/ Hofinger/ Kaupa/ Picker 2004). Eingesetzt werden Fokusgruppen vor allem zur Generierung von Hypothesen und von neuen Forschungsfragen sowie für Pretests (Bohnsack 2012: 372). Neben dieser explorativen Funktion, die in frühen Stadien des Forschungsprozesses relevant ist, wird das Ver‐ fahren insbesondere eingesetzt, um Daten zu interpretieren und gruppenspezifische Haltungen oder Verhaltensweisen in der Deutungsarbeit zum Tragen kommen zu lassen (Breitenfelder et al. 2004: 2; Bloor/ Frankland/ Thomas/ Robson 2001: 4 ff.). Welche Potenziale, insbesondere welchen möglichen Erkenntniszugewinn, bieten partizipative Ansätze nun tatsächlich für die empirische linguistische Forschung? Zunächst einmal muss man festhalten, dass sich sprachwissenschaftliche Forschung überwiegend als nicht eingreifende Forschung versteht. Sie sieht also ihre Aufgabe überwiegend nicht darin, „engagiert“ auf soziale Wirklichkeit einzuwirken. Auch wenn in jüngster Zeit die Vorbehalte gegen explizit kritische und engagierte For‐ schungsansätze im Fach zurückgehen, dürfte der partizipative Forschungsstil mit einigen linguistischen Teildisziplinen schlicht inkompatibel sein. Affinitäten ließen sich wohl am ehesten in den verschiedenen Zweigen der angewandten Linguistik und insbesondere der Sprachdidaktik entwickeln. Jedoch wird es auch hier (empfundene und tatsächliche) Inkompatibilitäten geben (vgl. z. B. zur Situierung partizipativer Forschung bei qualitativ arbeitenden Forscher/ innen: Unger 2014: 5). Der zweite diskussionswürdige Punkt ist hier der Forschungsgegenstand: Bei der Geistigbehindertenpädagogik, deren Forschungsgegenstand Menschen mit geistiger Behinderung sind, liegt ein Engagement für diesen Personenkreis nahe (vgl. Gold‐ bach/ Schuppener 2017). Die Linguistik erforscht jedoch primär die Sprache, d. h. ihr Engagement in der Gesellschaft würde sich auf im weitesten Sinne sprachliche 250 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="252"?> Phänomene beziehen. Auch wenn Sprache als soziale Praxis verstanden wird und Sprachgebrauch als Sprachhandeln, sind diejenigen, die Sprache gebrauchen, und der gesellschaftliche Kontext also nie allein im Blick. Wenn beispielsweise Lesekompetenz als zentrale Voraussetzung gesellschaftlicher Teilhabe verstanden wird, dann liegt der Fokus sprachbezogener Forschung auf der Teilhabe an sprachlich-kommunikativen und literalen Praktiken. Die gesellschaftliche Teilhabe von Personen wird in diesem Sinne nicht direkt beforscht. Beispiele für linguistisches Engagement in der Gesell‐ schaft gibt es dennoch: Man denke nur an die Wahl des Unworts des Jahres, öffentliche Diskussionsbeiträge zu gendergerechtem Sprachgebrauch, zur Rechtschreibreform, zu sprachlichen Merkmalen von Verschwörungstheorien usw. Partizipative Forschungsansätze könnten also für den Transfer von Forschungser‐ kenntnissen in die Gesellschaft genutzt werden: Durch die Kollaboration mit Praxisak‐ teur/ innen oder Adressatengruppen können Zielgruppen identifiziert und wirksamer adressiert werden (vgl. hierzu auch Hauser/ Mundwiler/ Nell-Tuor 2020 am Beispiel sprachdidaktischer Unterrichtsforschung). Gerade in der Leichte-Sprache-Forschung ist es für die Akzeptanz von Forschungsergebnissen nötig, auch die subjektiven Theorien sowie Selbst- und Weltbilder von Akteur/ innen des Praxisfeldes zu kennen. Die Zusammenarbeit mit verschiedenen Akteuren und Akteurinnen Leichter Sprache in Fokusgruppen kann insofern die gegenseitige Verständigung verbessern. Nur un‐ ter dieser Voraussetzung können Forschungsergebnisse angemessen aufbereitet und kommuniziert werden. Exkurs: Wer hat in der Leichten Sprache Expertenstatus? In der Leichte-Sprache-Praxis gibt es eine Entsprechung zu partizipativen For‐ schungsansätzen: Auch dort werden Menschen mit sog. geistiger Behinderung in aktiven Rollen in die Texterstellung, die Diskussion und Weiterentwicklung Leichter Sprache eingebunden. Leichte Sprache soll nicht nur durch verständliche Texte, sondern auch durch diese Teilhabe-Praxis zu einer im Sinne von Men‐ schen mit Behinderung veränderten Kultur beitragen. Menschen mit sog. geistiger Behinderung gelten teilweise sogar als die eigentlichen Expert/ innen Leichter Sprache (für eine kritische Beleuchtung vgl. Bock/ Antos 2019). Mittlerweile haben sich auch politische Institutionen und Fördermittelgeber der Forderung nach par‐ tizipativer Erforschung Leichter Sprache angeschlossen. Ein Beispiel ist das vom Bundesministerium für Arbeit und Soziales angestoßene DIN-Spec-Verfahren, das Leitlinien für deutsche Leichte Sprache erarbeiten soll. Auch aus diesem Grund ist die Reflexion partizipativer Ansätze für Linguistik und Sprachdidaktik relevant. Ein weiterer Einwand gegen partizipatives Forschen könnte sein, dass Sprachbenut‐ zer/ innen ja schon in die Forschung einbezogen sind, wenn sie an Studien teilnehmen. Der Kern empirischer Verstehens- und Verständlichkeitsstudien sind Untersuchungen, bei denen Proband/ innen Tests absolvieren oder an Befragungen teilnehmen. Der Unterschied zu partizipativen Ansätzen besteht darin, dass die Personen in diesen 5.5 Partizipatives Forschen 251 <?page no="253"?> Kontexten als Forschungsobjekte bzw. als Datenquelle auftreten. In partizipativen Settings sind sie auch (oder vor allem) Forschungssubjekte, haben also Einfluss auf Studiendesign, Auswertung usw. Der mögliche Ertrag, der bei dieser umfassenden Einbeziehung gesehen wird, sind neue Formen der Wissensproduktion (Unger 2014: 6 ff.): So können beispielsweise neue Forschungsfragen generiert und relevante Themen bestimmt werden. Gerade soziolinguistische Studien müssen sich oftmals erst einen Zugang zur Lebenswelt der zu erforschenden Personenkreise erarbeiten, um überhaupt relevante Fragen und Untersuchungsaspekte bestimmen zu können (vgl. exemplarisch Eckert 1989). Partizipative Fokusgruppen setzen genau hier an und versuchen eine Annäherung im direkten Austausch zwischen Wissenschaftler/ innen und Beforschten. Bei der Erforschung verständlicher und wirkungsvoller Gesundheitskommunikation unter den Bedingungen einer Pandemie ist beispielsweise denkbar, dass der Einbezug von medizinischen Fachleuten, politischen Entscheidungsträger/ innen und verschiedenen Zielgruppen in einer Fokusgruppe neue und vielschichtige Perspektiven auf wahrge‐ nommene kommunikative Hürden ergeben könnte. Die linguistische Perspektive allein würde vermutlich andere - ebenfalls „gültige“ und relevante - Fragen erarbeiten. Für das Forschungsfeld Leichte Sprache liegt eine erste Pilotstudie zum partizipati‐ ven Arbeiten in Fokusgruppen vor. Im LeiSA-Projekt (Universität Leipzig) wurden linguistische Studien unter Einbezug von Menschen mit sog. geistiger Behinderung geplant; die Fokusgruppe wurde für Pretests bzw. Pilotierungen genutzt, wobei dies sicherlich kein exklusives Merkmal partizipativer Forschung ist. Außerdem wurden Studienergebnisse in der Fokusgruppe diskutiert, insbesondere um Publikationen für die Praxis angemessen aufbereiten zu können (Bock 2019a). Wie auch für andere Felder der Verständlichkeitsforschung stellt sich die Frage, welche Akteur/ innen in partizipative Forschungsprozesse einbezogen werden sollten. Neben Personen der Adressatengruppen kommen bei Leichter und Einfacher Sprache z. B. auch Texterstel‐ ler/ innen, Gestalter/ innen, Auftraggeber/ innen, politische Akteur/ innen in Frage. Insgesamt stellen sich im Moment einige Fragen im Hinblick auf die Anwendung partizipativer Forschungszugänge in der empirischen Linguistik: ● An welche linguistischen Paradigmen sind partizipative Ansätze theoretisch an‐ schließbar (kritische Diskursanalyse, linguistische Sprachkritik, soziolinguistische Studien zur sozialen Identität, kritische Ansätze sprachdidaktischer Inklusionsfor‐ schung,-…)? ● Welche Ziele können für partizipatives Forschen im Rahmen linguistischer und sprachdidaktischer Untersuchungen formuliert werden? Liegt das Potenzial also v. a. bei der Generierung von Forschungsfragen, bei der Kommunikation von Forschungsergebnissen oder anderem? ● Bei welchen Methoden und Datentypen (eher qualitativen, auch quantitativen? ) ist partizipatives Arbeiten möglich und relevant? 252 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="254"?> ● In welchen Schritten im Forschungsprozess ist - in Abhängigkeit von Untersu‐ chungsgegenstand, Methode und Daten - der Einbezug von Ko-Forschenden angebracht (Exploration, Datenauswertung, Datenerhebung usw.)? ● Bei welchen Themen wollen sich Praxisakteur/ innen eigentlich beteiligen, und wie verhält sich die Forschung zu von ihnen formulierten Erwartungen? ● Welche neuen Perspektiven sind von dem Einbezug welcher Personenkreise in den Forschungsprozess zu erwarten? Gerade für die Verständlichkeitsforschung scheint diese Frage relevant: Die Rezipientenperspektive dürfte eine grundsätzlich andere sein als die Perspektive von Textproduzent/ innen. Auf einer anderen Ebene könnte die angewandte Linguistik zudem zukünftig einen Bei‐ trag zur Erforschung von Gelingensbedingungen partizipativer Kommunika‐ tion und Interaktionen leisten: Wie muss die Kommunikation zwischen Forschenden und Praxisakteur/ innen gestaltet werden, um bestmöglich gegenseitige Verständigung zu ermöglichen? Auf diesen ganz eigenen Aspekt können wir hier nicht weiter eingehen. - Weiterführende Literatur Unger, Hella von (2014): Partizipative Forschung: Einführung in die Forschungspraxis. Wiesba‐ den: Springer VS. - Aufgaben Klären Sie mithilfe des Kapitels die folgenden Fragen: 1. a. Welche Merkmale und Funktionen hat partizipatives Forschen? b. Wieso spricht man von einem partizipativen „Forschungsstil“? 2. Recherchieren Sie ein Beispiel für Citizen Science in Linguistik oder Sprachdidak‐ tik. Vergleichen Sie dieses Beispiel mit den Grundsätzen partizipativen Forschens, wie Sie im Kapitel zusammengefasst werden. 3. In welchem Verhältnis steht die Methode Fokusgruppe und der partizipative Forschungsstil? 4. Diskutieren Sie: Welches Potenzial und welche Grenzen hat partizipatives For‐ schen für linguistische Studien zu Leichter oder Einfacher Sprache? In welcher Funktion und in welchen Stadien des Forschungsprozesses würden Sie partizipa‐ tive Vorgehensweisen einsetzen und in welchen eher nicht? 5.5 Partizipatives Forschen 253 <?page no="255"?> 5.6 Forschungsethik 5.6.1 Relevanz Für die linguistische Erforschung Leichter und Einfacher Sprache sind forschungs‐ ethische Überlegungen in mehrerlei Hinsicht drängend: Zum einen gehören die Proband/ innen oftmals Personenkreisen an, die besonderen Schutzes bedürfen (z.-B. Menschen mit geistiger Behinderung, mit Fluchterfahrung, gering Literalisierte, Minderjährige). Gerade Menschen mit sog. geistiger Behinderung sind meist in ihrer sozialen Anpassungsfähigkeit und damit auch in ihrer Unabhängigkeit einge‐ schränkt. Dies hat forschungspraktisch Auswirkungen auf die Gestaltung sämtlicher studienbezogener Kommunikation, insbesondere auf die angemessene Gestaltung der Einwilligung in die Studienteilnahme sowie auf die Informierung zum Ablauf und zu den Ergebnissen der Forschung. Kontrovers diskutiert wird u. a. die Frage, ob die Zielgruppen Leichter und Einfacher Sprache in den Studien als Beforschte oder (auch) als Forschungspersonen auftreten sollten, ob also die Erforschung partizipa‐ tiv gestaltet werden sollte, und wenn ja, ob im gesamten oder nur in bestimmten Teilen des Forschungsprozesses (siehe Kap. 5.5). Zum anderen ist Verständlichkeit ein Forschungsthema von gesellschaftlichem Interesse und praktischer Relevanz. Linguistische Forschungsergebnisse können hier einen Beitrag zu einer veränderten Praxis leisten, z. B. in ausgewählten Handlungsfeldern wie der Verwaltungs- oder Museumskommunikation oder in Lehrmaterialien für den Fachunterricht an Schulen. Das bedeutet, dass auch eine besondere Informationspflicht gegenüber der Öf‐ fentlichkeit bzw. bestimmten Akteursgruppen der Gesellschaft besteht. Zugleich ist gerade dies aber bei Leichter und Einfacher Sprache eine Herausforderung, da nicht nur für die Studienteilnehmer/ innen, sondern auch für die breite Öffentlichkeit eine barrierefreie Aufbereitung von Studienergebnissen wünschenswert oder sogar nötig ist. Was in der Sonderpädagogik (zumindest in der Geistigbehindertenpädagogik) durchaus geläufig ist - Veröffentlichung von wissenschaftlichen Sammelbänden in Leichter Sprache, das Nebeneinander von Leichten und „nicht-Leichten“ Aufsätzen in Fachzeitschriften, Angebot von barrierefreien Kommunikationsformen (Gebärden‐ sprach-, Schriftdolmetschung, vereinfachte Abstracts etc.) auf wissenschaftlichen Tagungen etc. -, ist für die Linguistik bisher weitgehend Neuland. Forschungsethische Diskurse sind in den Teildisziplinen der Linguistik unter‐ schiedlich etabliert. Vor allem in der experimentell arbeitenden Linguistik haben sie - ähnlich wie in der empirischen Sozialwissenschaft - eine relativ zentrale Stellung. Für die angewandte Linguistik und die Sprachdidaktik kann man hingegen derzeit nicht von einem vergleichbaren forschungsethischen Diskurs sprechen (vgl. Goebl 2005: 947; Bräuer/ Vaupel 2018). In der jüngeren Zeit nimmt allerdings gerade in der angewandten Linguistik die Beschäftigung mit forschungsethischen Fragestellungen zu. Befeuert wird dies nicht zuletzt durch die mit digitalen Forschungsmethoden und -ressourcen verbundenen ethischen Herausforderungen (vgl. z. B. Bubenhofer/ Scharloth 2015: 254 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="256"?> Abschnitt 4.4). Ähnliches gilt auch für die Deutsch- und insbesondere Sprachdidaktik seit sie sich immer stärker empirischen Forschungszugängen zugewandt hat; vor allem die Unterrichtsvideografie und die empirische Forschung mit Minderjährigen sind hier Gegenstand forschungsethischer Reflexion (Bräuer/ Vaupel 2018). Disziplinenübergreifend sieht sich Wissenschaftsethik vornehmlich mit drei Be‐ reichen konfrontiert (vgl. Goebl 2005: 947): 1. Ethos der wissenschaftlichen Praxis, d. h. dem Handeln innerhalb der Gemein‐ schaft der Wissenschaftler/ innen, 2. dem Verhältnis zwischen wissenschaftlichem Nutzen der betriebenen Forschung einerseits und den Kosten bzw. dem Schaden, den diese Forschung den untersuch‐ ten Menschen bereitet, andererseits, 3. dem Verhältnis von allgemeinen moralischen Werthaltungen und jenen Fragen, die sich bei der Anwendung von Forschungsergebnissen und wissenschaftlicher Fachkompetenz im „realen Leben“ ergeben. 5.6.2 Ethikkodizes und ethische Grundprinzipien Auf die genannten drei Bereiche beziehen sich daher sowohl die allgemeinen sowie die fachspezifischen Ethikkodizes. Ein Beispiel für einen disziplinenübergreifenden Ethikkodex sind die „Leitlinien zur Sicherung guter wissenschaftlicher Praxis“ der Deutschen Forschungsgemeinschaft (DFG), der größten Forschungsförderinstitution in der Bundesrepublik Deutschland (Deutsche Forschungsgemeinschaft 2019). Der DFG-Kodex zielt vor allem auf das Berufsethos von Wissenschaftler/ innen und formuliert Grundprinzipien, mit denen Verstöße gegen die gute wissenschaftliche Praxis (z. B. Plagiat, Datenverfälschung, Respektierung von Prioritäten bei der Au‐ tor/ innen-Nennung) verhindert werden sollen. Alle Hochschulen und weiteren For‐ schungseinrichtungen müssen die Leitlinien umsetzen, um von der DFG Fördermittel zu erhalten. Daneben gibt es fachspezifische Leitlinien: Die Linguistic Society of America (LSA) veröffentlichte mit ihrem „Ethics Statement“ zwar keinen umfassenden Kodex, formu‐ liert aber grundlegende ethische Prinzipien für die Linguistik mit ihren Teildisziplinen (Linguistic Society of America 2019). Insbesondere enthält es ethische Leitlinien für die Arbeit mit Studienteilnehmer/ innen: Die Forscher/ innen haben demnach die Verantwortung dafür, dass ● Studienteilnehmer/ innen auf Basis einer informierten Einwilligung an Studien teilnehmen und ihre Teilnahme zu jedem Zeitpunkt freiwillig erfolgt; die Einwil‐ ligung der Studienteilnehmer/ innen oder ihrer gesetzlichen Vertreter/ innen muss hinreichend belegt sein (Aufklärung und Einverständniserklärung); ● mit den erhobenen Daten bei der Speicherung und Veröffentlichung von For‐ schungsergebnissen vertraulich umgegangen wird: Es sind die Persönlichkeits‐ 5.6 Forschungsethik 255 <?page no="257"?> rechte der beforschten Individuen zu wahren, es gilt das Prinzip der Anony‐ misierung (siehe Kap. 5.4.4); ● die Studienteilnehmer/ innen angemessen für ihre Teilnahme vergütet werden oder anderweitig Kompensation erfahren (i. d. R. Aufwandsentschädigung oder sonstige Vorteile wie z. B. Versuchspersonenstunden als Pflichtleistung im Studium); ● die Studienteilnehmer/ innen über Form, Zielsetzung und Durchführung der For‐ schung sowie Archivierung und Verwaltung von Ergebnissen informiert sind und dazu in angemessener Weise mit ihnen Rücksprache gehalten wurde; ● den Studienteilnehmer/ innen in dem Maße, wie es für den jeweiligen Kontext angemessen ist, Zugang zu den Forschungsergebnissen gewährt wird. Außerdem hat Forschung eine Verantwortung gegenüber der Gesellschaft. Die Lingu‐ istic Society of America (2019) weist u. a. darauf hin, dass nicht nur den Folgen für die direkt in den Forschungsprozess involvierten Personen Aufmerksamkeit gewid‐ met werden müsse, sondern auch den sozialen und politischen Implikationen linguistischer Forschung. Forscher/ innen müssten zum einen reflektieren, welchen Einfluss ihre Forschungsergebnisse haben, wenn sie veröffentlicht werden (z. B. Re‐ produktion von Diskriminierung). Zum anderen müssten sie auch versuchen, mögliche Fehlinterpretationen in der Öffentlichkeit vorwegzunehmen und diesen so gut wie möglich entgegenzuwirken. Gerade digitale Technologien der Geisteswissenschaften werfen ethische Fragen auf: Die LSA weist allgemein auf die Verantwortung hin, Technologien im Hinblick auf ihre Rolle für gesellschaftliche und politische Entschei‐ dungsprozesse zu reflektieren. Bubenhofer und Scharloth (2015) sehen konkret zwei Reflexionsfelder für eine Ethik der Digital Humanities: Zum einen Fragen der informa‐ tionellen Selbstbestimmung und der Forschungsethik im engeren Sinne (insbesondere Datenschutzfragen) sowie zum anderen forschungsethische Grundprinzipien digitaler linguistischer Analysemöglichkeiten (z. B. Umfang automatisierter Datensammlung und deren Analyse für privatwirtschaftliche Zwecke, Auswertung digitaler Kommuni‐ kation durch Sicherheitsbehörden). An der Zürcher Hochschule für Angewandte Wissenschaften haben Linguist/ in‐ nen einen Ethikkodex der digitalen Linguistik verfasst (Bubenhofer/ Calleri/ Dree‐ sen/ Fluor/ Krasselt/ Kruse/ Rothenhäusler/ Runte 2018), der u. a. folgende Grundprinzi‐ pien benennt: ethische Reflexion als zwingender Bestandteil der Forschung; Prinzip des mildesten Mittels und der Datensparsamkeit; fokussierte Datenanalysen (Daten‐ speicherung und -analyse nur auf Basis von definierten Forschungsfragen); Fokus der Forschungstätigkeit auf die Gesellschaft statt auf das Individuum; Transparenz von Kooperationen und Zielen gegenüber den Forschungspartner/ innen. Gerade die genannten Prinzipien sind auch auf empirische Forschung am und mit dem Menschen übertragbar (z.-B. Experimente). Ethikkodizes und ethische Leitlinien erwecken mitunter den Eindruck, Forschende seien gegen Fehlverhalten gefeit, wenn sie sich nur an die aufgestellten, scheinbar klaren Empfehlungen hielten. Tatsächlich entstehen in der Forschungspraxis aber 256 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="258"?> immer wieder Widersprüche und Spannungen zwischen ethischen Grundprinzipien. In neuen Forschungsfeldern ist zudem die angemessene Umsetzung nicht immer offensichtlich. Dazu zwei Beispiele aus der Verständlichkeitsforschung: Das Prinzip der informierten Einwilligung wirft die Frage auf, wann ein/ e Studienteilnehmer/ in in angemessenem Umfang informiert ist und inwiefern man tatsächlich sicherstellen kann, dass er/ sie Methoden, Zielsetzung, mögliche Konsequenzen einer Studie hinrei‐ chend verstanden hat. Zwar wird betont, dass für Personen mit Verstehensbarrieren angemessene Formen der Aufklärung und Einwilligung gefunden werden müssen, diese müssen aber im Einzelfall immer wieder neu bestimmt und adressatengerecht umgesetzt werden. Von spezifischen Adressatenkreisen abgesehen besteht zudem das generelle Risiko von Missverständnissen und Fehlinterpretationen bei der Forschungs‐ arbeit mit Menschen (vgl. Hopf 2016: 198). Bei der Rückmeldung und Zugänglichmachung von Forschungserkenntnissen kommt angesichts des Forschungsfeldes dieses Studienbuches zudem die Frage auf, welchen Grad an Barrierefreiheit Publikationen erfüllen sollten. In welchem Maße muss also Forschung zu Leichter und Einfacher Sprache in Publikationen auch bar‐ rierefrei für ihre Zielgruppen aufbereitet werden, und in welchem Umfang müssen Studienergebnisse unabhängig von Veröffentlichungen verständlich aufbereitet und rückgemeldet werden? Welche Formate eignen sich hierfür überhaupt (textbasierte Medien, audiovisuelle Formate, zielgruppengerechte Veranstaltungen etc.)? Die Ant‐ worten auf diese Fragen sind auch abhängig von Ressourcen: Bereits die Erstellung von Dokumenten, die technisch für Screenreader optimiert sind, ist kostenaufwendig; die Erstellung von Dokumenten oder Veranstaltungen in Leichter Sprache wirft neben der Ressourcenproblematik die Frage nach den Maßstäben für eine gelungene Umsetzung auf. Um dem Anspruch einer barrierefreien Rückmeldung und Zugänglichmachung von Forschungsergebnissen gerecht zu werden, braucht es daher auch die institutio‐ nelle Förderung entsprechender Umsetzungsformate. 5.6.3 Ethikvotum und Ethikkommissionen Soll bei Forschungsvorhaben am Menschen ein Ethikvotum eingeholt werden, muss dies vor Beginn der Untersuchung geschehen. Ethikkommissionen existieren an den meisten Hochschulen und sind häufig an den medizinischen Fakultäten angesiedelt. Die Deutsche Gesellschaft für Sprachwissenschaft (DGfS) hat zudem eine eigene Ethikkommission zur Begutachtung linguistischer Forschungsprojekte eingerichtet. Sie besteht aus mindestens fünf Sprachwissenschaftler/ innen, die aller drei Jahre in dieses Amt gewählt werden. Die Ethikkommission prüft ethische Aspekte eines For‐ schungsvorhabens und gibt ggf. eine Stellungnahme, ein sogenanntes Ethikvotum, ab. Generell entbindet die Zustimmung einer Ethikkommission den/ die Antragsteller/ in nicht von seiner persönlichen Verantwortung, die ethischen Grundsätze seiner/ ihrer Forschung zu prüfen und einzuhalten. 5.6 Forschungsethik 257 <?page no="259"?> Die Ethikkommission der DGfS definiert ihre Aufgabe folgendermaßen (Deut‐ sche Gesellschaft für Sprachwissenschaft DGfS 2014): Sie prüft, ob alle Vorkehrungen zur Minimierung des Proband/ innen-Risikos getroffen wurden, ob eine Einwilligung der Proband/ innen oder ihrer gesetzlichen Vertreter/ innen hinreichend belegt ist, bewertet die Angemessenheit des Nutzen-Risiko-Verhältnisses des Vorhabens und die allgemeine Vertretbarkeit des Vorhabens unter ethischen Gesichtspunkten. Anträge an die Kommission sollen folgende Angaben enthalten: ● Ziel und Verlaufsplan des Forschungsvorhabens, ● alle Schritte des Untersuchungsablaufs, ● Art und Anzahl der Proband/ innen sowie Auswahl-/ Ausschlusskriterien, ● Körperliche, mentale und andere Beanspruchungen der Proband/ innen, ihre Be‐ lastungen und Risiken einschließlich möglicher Folgeeffekte, ● Vorkehrmaßnahmen, um negative Folgen abzuwenden, ● Vergütung der Proband/ innen oder Zusage sonstiger Vorteile, ● Regelungen zur Einwilligung der Proband/ innen in die Teilnahme an der Studie (Aufklärung, Einverständniserklärung), ● Möglichkeiten der Proband/ innen, die Teilnahme abzulehnen oder von ihr zurück‐ zutreten, ● bei Proband/ innen mit begrenzter Entscheidungsmöglichkeit (z. B. Kinder, Men‐ schen mit gesetzlicher Vertretung): Regelung der Zustimmung zur Studienteil‐ nahme durch Sorgeberechtigte, gesetzliche Vertreter/ in, ● Angaben zu Datenregistrierung und Datenspeicherung. Anträge an andere Ethikkommissionen fordern üblicherweise ähnliche Angaben. - Aufgaben 1. Recherchieren Sie zwei aktuelle Beispiele für Einverständniserklärungen für die Teilnahme an linguistischen Studien. a. Vergleichen Sie: Welche Unterschiede gibt es in den Informationen und Regelungen, worin gleichen oder unterscheiden sich Formulierungen und Textaufbau? b. An welchen Stellen finden die ethischen Grundprinzipien, wie sie in 5.6.2 und 5.6.3 genannt werden, in den Einverständniserklärungen ihren Nieder‐ schlag? c. Diskutieren Sie in Partnerarbeit: Welche Herausforderungen ergeben sich, wenn die Einverständniserklärungen für Personenkreise mit Verständnis‐ problemen oder besonderen kommunikativen Bedürfnissen genutzt werden sollen? 258 5 Empirische Zugänge zu Verstehen und Verständlichkeit <?page no="260"?> 6 Desiderate Verstehen und Verständlichkeit werden seit Jahrzehnten in der Linguistik erforscht. Trotzdem gibt es noch immer offene Fragen. Außerdem entwickeln sich im Sprachge‐ brauch immer wieder neue Phänomene, die mitunter ganz neue Forschungsfragen aufwerfen. Leichte und Einfache Sprache sind zweifellos solche Phänomene. Desiderate gibt es im Themenfeld des Studienbuches sowohl theoretische als auch empirische. Wir nennen hier nur einige davon: ● Linguistische Einordnung Leichter und Einfacher Sprache: Was ist der theo‐ retische Status dieser „Verständlichkeitsphänomene“, lassen sie sich adäquat als Varietäten, als Register, als Stile, als Praktiken, als kulturelle Artefakte (usw.) beschreiben? Es scheint, als bringe jeder dieser theoretischen Zugriffe spezifische Schwierigkeiten bei der Beschreibung mit sich. ● Innersprachlicher Vergleich von Formen verständlichen/ adressatenorientier‐ ten Sprachgebrauchs: Mittels korpuslinguistischer Studien ließe sich beschrei‐ ben, inwiefern sich Leichte und Einfache Sprache als künstlich geschaffene Sprachformen bzw. Normen von anderen, nicht-künstlichen Formen verständli‐ chen Sprachgebrauchs unterscheiden und wodurch. Lassen sich systematische Komplexitätsabstufungen zwischen verschiedenen Verständlichkeitsphänomenen beschreiben oder sind Vereinfachungsprinzipien stark vom jeweiligen Kontext abhängig, insbesondere von Textsorten, Domänen und Textwelten? ● Sprachwandel: Wie hat sich insbesondere die Leichte Sprache seit ihrer Entste‐ hung im deutschsprachigen Raum gewandelt? Gibt es Hinweise, dass Leichte oder Einfache Sprache ein Motor für Sprach(normen)wandel sind, z. B. in einzelnen Domänen? ● Sprachkontrastive Untersuchungen: Welche Unterschiede und Gemeinsam‐ keiten gibt es zwischen vereinfachten bzw. zielgruppenspezifischen Sprachformen in unterschiedlichen Sprachen? Inwiefern unterscheiden sich Prinzipien und Strategien der Vereinfachung und Verständlichmachung, und inwiefern sind Un‐ terschiede sprachsystembedingt? ● Mündlicher Sprachgebrauch: Welche Praktiken und Mittel der Adressatenori‐ entierung mit dem Ziel der Steigerung von Verständlichkeit lassen sich für die auditive Textrezeption und für Interaktionen beschreiben, und welche davon sind erfolgreich? Wie unterscheiden sich mündliche und schriftliche Mittel der Her‐ stellung und Sicherung von Verständlichkeit bzw. Verständnis? Inwiefern können Empfehlungen für Leichte und Einfache Sprache, die primär für schriftliche Texte entwickelt wurden, auf Interaktionen oder die auditive Textrezeption übertragen werden? ● Empirische Untersuchung der Verständlichkeit für unterschiedliche Per‐ sonenkreise: Nicht zu allen Personenkreisen liegen umfassende empirische <?page no="261"?> Erkenntnisse vor. Zudem gibt es Textaspekte, die bisher noch zu wenig empirisch erforscht wurden (z. B. multimodale Mittel der Herstellung von Barrierefreiheit, Kohärenz in Leichte-Sprache-Texten). Welche sprachlich-textuellen Mittel sind für Leser/ innen mit Demenz vs. Leser/ innen mit prälingualer Hörschädigung vs. Leser/ innen mit Down-Syndrom (usw.) effektiv im Hinblick auf die Textver‐ ständlichkeit? Welche Methoden sind zur Untersuchung des Sprachverstehens in welchen Leser/ innengruppen besonders geeignet? ● Textverständlichkeit und Leseverstehen im Kontext digitaler Kommunikati‐ onsmedien: u.-a. Lesen diskontinuierlicher, dynamischer Texte/ Hypertexte, Bar‐ rierefreiheit und Verständlichkeit bei der Gestaltung digitaler Texte, Multimedia‐ lität von Kommunikationsangeboten (z.-B. audiovisuelle und schriftliche Texte). ● Kopplung von Niveaustufen und Vereinfachungen: Es liegen verschiedene dia‐ gnostische Verfahren vor, mit denen das Niveau ermittelt werden kann, auf dem jemand liest (z. B. die lea.-Diagnostik, Kretschmann/ Wieken 2010; und die Alpha-Kurzdiagnostik Lesen, Rosebrock/ Scherf 2021). Lassen sich diesen Niveaus Komplexitätsgrade von Texten zuordnen? Wie sollen Texte für Leser/ innen ge‐ staltet werden, denen z. B. das Lesen von langen Texten/ kurzen Texten/ Sätzen schwerfällt, die aber Wörter gut lesen können? ● Didaktische Anwendung vereinfachter Sprachformen: Welche Potenziale haben vereinfachte Texte für den Fachunterricht (Sachtexte im Fach wie auch literaräs‐ thetische Texte im Deutschunterricht)? Wie werden Leichte und Einfache Sprache sowie andere Formen der Textvereinfachung bereits angewandt? Wie sind bereits vorhandene Texte und Praktiken hinsichtlich der Möglichkeiten, sprachliches und fachliches Lernen zu ermöglichen, einzuschätzen? ● Faustregeln für die Anpassung von Texten: Wie kann sprachwissenschaftliches Wissen angemessen in die Praxis transferiert werden? Lassen sich Vereinfachun‐ gen identifizieren, die für verschiedene Gruppen effektiv, einfach zu vermitteln und einfach anzuwenden sind? Es scheint, als gäbe es in den verschiedenen Praxisfeldern ein teils sehr unterschiedliches Verhältnis zu wissenschaftlichen Erkenntnissen. Während in Ratgebern zu verständlicher Verwaltungssprache regelmäßig auf linguistische Forschung Bezug genommen wird, ist dies beispiels‐ weise in der Leichte-Sprache-Bewegung Gegenstand kontroverser Diskussionen. ● Erforschung von Einstellungen, insbesondere zu Leichter und Einfacher Spra‐ che: Soll der Transfer der wissenschaftlichen Erkenntnisse in die Praxis gelingen, muss daher auch die Einstellung der Akteur/ innen untersucht und die Öffentlich‐ keitsarbeit angepasst werden. Bislang wird v. a. die Einstellung zu Leichter Sprache und ihren Regelwerken untersucht (z. B. Bormann/ Böhme 2021). Relevant sind in diesem Bereich auch laienlinguistische Vorstellungen von sprachlich-textueller Komplexität/ Einfachheit und Verständlichkeit. 260 6 Desiderate <?page no="262"?> Literatur und digitale Ressourcen Korpora und Analysesoftware AntConc: Anthony, Laurence (2020): AntConc (Version 3.5.9) [Computer Software]. Tokyo, Japan: Waseda University. https: / / www.laurenceanthony.net/ software.html (11.07.2022) DWDS (Digitales Wörterbuch der deutschen Sprache): DWDS - Digitales Wörterbuch der deutschen Sprache (2021): Das Wortauskunftssystem zur deutschen Sprache in Geschichte und Gegenwart, hrsg. v. d. Berlin-Brandenburgischen Akademie der Wissenschaften, https: / / www.dwds.de (11.07.2022) Leibniz-Institut für Deutsche Sprache (2022): Deutsches Referenzkorpus / Archiv der Korpora geschriebener Gegenwartssprache 2022-I (Release vom 08.03.2022). Mannheim: Leibniz-In‐ stitut für Deutsche Sprache. https: / / www.ids-mannheim.de/ digspra/ kl/ projekte/ korpora (11.07.2022) Open Corpus Workbench: http: / / cwb.sourceforge.net (11.07.2022) Simple Concordance Program: http: / / www.textworld.com/ scp/ (11.07.2022) TreeTagger: https: / / www.cis.uni-muenchen.de/ ~schmid/ tools/ TreeTagger/ (11.07.2022) WebLicht: https: / / weblicht.sfs.uni-tuebingen.de/ weblichtwiki/ index.php/ Main_Page (11.07.2022) Wortschatzportal: https: / / wortschatz.uni-leipzig.de (11.07.2022) Literaturverzeichnis Abbeduto, Leonard/ Warren, Steven F./ Conners, Frances A. (2007): Language development in Down syndrome. From the prelinguistic period to the acquisition of literacy. In: Mental Retardation and Developmental Disabilities Research Reviews 13 (3), 247-261. Adamzik, Kirsten (2004): Textlinguistik. Eine einführende Darstellung. Tübingen: Niemeyer. Adamzik, Kirsten (2016): Textlinguistik. Grundlagen, Kontroversen, Perspektiven. Berlin/ Bos‐ ton: De Gruyter. Adamzik, Kirsten (2018): Was ist ein Text? In: Birkner, Karin/ Janich, Nina (Hrsg.): Handbuch Text und Gespräch. Berlin/ Boston: De Gruyter, 26-51. Adamzik, Kirsten (2019): Textsorten und ihre Beschreibung. In: Janich, Nina (Hrsg.): Textlingu‐ istik. 15 Einführungen und eine Diskussion. Tübingen: Narr Francke Attempto, 135-168. Adler, Florian (2019): leserlich.info. Schritte zu einem inklusiven Informationsdesign. In: Borin‐ ski, Ulrike/ Gorbach, Rudolf P. (Hrsg.): Lesbar. Typografie in der Wissensvermittlung. Zürich: Triest, 72-81. <?page no="263"?> Afflerbach, Peter (2000): Verbal reports and protocol analysis. In: Kamil, Michel L./ Mosenthal, Peter B./ Pearson, P. David/ Barr, Rebecca (Hrsg.): Handbook of reading research. Vol. III. Mahwah, NJ: Lawrence Erlbaum Associates, 163-179. Ágel, Vilmos (2017): Grammatische Textanalyse. Textglieder, Satzglieder, Wortgruppenglieder. Berlin/ Boston: De Gruyter. Agha, Asif (2007): Language and social relations. Cambridge: Cambridge University Press. Ahrenholz, Bernt (2017): Erstsprache - Zweitsprache - Fremdsprache - Mehrsprachigkeit. In: Ahrenholz, Bernt/ Oomen-Welke, Ingelore (Hrsg.): Deutsch als Zweitsprache. Baltmanns‐ weiler: Schneider Verlag Hohengehren, 3-20. Aitchison, Jean (2012): Words in the mind: An introduction to the mental lexicon. Chichester: Wiley-Blackwell. Albert, Ruth/ Marx, Nicole (2016): Empirisches Arbeiten in Linguistik und Sprachlehrforschung. Anleitung zu quantitativen Studien von der Planungsphase bis zum Forschungsbericht. Tübingen: Narr. Alexander, Kerstin (2017): Zur Lesbarkeit und Erkennbarkeit von Open-Source-Schriftarten im Umfeld „Leichter Sprache“. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 317-328. Alexander, Kerstin (Hrsg.) (2019): Mit Typografie und Bild barrierefrei kommunizieren. For‐ schungsstand und Studien. Berlin: Frank & Timme. Allor, Jill H./ Mathes, Patricia G./ Roberts, J. Kyle/ Cheatham, Jennifer P./ Champlin, Tammi M. (2010): Comprehensive reading instruction for students with intellectual disabilities. Findings from the first three years of a longitudinal study. In: Psychology in the Schools 47 (5), 445-466. American Association on Intellectual and Developmental Disabilities (2010): Intellectual di‐ sability. Definition, classification, and systems of supports. Washington, DC: American Association on Intellectual and Developmental Disabilities. American Psychological Association (2020): Publication manual of the American Psychological Association: the official guide to APA style. Washington, DC: American Psychological Association. Ammon, Ulrich (2004): Language — Variety/ Standard Variety — Dialect. In: Ammon, Ul‐ rich/ Dittmar, Norbert/ Mattheier, Klaus J./ Trudgill, Peter (Hrsg.): Sociolinguistics/ Soziolin‐ guistik 1. Berlin/ Boston: De Gruyter, 316-335. Antos, Gerd (1996): Laienlinguistik. Studien zu Sprach- und Kommunikationsproblemen im All‐ tag. Am Beispiel von Sprachratgebern und Kommunikationstrainings. Tübingen: Niemeyer. Arendt, Birte (2014): Qualitative Interviews als interaktive ko-konstruktive Prozesse: Kontext‐ sensitivität in mikroanalytischer Perspektive. In: Cuonz, Christina/ Studler, Rebekka (Hrsg.): Sprechen über Sprache. Perspektiven und neue Methoden der Spracheinstellungsforschung. Tübingen: Stauffenburg, 8-29. Ariel, Mira (1990): Accessing noun-phrase referents. London: Routledge. Auer, Peter (1992): Introduction. John Gumperz' approach to contextualization. In: Auer, Peter/ Di Luzio, Aldo (Hrsg.): The contextualization of language. Amsterdam: Benjamins, 1-37. 262 Literatur und digitale Ressourcen <?page no="264"?> Averintseva-Klisch, Maria (2013): Textkohärenz. Heidelberg: Winter. Bader, Markus (1996). Sprachverstehen: Syntax und Prosodie beim Lesen. Opladen: Westdeut‐ scher Verlag. Bader, Markus (2015): Leseverstehen und Sprachverarbeitung. In: Rautenberg, Ursula/ Schnei‐ der, Ute (Hrsg.): Lesen. Ein interdisziplinäres Handbuch. Berlin/ Boston: De Gruyter, 141-168. Bader, Markus/ Häussler, Jana (2010): Word order in German. A corpus study. In: Lingua 120 (3), 717-762. Bader, Markus/ Meng, Michael/ Bayer, Josef/ Hopf, Jens-Max (2000): Syntaktische Funkti‐ ons-Ambiguitäten im Deutschen - Ein Überblick. In: Zeitschrift für Sprachwissenschaft 19 (1), 34-102. Baker, Paul/ Egbert, Jesse (Hrsg.) (2016): Triangulating methodological approaches in corpus linguistic research. New York: Routledge. Ballstaedt, Steffen-Peter (1997): Wissensvermittlung. Die Gestaltung von Lernmaterial. Wein‐ heim: Beltz PsychologieVerlagsUnion. Ballstaedt, Steffen-Peter (2002): Schreibstrategien zum Medienwechsel. Text-Bild-Design. In: Perrin, Daniel/ Böttcher, Ingrid/ Kruse, Otto/ Wrobel, Arne (Hrsg.): Schreiben. Von intuitiven zu professionellen Schreibstrategien. Tübingen: Stauffenburg, 139-152. Ballstaedt, Steffen-Peter (2019): Sprachliche Kommunikation: Verstehen und Verständlichkeit. Tübingen: Narr. Ballstaedt, Steffen-Peter/ Mandl, Heinz/ Schnotz, Wolfgang/ Tergan, Sigmar-Olaf (1981): Texte verstehen, Texte gestalten. München: Urban & Schwarzenberg. Balota, David A./ Yap, Melvin J./ Cortese, Michael J. (2006): Visual word recognition: The journey from features to meaning (a travel update). In: Traxler, Matthew/ Gernsbacher, Morton (Hrsg.): Handbook of psycholinguistics. San Diego: Academic Press, 285-375. Baroni, Marco (2009): Distributions in text. In: Lüdeling, Anke/ Kytö, Merja (Hrsg.): Corpus linguistics. Handbücher zur Sprach- und Kommunikationswissenschaft (HSK) 29.2,. Berlin: De Gruyter, 803-822. Bartlett, Frederic C. (1932): Remembering. A study in experimental and social psychology. Cambridge: Cambridge University Press. Baumert, Andreas (2018): Einfache Sprache. Verständliche Texte schreiben. Münster: Spaß am Lesen Verlag. Beaugrande, Robert de/ Dressler, Wolfgang U. (1981): Einführung in die Textlinguistik. Tübin‐ gen: Niemeyer. Becker-Mrotzek, Michael/ Jambor-Fahlen, Sabine (2017): Lesen und Schreiben lehren und lernen. In: Günther, Helmut/ Kniffka, Gabriele/ Knoop, Gabriele/ Riecke-Baulecke, Thomas (Hrsg.): Basiswissen Lehrerbildung. DaZ unterrichten. Seelze: Klett Kallmeyer, 134--148. Behrens, Heike (1999): Was macht Verben zu einer besonderen Kategorie im Spracherwerb? In: Meibauer, Jörg/ Rothweiler, Monika (Hrsg.): Das Lexikon im Spracherwerb. Tübingen/ Basel: Francke, 32-50. Beinborn, Lisa (2016): Predicting and manipulating the difficulty of text-completion exercises for language learning. Dissertation. Technische Universität Darmstadt. URL: https: / / tuprints.ul Literatur und digitale Ressourcen 263 <?page no="265"?> b.tu-darmstadt.de/ 5647/ 1/ DissertationBeinborn_publishedVersion_September20_online.pdf. (11.07.2022) Beishuizen, Jos/ Asscher, Jessica/ Prinsen, Fleur/ Elshout-Mohr, Marianne (2003): Presence and place of main ideas and examples in study texts. In: The British Journal of Educational Psychology 73 (3), 291-316. Berendes, Karin/ Vajjala, Sowmya/ Meurers, Detmar/ Bryant, Doreen/ Wagner, Wolf‐ gang/ Chinkina, Maria/ Trautwein, Ulrich (2018): Reading demands in secondary school: Does the linguistic complexity of textbooks increase with grade level and the academic orientation of the school track? In: Journal of Educational Psychology 110 (4), 518-543. Berendes, Karin/ Wagner, Wolfgang/ Meurers, Detmar/ Trautwein, Ulrich (2019): When a silent reading fluency test measures more than reading fluency: Academic language features predict the test performance of students with a non-German home language. In: Reading and Writing 32 (3) 561-583. Bergelt, Daniel/ Kaczmarzik, Janine (2019): Wie wird Leichte Sprache geprüft? In: Bergelt, Daniel/ Goldbach, Anne (Hrsg.): Exklusive Teilhabe am Arbeitsmarkt? Unterstützung durch Leichte Sprache? Marburg: Lebenshilfe-Verlag, 180-187. Bergold, Jarg/ Thomas, Stefan (2012): Partizipative Forschungsmethoden: Ein methodischer Ansatz in Bewegung. Forum Qualitative Sozialforschung 13 (1), 1-110. Best, Karl-Heinz (2006): Sind Wort- und Satzlänge brauchbare Kriterien zur Bestimmung der Lesbarkeit von Texten? In: Wichter, Sigurd/ Busch, Albert (Hrsg.): Wissenstransfer-- Erfolgskontrolle und Rückmeldungen aus der Praxis. Frankfurt am Main/ Berlin/ Bern/ Bru‐ xelles/ New York/ Oxford/ Wien: Peter Lang, 21-31. Bilandzic, Helena (2017): Lautes Denken. In: Mikos, Lothar/ Wegener, Claudia (Hrsg.): Qualitative Medienforschung. Stuttgart: UTB, 406-413. Bilger, Frauke/ Jäckle, Robert/ Rosenbladt, Bernhard von/ Strauß, Alexandra (2012): Studiende‐ sign, Durchführung und Methodik der leo. - Level-One Studie. In: Grotlüschen, Anke/ Riek‐ mann, Wibke (Hrsg.): Funktionaler Analphabetismus in Deutschland. Ergebnisse der ersten leo. - Level-One-Studie. Münster: Waxmann, 79-105. BITV 2.0 (2011): Verordnung zur Schaffung barrierefreier Informationstechnik nach dem Behindertengleichstellungsgesetz. URL: https: / / www.gesetze-im-internet.de/ bitv_2_0/ index. html (11.07.2022). Bloor, Michael/ Frankland, Jane/ Thomas, Michelle/ Robson, Kate (2001): Focus groups in social research. London: SAGE. Bock, Bettina M. (2014): „Leichte Sprache“. Abgrenzung, Beschreibung und Problemstellungen aus Sicht der Linguistik. In: Jekat, Susanne J./ Schubert, Klaus/ Jüngst, Heike E./ Villiger, Claudia (Hrsg.): Sprache barrierefrei gestalten. Perspektiven aus der Angewandten Linguis‐ tik. Berlin: Frank & Timme, 17-52. Bock, Bettina M. (2015a): Leichte Texte schreiben. Zur Wirksamkeit von Regellisten Leichter Sprache in verschiedenen Kommunikationsbereichen und im World Wide Web. In: trans-kom 8 (1), 79-102. URL: http: / / www.trans-kom.eu/ bd08nr01/ trans-kom_08_01_04_Bock_Leichte _Texte.20150717.pdf. (11.07.2022). 264 Literatur und digitale Ressourcen <?page no="266"?> Bock, Bettina M. (2015b): Anschluss ermöglichen und die Vermittlungsaufgabe ernst nehmen - 5 Thesen zur „Leichten Sprache“. In: Didaktik Deutsch 20 (38), 9-17. Bock, Bettina M. (2015c): Zur Angemessenheit Leichter Sprache: aus Sicht der Linguistik und aus Sicht der Praxis. In: Aptum 11 (2), 131-140. Bock, Bettina M. (2017): Das Passiv- und Negationsverbot „Leichter Sprache“ auf dem Prüfstand - Empirische Ergebnisse aus Verstehenstest und Korpusuntersuchung. In: Sprachreport 33 (1), 20-28. Bock, Bettina M. (2018a): Diskurslinguistik und Grounded-Theory-Methodologie. In: Warnke, Ingo H. (Hrsg.): Handbuch Diskurs. Berlin/ Boston: De Gruyter. Bock, Bettina M. (2018b): Was ist für wen leicht verständlich? Befunde zu Wortschatz, Gram‐ matik und leserseitigem Wissen. In: Der Deutschunterricht LXX (5), 15-25. Bock, Bettina M. (2019a): „Leichte Sprache“ - Kein Regelwerk. Sprachwissenschaftliche Ergeb‐ nisse und Praxisempfehlungen aus dem LeiSA-Projekt. Berlin: Frank & Timme. [Online-Fas‐ sung (2018): https: / / nbn-resolving.org/ urn: nbn: de: bsz: 15-qucosa2-319592 (02.09.2021). Bock, Bettina M. (2019b): Inklusion - sprachdidaktisch. Überlegungen zu Begriff und Diskurs, Engführungen und Erweiterungen. In: Didaktik Deutsch 24 (47), 28-43. Bock, Bettina M. (2020): Makrotypografie als Verständlichkeitsfaktor. Empirische Studie zum Erkennen von Textsorten am Beispiel der „Leichten Sprache“. In: Zeitschrift für Angewandte Linguistik 73 (1), 181-212. Bock, Bettina M. (2021): Wir alle und fremdsprachige Kinder. Soziale Ein- und Ausschließung in metapragmatischen Diskursen. In: Lublin Studies in Modern Languages and Literature 45 (2), 149-161. Bock, Bettina M./ Antos, Gerd (2019): Öffentlichkeit - Laien - Experten: Strukturwandel von ‚Laien‘ und ‚Experten‘ in Diskursen über Sprache. In: Antos, Gerd/ Niehr, Thomas/ Spitz‐ müller, Jürgen (Hrsg.): Handbuch Sprache im Urteil der Öffentlichkeit. Berlin: De Gruyter Mouton. Bock, Bettina M./ Dresing, Pirkko F. (2021): Multimodale Lesestrategien: Eine empirische Rekonstruktion auf Basis von Laut-Denk- und Eye-Tracking-Daten. In: Medien im Deutsch‐ unterricht, 1-22. Bock, Bettina M./ Lange, Daisy (2017): Empirische Untersuchungen zu Satz- und Textverste‐ hen bei Menschen mit geistiger Behinderung und funktionalen Analphabeten. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 253-274. Bohman, Ulla (2017): Easy-to-read in Sweden. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 447-455. Bohnsack, Ralf (2012): Gruppendiskussion. In: Flick, Uwe/ Kardorff, Ernst von/ Steinke, Ines (Hrsg.): Qualitative Forschung. Ein Handbuch. Reinbek: Rowohlt, 369-384. Bonna, Franziska/ Buddeberg, Klaus/ Grotlüschen, Anke/ Hirschberg, Marianne (2020): Literale Praktiken von ambulant betreuten Beschäftigten in Werkstätten für behinderte Menschen. In: Grotlüschen, Anke/ Buddeberg, Klaus (Hrsg.): LEO 2018. Leben mit geringer Literalität. Bielefeld: wbv, 369-378. Literatur und digitale Ressourcen 265 <?page no="267"?> Boot, Inge/ Pecher, Diane (2008): Word recognition is affected by the meaning of orthographic neighbours: Evidence from semantic decision tasks. In: Language and Cognitive Processes 23 (3), 375-393. Borghardt, Liv/ Deilen, Silvana/ Fuchs, Julia/ Gros, Anne-Kathrin/ Hansen-Schirra, Silvia/ Na‐ gels, Arne/ Schiffl, Laura/ Sommer, Johanna (2021). Neuroscientific research on the proces‐ sing of Easy Language. In: Frontiers in Communication 6, 1-9. Bormann, Sarah/ Böhme, Katrin (2021): Einstellungen von Lehrkräften der Sekundarstufe I zur sprachlichen Anpassung von Sachtexten und zur Leichten Sprache. In: Der Deutschunterricht 73 (1), 64-73. Börnert, Moritz/ Grubert, Jana/ Wilbert, Jürgen (2016): Lautes Denken als Methode zur Forschung und Diagnostik in inklusionspädagogischen Handlungsfeldern. In: Gebele, Diana/ Zepter, Alexandra L. (Hrsg.): Inklusion: Sprachdidaktische Perspektiven. Theorie - Empirie - Praxis. Duisburg: Gilles & Francke, 165-186. Bornkessel, Ina/ Schlesewsky, Matthias (2009): Processing syntax and morphology. A neurocog‐ nitive perspective. Oxford: Oxford University Press. Bos, Wilfried/ Hornberg, Sabine/ Arnold, Karl-Heinz/ Faust, Gabriele/ Fried, Lilian/ Lankes, Eva-Maria/ Schwippert, Knut/ Valentin, Renate (Hrsg.) (2007): IGLU 2006. Lesekompeten‐ zen von Grundschulkindern in Deutschland im internationalen Vergleich. Münster/ New York/ München/ Berlin: Waxmann. Bos, Wilfried/ Valtin, Renate/ Voss, Andreas/ Hornberg, Sabine/ Lankes, Eva-Maria (2007): Konzepte der Lesekompetenz in IGLU 2006. In: Bos, Wilfried/ Hornberg, Sabine/ Arnold, Karl-Heinz/ Faust, Gabriele/ Fried, Lilian/ Lankes, Eva-Maria/ Schwippert, Knut/ Valtin, Re‐ nate (Hrsg.): IGLU 2006. Lesekompetenzen von Grundschulkindern in Deutschland im internationalen Vergleich. Münster/ New York/ München/ Berlin: Waxmann, 81-107. Bourdieu, Pierre (2001): Für eine engagierte Wissenschaft. Le Monde Diplomatique. URL: https : / / monde-diplomatique.de/ artikel/ ! 1125558. (11.07.2022). Bourdieu, Pierre (2005): Was heißt sprechen? Zur Ökonomie des sprachlichen Tausches. Wien: Braumüller. Bowles, Melissa (2010): The think-aloud controversy in second language research. New York: Routledge. Bräuer, Christoph/ Vaupel, Jessica-Catherine (2018): Wissenschaftsethos und Forschungsethik. Implikationen für eine empirische Deutschdidaktik. In: Boelmann, Jan (Hrsg.): Empirische Forschung in der Deutschdidaktik. Baltmannsweiler: Schneider Verlag Hohengehren, 277- 298. Bredel, Ursula/ Lang, Katrin/ Maaß, Christiane (2016): Zur empirischen Überprüfbarkeit von Leichte-Sprache-Regeln am Beispiel der Negation. In: Mälzer, Nathalie (Hrsg.): Barrierefreie Kommunikation - Perspektiven aus Theorie und Praxis. Berlin: Frank & Timme, 95-115. Bredel, Ursula/ Maaß, Christiane (2016): Leichte Sprache. Theoretische Grundlagen. Orientie‐ rung für die Praxis. Berlin: Dudenverlag. Bredel, Ursula/ Maaß, Christiane (2017): Wortverstehen durch Wortgliederung - Bindestrich und Mediopunkt in Leichter Sprache. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): 266 Literatur und digitale Ressourcen <?page no="268"?> „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 211-228. Breitenfelder, Ursula/ Hofinger, Christoph/ Kaupa, Isabella/ Picker, Ruth (2004): Fokusgruppen im politischen Forschungs- und Beratungsprozess. In: Forum Qualitative Sozialforschung 5 (2). Brinker, Klaus/ Cölfen, Hermann/ Pappert, Steffen (2014): Linguistische Textanalyse. Eine Ein‐ führung in Grundbegriffe und Methoden. Berlin: Schmidt. Brinker, Klaus/ Sager, Sven F. (2010): Linguistische Gesprächsanalyse. Eine Einführung. Berlin: Erich Schmidt Verlag. Bryant, Doreen (2006): Die Verarbeitung ambiger Koordinationen bei Kindern und Erwachsenen. In: Becker, Tabea/ Peschel, Corinna (Hrsg.): Gesteuerter und ungesteuerter Grammatiker‐ werb. Baltmannsweiler: Schneider Verlag Hohengehren, 128-153. Bryant, Doreen/ Berendes, Karin/ Meurers, Detmar/ Weiss, Zarah (2017): Schulbuchtexte der Sekundarstufe auf dem linguistischen Prüfstand: Analyse der bildungs- und fachsprachlichen Komplexität in Abhängigkeit von Schultyp und Jahrgangsstufe. In: Hennig, Mathilde (Hrsg.): Linguistische Komplexität - ein Phantom? Stauffenburg, 281-309. Bubenhofer, Noah (2009): Sprachgebrauchsmuster. Korpuslinguistik als Methode der Diskurs- und Kulturanalyse. Berlin: De Gruyter. Bubenhofer, Noah/ Calleri, Selena/ Dreesen, Philipp/ Fluor, Matthias/ Krasselt, Julia/ Kruse, Otto/ Rothenhäusler, Klaus/ Runte, Maren (2018): Ethikcodex Digital Linguistics ZHAW. Winterthur: ZHAW Zürcher Hochschule für Angewandte Linguistik. URL: https: / / www.zh aw.ch/ storage/ linguistik/ forschung/ digital-linguistics/ ethikcodex-digital-inguistics-zhaw.pd f. (11.07.2022). Bubenhofer, Noah/ Scharloth, Joachim (2015): Maschinelle Textanalyse im Zeichen von Big Data und Data-driven Turn - Überblick und Desiderate. In: Zeitschrift für germanistische Linguistik 43 (1), 1-26. Bublitz, Wolfram (2001): Formen der Verständnissicherung in Gesprächen. In: Brinker, Klaus/ Antos, Gerd/ Heinemann, Wolfgang/ Sager, Sven F. (Hrsg.): Text- und Gesprächslin‐ guistik. Ein internationales Handbuch zeitgenössischer Forschung. Berlin: De Gruyter, 1330- 1340. Bucher, Hans-Jürgen (2011): Multimodales Verstehen oder Rezeption als Interaktion. Theore‐ tische und empirische Grundlagen einer systematischen Analyse der Multimodalität. In: Diekmannshenke, Hajo/ Klemm, Michael/ Stöckl, Hartmut (Hrsg.): Bildlinguistik. Theorien - Methoden - Fallbeispiele. Berlin: Erich Schmidt Verlag, 123-156. Buchner, Tobias (2008): Das qualitative Interview mit Menschen mit so genannter geistiger Be‐ hinderung. Ethische, methodologische und praktische Aspekte. In: Biewer, Gottfried/ Luciak, Mikael/ Schwinge, Mirella (Hrsg.): Begegnung und Differenz: Menschen - Länder - Kulturen. Beiträge zur Heil- und Sonderpädagogik. Bad Heilbrunn: Klinkhardt, 516-528. Bulté, Bram/ Housen, Alex (2012): Defining and operationalising L2 complexity. In: Housen, Alex/ Kuiken, Folkert/ Vedder, Ineke (Hrsg.): Dimensions of L2 performance and proficiency: Complexity, accuracy and fluency in SLA. Amsterdam: Benjamins, 21-46. Literatur und digitale Ressourcen 267 <?page no="269"?> Bundesministerium für Arbeit und Soziales (=BMAS) (2014): Leichte Sprache. Ein Ratgeber. URL: https: / / www.bmas.de/ SharedDocs/ Downloads/ DE/ Publikationen/ a752-ratgeber-leichte-spra che.pdf; jsessionid=12C728E96C66AAD99046EB6B2C264F98.delivery1-replication? __blob=p ublicationFile&v=3. (11.07.2022). Bürki, Trix/ Schnitzer, Katja (2018): Mehrsprachige literale Förderung. Ein Handlungsfeld für die Ausbildung von Deutschlehrpersonen. In: Kutzelmann, Sabine/ Massler, Ute (Hrsg.): Mehrsprachige Leseförderung: Grundlagen und Konzepte. Tübingen: Narr, 115-131. Busch, Brigitta (2017): Mehrsprachigkeit. Stuttgart: UTB. Busse, Dietrich (1987): Historische Semantik. Analyse eines Programms. Stuttgart: Klett-Cotta. Busse, Dietrich (2003): Begriffsgeschichte oder Diskursgeschichte? Zu theoretischen Grundla‐ gen und Methodenfragen einer historisch-semantischen Epistemologie. In: Dutt, Carsten (Hrsg.): Herausforderungen der Begriffsgeschichte. Heidelberg: Winter, 17-38. Busse, Dietrich (2015): Bedeutung. In: Felder, Ekkehard/ Gardt, Andreas (Hrsg.): Handbuch Sprache und Wissen. Berlin/ Boston: De Gruyter, 34-56. Busse, Dietrich/ Teubert, Wolfgang (1994): Ist Diskurs ein sprachwissenschaftliches Objekt? Zur Methodenfrage der historischen Semantik. In: Busse, Dietrich/ Hermanns, Fritz/ Teu‐ bert, Wolfgang (Hrsg.): Begriffsgeschichte und Diskursgeschichte. Methodenfragen und Forschungsergebnisse der historischen Semantik. Opladen: Westdeutscher Verlag, 10-28. Butterworth, Brian (1983): Lexical representation. In: Butterworth, Brian (Hrsg.): Language pro‐ duction. Volume 2: Development, writing and other language processes. London: Academic Press, 257-294. Cain, Kate/ Nash, Hannah M. (2011): The influence of connectives on young readers' processing and comprehension of text. In: Journal of Educational Psychology 103 (2), 429-441. Carlisle, Joanne/ Katz, Lauren (2006): Effects of word and morpheme familiarity on reading of derived words. In: Reading and Writing 19 (7), 669-693. Carter, Ronald (1987): Is there a core vocabulary? Some implications for language teaching. In: Applied Linguistics 8 (2), 178-193. Cazden, Courtney/ Cope, Bill/ Fairclough, Norman/ Gee, Jim/ Kalantzis, Mary/ Kress, Gun‐ ther/ Luke, Allan/ Luke, Carmen/ Michaels, Sarah/ Nakata, Martin (1996): A pedagogy of multiliteracies: Designing social futures. In: Harvard Educational Review 66 (1), 60-92. Cervetti, Gina/ Hiebert, Elfrieda/ Pearson, David/ Clung, Nicola (2015): Factors that influence the difficulty of science words. In: Journal of Literacy Research 47 (2), 153-185. Chappell, Anne L. (2000): Emergence of participatory methodology in learning difficulty research: Understanding the context. In: British Journal of Learning Disabilities 28(1). 38-43. Chinn, Deborah/ Homeyard, Claire (2017): Easy read and accessible information for people with intellectual disabilities. Is it worth it? A meta-narrative literature review. In: Health Expectations 20 (6), 1189-1200. Chipere, Ngoni (2003): Understanding complex sentences. Native speaker variation in syntactic competence. London: Palgrave Macmillan. Chipere, Ngoni (2009): Individual differences in processing complex grammatical structures. In: Sampson, Geoffrey/ Gil, David/ Trudgill, Peter (Hrsg.): Language complexity as an evolving variable. Oxford: Oxford University Press, 178-191. 268 Literatur und digitale Ressourcen <?page no="270"?> Chlosta, Christoph/ Ostermann, Torsten (2017): Grunddaten zur Mehrsprachigkeit im deutschen Bildungssystem. In: Ahrenholz, Bernt/ Oomen-Welke, Ingelore (Hrsg.): Deutsch als Zweit‐ sprache. Baltmannsweiler: Schneider Verlag Hohengehren, 21-40. Christmann, Ursula (2008): Rhetorisch-stilistische Aspekte moderner Verstehens- und Verständ‐ lichkeitsforschung. In: Fix, Ulla/ Gardt, Andreas/ Knape, Joachim (Hrsg.): Rhetorik und Stilistik. Ein Handbuch historischer und systematischer Forschung. Berlin: De Gruyter, 1092-1106. Christmann, Ursula (2009): Methoden zur Erfassung von Literalität. In: Bertschi-Kaufmann, Andrea/ Rosebrock, Cornelia (Hrsg.): Literalität. Bildungsaufgabe und Forschungsfeld. Wein‐ heim/ München: Juventa, 181-200. Christmann, Ursula (2015): Lesen als Sinnkonstruktion. In: Rautenberg, Ursula/ Schneider, Ute (Hrsg.): Lesen. Ein interdisziplinäres Handbuch. Berlin/ Boston: De Gruyter, 169-184. Christmann, Ursula (2017): Wie leicht darf Leichte Sprache sein? Empirische Lücken in einem gut gemeinten Konzept. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 34-51. Christmann, Ursula/ Groeben, Norbert (1996): Textverstehen, Textverständlichkeit - Ein For‐ schungsüberblick unter Anwendungsperspektive. In: Krings, Hans P. (Hrsg.): Wissenschaft‐ liche Grundlagen der technischen Kommunikation. Tübingen: Narr, 129-190. Christmann, Ursula/ Groeben, Norbert (1999): Psychologie des Lesens. In: Franzmann, Bodo/ Hasemann, Klaus/ Löffler, Dietrich/ Schön, Erich (Hrsg.): Handbuch Lesen. München: Saur, 145-223. Christmann, Ursula/ Groeben, Norbert (2019): Verständlichkeit: die psychologische Perspektive. In: Maaß, Christiane/ Rink, Isabel (Hrsg.): Handbuch barrierefreie Kommunikation. Berlin: Frank & Timme, 123-145. Cintrón-Valentín, Myrna C./ Ellis, Nick C. (2016): Salience in second language acquisition: Physical form, learner attention, and instructional focus. In: Frontiers in Psychology 7, 1-21. Clark, Herbert H. (1996): Using Language. Cambridge: Cambridge University Press. Coltheart, Max/ Rastle, Kathleen/ Perry, Conrad/ Langdon, Robyn/ Ziegler, Johannes C. (2001): DRC: A dual route cascaded model of visual word recognition and reading aloud. In: Psychological Review 108 (1), 204-256. Coseriu, Eugenio (2007): Sprachkompetenz. Grundzüge der Theorie des Sprechens. Tübingen: Narr. Cossu, Giuseppe/ Rossini, F./ Marshall, John C. (1993): When reading is acquired but phonemic awareness is not: A study of literacy in Down's syndrome. In: Cognition 46 (2), 129-138. Cuonz, Christina (2010): Gibt es hässliche Sprachen? Laiensprachbetrachtung zwischen Tabui‐ sierung und Konzeptualisierung. In: Bulletin VALS-ASLA 91, 123-140. Cuonz, Christina/ Studler, Rebekka (Hrsg.) (2014): Sprechen über Sprache. Perspektiven und neue Methoden der Spracheinstellungsforschung. Tübingen: Stauffenburg. Dahl, Östen (2004): The growth and maintenance of linguistic complexity. Amsterdam/ Phil‐ adelphia: Benjamins. Literatur und digitale Ressourcen 269 <?page no="271"?> Daroczy, Gabriella/ Wolska, Magdalena/ Meuerers, Detmar/ Nuerk, Hans-Christoph (2015): Word problems: A review of linguistic and numerical factors contributing to their difficulty. In: Frontiers in Psychology 6, 1-13. Dederich, Markus (2009): Behinderung als sozial- und kulturwissenschaftliche Kategorie. In: Dederich, Markus/ Jantzen, Wolfgang/ Beck, Iris (Hrsg.): Behinderung und Anerkennung. Stuttgart: Kohlhammer, 15-39. Dee-Lucas, Diana/ Larkin, Jill H. (1990): Organization and comprehensibility in scientific proofs: or, “Consider a particle p…”. In: Journal of Educational Psychology 82 (4), 701-714. Degand, Liesbeth/ Sanders, Ted (2002): The impact of relational markers on expository text comprehension in L1 and L2. In: Reading and Writing 15 (7/ 8), 739-757. Degani, Tamar/ Tokowicz, Natasha (2010): Semantic ambiguity within and across languages: An integrative review. In: The Quarterly Journal of Experimental Psychology 63 (7), 1266-1303. Dehaene, Stanislas (2014): Lesen: Die größte Erfindung der Menschheit und was dabei in unseren Köpfen passiert. München: Knaus. Deilen, Silvana/ Schiffl, Laura (2020): Using eye-tracking to evaluate language processing in the Easy Language target group. In: Hansen-Schirra, Silvia/ Maaß, Christane (Hrsg.): Easy Language research: Text and user perspectives. Berlin: Frank & Timme, 273-281. Denzin, Norman K. (1970): The Research Act. Chicago: Aldine. Denzin, Norman K./ Lincoln, Yvonna S. (1994): Introduction: Entering the field of qualitative research. In: Denzin, Norman K./ Lincoln, Yvonna S. (Hrsg.): Handbook of qualitative research. London: SAGE, 1-17. Deppermann, Arnulf (2007): Verstehen im Gespräch. In: Kämper, Heidrun/ Eichinger, Ludwig (Hrsg.): Sprache - Kognition - Kultur. Sprache zwischen mentaler Struktur und kultureller Prägung. Berlin/ Boston: De Gruyter, 225-261. Deppermann, Arnulf (2008): Gespräche analysieren. Eine Einführung. Wiesbaden: VS Verlag für Sozialwissenschaften. Deppermann, Arnulf (2010): Zur Einführung: ‚Verstehen in professionellen Handlungsfel‐ dern’ als Gegenstand einer ethnographischen Konversationsanalyse. In: Deppermann, Ar‐ nulf/ Reitemeier, Ulrich/ Schmitt, Reinhold/ Spranz-Fogasy, Thomas (Hrsg.): Verstehen in professionellen Handlungsfeldern. Tübingen: Narr Francke Attempto. Deppermann, Arnulf (2013): Interview als Text vs. Interview als Interaktion. In: Forum Qualita‐ tive Sozialforschung 14 (3), 1-61. Deppermann, Arnulf (2018): Sprache in der multimodalen Interaktion. In: Deppermann, Ar‐ nulf/ Reineke, Silke (Hrsg.): Sprache im kommunikativen, interaktiven und kulturellen Kontext. Berlin/ Boston: De Gruyter, 51-85. Deutsche Forschungsgemeinschaft (2019): Guidelines for Safeguarding Good Research Practice. Code of Conduct. URL: https: / / www.dfg.de/ download/ pdf/ foerderung/ rechtliche_rahmenbe dingungen/ gute_wissenschaftliche_praxis/ kodex_gwp_en.pdf. (11.07.2022). Deutsche Gesellschaft für Sprachwissenschaft DGfS (2014): Ordnung der Deutschen Gesellschaft für Sprachwissenschaft zur ethischen Begutachtung von Forschungsprojekten. URL: https: / / dgfs.de/ de/ assets/ content/ Ordnung_Ethikkommission_DGfS.pdf (11.07.2022) 270 Literatur und digitale Ressourcen <?page no="272"?> Deutscher, Guy (2009): “Overall complexity“ - a wild goose chase? In: Sampson, Geoffrey/ Gil, David/ Trudgill, Peter (Hrsg.): Language complexity as an evolving variable. Oxford: Oxford University Press, 243-251. Deutscher, Guy (2010): Im Spiegel der Sprache. Warum die Welt in anderen Sprachen anders aussieht. München: C.H. Beck. Deutsches Institut für Medizinische Dokumentation und Information (DIMDI, Hrsg.) (2018): ICD-10-GM Version 2019. Systematisches Verzeichnis, Internationale statistische Klassifika‐ tion der Krankheiten und verwandter Gesundheitsprobleme. Köln. Di Blasi, Francesco D./ Buono, Serafino/ Cantagallo, C./ Di Filippo, Gloria/ Zoccolotti, Pierluigi (2019): Reading skills in children with mild to borderline intellectual disability: A cross-sec‐ tional study on second to eighth graders. In: Journal of Intellectual Disability Research 63 (8), 1023-1040. Di Blasi, Francesco D./ Buono, Serafino/ Città, Santina/ Costanzo, Angela A./ Zoccolotti, Pier‐ luigi (2018): Reading deficits in intellectual disability are still an open question. A narrative review. In: Brain Sciences 8 (8), 1-15. Diekmannshenke, Hajo (2017): Zwischen „Leicht kompliziert“ und „Deutsch light“ - Der mediale Diskurs um die „Leichte Sprache“. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 111-128. Diekmannshenke, Hajo/ Klemm, Michael/ Stöckl, Hartmut (Hrsg.) (2011): Bildlinguistik. Theo‐ rien - Methoden - Fallbeispiele. Berlin: Erich Schmidt Verlag. Dietrich, Rainer/ Gerwien, Johannes (2017): Psycholinguistik: Eine Einführung. Stuttgart: J.B. Metzler. Dijk, Teun A. van (2006): Discourse, context and cognition. In: Discourse Studies 8 (1), 159-177. Dijk, Teun A. van/ Kintsch, Walther (1983): Strategies of discourse comprehension. New York: Academic Press. DIN 1450: 2013-04, Schriften---Leserlichkeit. Domahs, Frank (2016): Gestörte graphematische Verarbeitung: Alexie und Agraphie. In: Do‐ mahs, Ulrike/ Primus, Beatrice (Hrsg.): Handbuch Laut, Gebärde, Buchstabe. Berlin: De Gruyter, 474-491. Döring, Nicola/ Bortz, Jürgen (2016): Forschungsmethoden und Evaluation. Berlin: Springer. Dresing, Pirkko F. (2018): Bilder in Lehrwerken für Deutsch als Zweitsprache. Eine Pilotstudie zur Interpretation von lexikalisierenden Bildern durch Deutschlernende. Masterarbeit, Uni‐ versität Bielefeld. Dresing, Pirkko F./ Bechauf, Carina/ Möllenkamp, Mareike/ Ballweg, Sandra/ Grubert, Julia/ Le‐ wicki, Anja (2017): Wie nehmen neu zugewanderte Menschen in Deutschland ihre sprachliche Umgebung wahr? Zum Umgang von Deutschlernenden mit Text-Bild-Kombinationen im Alltag. In: Di Venanzio, Laura/ Lammers, Ina/ Roll, Heike. (Hrsg.): DaZu und DaFür - Neue Perspektiven für das Fach Deutsch als Zweit- und Fremdsprache zwischen Flüchtlingsinteg‐ ration und weltweitem Bedarf. 43.-Jahrestagung des Fachverbandes Deutsch als Fremd- und Zweitsprache an der Universität Duisburg-Essen 2016. Göttingen: Universitätsverlag, 117-148. Literatur und digitale Ressourcen 271 <?page no="273"?> Dresing, Thorsten/ Pehl, Thorsten (2018): Praxisbuch Interview, Transkription & Analyse. Anleitungen und Regelsysteme für qualitativ Forschende. Marburg: Eigenverlag. Drews, Etta/ Zwitserlood, Pienie (1995): Morphological and orthographic similarity in visual word recognition. In: Journal of Experimental Psychology: Human Perception and Perfor‐ mance 21(5), 1098-1116. Dürscheid, Christa (2007): Schrift - Text - Bild. Ein Brückenschlag. In: Zeitschrift für germanis‐ tische Linguistik 35 (3), 269-282. Dürscheid, Christa/ Schneider, Jan G. (2019): Standardsprache und Variation. Tübingen: Narr Francke Attempto. Eckert, Penelope (1989): Jocks and burnouts: Social categories and identity in the high school. New York: Teachers College Press. Eckert, Penelope (2012): Three waves of variation study. The emergence of meaning in the study of sociolinguistic variation. In: Annual Review of Anthropology 41 (1), 87-100. Eckkrammer, Eva M. (2002): Brauchen wir einen neuen Textbegriff ? In: Fix, Ulla/ Adamzik, Kirsten/ Antos, Gerd/ Klemm, Michael (Hrsg.): Brauchen wir einen neuen Textbegriff ? Antworten auf eine Preisfrage. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Ox‐ ford/ Wien: Peter Lang, 31-57. Egloff, Birte/ Grosche, Michael/ Hubertus, Peter/ Rüsseler, Jascha (2011): Funktionaler Analpha‐ betismus im Erwachsenenalter: eine Definition. In: Projektträger im DLR e.-V. (Hrsg.): Zielgruppen in Alphabetisierung und Grundbildung Erwachsener. Bestimmung, Verortung, Ansprache. Bielefeld: Bertelsmann, 11-32. Ehlers, Swantje (2017): Lesekompetenz in der Zweitsprache. In: Ahrenholz, Bernt/ Oo‐ men-Welke, Ingelore (Hrsg.): Deutsch als Zweitsprache. Baltmannweiler: Schneider Hohen‐ gehren, 279-291. Ehlich, Konrad (1999): Alltägliche Wissenschaftssprache. In: InfoDaF 26 (1), 3-24. Ehri, Linnea C. (2014): Orthographic mapping in the acquisition of sight word reading, spelling memory, and vocabulary learning. In: Scientific Studies of Reading 18 (1), 5-21. Eilers, Sarah/ Tiffin-Richards, Simon P./ Schroeder, Sascha (2019): The repeated name penalty effect in children's natural reading: Evidence from eye tracking. In: Quarterly Journal of Experimental Psychology 72 (3), 403-412. Elektronisches Valenzwörterbuch deutscher Verben EVALBU (o.-J.). In: Grammis - Grammati‐ sches Informationssystem. Mannheim: Institut für Deutsche Sprache. URL: https: / / grammis. ids-mannheim.de/ verbvalenz. (11.07.2022). Ellis, Andrew W./ Young, Andrew W. (1996): Human cognitive neuropsychology. A textbook with readings. Hove: Psychology Press. Ellis, Nick (2006): Selective attention and transfer phenomena in L2 acquisition: Contingency, cue competition, salience, interference, overshadowing, blocking, and perceptual learning. In: Applied Linguistics 27 (2), 164-194. Ellis, Nick (2012): What can we count in language, and what counts in language acquisition, cognition, and use? In: Gries, Stefan T./ Divjak, Dagmar (Hrsg.): Frequency effects in language learning and processing. Berlin/ New York: De Gruyter, 7-33. 272 Literatur und digitale Ressourcen <?page no="274"?> Ellis, Nick (2016): Salience, cognition, language complexity, and complex adaptive systems. In: Studies in Second Language Acquisition 38 (2), 341-351. Ellis, Nick (2017): Cognition, corpora, and computing: Triangulating research in usage-based language learning. In: Language Learning 67 (1), 40-65. Ellis, Nick/ Beaton, Alan (1993): Psycholinguistic determinants of foreign language vocabulary learning. In: Language Learning 43 (4), 559-617. Ellis, Nick/ Collins, Laura (2009): Input and second language acquisition: The roles of frequency, form, and function. Introduction to the special issue. In: The Modern Language Journal 93 (3), 329-335. Elsner, Daniela/ Viebrock, Britta (2015a): Einleitung: Triangulation in der Fremdsprachenfor‐ schung. In: Elsner, Daniela/ Viebrock, Britta (Hrsg.): Triangulation in der Fremdsprachenfor‐ schung. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang, 7-16. Elsner, Daniela/ Viebrock, Britta (Hrsg.) (2015b): Triangulation in der Fremdsprachenforschung. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang. Elspaß, Stephan (2018): Sprachvariation und Sprachwandel. In: Neuland, Eva/ Schlobinski, Peter (Hrsg.): Handbuch Sprache in sozialen Gruppen. Berlin/ Boston: De Gruyter, 87-107. Ericsson, K. Anders / Simon, Herbert A. (1993): Protocol analysis. Verbal reports as data. Cambridge, MA: MIT Press. Falkai, Peter/ Wittchen, Hans-Ulrich (Hrsg.) (2015): Diagnostisches und Statistisches Manual Psychischer Störungen. Göttingen: Hogrefe. Feick, Diana (2012): Anwendungsbeitrag: Videobasiertes Lautes Erinnern als Instrument zur Untersuchung fremdsprachlicher Gruppenaushandlungsprozesse. In: Doff, Sabine (Hrsg.): Fremdsprachenunterricht empirisch erforschen. Grundlagen - Methoden - Anwendung. Tübingen: Narr, 202-217. Feick, Diana/ Pietzuch, Anja/ Schramm, Karen (Hrsg.) (2013): Alphabetisierung für Erwachsene. Stuttgart: Klett Sprachen. Feilke, Helmuth (1996): Sprache als soziale Gestalt. Ausdruck, Prägung und die Ordnung der sprachlichen Typik. Frankfurt: Suhrkamp. Feilke, Helmuth (2012): Schulsprache - Wie Schule Sprache macht. In: Günthner, Susanne/ Imo, Wolfgang/ Meer, Dorothee/ Schneider, Jan G. (Hrsg.): Kommunikation und Öffentlichkeit. Sprachwissenschaftliche Potenziale zwischen Empirie und Norm. Berlin/ Boston: De Gruyter, 149-175. Fereidooni, Karim (2011): Schule - Migration - Diskriminierung. Wiesbaden: Springer. Ferguson, Charles A. (1971): Absence of copula and the notion of simplicity. A study of normal speech, baby talk, foreigner talk and pidgins. In: Hymes, Dell (Hrsg.): Pidginization and creolization of languages. Cambridge: Cambridge University Press, 141-150. Ferreira, Fernanda/ Clifton, C. (1986): The independence of syntactic processing. In: Journal of Memory and Language 25 (3), 348-368. Ferreira, Fernanda/ Patson, Nikole C. (2007): The 'good enough' approach to language compre‐ hension. In: Language and Linguistics Compass 1 (1-2), 71-83. Literatur und digitale Ressourcen 273 <?page no="275"?> Feuser, Georg (1976): Notwendigkeit und Möglichkeit einer pädagogischen Förderung von Kin‐ dern mit frühkindlichem Autismus in Sonderkindergarten und Sonderschule. In: Zeitschrift für Heilpädagogik 11 (27), 643-657. Feuser, Georg (1996): „Geistig Behinderte gibt es nicht! “ Projektionen und Artefakte in der Geistigbehindertenpädagogik. In: Geistige Behinderung 35 (1), 18-25. Fischer, Klaus (2017): Komplexität - dennoch ein nützlicher Begriff. In: Hennig, Mathilde (Hrsg.): Linguistische Komplexität - ein Phantom? Tübingen: Stauffenburg, 19-52. Fix, Ulla (1995): Textmusterwissen und Kenntnis von Kommunikationsmaximen. Voraussetzung, Gegenstand und Ziel einer kommunikationsbezogenen Sprachberatung. In: Biere, Bernd U./ Hoberg, Rudolf (Hrsg.): Bewertungskriterien in der Sprachberatung. Tübingen: Narr, 62-73. Fix, Ulla (2007a): Textstil und KonTextstile. Stil in der Kommunikation als umfassende Semiose von Sprachlichem, Parasprachlichem und Außersprachlichem. In: Fix, Ulla (Hrsg.): Stil - ein sprachliches und soziales Phänomen. Beiträge zur Stilistik. Berlin: Frank & Timme, 87-113. Fix, Ulla (2007b): Zugänge zu Stil als semiotisch komplexer Einheit. Thesen, Erläuterungen und Beispiele. In: Fix, Ulla (Hrsg.): Stil - ein sprachliches und soziales Phänomen. Beiträge zur Stilistik. Berlin: Frank & Timme, 179-192. Fix, Ulla (2008a): Textsorte - Textmuster - Textmustermischung. Konzept und Analysebeispiele. In: Fix, Ulla: Texte und Textsorten - sprachliche, kommunikative und kulturelle Phänomene. Berlin: Frank & Timme, 65-82. Fix, Ulla (2008b): Was heißt Texte kulturell verstehen? Ein- und Zuordnungsprozesse beim Verstehen von Texten als kulturellen Entitäten. In: Fix, Ulla (Hrsg.): Texte und Textsorten - sprachliche, kommunikative und kulturelle Phänomene. Berlin: Frank & Timme, 103-127. Fix, Ulla (2008c): Ansprüche an einen guten (? ) Text. In: Aptum 3 (1), 1-20. Fix, Ulla (2008d): Nichtsprachliches als Textfaktor: Medialität, Materialität, Lokalität. In: Zeit‐ schrift für germanistische Linguistik 36 (3), 343-354. Fix, Ulla (2017): „Schwere“ Texte in „Leichter Sprache“ - Voraussetzungen, Möglichkeiten und Grenzen (? ) aus textlinguistischer Sicht. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 163-188. Fix, Ulla/ Poethe, Hannelore/ Yos, Gabriele (2003): Textlinguistik und Stilistik für Einsteiger. Ein Lehr- und Arbeitsbuch. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Ox‐ ford/ Wien: Peter Lang. Fleischer, Wolfgang/ Barz, Irmhild (2012): Wortbildung der deutschen Gegenwartssprache. Tübingen: Niemeyer. Flick, Uwe (2011): Triangulation. Eine Einführung. Wiesbaden: VS Verlag für Sozialwissenschaf‐ ten. Fodor, Janet D. (1998): Learning to parse? Journal of Psycholinguistic Research 27, 285-319. Fodor, Jerry A. (1983): The modularity of mind. An essay on faculty psychology. Cambridge, MA: MIT Press. Forster, Kenneth I./ Chambers, Susan M. (1973): Lexical access and naming time. In: Journal of Verbal Learning and Verbal Behavior 12 (6), 627-635. 274 Literatur und digitale Ressourcen <?page no="276"?> Forster, Kenneth I./ Mohan, Kathleen/ Hector, Jo (2003): The mechanics of masked priming. In: Kinoshita, Sachiko/ Lupker/ Stephen J. (Hrsg.): Masked priming: State of the art. Hove: Psychology Press, 3-37. Foucault, Michel (2008): Archäologie des Wissens. Frankfurt am Main: Suhrkamp. Freed, Alice F./ Ehrlich, Susan (Hrsg.) (2010): Why do you ask? The function of questions in institutional discourse. New York/ Oxford: Oxford University Press. Freyhoff, Geert/ Heß, Gerhard/ Kerr, Linda/ Menzel, Elizabeth/ Tronbacke, Bror/ Veken, Kathy van der (1998): Sag es einfach! Europäische Richtlinien für die Erstellung von leicht lesbaren Informationen. Europäische Vereinigung der ILSMH. Fricke, Ellen (2012): Grammatik multimodal. Berlin/ Boston: De Gruyter. Frost, Ram (1998): Towards a strong phonological theory of visual word recognition: True issues and false trails. In: Psychological Bulletin 123 (1), 71-99. Frost, Ram (2012): Towards a universal model of reading. In: Behavioral and Brain Sciences 35, 1-67. Fuchs, Julia (2017): Leichte Sprache und ihr Regelwerk - betrachtet aus der Perspektive der Informationsstruktur. In: Sprachwissenschaft 42 (1), 97-119. Fuchs, Julia (2019): Leichte Sprache auf dem Prüfstand. Realisierungsvarianten von kausalen Relationen in Leichte-Sprache-Texten. In: Sprachwissenschaft 44 (4), 441-480. Fukumura, Kumiko/ Gompel, Roger P. van (2015): Effects of order of mention and grammatical role on anaphor resolution. In: Journal of Experimental Psychology: Learning, Memory and Cognition 41 (2), 501-525. Gardt, Andreas (2018): Wissenskonstitution im Text. In: Birkner, Karin/ Janich, Nina (Hrsg.): Handbuch Text und Gespräch. Berlin/ Boston: De Gruyter, 52-79. Gass, Susan/ Mackey, Alison (2017): Stimulated recall methodology in applied linguistics and L2 research. Mahwah, NJ: Erlbaum. Geyken, Alexander (2007): The DWDS corpus: A reference corpus for the German language of the 20th century. In: Fellbaum, Christiane (Hrsg.): Collocations and idioms: Linguistic, lexicographic, and computational aspects. London: Continuum, 23-41. Gil, David (2009): How much grammar does it take to sail a boat? In: Sampson, Geoffrey/ Gil, David/ Trudgill, Peter (Hrsg.): Language complexity as an evolving variable. Oxford: Oxford University Press, 19-33. Glaboniat, Manuela/ Müller, Martin/ Rusch, Paul/ Schmitz, Helen/ Wertenschlag, Lukas (2005): Profile Deutsch. Gemeinsamer europäischer Referenzrahmen. Lernzielbestimmungen, Kannbeschreibungen, kommunikative Mittel, Niveau A1-A2, B1-B2, C1-C2. Berlin/ Mün‐ chen/ Wien/ Zürich/ New York: Langenscheidt. Glaser, Barney G./ Strauss, Anselm L. (1998): Grounded Theory. Strategien qualitativer For‐ schung. Bern: Huber. Goebl, Hans (2005): Forschungsethische Probleme/ Issues in Research Ethics. In: Ammon, Ulrich/ Dittmar, Norbert/ Mattheier, Klaus J./ Trudgill, Peter (Hrsg.): Sociolinguistics/ Sozio‐ linguistik 2. Berlin/ New York: De Gruyter, 946-955. Literatur und digitale Ressourcen 275 <?page no="277"?> Goethe-Institut (2016): Goethe-Zertifikat B1. Deutschprüfung für Jugendliche und Erwachsene. Wortliste. URL: https: / / www.goethe.de/ pro/ relaunch/ prf/ de/ Goethe-Zertifikat_B1_Wortliste .pdf. (11.07.2022). Goffman, Erving (1955): On face-work. An analysis of ritual elements in social interaction. In: Psychiatry. Interpersonal and Biological Processes 18 (3), 213-231. Gogolin, Ingrid/ Duarte, Joana (2016): Bildungssprache. In: Killian, Jörg/ Brouër, Birgit/ Lütten‐ berg, Dina (Hrsg.): Handbuch Sprache in der Bildung. Berlin/ New York: De Gruyter, 478-499. Goldbach, Anne/ Bergelt, Daniel (2019): Leichte Sprache am Arbeitsplatz. Sozialwissenschaftli‐ che Ergebnisse und Praxisempfehlungen aus dem LeiSA-Projekt. Berlin: Frank & Timme. Goldbach, Anne/ Schuppener, Saskia (2017): Die Bedeutung des partizipativen Vorgehens in der Erforschung Leichter Sprache. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 301-316. Goldhahn, Dirk/ Eckart, Thomas/ Quasthoff, Uwe (2012): Building large monolingual dictio‐ naries at the leipzig corpora collection: From 100 to 200 languages. In: Calzolari, Nico‐ letta/ Choukri, Khlaid/ Declerck, Thierry/ Doğan, Mehmet U./ Maegaard, Bente/ Mariani, Joseph/ Moreno, Asuncion/ Odijk, Jan/ Piperidis, Stelios: Proceedings of the eighth inter‐ national conference on language resources and evaluation (LREC'12). Istanbul: European Language Resources Association (ELRA), 759-765. Goldstein, E. Bruce (2015): Wahrnehmungspsychologie. Der Grundkurs. Berlin: Springer. Gompel, Roger P. van/ Pickering, Martin J. (2007): Syntactic parsing. In: Gaskell, Gareth M. (Hrsg.): Oxford handbook of psycholinguistics. Oxford: Oxford University Press, 289-307. Goodwin, Charles/ Goodwin, Marjorie H. (2004): Participation. In: Duranti, Alessandro (Hrsg.): A companion to linguistic anthropology. Oxford: Blackwell, 222-244. Göpferich-Görnert, Susanne (2018): Textverständlichkeit. In: Birkner, Karin/ Janich, Nina (Hrsg.): Handbuch Text und Gespräch. Berlin/ Boston: De Gruyter, 229-248. Göpferich, Susanne (2002): Textproduktion im Zeitalter der Globalisierung. Entwicklung einer Didaktik des Wissenstransfers. Tübingen: Stauffenburg. Gordon, Peter C./ Grosz, Barbara J./ Gilliom, Laura A. (1993): Pronouns, names, and the centering of attention in discourse. In: Cognitive Science 17 (3), 311-347. Graesser, Arthur C./ Person, Natalie/ Huber, John (1992): Mechanisms that generate questions. In: Lauer, Thomas W./ Peacock, Eileen/ Graesser, Arthur C. (Hrsg.): Questions and informa‐ tion systems. Hillsdale, NJ: Erlbaum, 303-360. Granger, Sylviane/ Gilquin, Gaëtanelle/ Meunier, Fanny (2015): The Cambridge handbook of learner corpus research. Cambridge: Cambridge University Press. Gries, Stefan T. (2021): Statistics for linguistics with R: A practical introduction. Berlin: De Gruyter. Groeben, Norbert (1978): Die Verständlichkeit von Unterrichtstexten. Dimensionen und Krite‐ rien rezeptiver Lernstadien. Münster: Aschendorff. Groeben, Norbert (1982): Textverständnis, Textverständlichkeit. Münster: Aschendorff. 276 Literatur und digitale Ressourcen <?page no="278"?> Groen, Margriet A./ Laws, Glynis/ Nation, Kate/ Bishop, Dorothy V. M. (2006): A case of exceptional reading accuracy in a child with Down syndrome: Underlying skills and the relation to reading comprehension. In: Cognitive Neuropsychology 23 (8), 1190-1214. Grotlüschen, Anke/ Buddeberg, Klaus (Hrsg.) (2020): LEO 2018. Leben mit geringer Literalität. Bielefeld: wbv. Grotlüschen, Anke/ Buddeberg, Klaus/ Dutz, Gregor/ Heilmann, Lisanne/ Stammer, Christo‐ pher (2019): LEO 2018 - Leben mit geringer Literalität. Pressebroschüre. Hamburg. URL: https: / / leo.blogs.uni-hamburg.de/ wp-content/ uploads/ 2019/ 05/ LEO2018-Presseheft.pd f (11.07.2022). Grotlüschen, Anke/ Buddeberg, Klaus/ Dutz, Gregor/ Heilmann, Lisanne/ Stammer, Christo‐ pher (2020): Hauptergebnisse und Einordnung zur LEO-Studie 2018 - Leben mit geringer Literalität. In: Grotlüschen, Anke/ Buddeberg, Klaus (Hrsg.): LEO 2018. Leben mit geringer Literalität. Bielefeld: wbv, 14-77. Grotlüschen, Anke/ Riekmann, Wibke (Hrsg.) (2012): Funktionaler Analphabetismus in Deutschland. Ergebnisse der ersten leo. - Level-One-Studie. Münster: Waxmann. Günther, Udo (1989): Lesen im Experiment. In: Linguistische Berichte 122, 283-320. Haderlein, Veronika (2008): Das Konzept zentraler Wortschätze. Dissertation. München: Lud‐ wig-Maximilians-Universität München. URL: http: / / d-nb.info/ 988692570/ 34. (11.07.2022). Hagen, Jutta (2002): Zur Befragung von Menschen mit einer geistigen oder mehrfachen Behinderung. In: Geistige Behinderung 41 (4), 293-306. Hahne, Anja/ Friederici, Angela D. (1999): Electrophysiological evidence for two steps in syntactic analysis: Early automatic and late controlled processes. In: Journal of Cognitive Neuroscience 11 (2), 194-205. Hancke, Julia/ Vajjala, Sowmya/ Meurers, Detmar (2012): Readability classification for German using lexical, syntactic, and morphological features. In: Proceedings of the 24th international conference on computational linguistics (COLING 2012). Mumbai: Association for Compu‐ tational Linguistics, 1063-1080. Handro, Saskia (2015): Sprache(n) und historisches Lernen. Zur Einführung. In: Zeitschrift für Geschichtsdidaktik 14, 5-24. Hansen-Schirra, Silvia/ Gutermuth, Silke (2018): Modellierung und Messung Einfacher und Leichter Sprache. In: Jekat, Susanne J./ Kappus, Martin/ Schubert, Klaus (Hrsg.): Barrieren abbauen, Sprache gestalten. Winterthur: ZHAW Zürcher Hochschule für Angewandte Wis‐ senschaften, 7-23. Hansen-Schirra, Silvia/ Gutermuth, Silke (2019): Empirische Überprüfung von Verständlichkeit. In: Maaß, Christiane/ Rink, Isabel (Hrsg.): Handbuch barrierefreie Kommunikation. Berlin: Frank & Timme, 163-182. Hansen-Schirra, Silvia/ Maaß, Christiane (Hrsg.) (2020): Easy language research. Text and user perspectives. Berlin: Frank & Timme. Härtig, Hendrik/ Fraser, Nicole/ Bernholt, Sascha/ Retelsdorf, Jan (2019): Kann man Sachtexte vereinfachen? - Ergebnisse einer Generalisierungsstudie zum Textverständnis. In: Zeitschrift für Didaktik der Naturwissenschaften 25, 273-287. Literatur und digitale Ressourcen 277 <?page no="279"?> Hartig, Johannes/ Riekmann, Wibke (2012): Bestimmung der Level-Grenzen in der leo.-Le‐ vel-One Studie. In: Grotlüschen, Anke/ Riekmann, Wibke (Hrsg.): Funktionaler Analphabe‐ tismus in Deutschland. Ergebnisse der ersten leo. - Level-One-Studie. Münster: Waxmann, 106-121. Hartung, Olaf (2010): Die ‚sich ewig wiederholende Arbeit‘ des Geschichtsbewusstseins - Sprache als Medium des historischen Lernens. In: Zeitschrift für Geschichtsdidaktik 9, 180- 190. Hasenäcker, Jana/ Beyersmann, Elisabeth/ Schroeder, Sascha (2020): Morphological priming in children: Disentangling the effects of school-grade and reading skill. In: Scientific Studies of Reading 24 (6), 484-499. Hasenäcker, Jana/ Schroeder, Sascha (2019): Compound reading in German: Effects of constitu‐ ent frequency and whole-word frequency in children and adults. In: Journal of Experimental Psychology: Learning, Memory, and Cognition 45 (5), 920-933. Hashimoto, Brett J./ Egbert, Jesse (2019): More than frequency? Exploring predictors of word difficulty for second language learners. In: Language Learning 69 (4), 839-872. Hauser, Stefan/ Mundwiler, Vera/ Nell-Tuor, Nadine (2020): Partizipative Unterrichtsforschung: Erfahrungsbericht über ein Projekt zum Klassenrat: In: Beiträge zur Lehrerinnen- und Lehrerbildung 38 (1), 116-126. Heilmann, Lisanne (2020): Literalität, gesundheitsbezogene Praktiken und Grundkompetenzen. I Grotlüschen, Anke/ Buddeberg, Klaus (Hrsg.): LEO 2018. Leben mit geringer Literalität. Bielefeld: wbv, 255-285. Heine, Antje (2017): Deutsch als Fremd- und Zweitsprache - eine besondere Form Leichter Sprache? Überlegungen aus der Perspektive des Faches DaF/ DaZ. I In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 401-414. Heine, Lena (2010): Problem solving in a foreign language. A study in content and language integrated learning. Berlin/ New York: De Gruyter Mouton. Heine, Lena (2013): Introspektive Verfahren in der Fremdsprachenforschung: State-of-the-Art und Desiderata. In: Aguado, Karin/ Heine, Lena/ Schramm, Karen (Hrsg.): Introspektive Verfahren und Qualitative Inhaltsanalyse in der Fremdsprachenforschung. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang, 13-30. Heine, Lena (2014): Introspektion. In: Settinieri, Julia/ Demirkaya, Sevilen/ Feldmeier, Ale‐ xis/ Gültekin-Karakoç, Nazan/ Riemer, Claudia (Hrsg.): Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Schöningh, 123-135. Heine, Lena/ Domenech, Madeleine/ Otto, Lisa/ Neumann, Astrid/ Krelle, Michael/ Leiss, Domi‐ nik/ Höttecke, Dietmar/ Ehmke, Timo/ Schwippert, Knut (2018): Modellierung sprachlicher Anforderungen in Testaufgaben verschiedener Unterrichtsfächer: Theoretische und empiri‐ sche Grundlagen. In: Zeitschrift für Angewandte Linguistik 69 (1), 69-96. Heine, Lena/ Schramm, Karen (2007): Lautes Denken in der Fremdsprachen-forschung: Eine Handreichung für die empirische Praxis. In: Vollmer, Helmut J. (Hrsg.): Synergieeffekte in der Fremdsprachenforschung. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Ox‐ ford/ Wien: Peter Lang, 167-206. 278 Literatur und digitale Ressourcen <?page no="280"?> Heine, Lena/ Schramm, Karen (2016): Introspektion. In: Caspari, Daniela/ Klippel, Friede‐ rike/ Legutke, Michael K./ Schramm, Karen (Hrsg.): Forschungsmethoden in der Fremdspra‐ chendidaktik: Ein Handbuch. Tübingen: Narr, 173-181. Heinemann, Wolfgang (2019): Textpragmatische und kommunikative Ansätze. In: Janich, Nina (Hrsg.): Textlinguistik. 15 Einführungen und eine Diskussion. Tübingen: Narr Francke Attempto, 105-134. Helfferich, Cornelia (2009): Die Qualität qualitativer Daten. Manual für die Durchführung qualitativer Interviews. Wiesbaden: VS Verlag für Sozialwissenschaften. Hemforth, Barbara/ Konieczny, Lars/ Strube, Gerhard (1993): Incremental syntax processing and parsing strategies. Proceedings of the 15th Annual Conference of the Cognitive Science Society. Hillsdale, NJ: Erlbaum, 539-545. Hennig, Mathilde (2020): Nominalstil. Möglichkeiten, Grenzen, Perspektiven. Tübingen: Narr Francke Attempto. Hennig, Mathilde (Hrsg.) (2017): Linguistische Komplexität - ein Phantom? Tübingen: Stauf‐ fenburg. Hennig, Mathilde/ Emmrich, Volker/ Lotzow, Stephanie (2017): Komplexität und Koordination. In: Hennig, Mathilde (Hrsg.): Linguistische Komplexität - ein Phantom? Tübingen: Stauffen‐ burg, 175-196. Herbermann, Clemens-Peter (2002): Das Wort als lexikalische Einheit. In: Cruse, Alan D./ Hundsnurscher, Franz/ Job, Michael/ Lutzeier, Peter R. (Hrsg.): Lexikologie. Ein interna‐ tionales Handbuch zur Natur und Struktur von Wörtern und Wortschätzen. Berlin/ New York: De Gruyter, 14-33. Heringer, Hans-Jürgen (1979): Verständlichkeit - ein genuiner Forschungsbereich der Linguis‐ tik? In: Zeitschrift für germanistische Linguistik 7 (3), 255-278. Heringer, Hans-Jürgen (1984): Textverständlichkeit. Leitsätze und Leitfragen. In: Zeitschrift für Literaturwissenschaft und Linguistik (55), 57-70. Hernandez, Arturo/ Li, Ping (2007): Age of acquisition: Its neural and computational mecha‐ nisms. In: Psychological Bulletin 133 (4), 638-650. Hiebert, Elfrieda/ Scott, Judith/ Castaneda, Ruben/ Spichtig, Alexandra (2019): An analysis of the features of words that influence vocabulary difficulty. In: Education Science 9 (1), 1-24. Hirschmann, Hagen (2019): Korpuslinguistik. Eine Einführung. Stuttgart: J.B. Metzler. Hopf, Christel (2012): Qualitative Interviews - ein Überblick. In: Flick, Uwe/ Kardorff, Ernst von/ Steinke, Ines (Hrsg.): Qualitative Forschung. Ein Handbuch. Reinbek: Rowohlt, 349-360. Hopf, Christel (2016): Forschungsethik und qualitative Forschung. In: Hopf, Christel (Hrsg.): Schriften zu Methodologie und Methoden qualitativer Sozialforschung. Herausgegeben von Wulf Hopf und Udo Kuckartz. Wiesbaden: VS Verlag für Sozialwissenschaften, 195-205. Housen, Alex/ Simoens, Hannelore (2016): Introduction: Cognitive perspectives on difficulty and complexity in L2 acquisition. In: Studies in Second Language Acquisition 38 (2), 163-175. Huber, Oswald (2019): Das psychologische Experiment: Eine Einführung. Bern: Hogrefe. Hunston, Susan (2002): Corpora in applied linguistics. Cambridge: Cambridge University Press. Hußmann, Anke/ Wendt, Heike/ Bos, Wilfried/ Bremerich-Vos, Albert/ Kasper, Daniel/ Lankes, Eva-Maria/ McElvany, Nele/ Stubbe, Tobias C./ Valtin, Renate (Hrsg.) (2017): IGLU 2016. Literatur und digitale Ressourcen 279 <?page no="281"?> Lesekompetenzen von Grundschulkindern in Deutschland im internationalen Vergleich. Münster/ New York: Waxmann. Imo, Wolfgang/ Lanwer, Jens Philipp (2019): Interaktionale Linguistik. Eine Einführung. Stutt‐ gart: J.B. Metzler. Inclusion Europe (2009): Informationen für alle. Europäische Regeln, wie man Informationen leicht lesbar und verständlich macht. URL: https: / / www.lag-abt-niedersachsen.de/ uploads/ m igrate/ Download/ Infofralle.pdf. (11.07.2022). Institut für Deutsche Sprache (2013): Benutzerdokumentation zum Produkt Korpusba‐ sierte Wortgrundformenliste DeReWo v-ww-bll-320000g-2012-12-31-1.0 (Technical Report IDS-KL-2013-02). Mannheim: Institut für Deutsche Sprache. URL: https: / / www.ids-mannhei m.de/ digspra/ kl/ projekte/ methoden/ derewo. (11.07.2022). Ivanic, Roz/ Barton, David/ Hamilton, Mary (2004): Wieviel „Literacy“ braucht ein Mensch? In: ALFA-Forum 54-55, 19-21. Jegerski, Jill (2014): Self-paced reading. In: Jegerski, Jill/ Patten, Bill van (Hrsg.): Research methods in second language psycholinguistics. New York: Routledge, 20-49. Jekat, Susanne J./ Germann, Esther/ Lintner, Alexa/ Soland, Corinne (2017): Wahlprogramme in Leichter Sprache - eine korpuslinguistische Annäherung. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 229-246. Johnson-Laird, Philip N. (1983): Mental models. Towards a cognitive science of language, inference, and consciousness. Cambridge (MA): Harvard University Press. Jones, Fergal W./ Long, K./ Finlay, W. Mick L. (2007): Symbols can improve the reading compre‐ hension of adults with learning disabilities. In: Journal of Intellectual Disability Research 51 (7), 545-550. Juffermans, Kasper/ Coppoolse, Jannet (2012): How literate, low-literate and non-literate readers read the linguistic landscape in a gambian village. In: Hélot, Christine/ Barni, Monica/ Jans‐ sens, Rudi/ Bagna, Carla (Hrsg.): Linguistic landscape, multilingualism and social chance. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang, 233-247. Jurafsky, Dan (2003): Probabilistic modeling in psycholinguistics: Linguistic comprehension and production. In: Bod, Rens/ Hay, Jennifer/ Jannedy, Stefanie (Hrsg.): Probabilistic linguistics. Cambridge, MA: MIT Press, 39-95. Just, Marcel A./ Carpenter, Patricia A./ Woolley, Jacqueline D. (1982): Paradigms and processes in reading comprehension. In: Journal of Experimental Psychology: General 111 (2), 228-238. Just, Marcel A./ Carpenter, Patricia A. (1992): A capacity theory of comprehension: Individual differences in working memory. In: Psychological Review 99 (1), 122-149. Kaczmarzik, Janine (2018): Prüfen von Leichte-Sprache-Texten: Gewusst wie! Ziele der Text‐ prüfung, Systematisierung der Prüfmethoden und Konzeption von Prüfinstrumenten. In: Teilhabe 57 (4), 174-180. Kaczmarzik, Janine (2019): Prüfen von Leichte-Sprache-Texten: Gewusst wie! Probleme bei der Textprüfung, Grundprinzipien im Prüfprozess und erste Lösungsvorschläge. In: Teilhabe 58 (1), 10-17. 280 Literatur und digitale Ressourcen <?page no="282"?> Kaiser, Elsi (2013): Experimental paradigms in psycholinguistics. In: Podesva, Robert J./ Sharma, Devyani (Hrsg.): Research methods in linguistics. Cambridge: Cambridge University Press, 135-168. Kalkavan-Aydin, Zeynep (2018): Lesen in der Zielsprache Deutsch. In: Kalkavan-Aydin, Zeynep (Hrsg.): DaZ/ DaF Didaktik. Praxisbuch für die Sekundarstufe I und II. Berlin: Cornelsen, 222-243. Kaup, Barbara/ Dudschig, Carolin (2017): Sätze und Texte verstehen und produzieren. In: Müsseler, Jochen/ Rieger, Martina (Hrsg.): Allgemeine Psychologie. Berlin: Springer, 467-530. Kaup, Barbara/ Zwaan, Rolf (2003): Effects of negation and situational presence on the accessi‐ bility of text information. In: Journal of Experimental Psychology: Learning, Memory and Cognition 29 (3), 439-446. Kauschke, Christina (2007): Erwerb und Verarbeitung von Nomen und Verben. Berlin/ New York: De Gruyter. Kienpointner, Manfred (2005): Dimensionen der Angemessenheit. Theoretische Fundierung und praktische Anwendung linguistischer Sprachkritik. In: Aptum 1 (3), 193-219. Kilian, Jörg/ Niehr, Thomas/ Schiewe, Jürgen (2016): Sprachkritik. Ansätze und Methoden der kritischen Sprachbetrachtung. Berlin/ Boston: De Gruyter. Kintsch, Walter (1974): The representation of meaning in memory. Hillsdale, NJ: Psychology Press. Kintsch, Walter (1988): The role of knowledge in discourse comprehension: A construction-in‐ tegration model. In: Psychological Review 95 (2), 163-182. Kintsch, Walter (1998): Comprehension. A paradigm for cognition. Cambridge: Cambridge University Press. Kintsch, Walter/ Dijk, Teun A. van (1978): Toward a model of text comprehension and produc‐ tion. In: Psychological Review 85 (5), 363-394. Klein, Josef (2017): Um Begriffe kämpfen. In: Niehr, Thomas/ Kilian, Jörg/ Wengeler, Martin (Hrsg.): Handbuch Sprache und Politik. Bremen: Hempen, 773-793. Klein, Wolf P. (2018): Sprachliche Zweifelsfälle im Deutschen. Theorie, Praxis, Geschichte. Berlin/ Boston: De Gruyter. Kleinschmidt, Katrin/ Pohl, Thorsten (2017): Leichte Sprache vs. adaptives Sprachhandeln. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 87-110. Kliegl, Reinhold/ Laubrock, Jochen (2018). Eye-movement tracking during reading. In: de Groot, Annette M. B./ Hagoort, Peter (Hrsg.): Research methods in psycholinguistics and the neurobiology of language: A practical guide. Hoboken, NJ: Wiley, 68-88. Knorr, Petra (2013): Zur Differenzierung retrospektiver verbaler Daten: Protokolle Lauten Erin‐ nerns erheben, verstehen, analysieren. Aguado, Karin/ Heine, Lena/ Schramm, Karen (Hrsg.): Introspektive Verfahren und Qualitative Inhaltsanalyse in der Fremdsprachenforschung. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang, 31-53. Knorr, Petra/ Schramm Karen (2012): Datenerhebung durch Lautes Denken und Lautes Erinnern in der fremdsprachendidaktischen Empirie. Grundlagenbeitrag. In: Doff, Sabine (Hrsg.): Literatur und digitale Ressourcen 281 <?page no="283"?> Fremdsprachenunterricht empirisch erforschen. Grundlagen - Methoden - Anwendung. Tübingen: Narr, 184-201. Koch, Arno (2008): Die Kulturtechnik Lesen im Unterricht für Schüler mit geistiger Behinderung. Lesen lernen ohne phonologische Bewusstheit? Aachen: Shaker. Koesters-Gensini, Sabine (2009): Der deutsche Grundwortschatz zwischen Lexikologie und Sprachdidaktik. In: Deutsch als Fremdsprache 46 (4), 195-202. Köhne, Judith/ Kronenwerth, Sybille/ Redder, Angelika/ Schuth, Elisabeth/ Weinert, Sabine (2015): Bildungssprachlicher Wortschatz - linguistische und psychologische Fundierung und Itementwicklung. In: Redder, Angelika/ Naumann, Johannes/ Tracy, Rosemarie (Hrsg.): For‐ schungsinitiative Sprachdiagnostik und Sprachförderung - Ergebnisse. Münster: Waxmann, 67-92. König, Katharina (2014): Spracheinstellungen und Identitätskonstruktion. Eine gesprächsanal‐ ytische Untersuchung sprachbiographischer Interviews mit Deutsch-Vietnamesen. München: De Gruyter. König, Katharina (2017): Das sprachbiographische Interview als Interaktion. Eine gesprächs‐ analytische Perspektive auf ein Forschungsinstrument. In: Schröder, Ingrid/ Jürgens, Carolin (Hrsg.): Sprachliche Variation in autobiographischen Interviews. Frankfurt am Main/ Ber‐ lin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang, 199-223. Konrad, Klaus (2010): Lautes Denken. In: Mey, Günther/ Mruck, Katja (Hrsg.): Handbuch Qualitative Forschung in der Psychologie. Wiesbaden: Springer, 476-490. Kortmann, Bernd/ Szmrecsanyi, Benedikt (Hrsg.) (2012): Linguistic complexity. Second language acquisition, indigenization, contact. Berlin/ Boston: De Gruyter. Kotz, Sonja A./ Herrmann, Christoph/ Frisch, Stefan (2009): Die Verwendung ereigniskorrelier‐ ter Potentiale in der Sprachverarbeitung: Beispiele zu Untersuchungen mit hirngesunden und hirngeschädigten Probanden. In: Das Neurophysiologie-Labor 31 (1), 36-46. Kress, Gunther R. (2010): Multimodality. A social semiotic approach to contemporary commu‐ nication. London: Routledge. Kress, Gunther R./ Leeuwen, Theo van (1996): Reading images. The grammar of visual design. London: Routledge. Kress, Gunther R./ Leeuwen, Theo van (1998): Front pages. The critical analysis of newspaper layout. In: Bell, Allan/ Garrett, Peter (Hrsg.): Approaches to media discourse. Oxford: Wiley-Blackwell, 186-219. Kretschmann, Rudolf/ Wieken, Petra (2010): Lesen: Alpha-Levels. In: Grotlüschen, Anke (Hrsg.): lea. - Literalitätsentwicklung von Arbeitskräften. Diagnose. Münster: Waxmann, 226-346. Kruse, Jan (2015): Qualitative Interviewforschung. Ein integrativer Ansatz. Weinheim/ Basel: Beltz Juventa. Kühn, Peter (1990): Das Grundschatzwörterbuch. In: Hausmann, Franz J./ Reichmann, Os‐ kar/ Wiegand, Herbert E./ Zgusta, Ladislav (Hrsg.): Wörterbücher. Ein internationales Hand‐ buch zur Lexikographie. Berlin/ New York: De Gruyter, 1353-1364. Kühn, Peter (2010): Wörterbücher/ Lernerwörterbücher. In: Krumm, Hans-Jürgen/ Fandrych, Christian/ Hufeisen, Britta/ Riemer, Claudia (Hrsg.): Deutsch als Fremd- und Zweitsprache. Ein internationales Handbuch. Berlin/ New York: De Gruyter, 304-314. 282 Literatur und digitale Ressourcen <?page no="284"?> Kultusministerkonferenz (KMK) (2018): Definitionenkatalog zur Schulstatistik 2018. URL: http s: / / www.kmk.org/ fileadmin/ Dateien/ pdf/ Statistik/ Defkat2018.pdf. (11.07.2022) Kümmerling-Meibauer, Bettina (2012): Literacy. URL: http: / / www.kinderundjugendmedien.de/ index.php/ begriffe-und-termini/ 407-literacy. (11.07.2022) Kupietz, Marc/ Belica, Cyril/ Keibel, Holger/ Witt, Andreas (2010): The German reference corpus DeReKo: A primordial sample for linguistic research. In: Calzolari, Nicoletta/ Choukri, Kha‐ lid/ Maegaard, Bente/ Mariani, Joseph/ Odijk, Jan/ Piperidis, Stelios/ Rosner, Mike/ Tapias, Daniel (Hrsg.): Proceedings of the 7th conference on international language resources and evaluation (LREC 2010). Valletta: European Language Resources Association (ELRA), 1848- 1854. Kutas, Marta/ Petten, Cyma K. van (1994): Psycholinguistics electrified: Event-related brain potential investigations. In: Gernsbacher, Morton A. (Hrsg.): Handbook of psycholinguistics. San Diego: Academic Press, 83-143. Landeshauptstadt Wiesbaden/ Gesellschaft für deutsche Sprache (2010): Leitsätze für eine bürgerfreundliche Verwaltungssprache. URL: https: / / www.wiesbaden.de/ medien-zentral/ do k/ rathaus/ 2011-03-24-Klartext.pdf. (11.07.2022) Lange, Daisy (2018): Comparing “Leichte Sprache“, “einfache Sprache“ and “Leicht Lesen“: A corpus-based descriptive approach. In: Jekat, Susanne J./ Massey, Gary (Hrsg.): Barrier-free communication: Methods and products. Proceedings of the 1st Swiss conference on bar‐ rier-free communication. Winterthur: ZHAW Zürcher Hochschule für Angewandte Wissen‐ schaften, 75-91.Lange, Daisy (2019): Der Genitiv in der „Leichten Sprache“ - das Für und Wider aus theoretischer und empirischer Sicht. In: Zeitschrift für Angewandte Linguistik 70, 37-72. Lange, Daisy/ Bock, Bettina M. (2016): Was heißt „Leichte“ und „einfache Sprache“? Empirische Untersuchungen zu Begriffssemantik und tatsächlicher Gebrauchspraxis. In: Mälzer, Nathalie (Hrsg.): Barrierefreie Kommunikation - Perspektiven aus Theorie und Praxis. Berlin: Frank & Timme, 117-134. Lange, Willi/ Okamura, Saburo/ Scharloth, Joachim (2015): Grundwortschatz Deutsch als Fremdsprache: Ein datengeleiteter Ansatz. In: Kilian, Jörg/ Eckhoff, Jan (Hrsg.): Deutscher Wortschatz - beschreiben, lernen, lehren. Beiträge zur Wortschatzarbeit in Wissenschaft, Sprachunterricht, Gesellschaft. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Ox‐ ford/ Wien: Peter Lang, 203-219. Langer, Inghard/ Schulz von Thun, Friedemann/ Tausch, Reinhard (2011): Sich verständlich ausdrücken. München/ Basel: Reinhardt. Larraß, Anna/ Pappert, Sandra (2021): Leichte Sprache im sprachsensiblen Biologieunterricht: Ein Experiment zum Lesen von Komposita. In: Scherger, Anna L./ Lütke, Beate/ Montanari, Elke/ Müller, Anja/ Ricart Brede, Julia (Hrsg.): Deutsch als Zweitsprache - Forschungsfelder und Ergebnisse. Stuttgart: Fillibach bei Klett Sprachen, 237-258. Lasch, Alexander (2017): Zum Verständnis morphosyntaktischer Merkmale in der funktionalen Varietät „Leichte Sprache“. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 275-300. Literatur und digitale Ressourcen 283 <?page no="285"?> Laufer, Batia (1997a): What’s in a word that makes it hard or easy: some intralexical factors that effect the learning of words. In: Schmitt, Norbert/ McCarthy, Michael (Hrsg.): Vocabulary. Description, acquisition and pedagogy. Cambridge: Cambridge University Press, 140-155. Laufer, Batia (1997b): The lexical plight in second language reading: Words you don't know, words you think you know, and words you can't guess. In: Coady, James/ Huckin, Thomas (Hrsg.): Second language vocabulary acquisition. A rationale for pedagogy. Cambridge: Cambridge University Press, 20-34. Laufer, Batia (2010): Lexical threshold revisited: Lexical text coverage, learners’ vocabulary size and reading comprehension. In: Reading in a Foreign Language 22 (1), 15-30. Laufer, Batia (2020): Lexical coverages, inferencing unknown words and reading comprehension: How are they related? In: TESOL Quarterly 54 (4), 1076-1085. Lebenshilfe Bremen (2013): Leichte Sprache. Die Bilder. Marburg: Lebenshilfe-Verlag Leeuwen, Theo van (2005): Introducing social semiotics. London: Routledge. Leiss, Dominik/ Domenech, Madeleine/ Ehmke, Timo/ Schwippert, Knut (2017): Schwer - schwierig - diffizil: Zum Einfluss sprachlicher Komplexität von Aufgaben auf fachliche Leis‐ tungen in der Sekundarstufe I. In: Leiss, Dominik/ Hagena, Maike/ Neumann, Astrid/ Schwip‐ pert, Knut (Hrsg.): Mathematik und Sprache. Empirischer Forschungsstand und unterrichtli‐ che Herausforderungen. Münster: Waxmann, 99-125. Lemnitzer, Lothar/ Zinsmeister, Heike (2015): Korpuslinguistik. Eine Einführung. Tübingen: Narr. Leskelä, Leealaura (2017): Textgenre-orientierte Prinzipien für Leichtes Finnisch. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 431-446. Levy, Roger P. (2008): Expectation-based syntactic comprehension. In: Cognition 106 (3), 1126- 1177. Lieske, Christian/ Siegel, Melanie (2014): Verstehen leicht gemacht. In: technische kommunika‐ tion 1, 44-49. Linderholm, Tracy/ Everson, Michelle G./ Broek, Paul van den/ Mischinski, Maureen/ Critten‐ den, Alex/ Samuels, Jay (2000): Effects of causal text revisions on moreand less-skilled readers' comprehension of easy and difficult texts. In: Cognition and Instruction 18 (4), 525-556. Lindholm, Camilla/ Vanhatalo (Hrsg.) (2021): Handbook of Easy Languages in Europe. Berlin: Frank & Timme. Lingg, Albert/ Theunissen, Georg (Hrsg.) (2013): Psychische Störungen und geistige Behinde‐ rungen. Ein Lehrbuch und Kompendium für die Praxis. Freiburg, Breisgau: Lambertus. Linguistic Society of America (2019): LSA Revised Ethics Statement, Final Version (Approved July 2019). URL: https: / / www.linguisticsociety.org/ content/ lsa-revised-ethics-statement-app roved-july-2019. (11.07.2022). Linz, Erika (2017): „Leichte Sprache ist nicht Kindersprache“ - Zur sozialen und pragmati‐ schen Relevanz stilistischer Aspekte in Leichte-Sprache-Texten. In: Bock, Bettina M./ Fix, Ulla/ Lange, Daisy (Hrsg.): „Leichte Sprache“ im Spiegel theoretischer und angewandter Forschung. Berlin: Frank & Timme, 147-162. 284 Literatur und digitale Ressourcen <?page no="286"?> Löffler, Heinrich (2016): Germanistische Soziolinguistik. Berlin: Erich Schmidt Verlag. Lötscher, Andreas (2016): Komplexe Attribuierung als Element von Textstilen im diachronen Vergleich. In: Hennig, Mathilde (Hrsg.): Komplexe Attribution. Ein Nominalstilphänomen aus sprachhistorischer, grammatischer, typologischer und funktionalstilistischer Perspektive. Berlin/ Boston: De Gruyter, 353-390. Lucius-Hoene, Gabriele/ Deppermann, Arnulf (2002): Rekonstruktion narrativer Identitäten. Ein Arbeitsbuch zur Analyse narrativer Interviews. Wiesbaden: VS Verlag für Sozialwissen‐ schaften. Lüdeling, Anke/ Walter, Maik (2010): Korpuslinguistik. In: Krumm, Hans-Jürgen/ Fandrych, Christian/ Hufeisen, Britta/ Riemer, Claudia (Hrsg.): Deutsch als Fremd- und Zweitsprache. Ein internationales Handbuch. Berlin/ Boston: De Gruyter Mouton, 315-322. Lüdtke, Jana/ Kaup, Barbara (2006): Context effects when reading negative and affirmative sentences. In: Sun, Ron (Hrsg.): Proceedings of the 28th annual conference of the cognitive science society. Mahwah, NJ: Erlbaum, 1735-1740. Lutjeharms, Madeline (2010): Vermittlung der Lesefertigkeit. In: Krumm, Hans-Jürgen/ Fand‐ rych, Christian/ Hufeisen, Britta/ Riemer, Claudia (Hrsg.): Deutsch als Fremd- und Zweit‐ sprache. Ein internationales Handbuch. Berlin/ Boston: De Gruyter Mouton, 976-982. Luttermann, Karin (2017): Klare Sprache als Mittel für Fachkommunikation und Wissenstransfer. In: Information - Wissenschaft & Praxis 68 (4), 217-226. Lutz, Benedikt (2015): Verständlichkeitsforschung transdisziplinär. Plädoyer für eine anwen‐ derfreundliche Wissensgesellschaft. Göttingen: V&R unipress/ Vienna University Press. Lutzeier, Peter R. (1995): Lexikologie. Ein Arbeitsbuch. Tübingen: Stauffenburg. Maaß, Christiane (2015): Leichte Sprache. Das Regelbuch. Berlin: Lit Verlag. Maaß, Christiane (2020a): Easy Language - Plain Language - Easy Language Plus. Berlin: Frank & Timme. Maaß, Christiane (2020b): Übersetzen in Leichte Sprache. In: Maaß, Christiane/ Rink, Isabel (Hrsg.): Handbuch Barrierefreie Kommunikation. Berlin: Frank & Timme, 273-302. MacDonald, Maryellen C./ Pearlmutter, Neal J./ Seidenberg, Mark S. (1994): The lexical nature of syntactic ambiguity resolution. In: Psychological Review 101 (4), 676-703. Maitz, Péter/ Elspaß, Stephan (2013): Zur Ideologie des 'Gesprochenen Standarddeutsch'. In: Hagemann, Jörg/ Klein, Wolf P./ Staffeldt, Sven (Hrsg.): Pragmatischer Standard. Tübingen: Stauffenburg, 35-48. Mayer, Andreas (2016): Lese-Rechtschreibstörungen (LRS). München/ Basel: Ernst Reinhardt. McClelland, James L./ Rumelhart, David E. (1981): An interactive activation model of context effects in letter perception: Part 1. An account of basic findings. In: Psychological Review 88 (5), 375-407. McDonald, Scott/ Shillcock, Richard (2001): Rethinking the word frequency effect: The neglected role of distributional information in lexical processing. In: Language and Speech 44 (3), 295-323. McKoon, Gail/ Ratcliff, Roger (2016): Adults with poor reading skills: How lexical knowledge interacts with scores on standardized reading comprehension tests. In: Cognition 146, 453- 469. Literatur und digitale Ressourcen 285 <?page no="287"?> McKoon, Gail/ Ratcliff, Roger (2018). Adults with poor reading skills, older adults, and college students: The meanings they understand during reading using a diffusion model analysis. In: Journal of Memory and Language 102, 115-129. McNamara, Danielle S./ Kintsch, Eileen/ Butler Songer, Nancy/ Kintsch, Walter (1996): Are good texts always better? Interactions of text coherence, background knowledge, and levels of understanding in learning from text. In: Cognition and Instruction 14 (1), 1-43. McRae, Ken/ Spivey-Knowlton, Michael J./ Tanenhaus, Michael K. (1998): Modeling the influ‐ ence of thematic fit (and other constraints) in on-line sentence comprehension. In: Journal of Memory and Language 38 (3), 283-312. Meinhof, Ulrike H./ Reisigl, Martin/ Warnke, Ingo H. (Hrsg.) (2013): Diskurslinguistik im Spannungsfeld von Deskription und Kritik. Berlin: Akademie Verlag. Meißner, Cordula (2014), Figurative Verben in der allgemeinen Wissenschaftssprache des Deutschen. Eine Korpusstudie. Tübingen: Stauffenburg. Meißner, Cordula (2020): Der Verbwortschatz der deutschen Bildungs- und Wissenschaftsspra‐ che als Lerngegenstand: Möglichkeiten einer mehrsprachigkeitsdidaktischen Vermittlung. In: Hepp, Marianne/ Salzmann, Katharina (Hrsg.): Sprachvergleich in der mehrsprachig orientierten DaF-Didaktik: Theorie und Praxis. Rom: Studi Germanici, 59-83. Meißner, Cordula/ Lange, Daisy/ Fandrych, Christian (2022): Korpusanalyse. In: Caspari, Da‐ niela/ Klippel, Friedericke/ Legutke, Michael/ Schramm, Karen (Hrsg.): Forschungsmethoden in der Fremdsprachendidaktik. Ein Handbuch. Tübingen: Narr Francke Attempto, 306-319. Meißner, Cordula/ Wallner, Franziska (2018): Allgemeinwissenschaftssprachlicher Wortschatz in der Sekundarstufe I? Zu Vagheit, Polysemie und pragmatischer Differenziertheit von Verben in Schulbuchtexten. In: Hövelbrinks, Britta/ Fuchs, Isabel/ Maak, Diana/ Duan, Ting‐ hui/ Lütke, Beate (Hrsg.): Der-Die-DaZ - Forschungsbefunde zu Sprachgebrauch und Sprach‐ erwerb von Deutsch als Zweitsprache. Berlin/ New York: De Gruyter, 133-147. Meißner, Franz-Josef (1996): Eurolexis und Fremdsprachendidaktik. In: Munske, Horst H./ Kir‐ kness, Alan (Hrsg.): Eurolatein. Das griechische und lateinische Erbe in den europäischen Sprachen. Tübingen: Niemeyer, 284-305. Mesch, Birgit/ Pappert, Sandra (2021). Nominalkomposita und komplexe Nominalphrasen im Leseerwerb. In: Zeitschrift für Sprachlich-Literarisches Lernen und Deutschdidaktik 1, 1-25. Mey, Günter/ Mruck, Katja (2020): Qualitative Interviews. In: Mey, Günter/ Mruck, Katja (Hrsg.): Handbuch qualitative Forschung in der Psychologie. Designs und Verfahren. Wiesbaden: Springer, 315-336. Meyer, Bonnie J. F. (2003): Text coherence and readability. In: Topics in Language Disorders 23 (3), 204-224. Miestamo, Matti (2008): Grammatical complexity in a cross-linguistic perspective. In: Miestamo, Matti/ Sinnemäki, Kaius/ Karlsson, Fred (Hrsg.): Language complexity. Typology, contact, change. Amsterdam/ Philadelphia: Benjamins, 23-41. Millis, Keith K./ Magliano, Joseph P. (1999): The co-influence of grammatical markers and comprehender goals on the memory for short discourse. In: Journal of Memory and Language 41 (2), 183-198. 286 Literatur und digitale Ressourcen <?page no="288"?> Möhring, Jupp/ Wallner, Franziska (2013): Wortschatzlisten auf dem Prüfstand. In: Bergerová, Hanna/ Schmidt, Marek/ Schuppener, Georg (Hrsg.): Lexikologie und Lexikografie. Aktuelle Entwicklungen und Herausforderungen. Ústí nad Labem: Univerzita J. E. Purkyně v Ústí nad Labem, 119-133. Mondada, Lorenza (2018): Multiple temporalities and language and body in interaction. Chal‐ lenges for transcribing multimodality. In: Research on Language and Social Interaction 51 (1), 85-106. Mondada, Lorenza (2019): Conventions for multimodal transcription. URL: https: / / www.lorenz amondada.net/ multimodal-transcription. (11.07.2022). Morek, Miriam/ Heller, Vivien (2012): Bildungssprache - Kommunikative, epistemische, soziale und interaktive Aspekte ihres Gebrauchs. In: Zeitschrift für Angewandte Linguistik 57, 67-101. Moys, Jeanne-Louise (2014): Typographic layout and first impressions - Testing how changes in text layout influence readers' judgments of documents. In: Visible Language 48 (1), 41-65. Mummendey, Hans D. (1981): Methoden und Probleme der Kontrolle sozialer Erwünschtheit (Social Desirability). In: Zeitschrift für Differentielle und Diagnostische Psychologie 2 (3), 199-218. Musan, Renate (2010): Informationsstruktur. Heidelberg: Winter. Musenberg, Oliver (2015): Geistige Entwicklung. In: Hedderich, Ingeborg/ Biewer, Gott‐ fried/ Hollenweger, Judith/ Markowetz, Reinhard (Hrsg.): Handbuch Inklusion und Sonder‐ pädagogik. Bad Heilbrunn: Klinkhardt, 213-218. Musenberg, Oliver (2020): Geistige Behinderung. In: Hartwig, Susanne (Hrsg.): Kulturwissen‐ schaftliches Handbuch. Berlin: Metzler, 201-204. Nation, Paul (2013): Learning vocabulary in another language. Cambridge: Cambridge Univer‐ sity Press. Netzwerk Leichte Sprache (2013): Die Regeln für Leichte Sprache. URL: https: / / www.leichte-sp rache.org/ wp-content/ uploads/ 2017/ 11/ Regeln_Leichte_Sprache.pdf. (11.07.2022). Netzwerk Leichte Sprache (2014): Leichte und einfache Sprache. URL: http: / / www.leichtesprac he.org/ images/ Leichte_und_einfache_Sprache.pdf. (Stand: 29.08.2015) Neuner, Gerhard (1991): Lernerorientierte Wortschatzauswahl und -vermittlung. In: Deutsch als Fremdsprache 2, 76-83. Niederhaus, Constanze (2011): Fachsprachlichkeit in Lehrbüchern. Korpuslinguistische Analy‐ sen von Fachtexten in der beruflichen Bildung. Münster: Waxmann. Niediek, Imke (2015): Wer nicht fragt, bekommt keine Antworten - Interviewtechniken unter besonderen Bedingungen. In: Zeitschrift für Inklusion Online 4. URL: https: / / www.inklusio n-online.net/ index.php/ inklusion-online/ article/ view/ 323/ 275. (11.07.2022). Niehr, Thomas (2014): Einführung in die linguistische Diskursanalyse. Darmstadt: Wissenschaft‐ liche Buchgesellschaft. Nussbaumer, Markus (1993): Textbegriff und Textanalyse. In: Eisenberg, Peter/ Klotz, Peter (Hrsg.): Sprache gebrauchen - Sprachwissen erwerben. Stuttgart: Klett, 63-84. Literatur und digitale Ressourcen 287 <?page no="289"?> Nussbaumer, Markus (1996): Lernerorientierte Textanalyse - Eine Hilfe zum Textverfassen? In: Feilke, Helmuth/ Portmann, Paul R. (Hrsg.): Schreiben im Umbruch. Schreibforschung und schulisches Schreiben. Stuttgart: Klett, 96-112. Nussbaumer, Markus/ Sieber, Peter (1994): Texte analysieren mit dem Zürcher Textanalyseraster. In: Sieber, Peter (Hrsg.): Sprachfähigkeiten - besser als ihr Ruf und nötiger denn je! Ergebnisse und Folgerungen aus einem Forschungsprojekt. Aarau: Sauerländer, 141-186. Nußbeck, Susanne (2008): Psychologisch-pädagogische Diagnostik im Förderschwerpunkt „Geistige Entwicklung“. In: Nußbeck, Susanne/ Biermann, Adrienne/ Adam, Heidemarie (Hrsg.): Sonderpädagogik der geistigen Entwicklung. Handbuch Sonderpädagogik. Göttin‐ gen: Hogrefe, 227-250. OECD (2019): PISA 2018 Ergebnisse. Was Schülerinnen und Schüler wissen und können. Bielefeld: wbv. Ohm, Udo (2010): Behördensprache/ Behördenkommunikation. In: Barkowski, Hans/ Krumm, Hans-Jürgen (Hrsg.): Fachlexikon Deutsch als Fremd- und Zweitsprache. Tübingen/ Basel: Francke, 27. Oleschko, Sven/ Moraitis, Anastasia (2012): Die Sprache im Schulbuch. Erste Überlegungen zur Entwicklung von Geschichts- und Politikschulbüchern unter Berücksichtigung sprachlicher Besonderheiten. In: Bildungsforschung 9 (1), 11-46. Oomen-Welke, Ingelore (2017): Leichte Sprache und Einfache Sprache bei Deutsch als Zweit‐ sprache. In: Ahrenholz, Bernt/ Oomen-Welke, Ingelore (Hrsg.): Deutsch als Zweitsprache. Baltmannsweiler: Schneider Verlag Hohengehren 415-422. Ortner, Hanspeter (2009): Rhetorisch-stilistische Eigenschaften der Bildungssprache. In: Fix, Ulla/ Gardt, Andreas/ Knape, Joachim (Hrsg.): Rhetorik und Stilistik. Ein internationales Handbuch historischer und systematischer Forschung. Berlin/ New York: De Gruyter, 2227- 2240. Pappert, Sandra/ Bock, Bettina M. (2020): Easy-to-read German put to the test: Do adults with intellectual disability or functional illiteracy benefit from compound segmentation? In: Reading and Writing 33, 1105-1131. Perfetti, Charles A./ Goldman, Susan R./ Hogaboam, Thomas W. (1979): Reading skill and the identification of words in discourse context. In: Memory and Cognition 7 (4), 273-282. Perkuhn, Rainer/ Keibel, Holger/ Kupietz, Marc (2012): Korpuslinguistik. Paderborn: Fink. Perry, Conrad/ Ziegler, Johannes C./ Zorzi, Marco (2013): A computational and empirical investigation of graphemes in reading. In: Cognitive Science 37 (5), 800-828. Perry, Kristen H. (2012): What is literacy? - A critical overview of sociocultural perspectives. In: Journal of Language & Literacy Education 8 (1), 50-71. Pohl, Thorsten (2007): Studien zur Ontogenese wissenschaftlichen Schreibens. Tübingen: Nie‐ meyer. Polenz, Peter von (2008): Deutsche Satzsemantik. Berlin/ New York: De Gruyter Poncelas, Angela/ Murphy, Glynis (2007): Accessible information for people with intellectual disabilities. Do symbols really help? In: Journal of Applied Research in Intellectual Disabilities 20 (5), 466-474. 288 Literatur und digitale Ressourcen <?page no="290"?> Pool, Albert J. (2019): Optotypen, DIN Mittelschrift und Typografie - wann ist Leserliches lesbar? In: Borinski, Ulrike/ Gorbach, Rudolf P. (Hrsg.): Lesbar. Typografie in der Wissensvermitt‐ lung. Zürich: Triest, 248-264. Portmann-Tselikas, Paul R./ Weidacher, Georg (2010): Nicht nur zur Begrifflichkeit. Kontexte, Kommunikation und Kompetenzen. In: Klotz, Peter/ Portmann-Tselikas, Paul R./ Weidacher, Georg (Hrsg.): Kontexte und Texte. Soziokulturelle Konstellationen literalen Handelns. Tübingen: Narr , 9-57. Prün, Claudia (2002): Die linguistischen Hypothesen von G. K. Zipf. In: Köhler, Reinhard (Hrsg.): Korpuslinguistische Untersuchungen zur quantitativen und systemtheoretischen Linguistik. Trier: Universität Trier, 271-321. Purschke, Christoph (2020): Exploring the linguistic landscape of cities through crowdsourced data. In: Brunn, Stanley D./ Kehrein, Roland (Hrsg.): Handbook of the changing world language map. Cham: Springer, 1-22. Radach, Ralph/ Günther, Thomas/ Huestegge, Lynn (2012): Blickbewegungen beim Lesen, Le‐ seentwicklung und Legasthenie. In: Lernen und Lernstörungen 1 (3), 185-204. Radach, Ralph/ Hofmann, Markus J. (2016): Graphematische Verarbeitung beim Lesen von Wörtern. In: Domahs, Ulrike/ Primus, Beatrice (Hrsg.): Handbuch Laut, Gebärde, Buchstabe. Berlin: De Gruyter, 455-473. Rammstedt, Beatrice (Hrsg.) (2013): Grundlegende Kompetenzen Erwachsener im internationa‐ len Vergleich. Münster: Waxmann. Ratz, Christoph (2012): Schriftsprachliche Fähigkeiten von Schülern mit dem Förderschwer‐ punkt geistige Entwicklung. In: Dworschak, Wolfgang/ Kannewischer, Sybille/ Ratz, Chris‐ toph/ Wagner, Michael (Hrsg.): Schülerschaft mit dem Förderschwerpunkt geistige Entwick‐ lung (SFGE). Eine empirische Studie. Oberhausen: Athena, 111-132. Ratz, Christoph/ Lenhard, Wolfgang (2013): Reading skills among students with intellectual disabilities. In: Research in Developmental Disabilities 34 (5), 1740-1748. Rayner, Keith (1998): Eye movements in reading and information processing: 20 years of research. In: Psychological Bulletin 124 (3), 372-422. Rayner, Keith/ Pollatsek, Alexander/ Ashby, Jane/ Clifton, Charles (2012): Psychology of rea‐ ding. New York: Psychology Press. Rayner, Keith/ Sereno, Sara C. (1994): Eye movements in reading: Psycholinguistic studies. In: Gernsbacher, Morton A. (Hrsg.): Handbook of psycholinguistics. San Diego: Academic Press, 57-81. Rayner, Keith/ , Schotter, Elizabeth R./ Masson, Michael E./ Potter, Mary C./ Treiman, Rebecca (2016): So much to read, so little time: How do we read, and can speed reading help? In: Psychological Science in the Public Interest 17 (1), 4-34. Reicher, Gerald M. (1969): Perceptual recognition as a function of meaningfulness of stimulus material. In: Journal of Experimental Psychology 81 (2), 275-280. Reichertz, Jo (2012): Abduktion, Deduktion und Induktion in der qualitativen Forschung. In: Flick, Uwe/ von Kardoff, Ernst/ Steinke, Ines (Hrsg): Qualitative Forschung. Ein Handbuch. Reinbek: Rowohlt, 276 - 286. Literatur und digitale Ressourcen 289 <?page no="291"?> Reichle, Erik D./ Rayner, Keith/ Pollatsek, Alexander (2003): The E-Z Reader model of eye movement control in reading: Comparison to other models. In: Behavioral and Brain Sciences 26 (4), 445-476. Richter, Tobias/ Christmann, Ursula (2002): Lesekompetenz. Prozessebenen und interindivi‐ duelle Unterschiede. In: Goreben, Norbert/ Hurrelmann, Bettina (Hrsg.): Lesekompetenz. Bedingungen, Dimensionen, Funktionen. Weinheim/ München: Juventa, 25-58. Roche, Jörg-Matthias/ Suñer, Ferran (2017): Sprachenlernen und Kognition. Grundlagen einer kognitiven Sprachendidaktik. Tübingen: Narr. Römer, Christine (2019): Der deutsche Wortschatz. Struktur, Regeln und Merkmale. Tübingen: Narr. Rosebrock, Cornelia/ Gold, Andreas (2018): Leseflüssigkeit als Kategorie der Diagnose und Förderung von Lesefertigkeit. In: Kutzelmann, Sabine/ Rosebrock, Cornelia (Hrsg.): Praxis der Lautleseverfahren. Baltmannsweiler: Schneider Verlag Hohengehren, 7-19. Rosebrock, Cornelia/ Nix, Daniel (2014): Grundlagen der Lesedidaktik und der systematischen schulischen Leseförderung. Baltmannsweiler: Schneider Verlag Hohengehren. Rosebrock, Cornelia/ Scherf, Daniel (2021): Alpha-Kurzdiagnostik Lesen. In: Deutscher Volks‐ hochschul-Verband DVV (Hrsg.): Alpha-Kurzdiagnostik. DVV-Rahmencurriculum Schreiben und Lesen. Deutscher Volkshochschulverband: Bonn, 51-166. URL: https: / / www.grundbildu ng.de/ lehrmaterial/ diagnostik.php. (11.07.2022). Rossi, Jean P. (1990): The function of frame in the comprehension of scientific text. In: Journal of Educational Psychology 82 (4), 727-732. Roth, Kersten S. (2004): Politische Sprachberatung als Symbiose von Linguistik und Sprachkritik. Zu Theorie und Praxis einer kooperativ-kritischen Sprachwissenschaft. Tübingen: Niemeyer. Roth, Kersten S. (2009): Diskurswissen - Aspekte seiner Typologie am Beispiel des Diskurses über „Ostdeutschland”. In: Weber, Tilo/ Antos, Gerd (Hrsg.): Typen von Wissen. Begriffli‐ che Unterscheidung und Ausprägungen in der Praxis des Wissenstransfers. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang, 127-142. Roth, Kersten S. (2015): Diskursrealisationen. Grundlegung und methodischer Umriss einer pragmatisch-interaktionalen Diskurssemantik. Berlin: Erich Schmidt Verlag. Roth, Kersten S./ Spitzmüller, Jürgen (Hrsg.) (2007): Textdesign und Textwirkung in der mas‐ senmedialen Kommunikation: UVK. Ruiter, Jan P. de (Hrsg.) (2012): Questions. formal, functional and interactional perspectives. Cambridge: Cambridge University Press. Sampson, Geoffrey (2009): A linguistic axiom challenged. In: Sampson, Geoffrey / Gil, Da‐ vid / Trudgill, Peter (Hrsg.): Language complexity as an evolving variable. Oxford: Oxford University Press, 1-18. Sampson, Geoffrey/ Gil, David/ Trudgill, Peter (Hrsg.) (2009): Language complexity as an evolving variable. Oxford: Oxford University Press. Sánchez, Emilio/ García, J. Ricardo/ Bustos, Andrea (2017): Does rhetorical competence mode‐ rate the effect of rhetorical devices on the comprehension of expository texts beyond general comprehension skills? In: Reading and Writing 30 (3), 439-462. 290 Literatur und digitale Ressourcen <?page no="292"?> Sanders, Ted J. M./ Noordman, Leo G. M. (2000): The role of coherence relations and their linguistic markers in text processing. In: Discourse Processes 29 (1), 37-60. Sandig, Barbara (1978): Stilistik. Sprachpragmatische Grundlegung der Stilbeschreibung. Ber‐ lin/ New York: De Gruyter. Sandig, Barbara (2000): Text als prototypisches Konzept. In: Mangasser-Wahl, Martina (Hrg.): Prototypentheorie in der Linguistik. Anwendungsbeispiele - Methodenreflexion - Perspek‐ tiven. Tübingen: Stauffenburg, 93-112. Sauer, Christoph (1995): Ein Minimalmodell zur Verständlichkeitsanalyse und -optimierung. In: Spillner, Bernd (Hrsg.): Sprache: Verstehen und Verständlichkeit. Kongreßbeiträge zur 25.-Jahrestagung der Gesellschaft für Angewandte Linguistik GAL e.-V. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang, 149-171. Sauer, Christoph (1997): Visualisierung inbegriffen: Textüberarbeitung und Umgestaltung. In: Jakobs, Eva-Maria/ Knorr, Dagmar (Hrsg.): Schreiben in den Wissenschaften. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang, 91-106. Sauer, Christoph (1999): Die Verständlichkeit von Texten, Visualisierungen und Bildschir‐ men. Untersuchungen zur Leseaufgabenunterstützung. In: Jakobs, Eva-Maria/ Knorr, Dag‐ mar/ Pogner, Karl-Heinz (Hrsg.): Textproduktion. HyperText, Text, KonText. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang, 93-109. Schank, Roger C./ Abelson, Robert P. (1977): Scripts, plans, goals and understanding. An inquiry into human knowledge structures. Hillsdale, NJ: Erlbaum. Scheerer, Eckart (1987): Visual word recognition in German. In: Allport, Alan/ MacKay, David G./ Prinz, Wolfgang (Hrsg.): Language perception and production: Relationships between listening, speaking, reading and writing. London: Academic Press, 227-244. Schiffler, Inga (2022): Das Prüfen auf dem Prüfstand. Die Rolle der Moderatorinnen beim Prüfen von Texten in Leichter Sprache. Berlin: Frank & Timme. Schiller, Anne/ Teufel, Simone/ Stöckert, Christine/ Thielen, Christine (1999): Guidelines für das Tagging deutscher Textcorpora mit STTS (Kleines und großes Tagset). URL: www.sfs.uni-tu ebingen.de/ resources/ stts-1999.pdf (11.07.2022). Schimke, Sarah (2015): Die rezeptive Verarbeitung von Markierungen der Diskurskohärenz bei Grundschulkindern mit Deutsch als Erst- oder Zweitsprache. In: Pagonis, Giulio/ Klages, Hana (Hrsg.): Linguistisch fundierte Sprachförderung und Sprachdidaktik: Grundlagen, Konzepte, Desiderate. Berlin: De Gruyter, 193-214. Schimke, Sarah/ de la Fuente, Israel/ Hemforth, Barbara/ Colonna, Saveria (2018) : First language influence on second language offline and online ambiguous pronoun resolution. In: Language Learning 68 (3), 744-779. Schmidt, Jürgen E. (1993): Die deutsche Substantivgruppe und die Attribuierungskomplikation. Tübingen: Niemeyer. Schmidt, Jürgen E./ Herrgen, Joachim (Hrsg.) (2001-2009): Digitaler Wenker-Atlas (DiWA). Erste vollständige Ausgabe von Georg Wenkers „Sprachatlas des Deutschen Reichs“. 1888 - 1923 handgezeichnet von Emil Maurmann, Georg Wenker und Ferdinand Wrede. Marburg: Forschungsinstitut für deutsche Sprache „Deutscher Sprachatlas.“ Literatur und digitale Ressourcen 291 <?page no="293"?> Schmitz, Anke (2016): Verständlichkeit von Sachtexten. Wiesbaden: VS Verlag für Sozialwissen‐ schaften. Schmitz, Ulrich (2011a): Blickfang und Mitteilung. Zur Arbeitsteilung von Design und Gram‐ matik in der Werbekommunikation. In: Zeitschrift für Angewandte Linguistik 54, 79-109. Schmitz, Ulrich (2011b): Sehflächenforschung: Eine Einführung. In: Diekmannshenke, Hajo/ Klemm, Michael/ Stöckl, Hartmut (Hrsg.): Bildlinguistik. Theorien - Methoden - Fallbeispiele. Berlin: Erich Schmidt Verlag, 23-42. Schmitz, Ulrich (2018): Visualisierung in Text und Gespräch. In: Birkner, Karin/ Janich, Nina (Hrsg.): Handbuch Text und Gespräch. Berlin/ Boston: De Gruyter, 249-275. Schneider, Jan G. (2018): Medialität. In: Liedtke, Frank/ Tuchen, Astrid (Hrsg.): Handbuch Pragmatik. Stuttgart: J.B. Metzler, 272-281. Schnell, Rainer/ Hill, Paul B./ Esser, Elke (2018): Methoden der empirischen Sozialforschung. Berlin/ München/ Boston: De Gruyter Oldenbourg. Schriefers, Herbert (1999): Morphologie und Worterkennung. In: Friederici, Angela D. (Hrsg.): Sprachrezeption. Göttingen: Hogrefe, 117-153. Schriver, Karen A. (1990): Evaluating text quality. The continuum from text-focused to reader-fo‐ cused methods. Technical Report 41. National Center for the Study of Writing and Literacy Technical Report. URL: http: / / www.nwp.org/ cs/ public/ print/ resource/ 627. (11.07.2022). Schuppener, Georg (2011): Alphabetisierung Erwachsener. In: Knapp, Karlfried (Hrsg.): Ange‐ wandte Linguistik. Ein Lehrbuch. Tübingen: Francke, 26-35. Schuppener, Saskia (2008): Psychologische Aspekte. In: Nußbeck, Susanne/ Biermann, Adri‐ enne/ Adam, Heidemarie (Hrsg.): Sonderpädagogik der geistigen Entwicklung. Handbuch Sonderpädagogik. Göttingen: Hogrefe, 89-114. Schuppener, Saskia/ Bock, Bettina M. (2018): Geistige Behinderung und barrierefreie Kommu‐ nikation. In: Maaß, Christiane/ Rink, Isabel (Hrsg.): Handbuch barrierefreie Kommunikation. Berlin: Frank & Timme, 227-253. Schwanenflugel, Paula/ Gaviskà, David (2005): Psycholinguistic aspects of word meaning. In: Cruse, Alan D./ Hundsnurscher, Franz/ Job, Michael/ Lutzeier, Peter Rolf (Hrsg.): Lexikologie. Ein internationales Handbuch zur Natur und Struktur von Wörtern und Wortschätzen. Berlin/ New York: De Gruyter, 1735-1748 Schwarz-Friesel, Monika (2006): Kohärenz versus Textsinn. Didaktische Facetten einer linguis‐ tischen Theorie der textuellen Kontinuität. In: Scherner, Maximilian/ Ziegler, Arne (Hrsg.): Angewandte Textlinguistik. Perspektiven für den Deutsch- und Fremdsprachenunterricht. Tübingen: Narr, 63-75. Schwarz-Friesel, Monika/ Consten, Manfred (2014): Einführung in die Textlinguistik. Darmstadt: Wissenschaftliche Buchgesellschaft. Schwarz, Monika (2000): Indirekte Anaphern in Texten. Studien zur domänengebundenen Referenz und Kohärenz im Deutschen. Berlin: De Gruyter. Schwarz, Monika (2001): Kohärenz---Auf den materiellen Spuren eines mentalen Phänomens. In: Bräunlich, Margret/ Neuber, Baldur/ Rues, Beate (Hrsg.): Gesprochene Sprache - transdis‐ ziplinär. Frankfurt am Main/ Berlin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang, 151-160. 292 Literatur und digitale Ressourcen <?page no="294"?> Searle, John R. (1969): Speech acts. An essay in the philosophy of language. Cambridge: Cambridge University Press. Seitz, Simone (2013): Ist Inklusion gerecht? Inklusions-Forschung in leichter Sprache. Marburg: Lebenshilfe-Verlag. Selfridge, Oliver G/ Neisser, Ulric (1960): Pattern recognition by machine. In: Scientific American 203 (2), 60-68. Selting, Margret/ Auer, Peter/ -Barth-Weingarten, Dagmar/ -Bergmann, Jörg R./ -Bergmann, Pia/ Birkner, Karin/ Couper-Kuhlen, Elizabeth/ Deppermann, Arnulf/ Gilles, Peter/ Günthner, Susanne/ Hartung, Martin/ Kern, Friederike/ Mertzlufft, Christine/ Meyer, Christian/ Morek, Miriam/ -Oberzaucher, Frank/ Peters, Jörg/ Quasthoff, Uta/ Schütte, Wilfried/ Stukenbrock, Anja/ Uhmann, Susanne (2009): Gesprächsanalytisches Transkriptionssystem 2 (GAT 2). In: Gesprächsforschung 10, 353-402. URL: http: / / www.gespraechsforschung-ozs.de/ heft2009/ px -gat2.pdf. (11.07.2022). Settinieri, Julia (2015): Forschst Du noch, oder triangulierst Du schon? In: Elsner, Daniela/ Vieb‐ rock, Britta (Hrsg.): Triangulation in der Fremdsprachenforschung. Frankfurt am Main/ Ber‐ lin/ Bern/ Bruxelles/ New York/ Oxford/ Wien: Peter Lang, 17-36. Shallice, Tim/ Warrington, Elizabeth K. (1977): The possible role of selective attention in acquired dyslexia. In: Neuropsychologia 15 (1), 31-41. Shapiro, Amy/ Milkes, Amy (2004): Skilled readers make better use of anaphora: A study of the repeated-name penalty on text comprehension. In: Electronic Journal of Research in Educational Psychology 2 (2), 61-180. URL: http: / / www.investigacion-psicopedagogica.com / revista/ articulos/ 4/ english/ Art_4_47.pdf. (11.07.2022). Sichelschmidt, Lorenz/ Carbone, Elena (2003): Experimentelle Methoden. In: Rickheit, Gert/ Herrmann, Theo/ Deutsch, Werner (Hrsg.): Psycholinguistik: Ein internationales Hand‐ buch. Berlin: De Gruyter, 115-124. Siebert-Ott, Gesa (2013): Mehrsprachigkeit und Bildungserfolg. In: Auernheimer, Georg (Hrsg.): Schieflagen im Bildungssystem. Wiesbaden: Springer, 145-159. Sieghart, Sabina (2020a): Angemessene Kommunikation mit Leichter Sprache. In: Grabbe, Lars C./ Rupert-Kruse, Patrick/ Schmitz, Norbert M. (Hrsg.): Bildgestalten. Topographien medialer Visualität. Marburg: Büchner, 124-151. Sieghart, Sabina (2020b): The influence of macrotypography on the comprehensibility of texts in easy-to-read language: An empirical study. In: Visible Language 54 (3), 49-95. Silverstein, Michael (1979): Language structure and linguistic ideology. In: Clyne, Paul R./ Hanks, William F./ Hofbauer, Carol L. (Hrsg.): The elements: A parasession on linguistic units and levels. Chicago: Chicago Linguistic Society, 193-247. Simpson, Greg B./ Peterson, Robert R./ Casteel, Mark A./ Burgess, Curt (1989): Lexical and sentence context effects in word recognition. In: Journal of Experimental Psychology: Learning, Memory, and Cognition 15 (1), 88-97. Sinclair, John (1991): Corpus, concordance, collocation. Oxford: Oxford University Press. Sinner, Carsten (2014): Varietätenlinguistik. Eine Einführung. Tübingen: Narr. Sommer, Johanna (2020): A study of negation in German Easy Language - Does typographic marking of negation words cause differences in processing negation? In: Hansen-Schirra, Literatur und digitale Ressourcen 293 <?page no="295"?> Silvia/ Maaß, Christiane (Hrsg.): Easy Language research: Text and user perspectives. Berlin: Frank & Timme, 257-272. Spieß, Constanze (2008): Linguistische Diskursanalyse als Mehrebenenanalyse. Ein Vorschlag zur mehrdimensionalen Beschreibung von Diskursen aus forschungspraktischer Perspektive. In: Warnke, Ingo/ Spitzmüller, Jürgen (Hrsg.): Methoden der Diskurslinguistik. Sprachwis‐ senschaftliche Zugänge zur transtextuellen Ebene. Berlin: De Gruyter, 237-259. Spitzmüller, Jürgen (2013a): Graphische Variation als soziale Praxis. Eine soziolinguistische Theorie skripturaler 'Sichtbarkeit'. Berlin/ Boston: De Gruyter. Spitzmüller, Jürgen (2013b): Metapragmatik, Indexikalität, soziale Registrierung. Zur diskursi‐ ven Konstruktion sprachideologischer Positionen. In: Zeitschrift für Diskursforschung (3), 263-287. Spitzmüller, Jürgen (2022a): Soziolinguistik. Eine Einführung. Stuttgart: J.B. Metzler. Spitzmüller, Jürgen (2022b): „Ye shall know the truth, and the truth shall make you free.“ Position‐ ierungsstrategien der Sprachwissenschaft im Kampf um sprachideologische Deutungshoheit. In: Kämper, Heidrun/ Plewnia, Albrecht (Hrsg.): Sprache in Politik und Gesellschaft. Perspek‐ tiven und Zugänge. Berlin/ Boston: De Gruyter, 17-34. Spitzmüller, Jürgen/ Warnke, Ingo H. (2011): Diskurslinguistik. Eine Einführung in Theorien und Methoden der transtextuellen Sprachanalyse. Berlin/ Boston: De Gruyter. Stadler, Heike (2014): Die Erstellung der Basislemmaliste der neuhochdeutschen Standardspra‐ che aus mehrfach linguistisch annotierten Korpora (OPAL - Online publizierte Arbeiten zur Linguistik 5/ 2014). Mannheim: Institut für Deutsche Sprache. URL: https: / / ids-pub.bsz-bw.d e/ frontdoor/ index/ index/ year/ 2014/ docId/ 2999. (11.07.2022). Staffeldt, Sven (2018): Pragmatischer Standard. In: Liedtke, Frank/ Tuchen, Astrid (Hrsg.): Handbuch Pragmatik. Stuttgart: J.B. Metzler, 223-228. Stanovich, Keith E./ West, Richard F. (1979): Mechanisms of sentence context effects in reading: Automatic activation and conscious attention. In: Memory and Cognition 7 (2), 77-85. Stark, Tobias (2010): Lautes Denken in der Leseprozessforschung. Kritischer Bericht über eine Erhebungsmethode. In: Didaktik-Deutsch 29, 58-83. Statistisches Bundesamt (2020): Migrationshintergrund. URL: https: / / www.destatis.de/ DE/ The men/ Gesellschaft-Umwelt/ Bevoelkerung/ Migration-Integration/ Glossar/ migrationshintergr und.html. (11.07.2022). Stefanowitsch, Anatol (2011): Cognitive linguistics meets the corpus. In: Brdar, Mario/ Žic Fuchs, Milena/ Gries, Stefan T. (Hrsg.): Cognitive linguistics: Convergence and expansion. Amsterdam: Benjamins, 257-290. Stefanowitsch, Anatol/ Gries, Stefan T. (2009): Corpora and grammar. In: Lüdeling, Anke/ Kytö, Merja (Hrsg.): Corpus linguistics. Berlin: De Gruyter, 933-952. Steuten, Ulrich (2014): Literalität und Stigma. In: Hessische Blätter für Volksbildung 2, 125-135. Stöckl, Hartmut (2004): Typographie: Gewand und Körper des Textes - Linguistische Überle‐ gungen zu typographischer Gestaltung. In: Zeitschrift für Angewandte Linguistik (41), 5-48. Stöckl, Hartmut (2011): Sprache-Bild-Texte lesen. Bausteine zur Methodik einer Grundkompe‐ tenz. In: Diekmannshenke, Hajo/ Klemm, Michael/ Stöckl, Hartmut (Hrsg.): Bildlinguistik. Theorien - Methoden - Fallbeispiele. Berlin: Erich Schmidt Verlag, 46-70. 294 Literatur und digitale Ressourcen <?page no="296"?> Storjohann, Petra (2019): Dynamischer Gebrauch von Paronymen in allgemein-, fach-, wissen‐ schafts- und bildungssprachlicher Kommunikation. In: Zeitschrift für Angewandte Linguistik 71, 353-383. Strohner, Hans (2006): Textverstehen aus psycholinguistischer Sicht. In: Blühdorn, Harda‐ rik/ Breindl, Eva/ Waßner, Ulrich H. (Hrsg.): Text - Verstehen: Grammatik und darüber hinaus. Berlin: De Gruyter, 187-204 Stroop, John R. (1935): Studies of interference in serial verbal reactions. In: Journal of Experi‐ mental Psychology 18 (6), 643-662. Strübing, Jörg/ Hirschauer, Stefan/ Ayaß, Ruth/ Krähnke, Uwe/ Scheffer, Thomas (2018): Güte‐ kriterien qualitativer Sozialforschung. Ein Diskussionsanstoß. In: Zeitschrift für Soziologie 47 (2), 83-100. Sutherland, Rebekah J./ Isherwood, Tom (2016): The evidence for easy-read for people with intellectual disabilities. A systematic literature review. In: Journal of Policy and Practice in Intellectual Disabilities 13 (4), 297-310. Taylor, Wilson L. (1953): “Cloze procedure”: A new tool for measuring readability. In: Journalism Quarterly 30 (4), 415-433. Theunissen, Georg (2005): Pädagogik bei geistiger Behinderung und Verhaltensauffälligkeiten. Ein Kompendium für die Praxis. Bad Heilbrunn: Klinkhardt. Theunissen, Georg (2008): Geistige Behinderung und Lernbehinderung. Zwei inzwischen umstrittene Begriffe in der Diskussion. In: Geistige Behinderung 47 (2), 127-136. Thurmair, Maria (1991): Warten auf das Verb. Die Gedächtnisrelevanz der Verbklammer im Deutschen. In: Jahrbuch Deutsch als Fremdsprache 17, 174-202. Tognini-Bonelli, Elena (2001): Corpus linguistics at work. Amsterdam: Benjamins. Traxler, Matthew J. (2012): Introduction to psycholinguistics: Understanding language science. Chichester: Wiley-Blackwell. Trim, John / North, Brian/ Coste, Daniel (2001): Gemeinsamer europäischer Referenzrahmen für Sprachen: lernen, lehren, beurteilen. München: Klett-Langenscheidt. URL: https: / / www. goethe.de/ Z/ 50/ commeuro/ i3.htm (11.07.2022) Tschirner, Erwin (2005): Korpora, Häufigkeitslisten, Wortschatzerwerb. In: Heine, Antje/ Hen‐ nig, Mathilde/ Tschirner, Erwin (Hrsg.): Deutsch als Fremdsprache - Konturen und Perspek‐ tiven eines Faches. München: iudicium, 133-149. Tschirner, Erwin (2009): Korpuslinguistik und Fremdsprachenunterricht. In: Bartoszewicz, Iwona/ Hałub, Marek / Tomiczek, Eugeniusz (Hrsg.): Argumente - Profile - Synthesen. Wrocław: Wydanictwo Universiytetu Wrocławskiego, 127-142. Tschirner, Erwin (2010): Wortschatz. In: Krumm, Hans-Jürgen/ Fandrych, Christian/ Hufeisen, Britta/ Riemer, Claudia (Hrsg.): Deutsch als Fremd- und Zweitsprache. Ein internationales Handbuch. Berlin/ Boston: De Gruyter Mouton, 236-245. Tschirner, Erwin (2019): Der rezeptive Wortschatzbedarf im Deutschen als Fremdsprache. In: Peyer, Elisabeth/ Studer, Thomas/ Thonhauser, Ingo (Hrsg.): IDT 2017. Band-1: Hauptvor‐ träge. Berlin: Erich Schmidt, 98-111. Tschirner, Erwin/ Möhring, Jupp (2019): A frequency dictionary of German. Core vocabulary for learners. London: Routledge. Literatur und digitale Ressourcen 295 <?page no="297"?> Ueding, Gert/ Steinbrink, Bernd (1994): Grundriss der Rhetorik. Geschichte, Technik, Methode. Stuttgart: J.B. Metzler. Unger, Hella von (2014): Partizipative Forschung: Einführung in die Forschungspraxis. Wiesba‐ den: Springer VS. Unger, Hella von (2016): Gemeinsam forschen. Wie soll das gehen? Methodische und forschungs‐ praktische Hinweise. In: Buchner, Tobias/ Koenig, Oliver/ Schuppener, Saskia (Hrsg.): Inklu‐ sive Forschung: Gemeinsam mit Menschen mit Lernschwierigkeiten forschen. Bad Heilbrunn: Klinkhardt, 54-68. Vasishth, Shravan (2011): Integration and prediction in head-final structures. In. Yamashita, Hi‐ roko/ Hirose, Yuki/ Packard, Jerome (Hrsg.): Processing and producing head-final structures. Berlin: Springer, 349-367. Vajjala, Sowmya/ Meurers, Detmar (2014): Readability assessment for text simplification: From analyzing documents to identifying sentential simplifications. In: International Journal of Applied Linguistics 165 (2), 142-222. Vanhatalo, Ulla/ Lindholm, Camilla/ Onikki-Rantajääskö, Tiina (Hrsg.) (i.Dr., 2022): Special Issue „Easy Language Research“. Nordic Language Journal 45. Wagner, Susanne/ Scharff, Susanne (2014): Über die Unterschiede zwischen Einfacher und Leichter Sprache. In: vds Landesmitteilungen Sachsen 2, 28-31. Wagner, Susanne/ Schlenker-Schulte, Christa (2015): Textoptimierung von Prüfungsaufgaben. Handreichung zur Erstellung leicht verständlicher Prüfungsaufgaben. Halle, Saale: Institut für Textoptimierung. Waldenberger, Sandra (2017): Überlegungen zur Beobachtbarkeit von Lexikalisierungsprozes‐ sen. In: Jahrbuch für Germanistische Sprachgeschichte 8 (1), 253-278. Warren, Paul (2012): Introducing psycholinguistics. Cambridge: Cambridge University Press. Weidacher, Georg (2007): Multimodale Textkompetenz. In: Schmölzer-Eibinger, Sabine/ Weid‐ acher, Georg (Hrsg.): Textkompetenz. Eine Schlüsselkompetenz und ihre Vermittlung. Tübin‐ gen: Narr, 39-56. Wengeler, Martin (2003): Topos und Diskurs. Begründung einer argumentationsanalytischen Methode und ihre Anwendung auf den Migrationsdiskurs (1960-1985). Tübingen: Niemeyer. Wiechmann, Daniel/ Fuhs, Stefan (2006): Concordancing software. In: Corpus Linguistics and Linguistic Theory 2 (1), 107-127. Wilke, Julia (2016): Literacy und geistige Behinderung. Eine Grounded-Theory-Studie. Wiesba‐ den: Springer VS. Willberg, Hans P./ Forssman, Friedrich (1999): Erste Hilfe in Typografie. Ratgeber für Gestaltung mit Schrift. Mainz: Schmidt. Wirtz, Markus A. (Hrsg.): Lexikon der Psychologie (2014). Bern: Huber. Wray, Alison (2002): Formulaic language and the lexicon. Cambridge: Cambridge University Press. Würffel, Nicola (2006): Strategiegebrauch bei Aufgabenbearbeitungen in internetgestütztem Selbstlernmaterial. Tübingen: Narr. Yap, Melvin J./ Balota, David A. (2015): Visual word recognition. In: Pollatsek, Alexander/ Trei‐ man, Rebecca (Hrsg.): Oxford handbook of reading. New York: Oxford University Press, 26-43. 296 Literatur und digitale Ressourcen <?page no="298"?> Zareva, Alla (2014): Frontier words: L1 and L2 partial knowledge of vocabulary. In: Chappelle, Carol (Hrsg.): The encyclopedia of applied linguistics. Oxford: Wiley-Blackwell. Zeldes, Amir/ Lüdeling, Anke/ Hirschmann, Hagen (2008): What’s hard? Quantitative evidence for difficult constructions in German learner data. In: Arppe, Antti/ Sinnemäki, Kaius/ Ni‐ kanne, Urpo (Hrsg.): Proceedings of quantitative investigations in theoretical linguistics 3 (QITL-3) Helsinki, 74-77. URL: http: / / www.ling.helsinki.fi/ sky/ tapahtumat/ qitl/ QITL3_Proc eedings.pdf#page=76. (11.07.2022). Zeman, Sonja (2017): Wie fasst man ein Phantom? Zur Komplexität semantischer Komplexität. Hennig, Mathilde (Hrsg.): Linguistische Komplexität - ein Phantom? Tübingen: Stauffenburg, 53-72. Ziegler, Johannes C./ Goswami, Usha (2005): Reading acquisition, developmental dyslexia, and skilled reading across languages: A psycholinguistic grain size theory. In: Psychological Bulletin 131 (1), 3-29. Zinsmeister, Heike (2015): Chancen und Grenzen von automatischer Annotation. In: Zeitschrift für germanistische Linguistik 43 (1), 84-111. Zurstrassen, Bettina (2015): Inklusion durch Leichte Sprache? Eine kritische Einschätzung. In: Dönges, Christoph/ Hilpert, Wolfram/ Zurstrassen, Bettina (Hrsg.): Didaktik der inklusiven politischen Bildung. Bonn: Bundeszentrale für politische Bildung, 126-138. Zwitserlood, Pienie (2018): Processing and representation of morphological complexity in native language comprehension and production. In: Booij, Geert (Hrsg.): The construction of words: Advances in construction morphology. Berlin: Springer, 583-602. Zwitserlood, Pienie/ Bölte, Jens (2017): Worterkennung und -produktion. In: Müsseler, Jo‐ chen/ Rieger, Martina (Hrsg.): Allgemeine Psychologie. Berlin: Springer, 437-465. Literatur und digitale Ressourcen 297 <?page no="299"?> Während sich „Leichte“ und „Einfache Sprache“ in der Praxis zunehmend etabliert haben, steht die empirische Erforschung noch immer am Anfang. Das Studienbuch beleuchtet aus der Perspektive unterschiedlicher linguistischer Teildisziplinen den aktuellen Forschungsstand sowie empirische Forschungszugänge. Neben psycho- und textlinguistischen Grundlagen werden auch korpuslinguistische sowie diskurs- und soziolinguistische Zugänge thematisiert. So entsteht erstmals ein multiperspektivischer, empirisch basierter Überblick über Forschungsergebnisse und -zugänge zu diesem neuen Themenfeld, das sich aktuell in verschiedenen linguistischen Disziplinen etabliert. Das Buch bietet eine empirisch fundierte Einführung in Erkenntnisse zu sprachlicher Einfachheit auf Wort-, Satz- und Textebene sowie Untersuchungsergebnisse zum Lesen und Verstehen bei den wichtigsten Zielgruppen „Leichter“ und „Einfacher Sprache“. Es führt außerdem mithilfe von Anwendungsbeispielen in empirische Forschungsmethoden ein und berücksichtigt dabei sowohl quantitative als auch qualitative Forschungsansätze. ISBN 978-3-8233-8181-5