eJournals Arbeiten aus Anglistik und Amerikanistik 35/2

Arbeiten aus Anglistik und Amerikanistik
aaa
0171-5410
2941-0762
Narr Verlag Tübingen
Es handelt sich um einen Open-Access-Artikel, der unter den Bedingungen der Lizenz CC by 4.0 veröffentlicht wurde.http://creativecommons.org/licenses/by/4.0/121
2010
352 Kettemann

“Jetzt fällt es mir wieder ein”: Verbesserte Informationsverarbeitung durch Supertexte: Pilotstudie zur Anwendung des Prinzips der kognitiven Plausibilität

121
2010
Margit Reitbauer
aaa3520209
AAA - Arbeiten aus Anglistik und Amerikanistik Band 35 (2010) Heft 2 Gunter Narr Verlag Tübingen “Jetzt fällt es mir wieder ein”: Verbesserte Informationsverarbeitung durch Supertexte: Pilotstudie zur Anwendung des Prinzips der kognitiven Plausibilität Margit Reitbauer It crossed my mind: Improved knowledge transfer through supertexts: Pilot study on the application of the principle of cognitive plausibility to linear texts. The present study aims at assessing the impact of modelling textual structures on knowledge transfer. 20 students of English and American Studies of Graz University, who were on the linguistic level C1, took part in a reading test series in which they had to read a linear text on the topic “How does the human brain work? ” The participants were tested on a recall and a reading comprehension task. In a pre-test the number of propositions had been determined by test readers. The experimental group was provided with a linear text (457 words) and an additional networked supertext. This supertext was created by applying the principle of cognitive plausibility to linear texts. The principle of cognitive plausibility refers to the ability to restructure one’s knowledge in adaptive response to changing situational demand. The supertext restructured the original text by keeping the original question-answer pattern of the linear text and outlining its informational structure i.e. the macropropositions with their respective micropropositions in form of flow charts. The flow charts displayed the semantic structure of the text as a network of propositions. The control group only got the linear text. In accordance with the principle of cognitive plausibility, which so far has mainly been attributed to hypertexts, it was assumed that the supertext would facilitate the building of networked knowledge structures and the integration of new knowledge. The results of this pilot study suggest that the modelling of textual structures based on the principle of memory structures has a positive effect on both knowledge transfer and recall of propositions. A recognition posttest, which was conducted one week later, confirmed the results of the first test series. The group who had worked with the networked supertext also reached higher scores in the recognition test. Margit Reitbauer 210 Einleitung In der vorliegenden empirischen Studie, die sich mit der visuellen Modellierung von Textstrukturen zur Förderung des Leseverstehen und der Behaltensleistung beschäftigt, werden nach einer kurzen Einführung in Aspekte der multisensorischen Informationsverarbeitung folgende Hypothesen überprüft werden: • Können Textinhalte besser verarbeitet und behalten werden, wenn sie durch bildhafte Assoziationen und Visualisierungen in Form von Supertexten semantisiert werden? • Entstehen durch die Kontiguität von Supertext und Bild multikodale Behaltensvorteile? • Kann der Rezipient durch Supertexte bildhafte und propositionale Repräsentationen leichter referentiell aufeinander beziehen und sie integrieren? Die Hypothesen beruhen im Wesentlichen auf Paivios Theorie der behaltensfördernden Wirkung mentaler Repräsentationen im Rahmen einer dualen Kodierung von verbal begrifflichen Logogenen und bildhaft-anschaulichen Imagenen. 1. Aspekte der multisensorischen Informationsverarbeitung Bei der Verarbeitung von Wörtern und Bildern werden sprachliche Zeichen durch verbale oder non-verbale piktorale Formate bzw. Symbolsysteme kodiert und repräsentiert. Dabei werden unterschiedliche Sinnesmodalitäten aktiviert. Zunächst ging man davon aus, dass jedes Medium in einem spezifischen Code als Symbolsystem erfasst und mit dem entsprechenden Sinnesorgan monomodal rezipiert wird. Neurophysiologische Erkenntnisse wiesen aber bald auf Interdependenzen hin. Die von Paivio (1986) aufgestellten psychologischen Annahmen über eine kognitiv-emotionale Interdependenz in Lernprozessen und die duale Kodierung von Bildern und Wörtern werden in der neurophysiologischen Forschung mittlerweile bestätigt. Es hat sich gezeigt, dass Wörter besser verarbeitet und behalten werden, wenn sie durch bildhafte Assoziationen und Visualisierungen semantisiert werden. Collins und Convey (1998) bestätigen das und nehmen auf die förderliche zusätzliche Aktivierung der rechten Hirnhälfte Bezug: In general, our research is consistent with the view that the left hemisphere lexicon is comprised of a complex network of abstract, imaginary, and concrete words, while the right hemisphere operates as a subsidiary word processor, subserving linguistic processing with a limited, special purpose lexicon “Jetzt fällt es mir wieder ein” 211 comprised of associative connections between concrete, imaginable words. (Collins and Coney 1998: 49) In der multimedialen Theorie des Gedächtnisses von Engelkamp (1990: 62ff.) wird versucht, den Bildüberlegenheitseffekt, der durch die Aktivierung der rechten Hirnhälfte entsteht, zu erklären. Laut Engelkamp werden bei der Wahrnehmung verbale und non-verbale Konzepte gedächtnispsychologisch in zwei qualitativ verschiedenen Systemen modalitätenspezifisch in Form von Wort- oder Bildmarken abgespeichert, wobei diese miteinander interagieren. Bildmarken sind im Gegensatz zu verbalen Repräsentationen nicht sequentiell sondern einheitlich holistisch abgespeichert. Dementsprechend hinterlassen sie eine reichhaltigere Gedächtnisspur und sind laut Engelkamp bei der Reproduktion als mentale Bilder simultan verfügbar. Grafiken und Bilder ermöglichen durch ihre externe analoge Repräsentation die unmittelbare Konstruktion eines mentalen Modells, während Texte zunächst zur Konstruktion von propositionalen Repräsentationen führen, bevor mentale Modelle aufgebaut werden können. Vertreter der amodalen Common-Code-Theorie (vgl. u.a. Stadie 1999) sind der Auffassung, dass Bedeutungsrepräsentationen unabhängig von ihrer Darbietungsmodalität entstehen können, da die zugrunde liegenden Konzepte mental als Bündel von Elementen repräsentiert werden und in Beziehung zueinander stehen. Während Lexeme durch assoziative Relationen miteinander verbunden sind, werden visuelle Elemente durch strukturelle Ähnlichkeit determiniert. Daher scheint es denkbar, dass es im semantischen Kategorisierungssystem eine Schnittstelle der Verarbeitungsebenen für Bilder und Wörter gibt, die bei unterschiedlichen Darbietungen durch die vernetzte Bündelung von Merkmalen zu ähnlichen oder sogar identischen Repräsentationen führen kann. Die aktuelle neurokognitive Forschung liefert ebenfalls interessante Erkenntnisse über Prozesse, die bei der Verarbeitung von Text und logischen Bildern bzw. Supertexten wirksam werden. Für die vorliegende Studie ist das Phänomen der Bahnung bzw. des Priming von besonderem Interesse. In der Neurophysiologie wird damit das Phänomen beschreiben, dass eine wiederholte Erregung bestimmter Nervenbahnen den Wirkungsgrad von Reizen gleicher Stärke erhöht. Dadurch wird eine Erregung dieser Nervenbahn schon aufgrund schwächerer Reize ermöglicht. Auf Gedächtnisinhalte bezogen bedeutet das, dass diese schneller oder automatisiert abgerufen werden können, wenn der Inhalt zuvor aktualisiert worden ist. Diese Aktualisierung kann durch den Supertext erfolgen, da dieser die Information in wiederholender Form zur Verfügung stellt und dazu beiträgt, dass neuronale Korrelate mentaler Repräsentationen durch die gleichzeitige Aktivierung miteinander verbunden bzw. aktiviert werden (vgl. u.a. Wentura/ Degner 2010). Margit Reitbauer 212 Im Folgenden soll überprüft werden, ob durch multiple Repräsentationen des Inhalts die Effektivität des Lernens bzw. Erinnerns erhöht werden kann. 1.1 Informationsvernetzung: Textverarbeitung als Rekonstruktion von Wissen Die Modellierung von Textstrukturen unter Anwendung von Erkenntnissen kognitionspsychologischer Modelle des Textverstehens hat in der Linguistik eine lange Tradition. Die Anwendung von Theorien zur Informationsverarbeitung im Hinblick auf Textoptimierung, Förderung des Leseverstehens und der Behaltensleistung standen dabei im Mittelpunkt des Forschungsinteresses angewandter Linguisten (vgl. u.a. van Dijk/ Kintsch 1983, Rickheit/ Strohner 1993, Schnotz/ Dutke 2004, Göpferich 2008). Textverarbeitung wird in den meisten Modellen als sequentieller, zyklischer, hierarchischer und strategisch semantischer Organisationsprozess gesehen. Ziel des Textverarbeitungsprozesses ist eine kohärente Organisation von semantischen und kognitiven Daten. Diese Sicht der Textverarbeitung schließt den Gebrauch von Wissen, das im Gedächtnis der Rezipienten gespeichert ist, mit ein und geht von einem interaktiven Prozess aus, der sowohl bottom-up als auch top-down Prozesse integriert. Im Construction-Integration-Modell (vgl. Kintsch 2005) geht man davon aus, dass Rezipienten versuchen, durch diese Prozesse ein kohärentes, vollständig verbundenes Netzwerk herzustellen. Im Zuge der zunehmenden Bedeutung elektronischer Texte wurden die Modelle aufgrund der Textvernetzung immer komplexer. Gleichzeitig wurde mit der Postulierung des Prinzips der kognitiven Plausibilität eine Überlegenheit der Darstellungsmöglichkeit in elektronischen Medien suggeriert. Nach diesem Prinzip werden Textstrukturen im Hypertext mit Gedächtnisstrukturen in Zusammenhang gebracht. Das Prinzip der kognitiven Plausibilität geht davon aus, dass die aus textstrategischen oder pragmatischen Gründen entstehenden Knotenstrukturen in Hypertexten der Speicherung von Wissen im menschlichen Gedächtnis entgegen kommen, da die Hypertextstrukturen den semantischen Netzwerken im Gedächtnis ähnlich sind (vgl. u.a. Johanssen 1989, Berressem 2000, Rauwald 2008). Nicht-linear präsentierte Informationen können somit leichter in die ebenfalls nicht-linear organisierten Gedächtnisstrukturen übernommen werden. Kritiker dieses Konzepts sehen in hypermedialen Strukturen eher die Gedächtnisstruktur des Autors repräsentiert, die nicht direkt auf die des Lesers übertragbar ist (vgl. u.a. Dillon 1996). Zahlreiche empirische Befunde - u.a. auch die der aktuellen Studie - weisen aber darauf hin, dass sich netzwerkartige Darstellungen sowohl in linearen als auch in digitalen Texten positiv auf die Behaltensleistung auswirken (vgl u.a. Gold et al. 2009, Gailberger 2009). “Jetzt fällt es mir wieder ein” 213 Informationsvernetzung fördert die Entwicklung von transferierbarem, flexiblem Wissen, das bei Bedarf adaptiert und zur Erweiterung und Konstruktion von neuen Wissensstrukturen herangezogen werden kann. Diese Entwicklung stellt nicht nur eine gesellschaftspolitisch relevante Forderung vieler Bildungsexperten dar, sondern bildet auch den Kernpunkt von Theorien zur Informationsverarbeitung wie z.B. der sogenannten Cognitive Flexibility Theory (Spiro/ Jehng 1990). In dieser Theorie steht die flexible Anpassung und Erweiterung von Schemata im Mittelpunkt und weniger das Abrufen bestehender Schemata. Spiro und Jehng (1990: 165) formulieren die zentrale Hypothese ihrer Theorie wie folgt: By cognitive flexibility, we mean the ability to spontaneously restructure one’s knowledge in many ways, in adaptive response to radically changing situational demands […]. This is a function of both the way knowledge is represented (e.g. along multiple rather than single conceptual dimensions) and the processes that operate on those mental representations (e.g. processes of schema assembly rather than intact schema retrieval). Wie die vorliegende Arbeit zeigen wird, kann die Entwicklung von transferierbarem, flexiblem Wissen durch Netzwerkdarstellungen gefördert werden, da sie eine Umsetzung der linearen Darstellung im Text in nicht lineare kognitive Repräsentationen erleichtern (vgl. u.a. Jahr 1996). Aus vernetzten Überblicksdarstellungen wird für den Rezipienten die Hierarchie der Bedeutungseinheiten ersichtlich und das Einordnen in übergeordnete Zusammenhänge kann leichter erfolgen. Empirische Befunde sprechen dafür, dass auch Erinnerungslücken, die Leerstellen in Schemata entsprechen, leichter aufgefüllt werden können (Gold et al. 2009). Da Überblicksdarstellungen der Textstruktur nur die relevantesten Makropropositionen enthalten, geben sie gleichzeitig Hinweise auf die wichtigsten zu speichernden Bedeutungseinheiten. Die Speicherung von Wissen erfolgt in Form propositionaler Netzwerke entlang bestehender Verbindungen durch ein langzeitgespeichertes Netzwerk von Assoziationen zu anderen Teilen des Gedächtnisses. Um Informationen aus dem Langzeitgedächtnis abrufen zu können, müssen sie zunächst aktiviert werden. Diese Aktivierung soll durch die netzwerkartige Darstellung der Informationen im Supertext gefördert werden. Der für die vorliegende Untersuchung entworfene Supertext stellt dem Rezipienten eine elaborative Zusatzstruktur zur Verfügung und damit gleichzeitig einen alternativen Abrufweg, um die abzurufenden Informationen zu erschließen. Im Sinne Heinemanns (1990: 12f.) könnte man von einem “textorientierten psychischen Potential” sprechen und den Supertext als “abstraktes Rahmenschema” bezeichnen, das aktiviert werden kann. Der Grad der Aktivierung, die auf eine Wissensstruktur fällt, ist abhängig von der Stärke der Verbindung, über die sich die Wissensstruktur ausbreitet. Margit Reitbauer 214 1 Es ist hilfreich, zunächst den für das Experiment eingesetzten Text (siehe Appendix 1) zu lesen, damit man einen Überblick über die Propositionen, die in der empirischen überprüften Textverarbeitung eine Rolle spielen werden, gewinnt. Supertexte sollen diese Aktivierung verstärken, indem sie eine Disambiguierung vornehmen und die Aktivierung konkurrierender Verbindungen unterbinden. Gibt es konkurrierende Verbindungen, so kann sich ein nachteiliger Effekt auf die Aktivierungsmenge ergeben. In diesem Fall spricht man von assoziativer Interferenz (Anderson 2000: 242). Gedächtnisspuren stören sich gegenseitig und werden mit der Zeit schwächer. Dadurch wird auch der Zugang zu ihnen erschwert und es kommt zum bekannten Phänomen des Vergessens. Dabei ist allerdings immer noch nicht zweifelsfrei geklärt, ob wir tatsächlich Dinge ganz vergessen, oder ob wir nur an die gespeicherten Informationen nicht mehr herankommen. Tatsächlich sind Gedächtnisspuren anfänglich fragil und müssen durch Aktivitäten im Hippocampus konsolidiert werden, da sie sonst zerfallen würden. Im Hippocampus fließen Informationen verschiedener sensorischer Systeme zusammen, werden verarbeitet und zum Kortex zurückgesandt. Damit kommt es zur Überführung von Gedächtnisinhalten aus dem Kurzzeitin das Langzeitgedächtnis (vgl. Kolb et al. 2001: 508). Permanente Gedächtnisinhalte werden über die Veränderung synaptischer Verbindungen zwischen den Neuronen kodiert. Diese Veränderungen haben den Effekt, dass das Aktivierungsmuster eines Neuronenverbandes auch in einem anderen Neuronenverband Aktivierung auslöst. Die Kodierung von Gedächtnisrepräsentationen erfolgt in Form von Chunks d.h. kleiner leicht zu verarbeitender Informationseinheiten. Dieses chunking soll durch die visuelle Repräsentation des Textinhaltes in Form des Supertextes unterstützt werden. Im folgenden Abschnitt soll nun die Untersuchung mit Bezug auf die mentalen Operationen und ihrer Ergebnisse während der kognitiven Aufgabe des Lesens und der anschließenden Überprüfung der Behaltensleistung beschrieben werden. 2 Empirische Untersuchung zur Überprüfung der Behaltensleistung 1 2.1 Probandengruppe An dieser Pilotstudie nahm eine Gruppe von 6 männlichen und 14 weiblichen Studierenden der Studienrichtung Anglistik/ Amerikanistik der Universität Graz teil, die sich auf dem Sprachniveau C1 nach dem Common European Framework of Reference (vgl. CEFR 2001: 22ff.) befanden. Die Probanden waren im Alter zwischen 19 und 21 Jahren und wurden in eine Versuchsgruppe (10 Probanden), die mit einem Supertext arbeitete, und “Jetzt fällt es mir wieder ein” 215 eine Kontrollgruppe (10 Probanden), die nur den linearen Text zur Verfügung hatte, unterteilt. Die Probanden nahmen an einem Seminar zur Textlinguistik teil und waren in fünf Unterrichtseinheiten zu je 90 Minuten mit Aspekten der Analyse von Textstrukturen, sowie der Untersuchung der kommunikativen Funktion und Rezeption von Texten vertraut gemacht worden. 2.2 Versuchsaufbau 2.2.1 Pretest Die 10 Studierenden der Versuchsgruppe lasen einen linearen Text zum Thema “How does the human brain work? ” Bei diesem Text handelt es sich um einen populärwissenschaftlichen Werbetext, der einer Homepage entnommen ist, auf der versucht wird, Seminare und Produkte für die erfolgreiche Karriereplanung zu verkaufen (Jordan Cheng http: / / www.mind-powerfor-success.com/ index.html). Anschließend nahmen die Probanden an einem Test teil, der Leseverstehen und Behaltensleistung in der Fremdsprache bzw. die Wiedergabe der im Text enthaltenen Propositionen überprüfte. Die 10 Fragen zum Textverständnis mussten unmittelbar nach der Lektüre des Textes, die zeitlich auf 10 Minuten limitiert war, beantwortet werden. Das Textblatt war vor der Durchführung des Lesetests eingesammelt worden und somit stand der Text nicht mehr als Referenz zur Verfügung. Die Aufgabenstellung forderte die Probanden nicht nur im Hinblick auf Wissenskonstruktion sondern auch sprachlich. Die Überprüfung der Behaltensleistung erfolgte auf Basis der Ergebnisse einer Voruntersuchung. Die Zahl der im Text enthaltenen Propositionen war in dieser Voruntersuchung von 15 Testlesern, bei denen es sich um Lektoren des Instituts für Anglistik der Universität Graz handelte, erhoben worden. Die Testleser waren aufgefordert worden, jene Einheiten im Text zu markieren, die für sie Inhalte, d.h. in den Sätzen ausgedrückte Sachverhalte, darstellen. In diesem Vortest wurden 47 Propositionen ermittelt, die dem propositionalen Gehalt von Sätzen entsprechen (vgl. u.a. Ernst 2002: 97). Die Versuchsgruppe, deren Lesezeit ebenfalls auf 10 Minuten beschränkt war, erhielt zusätzlich zu dem 457 Wörter umfassenden Text einen Supertext, der ebenfalls von den Testlesern erstellt worden war und den inhaltlichen Aufbau in Form der Makrostruktur nachzeichnete. Die dazugehörigen Mikrostrukturen wurden in Form von Flussdiagrammen dargestellt. Diese Flussdiagramme zeichnen die semantische Struktur des Textes als Gefüge von Propositionen nach und spiegeln die Frage-Antwort-Struktur des Ausgangstextes wider. Die vier Flussdiagramme entsprachen im Wesentlichen den vier Teiltexten, die durch Überschriften gekennzeichnet sind. Eine Subeinheit bzw. ein Organigramm, in dem die Hauptaussagen des Textes Margit Reitbauer 216 zusammengefasst werden, wurde von den Lesern hinzugefügt. (The 4 frequencies, siehe Abb. 1). Die folgende Abbildung zeigt den von den Testlesern entwickelten Supertext. Abb. 1: Supertext Electric energy Vibration frequency Science of the human brain Brain operates on: Brain exercises Increase brain power How does the human brain work? Function of the human brain The 4 frequencies Beta normal state Alpha between Theta deep sleep Delta unconscious Benefits of sleep frequency Control of emotions Effects on learning “Jetzt fällt es mir wieder ein” 217 2.2.2 Posttest Nach einer Woche wurde ein Posttest durchgeführt, in dem es um das Wiedererkennen von im Text enthaltenen Propositionen ging. Das Testformat des Wiedererkennungstests wurde gewählt, da es meist zuverlässigere Ergebnisse bezüglich der Informationen, die im Langzeitgedächtnis der Leser gespeichert sind, liefert als reine recall tests. Wiederkennen ist nämlich mit geringerem kognitiven Aufwand möglich und aktiviert oft Inhalte, die zwar gespeichert sind, aber vom Leser selbst nicht aktiv abrufbar sind. Man spricht von Erinnern mit Abrufhilfe bzw. cued recall (Anderson 2000: 242). Im Wiedererkennungstest bekamen die Versuchspersonen eine Liste von 6 Propositionen vorgelegt und sollten jene drei unterstreichen, die ihrer Ansicht nach in dem vor einer Woche gelesen Text enthalten waren. 2.3 Untersuchungsergebnisse 2.3.1 Leseverstehen: Pretest Die Ergebnisse des Leseverstehenstests zeigen, dass die Versuchsgruppe, die mit dem Supertext gearbeitet hat, deutlich bessere Lesetestergebnisse aufwies. Sowohl im Bereich der Verständnisfragen als auch bei der letzten Frage, in der es um das Erinnern einer Propositionsliste ging, lag die Versuchsgruppe deutlich vor der Kontrollgruppe. Wie aus Abbildung 2 ersichtlich, wies die Versuchsgruppe bei allen Fragen (siehe x-Achse) bessere Werte auf als die Kontrollgruppe (Zahlen beziehen sich auf richtige Antworten). Abb. 2: Lesetestergebnisse: Gruppenvergleich Lesetest: Gruppenvergleich Reihe 1(rot): Versuchsgruppe Reihe 2 (grün) Kontrollgruppe 9 8 10 9 6 10 10 9 8 9 8 7 9 5 5 5 4 5 4 5 0 2 4 6 8 10 12 1 2 3 4 5 6 7 8 9 10 Reihe1 Reihe2 Margit Reitbauer 218 Analysiert man die einzelnen Fragen im Hinblick auf die Hierarchiehöhe der einzelnen Propositionen, die abgefragt wurden, so zeigt sich, dass hierarchiehohe Propositionen in beiden Gruppen deutlich besser abgerufen wurden. Die Fragen 1 und 3, die auf ranghohe Propositionen bezogen waren, wurden in beiden Gruppen zu einem hohen Prozentsatz korrekt beantwortet. (90%, bzw. 100% in der Versuchsgruppe und 80% bzw. 90% in der Kontrollgruppe). Damit scheint Kintsch und van Dijks Strategiemodell (1983) zumindest in diesem Punkt bestätigt. Elaborierte Strukturen, d.h. Strukturen, die Erweiterungen der ursprünglichen Propositionen enthielten und durch zusätzliche redundante Informationen untermauert wurden, konnten ebenfalls besser abgerufen werden. Damit bestätigt sich eine weitere Grundannahme der kognitiven Textverarbeitungtheorie. Die Gedächtnisleistung verbesserte sich mit zunehmendem Elaborationsgrad, da durch die Mehrfachdarstellung im Text und im Supertext zusätzliche alternative Abrufwege für eine Reproduktion zur Verfügung gestellt wurden. Die Fragen 4, 5, 6 und 7, die sich auf die vier im Text mehrfach elaborierten Ausführungen zu den Gehirnfrequenzen beziehen, wurden von den Probanden der Versuchsgruppe zu 90%, 60%, 100% und 100% richtig beantwortet, während die Werte der Kontrollgruppe mit 50%, 50%, 50% und 40% deutlich darunter lagen. Die betreffenden Propositionen sind im Supertext in einer eigenen Teilsequenz grafisch dargestellt und mit einer Subüberschrift versehen, die im Originaltext nicht enthalten ist. Damit bot sich der Kontrollgruppe nach dem Prinzip der dualen Kodierung (vgl. Paivio 1986) eine zusätzliche bildliche Informationsrepräsentation, die den Wissenserwerb mehr fördert als eine reine textuelle Präsentation. Laut der dualen Kodierungstheorie beinhaltet das Arbeitsgedächtnis zwei voneinander unabhängige Systeme für die Repräsentation verbaler und nonverbaler Informationen, die, wenn sie beide aktiviert werden und sich inhaltlich ergänzen, eine Speicherung im Langzeitgedächtnis fördern und das Erinnerungsvermögen unterstützen. Bei Frage 9 (Are negative thoughts associated with fast or slow brain waves? ), die sich auf den Subtext Understanding Brain Frequency bezog, scheint der Bildvorteil ebenfalls wirksam geworden zu sein. Die Versuchsgruppe beantwortete diese Frage zu 80% korrekt, während nur 40% der Probanden der Kontrollgruppe dazu in der Lage waren. Im Supertext gab das letzte Flussdiagramm mit den zusammenfassenden Propositionen Benefits of Slower Brain Frequency und Control of Emotions entscheidende Hinweise auf die korrekte Beantwortung. Obwohl sich diese Frage auf eine elaborierte Proposition im Text bezog, die mehrfach abgehandelt wird, konnte die Kontrollgruppe ohne Bildvorteil sich in geringerem Ausmaß daran erinnern. Frage 10, bei der es um das Abrufen einer Propositionsliste ging, in der die Vorteile von Gehirntraining noch einmal aufgelistet wurden, zeigte “Jetzt fällt es mir wieder ein” 219 ebenfalls klar bessere Ergebnisse für die Versuchsgruppe, die sie zu 90% richtig beantwortete, während in der Kontrollgruppe nur 50% in der Lage waren, zumindest 3 der 6 Propositionen wiederzugeben. Bei dieser Frage zeigte sich sowohl der bekannte recency effect, d.h. das letzte Item auf der Liste wurde häufiger abgerufen, als auch der primacy effect, d.h. das erste Item auf der Liste wurde sowohl in der Kontrollals auch in der Versuchsgruppe häufiger genannt. Diese Effekte wurden in der Gedächtnispsychologie schon sehr früh nachgewiesen und sind sehr stabil sowie unabhängig von der Länge der Listen und vom kulturellen Hintergrund (vgl. u.a. Postman/ Philips 1965). Dass die Unterscheide zwischen den Gruppen dennoch so hoch waren, lässt sich vielleicht dadurch erklären, dass die Versuchsgruppe durch den Supertext Vorteile in der Konsolidierungsphase gehabt haben könnte. In den meisten prozessorientierten Theorien zur Informationsverarbeitung (vgl. u.a. Atkinson/ Shiffrin 1968) geht man von einem dreistufigen Prozess aus, der von der Enkodierung über die Konsolidierung zum Abruf führt. Die Konsolidierung bzw. das Einprägen erfolgt dabei auf zwei Arten: Zunächst bildet sich eine Gedächtnisspur als Folge synaptischer Veränderungen und dann kommt es zur Stabilisierung und Reorganisation der Gedächtnisspuren bzw. zur Bildung eines neuen, erweiterten Netzwerkes. Der Supertext könnte diese Stabilisierung unterstützt haben, da er als Überblicksdiagramm die Kohärenzbildung fördert, indem er Zusammenhänge zwischen den Propositionen visualisiert und die Textinformationen durch Bildinformationen komplementär ergänzt. Während beim Abruf verbaler Informationen Zusammenhangsverhältnisse nur sukzessiv verfügbar sind, kommt bei einem Überblicksdiagramm auch der Bildvorteil mit zum Tragen, da bei visuellen Darstellungen Beziehungsverhältnisse simultan verfügbar sind. Die daraus resultierende Komplementarität von Text- und Bildinformationen führt zu einer Verbesserung der Textverstehens- und Behaltensleistung (vgl. Kuhlhavy et. al. 1993: 52). Die Versuchsgruppe, die durch das Textdiagramm ein logisches Bild (vgl. Schnotz et al. 2002) mit verknüpfenden Struktureigenschaften zur Verfügung hatte, konnte sich an mehr Propositionen im letzten rein aufzählenden Textteil erinnern. Logische Bilder sind schematische Darstellungen, die Bereiche der realen Welt auf ihre wesentlichen Elemente und Beziehungen reduzieren. Logische Bilder in Form von Textdiagrammen können dazu beitragen, die Verarbeitungstiefe zu erhöhen, indem sie formale logische Beziehungen verdeutlichen und damit auch die Wahrscheinlichkeit, dass Items vom Kurzeitgedächtnis ins Langzeitgedächtnis übertragen werden. Diese ist größer, wenn Informationen semantisch verarbeitet werden bzw. deep encoding stattfindet, im Vergleich zu einer rein phonologischen oder orthographischen Verarbeitung (shallow encoding). Die Kombination Text und Bild bzw. Supertext erleichterte die Konstruktion eines kohärenten mentalen Modells. Eine Erklärung hierfür liefert das integrative Modell zum Margit Reitbauer 220 Abb. 3: Posttest: Versuchsgruppe Text- und Bildverstehen von Schnotz und Seufert (2002). Es geht von der Bildung multipler interner Repräsentationen aus, die nach dem Prinzip von Paivio (1986) auf der Existenz zweier verschiedener unabhängiger Repräsentationssysteme beruhen. Beim integrativen Textverstehen wird versucht, auf Grundlage der propositionalen Textbasis und der bildlichen Informationen ein kohärentes mentales Modell zu erzeugen, in dem auch die Kommunikationsebene zwischen Autor und Leser sowie die Genre-Ebene, auf der es zu einer Klassifizierung bzw. Einordnung des Textes kommt, berücksichtigt werden. Beim Bildverstehen werden Oberflächeninformationen als wahrgenommenes Abbild gespeichert und das mentale Modell ist sozusagen der enkodierte Gegenstand des Bildes, der auch den Aufbau der Wissensrepräsentation der textuellen Information unterstützt. 2.3.2 Wiedererkennungstest: Posttest Die Ergebnisse des Wiedererkennungstests, der eine Woche später durchgeführt wurde, bestätigen die Ergebnisse der ersten Testreihe. Die Versuchsgruppe konnte deutlich mehr Propositionen korrekt wiedererkennen als die Kontrollgruppe. Die sechs Items des Wiedererkennungstests setzten sich aus drei Propositionen, die direkt dem Text entnommen waren und drei Distraktoren zusammen. Bei der Testerstellung wurde auf eine möglichst hohe Distraktorähnlichkeit geachtet. Die Probanden waren aufgefordert, in einer forced choice Aufgabe jene drei Propositionen zu eruieren, an die sie sich aus der ersten Testserie erinnerten. “Jetzt fällt es mir wieder ein” 221 Abb. 4: Posttest: Kontrollgruppe In der Versuchsgruppe konnten sich 7 der 10 Probanden an alle 3 Propositionen korrekt erinnern, 2 erkannten 2 Propositionen korrekt wieder und nur einer identifizierte nur eine der 3 Propositionen. In der Kontrollgruppe erinnerten sich nur 3 Probanden an alle 3 Propositionen, einer erkannte 2 und 6 erkannten nur eine Proposition wieder. Eine mögliche Erklärung für das bessere Abschneiden der Versuchsgruppe könnte in der Aktivierung von schematischem Wissen zu suchen sein, das sich durch die Arbeit mit dem Supertext entwickelt hat und bei der der Einpassung in die aktivierte Wissensstruktur hilfreich gewesen sein könnte. Darüber hinaus erleichtert der Supertext die Bildung von Inferenzen. Wenn man sich an einen Sachverhalt nicht mehr erinnern kann, besteht die Möglichkeit seiner Rekonstruktion aufgrund von Inferenzen, die zum Zeitpunkt des Abrufs vorgenommen werden. Das Bilden dieser Inferenzen erfolgt auf der Basis von schematischem Wissen. Beim Wiedererkennen handelt es sich semantisch betrachtet um einen Klassifizierungsprozess, in dem es zur Identifikation von Merkmalen, zum Einordnen und zur Bedeutungszuweisung kommt. Das Wiedererkennen basiert daher auf einem Vergleich mit Repräsentationen im Gedächtnis, die in Form einer begrenzten Zahl von Komponenten und Informationen über die möglichen Kombinationen dieser Komponenten gespeichert sind. Da die Repräsentation in Form des Supertextes die Zahl der Komponenten ebenfalls reduziert und die Beziehungen zwischen ihnen aufzeigt, ist der Versuchsgruppe dieser Vergleich und das Sich-Erinnern leichter gefallen. Margit Reitbauer 222 3 Erinnern leicht gemacht? Kognitionspsychologische Erklärungsansätze und ihre Grenzen Aus der Sicht der kognitionspsychologisch orientierten Linguistik sind Menschen aktive Informationsverarbeiter und lernende Systeme, die ihre funktionalen Bedürfnisse befriedigen möchten. Dazu gehört die rasche Informationsverarbeitung ebenso wie die Speicherung und der Abruf von Informationen aus dem Gedächtnis. In der modernen linguistischen Forschung geht man davon aus, dass eine Trennung zwischen kognitiven und sprachlichen Systemen nicht möglich ist, da die Sprache als Teil des kognitiven Systems betrachtet wird (vgl. Bellavia 2007). Linguisten haben seit jeher versucht, Modelle zu entwerfen, die Prozesse der Informationsverarbeitung und Speicherung zu erklären und zu optimieren. Gerne nehmen sie dabei Bezug auf Erkenntnisse der Neurowissenschaften und setzen sich gleichzeitig der Kritik aus, die neuronale Wirklichkeit zu simplifizierend darzustellen. Parallelen zwischen Gedächtnisinhalten und der Enkodierung von gespeichertem sprachlichem Wissen, das aus semantischen Netzwerken wie Schemata oder Skripts abgerufen wird, werden hergestellt. Wenngleich dieser Kritik der Simplifizierung schwer Argumente entgegenzuhalten sind, so deuten doch einige empirische Befunde linguistischer Untersuchungen darauf hin, dass Informationsverarbeitungsprozesse durch die Modellierung von Texten anhand von Vorstellungen über den Aufbau von Gedächtnisstrukturen optimiert werden können. Die vorliegende Studie belegt das und basiert auf einem kognitiv-konzeptuellen Ansatz. Sie stellt die Visualisierung von Textstrukturen als verständnissichernde und behaltensfördernde Maßnahme dar. Probanden erinnerten sich leichter an Informationen, wenn sie übergreifende kognitive Mechanismen wie visuelle Erfahrungen als Fundament zur Verfügung hatten, auf dem die sprachliche Organisation aufbauen konnte. Wir wissen heute, dass verbale und visuelle Informationen in unterschiedlichen Hirnarealen verarbeitet werden und können das durch bildgebende Verfahren nachweisen. Weiters scheint gesichert, dass visuelle und verbale Vorstellungen hierarchisch strukturiert sind. Beide Erkenntnisse stützen das Prinzip der kognitiven Plausibilität und sprechen dafür, dem Rezipienten möglichst viele Abrufwege und Anknüpfungspunkte für die Integration neuer Informationen in sein gespeichertes Wissen zu geben. Systematisch kognitive Grammatiken, wie das Modell von Radden und Dirven (2007) sowie Ansätze die auf die Entwicklung einer Didaktik des Wissenstransfers abzielen (vgl. Göpferich 2008), versuchen, das zu verwirklichen. Wenn man, wie in der vorliegenden Studie, von einem kognitivistischen Wissensverständnis ausgeht, das Wissen als Repräsentation von Inhalten, die das menschliche Gehirn über Informationsverarbeitungsprozesse aus externen Daten produziert, begreift, so macht die Vermittlung und der Ein- “Jetzt fällt es mir wieder ein” 223 satz kognitiver Strategien, die für die Aufnahme, Speicherung und Reproduktion von Wissen zielführend sind, Sinn - ungeachtet dessen, ob die Strategien der Komplexität der neuronalen Wirklichkeit gerecht werden oder nicht. Literaturverzeichnis Anderson, J.R. (2000). Learning and Memory: An Integrated Approach. San Francisco: John Wiley & Sons. Antos, G. / S. Wichter (Hrsg.) (2005). Wissenstransfer durch Sprache als gesellschaftliches Problem. Wien: Lang Verlag. Atkinson, R.C. / R.M. Shiffrin, (1968). “Human memory: A proposed system and its control processes.” In: Spence/ Spence (1968). 89-195. Ballstaedt, St.-P. (2004). “Kognition und Wahrnehmung in der Informations- und Wissensgesellschaft. Konsequenzen gesellschaftlicher Veränderungen für die Psyche.” In: H- D. Kübler / E. Elling (Hrsg). Die Wissensgesellschaft. Bonn: Bundeszentrale für politische Bildung. [Online] http: / / www.bpb.de/ files/ HA65KC.pdf (October 2010). Bellavia, E. (2007). Erfahrung, Imagination und Sprache. Die Bedeutung der Metaphern der Alltagssprache für das Fremdsprachenlernen am Beispiel der deutschen Präpositionen. Tübingen: Gunter Narr. Berressem, H. (2000). “Unterwegs im Docuversum. Zur Topologie des Hypertext.” In: M. Klepper / R. Mayer / E.P. Schneck (Hrsg.). Hyperkultur. Zur Fiktion des Computerzeitalters. Berlin: de Gruyter. 108-129. Collins, M. / J. Coney (1998). “Interhemispheric Communication is via Direct Connections.” Brain and Language 64/ 1. 28-52. Common European Framework of Reference for Languages: Learning, teaching, assessment (2001). Straßburg: Modern Languages Division. Dillon, A. (1996). “Myths, Misconceptions, and an Alternative Perspective on Information Usage and the Electronic Medium.” In: Rouet, J.F. et al. (1996). 25-42. Engelkamp, J. (1990). Das menschliche Gedächtnis. Göttingen: Hogrefe. Ernst, P. (2002). Pragmalinguistik: Grundlagen, Probleme, Anwendungen. Berlin & New York: de Gruyter. Gailberger, S. / K. Holle (2009). “Modellierung von Lesekompetenz durch Lesebewusstheit.” In: M. Kämper-van den Boogaart / K.H.Spinner (Hrsg.). Deutschunterricht in Theorie und Praxis. Lese- und Literaturunterricht. 269-323 Gawronski, B. / K. Payne (Hrsg.).(2010). Handbook of Implicit Social Cognition: Measurement, Theory, and Applications. New York: Guilford Press. Gold, A. / I. Trenk-Hinterberger / E. Souvignier (2009). “Die Textdetektive. Ein strategieorientiertes Programm zur Förderung des Leseverständnisses.” In: W. Schneider / W. Lenhard (Hrsg.). Diagnose und Förderung des Leseverständnisses. Göttingen: Hogrefe. 207-226. Göpferich, S. (2008).Textproduktion im Zeitalter der Globalisierung: Entwicklung einer Didaktik des Wissenstransfers. Tübingen: Stauffenburg. Jahr, S. (1996). Das Verstehen von Fachtexten: Rezeption, Kognition, Applikation. Tübingen: Narr Verlag. Joanssen, D.H. (1996). Computers in the Classroom: Mindtools for Critical Thinking. Columbus, OH: Prentice Hall. Margit Reitbauer 224 Kintsch, W. (2005). “An Overview of Top-Down and Bottom-Up Effects in Comprehension.” The CI Perspective. Discourse Processes 39/ 2&3. 125-128. Kolb, B. / I. Whishaw (2001). Introduction to Brain and Behaviour. New York: Worth Publishers. Kulhavy, R. / W.A. Stock / W.A. Kealy (1993). “How Geographic Maps Increase Recall of Instructional Text.” Educational Technology Research and Development 41. 47-62. Paivio, A. (1986). Mental Representations: A Dual Coding Approach. New York: Oxford University Press. Postman, L. / L.W. Philips (1965). “Short Term Temporal Changes in Free Recall.” Quarterly Journal of Experimental Psychology 17. 132-138. Radden, Günter / René Dirven (2007). Cognitive English Grammar. (Cognitive Linguistics in Practice 2). Amsterdam & Philadelphia: John Benjamins. Rauwald, C. (2008). Hypertext: Geschichte und Versuch einer Typologie. Saarbrücken: VDM Verlag. Rickheit, G. / H. Strohner (1993). Grundlagen der kognitiven Sprachverarbeitung: Modelle, Methoden, Ergebnisse. Tübingen: Francke. Rouet, J.F. / J. Levonen / A. Dillon / R. Spiro (Hrsg.) (1996) (Hrsg). Hypertext and Cognition. Mahwah, N.J.: Lawrence Erlbaum. Schiefele, U., Artelt, C., Schneider W. / P. Stanat (Hrsg.).(2004). Struktur, Entwicklung und Förderung von Lesekompetenz. Vertiefende Analysen im Rahmen von PISA 2000. Wiesbaden: VS Verlag für Sozialwissenschaften. Schneider, W. / W. Lenhard (2009) (Hrsg.). Diagnose und Förderung des Leseverständnisses. Göttingen: Hogrefe. Schnotz, W. / S. Dutke (2004). “Kognitionspsychologische Grundlagen der Lesekompetenz: Mehrebenenverarbeitung anhand multipler Informationsquellen.” In: U. Schiefele / C. Artelt / W. Schneider / P. Stanat (Hrsg.). Struktur, Entwicklung und Förderung von Lesekompetenz. Vertiefende Analysen im Rahmen von PISA 2000 .Wiesbaden: VS Verlag für Sozialwissenschaften. 61-99. Schnotz, W. / W. Bannert / T. Seufert (2002). “Towards an Integrative View of Text and Picture Comprehension.” In: A. Graesser / J. Otero / J.A. Leon (Hrsg.). The Psychology of Science Text Comprehension. Mahwah, NJ: Erlbaum. 385-416. Spence, K.W. / J.T. Spence (Hrsg.) (1968). The psychology of learning and motivation (Volume 2). New York: Academic Press. Spiro, R.J. / J.Ch. Jehng (1990). “Cognitive Flexibility and Hypertext: Theory and Technology for the Nonlinear and Multidimensional Traversal of Complex Subject Matter.” In: D. Nix / R.J. Spiro (Hrsg). Cognition, education and multimedia: Exploring ideas in high technology. Hillsdale, N.J: Lawrence Erlbaum. 163-205. Stadie, N.(1999). Neurolinguistische Untersuchungen zur Verarbeitung von Bildern und Wörtern. Freiburg: Hochschulverlag. van Dijk, T.A. / W. Kintsch (1983). Strategies of Discourse Comprehension. New York & London: Academic Press. Wentura, D. / J. Degner (2010). “A Practical guide to sequential priming and related tasks.” In: Gawronski/ Payne (2010). 95-117. Wichter, S. (2006) (Hrsg). Wissenstransfer - Erfolgskontrolle und Rückmeldungen aus der Praxis. Frankfurt a.M. & Wien: Lang Verlag. Margit Reitbauer English Department University of Graz “Jetzt fällt es mir wieder ein” 225 Appendix: 1: Leseverstehenstest: How Does The Human Brain Work? http: / / www.mind-power-for-success.com/ how-does-the-human-brain-work.html We all know that the human brain controls all the organs in our body to perform millions of activities everyday. But do you know in more specific detail how your brain functions? Do you know that you can increase your brainpower by simply following some simple daily brain exercises? The Science of Human Brain Experiments of brain research conducted by research institutions have found that the human brain operates on a small amount of electrical energy. This electric current vibrates at different speeds. Like the way your heart beats, your brain vibrates at a certain number of times every second. The level of your brain’s activity, as determined by your brain’s rhythm or vibration frequency, can have significant impact on the quality of your life. If you can slow down your brain waves, you can control your mind to perform at the same level as the high achievers. Understanding The Brain Frequency The normal human brain can vibrate at four different frequencies: Beta, Alpha, Theta, and Delta. Beta state is the normal conscious state of mind when we are awake. This is the state where people conduct more than 90 percent of their daily activities. Alpha state is a frequency lower than Beta, where a person is somewhere between being awake and asleep. At Theta, the speed of the brain’s vibration is even lower than Alpha, when the mind is associated with deep, comfortable sleep. Lastly, at Delta, a person is at a deep sleep or completely unconscious. When a person becomes stressed, fearful, angry, nervous, or feels any stirring emotion, the brain’s vibration frequency increases. The more stressed we become, the more rapidly our brain waves vibrate. All negative thoughts, as well as anger, fear, and compulsive cravings, tend to be fast. On the other hand, slower brain waves are associated with people who are calm, confident, and at ease. Positive thoughts like love, patience, and understanding, are slow. What Are The Benefits of Slowing Down Our Minds? When the human brain is regularly tuned to a slower frequency such as the Alpha state, it can produce profound impact on all aspects of our well-being - from mental, physical to emotional. Science has proved that slowing down our minds can bring upon the following benefits: • We can control our mind to focus completely in the present. • We can remain calm even while under pressure. • We can accelerate our learning. • When we perform affirmations and creative visualization, it is more effective at the Alpha level of mind. • We can go into the state of deep relaxation, which is important to our health and emotional wellbeing. • It is conducive to creative thinking, intuition, and problem solving. Margit Reitbauer 226 Why Should We Learn to Slow Down Our Brain Frequency? Scientists have gathered conclusive results from brain research to show that most people do their thinking at the Beta level, while only a minority of the population are natural Alpha thinkers. Unfortunately, this common experience of the Beta level of mind is not the ideal state of mind for learning and working. When we think and work at Beta state, we are prone to errors and misjudgments. So, why are people not thinking at Alpha level? With some brain exercises and the right environment, it is not difficult to consciously slow down our mind to enter into Alpha state of mind. However, there is a problem that most people encounter in accessing the Alpha state - there is a tendency to fall asleep when their brain frequency slows down to Alpha. For most people who are not trained, it is difficult to stay awake during Alpha state. The Alpha is the state at which we can connect to our subconscious mind and unleash the maximum potential of our mind. However, if you are unable to remain awake at Alpha state, there is no way to conduct any activities to utilize this high productive state of mind. The high achievers are the minority group of people who are able to stay awake at the Alpha level and perform their thinking at this deeper level of mind. “Jetzt fällt es mir wieder ein” 227 Comprehension Questions 1. What is the main function of the human brain? 2. How can you increase your brainpower? 3. What are the names of the four different brain frequencies? 4. What is the normal conscious state of mind when we are awake called? 5. In which state do we conduct 90% of our daily activities? 6. In which state is a person somewhere between awake and asleep? 7. In which state is a person at deep sleep? 8. What happens to the brain’s vibration frequency when a person gets stressed? 9. Are negative thoughts associated with fast or slow brain waves? 10. What are the benefits that slowing down our mind can bring about? Name at least three: Margit Reitbauer 228 Appendix 2: Wiedererkennungstest: Post-Test Underline the 3 sentences that refer to the text: “How the Human Brain Works” 1. Most people do their thinking at the Beta level, while only a minority of the population are natural Alpha thinkers. 2. For most people who are not trained, it is difficult to stay awake during the Alpha state. 3. Slowing down your brain frequency has negative effects on creative thinking and problem solving. 4. We can accelerate our thinking by increasing brain frequency. 5. Beta is the normal conscious state of mind when we are awake. 6. When a person becomes stressed, the brain’s vibration frequency decreases.