eBooks

Linguistik für die Kognitionswissenschaft

2016
978-3-8233-9000-8
Gunter Narr Verlag 
Antonia Rothmayr

Wie funktioniert die Sprache im Gehirn? Was haben natürliche Sprachen mit Computern zu tun? Wie können Wörter unser Wissen und Denken strukturieren? Welchen Zusammenhang gibt es zwischen Sprache und Musik? Kommunizieren Tiere anders als Menschen? Brauchen wir einen Körper, um sprechen zu können? Das vorliegende Studienbuch erläutert Schritt für Schritt und auf verständliche Weise, wie aktuelle Forschungsergebnisse der Sprachwissenschaft helfen können, derartige Fragestellungen der Kognitionswissenschaft zu beantworten. Verschiedene Herangehensweisen werden systematisch verglichen, um ein Verständnis der Zusammenhänge der vielfältigen Forschungsthemen und -traditionen zu ermöglichen. Das Studienbuch ist sowohl für StudienanfängerInnen als auch für interessierte Fortgeschrittene geeignet.

Linguisti k für die Kogniti onswissenschaft Antonia Rothmayr Eine interdisziplinäre Ergänzung zur Einführung in die Sprachwissenschaft Antonia Rothmayr Linguistik für die Kognitionswissenschaft Eine interdisziplinäre Ergänzung zur Einführung in die Sprachwissenschaft Dipl.-Ing. Mag. phil. Dr. phil. Antonia Rothmayr hat Informatik (TU Wien) und Allgemeine Sprachwissenschaft (Universität Wien) studiert und ebenda über lexikalische Semantik promoviert. Sie arbeitet als Softwareentwicklerin und freie Wissenschaftlerin in Wien. Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Gedruckt auf säurefreiem und alterungsbeständigem Werkdruckpapier. © 2016 · Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Internet: www.narr-studienbuecher.de E-Mail: info@narr.de Printed in the EU ISSN 0941-8105 ISBN 978-3-8233-8000-9 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. Danksagung Mein Dank gilt den TeilnehmerInnen der Linguistics Discussion 2006-2014, den KoordinatorInnen des MEi: CogSci Markus Peschl und Elisabeth Zimmermann - der Lektorin für das Englische Rena Katikos - den hilfreichen Händen Karin Burger, Daniel Seger und Stephanie Stojanovic vom Narr Francke Attempto Verlag sowie Ulrich Ansorge, Chris Fermüller, Isabella Fuchs-Leitner, Hubert Haider, Christina Pawlowitsch und Anica Seth - Werner Kratochwil und Christian Schwarzinger - Ernst Molden und Walther Soyka - G. J. - Mama und Roffo - Alexander Ruprecht. Pötzleinsdorf, im Jänner 2016 Für Pnüs Inhaltsverzeichnis 1 Einleitung 1 2 Generative Grammatik 2 2.1 Historische Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . 2 2.1.1 Hermeneutik . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2.1.2 Indogermanistik . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.1.3 Strukturalismus . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.2 Die kognitive Wende . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.2.1 Adäquatheitskriterien einer Theorie . . . . . . . . . . . . . 5 2.2.2 Das logische Problem des Spracherwerbs . . . . . . . . . 6 2.2.3 Angeborenheitshypothese . . . . . . . . . . . . . . . . . . . 7 2.2.4 Autonomiehypothese . . . . . . . . . . . . . . . . . . . . . . 10 2.2.5 Modularität . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2.6 Alternativen zur generativen Theorie . . . . . . . . . . . . 14 2.3 Entwicklungsstufen der generativen Grammatik . . . . . . . . . . 15 2.3.1 Das Prinzipien-und-Parameter-Modell . . . . . . . . . . . 15 2.3.2 Das minimalistische Programm . . . . . . . . . . . . . . . 17 2.3.3 Biolinguistik . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.3.4 Die Chomsky-Hauser-Fitch-Debatte . . . . . . . . . . . . . 21 3 Sprache und Biologie 24 3.1 Sprachgene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.2 Sprache bei Tieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.2.1 Die Grammatik des Vogelgesangs . . . . . . . . . . . . . . 27 3.2.2 Die Entwicklung des Vokaltraktes . . . . . . . . . . . . . . 30 3.3 Evolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.3.1 Theorie der Evolution . . . . . . . . . . . . . . . . . . . . . 31 3.3.2 Argumente gegen die Allmacht der natürlichen Selektion 32 3.3.3 Taxonomien in Biologie und Sprache . . . . . . . . . . . . 35 3.4 Anwendungen der Evolutionstheorie . . . . . . . . . . . . . . . . . 38 3.4.1 Evolutionäre Psychologie . . . . . . . . . . . . . . . . . . . 38 3.4.2 Kulturelle Evolution . . . . . . . . . . . . . . . . . . . . . . 40 viii Inhaltsverzeichnis 3.5 Biomathematik und ihre Anwendungen . . . . . . . . . . . . . . . 41 3.5.1 Biomathematik . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.5.2 Evolution von Kommunikationssystemen . . . . . . . . . 45 3.5.3 Spieltheoretische Pragmatik . . . . . . . . . . . . . . . . . 48 3.6 Hypothesen zur Sprachentstehung . . . . . . . . . . . . . . . . . . 53 3.6.1 Was entsteht? . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3.6.2 Protosprache . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3.6.3 Sprache ist wichtig für die Gruppenverwaltung . . . . . . 54 3.6.4 Carstairs-McCarthy: Beginnend mit der Phonologie . . . 56 4 Sprache im Gehirn 58 4.1 Sprachstörungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.1.1 Broca-Aphasie . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4.1.2 Wernicke-Aphasie . . . . . . . . . . . . . . . . . . . . . . . . 63 4.1.3 Leitungsaphasie . . . . . . . . . . . . . . . . . . . . . . . . . 64 4.1.4 Transkortikale Aphasie . . . . . . . . . . . . . . . . . . . . . 65 4.1.5 Globalaphasie . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.1.6 Amnestische Aphasie . . . . . . . . . . . . . . . . . . . . . . 65 4.1.7 Wernicke-Lichtheim-Schema . . . . . . . . . . . . . . . . . 66 4.2 Bildgebende Verfahren und Experimente . . . . . . . . . . . . . . 67 4.3 Syntaktische Verarbeitung . . . . . . . . . . . . . . . . . . . . . . . 69 4.3.1 Syntaktische Verarbeitung der Argumentstruktur . . . . 71 4.4 Semantische Verarbeitung . . . . . . . . . . . . . . . . . . . . . . . 72 4.5 Prosodie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.6 Prosodische Verarbeitung . . . . . . . . . . . . . . . . . . . . . . . . 77 4.6.1 Das aprosodische Syndrom . . . . . . . . . . . . . . . . . . 78 4.6.2 Die unterschiedliche zeitliche Auflösung der Hemisphären . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 4.7 Wörter im Kopf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 4.7.1 Wortarten im Gehirn . . . . . . . . . . . . . . . . . . . . . . 80 4.7.2 Idiosynkratische Bedeutung und Schablonenbedeutung 83 4.8 Wortarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.9 Prädikat-Argument-Struktur . . . . . . . . . . . . . . . . . . . . . . 87 5 Semantik und Logik 90 5.1 Semantik ist Bedeutungslehre . . . . . . . . . . . . . . . . . . . . . 90 5.1.1 Das semiotische Dreieck . . . . . . . . . . . . . . . . . . . . 90 5.1.2 Semantik in der Informatik . . . . . . . . . . . . . . . . . . 91 5.2 Semantik von natürlichen Sprachen . . . . . . . . . . . . . . . . . 92 5.2.1 Formale Semantik . . . . . . . . . . . . . . . . . . . . . . . . 92 5.2.2 Andere Semantiken . . . . . . . . . . . . . . . . . . . . . . . 96 5.3 Wahrheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 5.3.1 Korrespondenztheorie . . . . . . . . . . . . . . . . . . . . . 98 Inhaltsverzeichnis ix 5.3.2 Kohärenztheorie . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.3.3 Pragmatische Wahrheitstheorie . . . . . . . . . . . . . . . 100 5.4 Logiken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.4.1 Aussagenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.4.2 Prädikatenlogik . . . . . . . . . . . . . . . . . . . . . . . . . 104 5.4.3 Modallogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 5.4.4 Nichtklassische Logiken . . . . . . . . . . . . . . . . . . . . 107 5.4.5 Lambda-Kalkül . . . . . . . . . . . . . . . . . . . . . . . . . 108 5.5 Linguistische Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . 112 5.5.1 Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 5.5.2 Modalverben . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5.6 Zum Nutzen der formalen Semantik . . . . . . . . . . . . . . . . . 118 5.6.1 Modale Systeme sind komplexer . . . . . . . . . . . . . . . 118 5.6.2 Kontrafaktische Verursachung . . . . . . . . . . . . . . . . 119 5.6.3 Kontrafaktische Konditionalsätze . . . . . . . . . . . . . . 121 5.6.4 Inferenzen und Diskursverstehen . . . . . . . . . . . . . . 123 6 Wissen und Wörter 126 6.1 Beschaffenheit von Konzepten . . . . . . . . . . . . . . . . . . . . . 126 6.1.1 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . 126 6.1.2 Frame-Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . 130 6.1.3 Konzepträume . . . . . . . . . . . . . . . . . . . . . . . . . . 132 6.2 Konzepte und Sprache . . . . . . . . . . . . . . . . . . . . . . . . . . 134 6.2.1 Philosophische Positionen . . . . . . . . . . . . . . . . . . . 134 6.2.2 LF-Repräsentationen . . . . . . . . . . . . . . . . . . . . . . 136 6.2.3 Wortlernen bei Kindern . . . . . . . . . . . . . . . . . . . . 138 6.3 Konzepte und Kognition . . . . . . . . . . . . . . . . . . . . . . . . . 140 6.3.1 Sprachliche Vernunft . . . . . . . . . . . . . . . . . . . . . . 140 6.3.2 Zwei-Faktoren-Theorie . . . . . . . . . . . . . . . . . . . . . 142 7 Metaphern 146 7.1 Kognitive Metapherntheorie . . . . . . . . . . . . . . . . . . . . . . 146 7.2 Relevanztheorie und Ad-hoc-Konzepte . . . . . . . . . . . . . . . . 149 7.2.1 Relevanztheorie . . . . . . . . . . . . . . . . . . . . . . . . . 149 7.2.2 Ad-hoc-Konzepte . . . . . . . . . . . . . . . . . . . . . . . . 152 7.3 Generatives Lexikon vs. lexikalische Pragmatik . . . . . . . . . . 153 7.3.1 Generatives Lexikon . . . . . . . . . . . . . . . . . . . . . . 153 7.3.2 Diskursrepräsentationstheorie . . . . . . . . . . . . . . . . 155 7.3.3 Lexikalische Pragmatik . . . . . . . . . . . . . . . . . . . . . 156 7.4 Psycholinguistische Verarbeitungsmodelle . . . . . . . . . . . . . . 158 7.5 Strukturelle Typen von Metaphern . . . . . . . . . . . . . . . . . . 160 7.6 Vergleich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 x Inhaltsverzeichnis 8 Sprache und Computer 165 8.1 Formale und natürliche Sprachen . . . . . . . . . . . . . . . . . . . 165 8.2 Turing-Maschinen und Chomsky-Hierarchie . . . . . . . . . . . . 166 8.2.1 Sprachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 8.2.2 Grammatiken . . . . . . . . . . . . . . . . . . . . . . . . . . 171 8.2.3 Maschinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 8.3 Lernbarkeitstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 8.3.1 Das Paradigma von Gold . . . . . . . . . . . . . . . . . . . 178 8.3.2 PAC-Lerner . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 8.3.3 Trigger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 8.4 Semantic Web und Ontologien . . . . . . . . . . . . . . . . . . . . . 183 8.4.1 Geschichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 8.4.2 Definition semantische Technologien . . . . . . . . . . . . 184 8.4.3 Ontologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 8.4.4 Repräsentations- und Abfragesprachen . . . . . . . . . . . 186 8.5 Parsing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 8.5.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 8.5.2 Regelbasiertes Parsing . . . . . . . . . . . . . . . . . . . . . 190 8.5.3 Statistisches Parsing . . . . . . . . . . . . . . . . . . . . . . 192 8.5.4 Tagging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 8.5.5 Korpora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 8.6 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 9 Musik 199 9.1 Verarbeitung musikalischer Syntax im Broca-Areal . . . . . . . . 199 9.2 Musikalische Bedeutung . . . . . . . . . . . . . . . . . . . . . . . . 202 9.2.1 Arten musikalischer Zeichen . . . . . . . . . . . . . . . . . 202 9.2.2 Extramusikalische Bedeutung und N400 . . . . . . . . . . 204 9.2.3 Intramusikalische Bedeutung . . . . . . . . . . . . . . . . . 205 9.3 Musik, Körper und Emotion . . . . . . . . . . . . . . . . . . . . . . 206 9.3.1 Amygdala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 9.3.2 Spaß und Glücksrausch: ventrales Striatum . . . . . . . . 209 9.3.3 Freude: Hippokampus . . . . . . . . . . . . . . . . . . . . . 210 9.4 Rhythmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 9.4.1 Rhythmus und Gruppenkoordination . . . . . . . . . . . . 211 9.4.2 Bewegung bestimmt, was wir hören . . . . . . . . . . . . 213 9.5 Generative Theorie der tonalen Musik . . . . . . . . . . . . . . . . 214 9.6 Biologie der Musik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 9.6.1 Der Unterschied von Sprache und Musik . . . . . . . . . . 218 9.6.2 Der Wissensinstinkt . . . . . . . . . . . . . . . . . . . . . . . 221 9.6.3 Ressourcenteilung und Modularität . . . . . . . . . . . . . 224 Inhaltsverzeichnis xi 10 Sprache und Körper 227 10.1 Verkörperung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 10.1.1 Die klassische Theorie . . . . . . . . . . . . . . . . . . . . . 228 10.1.2 Die neue Theorie der Verkörperung . . . . . . . . . . . . . 229 10.1.3 Simples und radikales Embodiment . . . . . . . . . . . . . 230 10.2 Perzeptuelle Symbole . . . . . . . . . . . . . . . . . . . . . . . . . . 233 10.3 Embodiment und Sprache . . . . . . . . . . . . . . . . . . . . . . . 236 10.3.1 Aktive Perzeption . . . . . . . . . . . . . . . . . . . . . . . . 236 10.3.2 Verkörperung der Grammatik . . . . . . . . . . . . . . . . . 239 10.3.3 Topik/ Fokus und bimanuelle Koordination . . . . . . . . 242 10.4 Bewusstsein als Verbindung zwischen Körper und Kognition . . 243 10.4.1 Ebenen des Bewusstseins . . . . . . . . . . . . . . . . . . . 243 10.4.2 Hypothese der somatischen Marker . . . . . . . . . . . . . 246 10.4.3 Die polyvagale Theorie . . . . . . . . . . . . . . . . . . . . 248 Literatur 252 Personenregister 274 Sachregister 276 Nachweise 284 Abbildungsnachweise 288 Kapitel 1 Einleitung Dieses Buch ist das Ergebnis meiner Materialsammlung, die ich für die Linguistics Discussion des Middle European interdisciplinary master programme in Cognitive Science (MEi: CogSci) an der Universität Wien von 2006 bis 2014 angelegt habe. Die Arbeit an diesem Buch wurde privat finanziert. Sie steht daher nicht in einem Zusammenhang mit der Universität Wien. Das Werk ist als Ergänzung zur Einführung in die Sprachwissenschaft gedacht, einschlägige Fachbegriffe und grundlegendes Wissen über die Teildisziplinen der Linguistik werden daher im Weiteren vorausgesetzt und nicht näher erklärt. Beheimatet in der generativen Grammatiktheorie, einem explizit formalen Ansatz, stellte sich mir die Frage, inwieweit andere Strömungen der Kognitionswissenschaft damit kompatibel sind. Angesichts dessen, daß die untersuchten Phänomene divers sind, ist eine Beantwortung nicht trivial. Folgende Fragen stehen im Mittelpunkt meines Interesses und sollen im weiteren beantwortet werden: 1. Welche Fragestellungen gibt es derzeit in der Kognitionswissenschaft und deren Nachbardisziplinen, für deren Bearbeitung die (formale) Sprachwissenschaft nützlich ist? 2. Angesichts der immer häufiger anzutreffenden Abkehr von der klassischen, symbolischen Herangehensweise an die Kognitionswissenschaft, aus welchen Gründen sollte man die spezifisch formale Linguistik beachten? Reibungspunkte sind weniger die fachspezifischen Analysen, sondern Fragen betreffend die Beschaffenheit von Metaphern, von Konzepten und Kategorien, die Beziehung zwischen Konzepten und Wörtern sowie die Bedeutung des Körpers für die Kognition. Besonders die Rolle der Grammatik ist die Ursache für zahlreiche Meinungsverschiedenheiten. Kapitel 2 Generative Grammatik In diesem Kapitel werfen wir einen Blick auf die Hauptaussagen der generativen Grammatiktheorie (generative theory of grammar), wie sie von Noam Chomsky in verschiedenen Schriften entwickelt wurde (Chomsky (1957), Chomsky (1965), Chomsky (1981), Chomsky (1995)). Diese basiert auf Ideen, die auf den indischen Grammatiker P “ an ˙ ini zurückgehen (zwischen 5.000 und 4.000 vor Christus (P “ an ˙ ini & von Böhtlingk (1887))). 2.1 Historische Entwicklung Chomskys Ideen bewirkten eine deutliche Wende innerhalb der Sprachwissenschaft, die kognitive Wende (cognitive turn). Um das Gewicht dieses Umbruchs zu verdeutlichen, betrachten wir zunächst den Verlauf der Wissenschaftsgeschichte, die zu Chomksy hingeführt hat. 2.1.1 Hermeneutik In den Philologien, vor allem aber in der Philosophie, der Rechtswissenschaft und insbesondere in der Theologie war es von großer Bedeutung, den Text an sich zu erschließen. So stand die Frage im Mittelpunkt, welches die korrekte Auslegung eines Gesetzes, welches der richtige Urtext der Bibel, welche Übersetzung die korrekte sei (die Übersetzung des Bibeltextes von Martin Luther ins Deutsche löste bekanntlich eine Revolution aus). Die Beantwortung dieser Fragen ließ die Menschen über Sprache und Sprachverwandtschaften nachdenken, im Zentrum stand jedoch immer der Text an sich. Diese Herangehensweise schien notwendig, um die drängenden theologischen und juristischen Fragen beantworten zu können. Es entstand die Hermeneutik (hermeneutics), die Wissenschaft von der Auslegung von Texten. Die Untersuchung der Sprache und der Grammatik als Selbstzweck war kein Thema. 2.1 Historische Entwicklung 3 2.1.2 Indogermanistik Auf der Suche nach dem Ursprung der Sprache ging man immer weiter in die Vergangenheit zurück. Im 19. Jahrhundert erfolgte der Beginn der Untersuchung des Sanskrit durch William Jones. Zur gleichen Zeit begründete Franz Bopp die Indogermanistik (indo-european studies) als eigene Disziplin, aus der dann später die allgemeine Sprachwissenschaft hervorgehen sollte (Bopp (1816)). Diese historisch-vergleichende Sprachwissenschaft fragte nach den Verwandtschaften, Unterschieden und Gemeinsamkeiten der Sprache in ihrer geschichtlichen Entwicklung: Welche Sprachen hat es gegeben? Welche Sprachen gehören zusammen und bilden Sprachfamilien? Wie können tote Sprachen rekonstruiert werden? Als Erklärung für den Ursprung der Sprache formulierte August Schleicher die Stammbaumtheorie (Schleicher (1850), Schleicher (1863), siehe auch § 3.3.3). Die nächste Etappe der Sprachwissenschaft prägten die Junggrammatiker Ende der 1870er Jahre in Leipzig. Unter ihnen war Hermann Paul, dessen Werke Prinzipien der Sprachgeschichte (Paul (1880)) und Mittelhochdeutsche Grammatik (Paul (1881)) bis heute von großer Bedeutung sind. Die Junggrammatiker waren bemüht, die Sprachwissenschaft auf ein solides Fundament zu stellen. Sie wollten, dass die Sprachwissenschaft ähnlich wie die Naturwissenschaft funktioniert: Die Sprache sollte ausnahmslosen Gesetzen, ähnlich den Naturgesetzen, gehorchen. Dieser Anspruch an Wissenschaftlichkeit bedeutete, dass sich die Disziplin endgültig von der Textinterpretation verabschiedete: Man wollte endlich nachvollziehbare, allgemeingültige Gesetzmäßigkeiten erforschen, wie es auch in der Physik der Fall ist. Dies gelang den Junggrammatikern, indem sie im Junggrammatischen Manifest die Ausnahmslosigkeit der Lautgesetze formulierten (Osthoff & Brugman (1878)): Der Lautwandel, der im Laufe der Sprachgeschichte auftritt, erfolgt immer nach den gleichen Gesetzmäßigkeiten, egal um welche Sprache oder um welchen Dialekt es sich handelt. Die Lautgesetze besitzen einen ähnlichen Status wie die Gravitationsgesetze der Physik: Sie treffen immer und überall zu. 2.1.3 Strukturalismus Im frühen 20. Jahrhundert tauchte eine neue Idee auf, die zunächst die Sprachwissenschaft, in der Folge auch die Kulturwissenschaft (etwa im Sinne der Literaturwissenschaft) nachhaltig beeinflusste. Der Schweizer Linguist Ferdinand de Saussure betrachtete die Sprache nicht mehr in ihrer historischen Entwicklung, sondern als eigenständiges System, dessen Funktionsweise es herauszufinden gilt. Dieser synchrone Blick unterscheidet sich fundamental von der bisherigen, diachronen Betrachtungsweise. Untersucht wird nun, woraus Ferdinand de Saussure (1857-1913) das System besteht, und nach welchen Regeln diese Bestandteile zusammengefügt werden. Es geht um den Aufbau und die Struktur des Sprachsystems: 4 2. Generative Grammatik der Strukturalismus (structuralism) ist entstanden. Saussures Werk wird erst posthum von seinen Studenten herausgegeben (Saussure (1916)). Unter anderem definiert Saussure zum ersten Mal das Zeichen (sign) als arbiträre Kombination von Signifikans und Signifikat. Er trifft auch die Unterscheidung zwischen langue, dem prinzipiell vorhandenen Wissen über eine Sprache, und parole, der aktuellen Sprachausübung, die Noam Chomsky aufgreift und als Kompetenz (competence) und Performanz (performance) bezeichnet. In den 1920er Jahren waren mehrere Linguisten der Prager Schule aktiv, unter ihnen der Begründer der Phonologie und späterer Ordinarius für Slawistik in Wien, Nikolai Trubetzkoy, sowie Roman Jakobson, der später in Harvard und am MIT, dem heutigen Zentrum der generativen Grammatik, lehrte. Die Mitglieder der Prager Schule führten den Strukturalismus weiter: Sie suchten die kleinsten Einheiten der Sprache auf der Laut- und Wortebene Nikolai Trubetzkoy (1890-1938) und untersuchten deren Kombinationsmöglichkeiten. Trubetzkoy (Trubetzkoy (1939)) entwickelt den Begriff des Phonems (phoneme). In den USA wurde der Strukturalismus vor allem von Franz Boas und Leonard Bloomfield vertreten. Bloomfield veröffentlichte 1933 sein Werk Die Sprache (Bloomfield (1933)), in dem er alle Analyseebenen der Sprachwissenschaft und die verschiedenen Aspekte des Sprachwandels vorstellte. Bloomfields Werk gilt als Gesamtdarstellung des amerikanischen Strukturalismus. Leonard Bloom eld (1887-1949) Historical background • Hermeneutics focuses on the interpretation of texts. The results are important for law, philosophy, and theology, as people are interested in nding the correct interpretation of various texts. Language as such was of minor interest. • Indo-European studies (as well as historical linguistics in general) tries to reconstruct ancient languages. Scholars try to nd regularities that behave like natural laws. • Structuralism moves away from a historical perspective and investigates language as a system. It looks for the system’s components and the rules governing their distribution. 2.2 Die kognitive Wende Noam Chomsky tritt gegen diese beschreibende Auffassung von Sprachwissenschaft auf und leitet damit die kognitive Wende (cognitive turn) ein. In der Auseinandersetzung mit Burrhus F. Skinner (siehe § 2.2.2) beginnt Chomsky zum ersten Mal, das Denken des Menschen in die Diskussion miteinzubeziehen. In der Sprachwissenschaft geht es seitdem nicht mehr nur um die Sprache als Objekt an sich, sondern auf ein Mal um die Sprache als kognitive, menschliche 2.2 Die kognitive Wende 5 Fähigkeit. Dies ist die Geburtsstunde der Kognitionswissenschaft. Mit der kognitiven Wende taucht eine völlig neue Frage auf: Wie kann Sprache als eine kognitive Fähigkeit von Menschen erworben werden? Jede Sprachtheorie muss seitdem eine Antwort auf diese Frage geben. Im Folgenden wollen wir Chomskys Antwort auf das logische Problem des Spracherwerbs (das Prinzipien-und-Parameter-Modell) näher betrachten. Seine Auffassung über Sprache kann in zwei Teile gegliedert werden: Einerseits geht er davon aus, dass die menschliche Sprachfähigkeit angeboren ist (§ 2.2.3), andererseits besitzt er eine spezielle Auffassung über die Syntax an sich. Die Syntax ist autonom (§ 2.2.4), das bedeutet, sie ist nicht Teil der allgemeinen kognitiven Fähigkeiten, sondern eine eigenständige, abgegrenzte, unabhängige Noam Chomsky (*1928) Fähigkeit im Sinne eines Fodor’schen Moduls (§ 2.2.5). In § 2.3 wird die Weiterentwicklung der generativen Grammatiktheorie dargestellt. Zunächst verschlankt Chomsky die Syntaxtheorie methodologisch und terminologisch. Davon ausgehend entwickeln einige ForscherInnen die Sprachwissenschaft in Richtung Biologie weiter, so dass die Biolinguistik entsteht (§ 2.3.3). 2.2.1 Adäquatheitskriterien einer Theorie Chomsky legt drei grundlegende Eigenschaften fest, die für jede linguistische Theorie gelten müssen (Chomsky (1965)). Chomskys Adäquatheitskriterien sind eine wissenschaftstheoretische Richtlinie, an der vorhandene und zukünftige Theorien gemessen werden müssen. Die Beobachtungsadäquatheit (observational adequacy) verlangt, dass die vorliegenden Daten korrekt beschrieben werden. Das Datenmaterial muss vollständig und korrekt wiedergegeben werden. Das bedeutet, dass das linguistische Material als Ganzes analysiert werden muss, man darf nicht einfach Beobachtungen weglassen oder nur einen Teil des vorhandenen Materials verwenden. So wäre es unzulässig, zwei Laute einfach nicht zu beschreiben, wenn man etwa die Grammatik einer Einzelsprache beschreiben und untersuchen möchte. Die Beschreibungsadäquatheit (descriptive adequacy) verlangt, dass das implizite Wissen der SprecherIn korrekt modelliert wird. Es geht darum, die Kompetenz zu erfassen: das Wissen, welche Sätze grammatisch sind und welche nicht. Dieses Wissen lässt sich nicht alleine durch die Aufzeichnung von vorhandenem Sprachmaterial beschreiben, denn dieses ist immer Teil der Performanz, Teil der tatsächlichen sprachlichen Äußerung, die durch verschiedene Faktoren, die nichts mit dem grammatischen Wissen zu tun haben, beeinflusst wird. Beispielsweise kann eine Sprecherin die Laute nicht richtig produzieren, wenn sie gerade den Mund voll hat. Die Tatsache, dass sie ein Stück Schokolade lutscht, hat nichts mit ihrem Wissen über die Grammatikregeln ihrer Muttersprache zu tun. 6 2. Generative Grammatik Die Erklärungsadäquatheit (explanatory adequacy) schließlich ist der interessanteste Teil von Chomskys Adäquatheitskriterien, denn diese sagt etwas über den Aufbau der Theorie an sich und die Beschaffenheit der Erklärungen aus. Die Erklärungsadäquatheit verlangt, dass jede linguistische Theorie eine Antwort auf das logische Problem des Spracherwerbs liefert: Die Theorie muss erklären, wie ein Kind die Grammatik erwerben kann. Wenn dies nicht der Fall ist, dann mag die Theorie zwar beobachtungs- und beschreibungsadäquat sein, sie genügt aber nicht. Levels of adequacy • Observational adequacy: Investigators must describe their data exhaustively and correctly. • Descriptive adequacy: Researchers have to model speakers’ implicit knowledge. • Explanatory adequacy: Any linguistic theory must address the logical problem of language acquisition. 2.2.2 Das logische Problem des Spracherwerbs Das Argument von der Armut der Reize (poverty of the stimulus argument) wurde von Noam Chomsky vorgebracht (Chomsky (1959b), Chomsky (1965), Chomsky (1980)), um seine Hypothese zu untermauern, dass es eine angeborene Sprachfähigkeit gibt. Es dient dazu, die Ansichten des Behaviorismus zu entkräften, wie sie von Burrhus F. Skinner (Skinner (1957)) vertreten wurden. Chomsky argumentiert, dass die Menge an Information, die dem Kind als Lehrmaterial zur Verfügung steht, zu gering ist, als dass man aus ihr eine Grammatik erlernen könnte. Das bedeutet, dass es dem Kind nicht möglich ist, allein auf Grund der vorhandenen Daten die Grammatik zu erwerben. Daraus ergibt sich das logische Problem des Spracherwerbs (logical problem of language acquisition). Dieses besagt, dass jede Theorie der Sprache auch erklären muss, wie es dazu kommt, dass Menschen sprechen können. Es muss erklärt werden, wie der Spracherwerb vor sich geht. Die VertreterInnen des Behaviourismus waren der Meinung, dass das Gehirn bei der Geburt des Menschen eine tabula rasa wäre, dass die Neugeborenen noch nichts wissen. Alles Wissen wird erlernt (etwa mit der klassischen Konditionierung wie beim Pawlow’schen Hund), nichts ist angeboren. Damit dies auch für den Spracherwerb gilt, müssen natürlich genügend Daten vorhanden sein, damit die Sprache und insbesondere die Grammatik erworben werden können. Mit Hilfe des Arguments von der Armut der Reize argumentiert Chomsky dafür, dass es eine spezifische, angeborene Sprachfähigkeit gibt, die nicht den allgemeinen kognitiven Fähigkeiten gleichzusetzen ist. Es genügt also nicht ein 2.2 Die kognitive Wende 7 allgemeines Lernschema, das für die klassische Konditionierung die Voraussetzung ist. Vielmehr existiert laut Chomsky eine Spracherwerbsvorrichtung (language acquisition device), die angeboren ist und den Grammatikerwerb auch mit wenigen Inputdaten ermöglicht. Siehe dazu auch § 8.3. The poverty of the stimulus argument • Noam Chomsky brought up the poverty of the stimulus argument when arguing against behaviorism. • The poverty of the stimulus argument says that children do not receive enough input from their environment to acquire grammar. Therefore, there must be an innate language acquisition device. • The logical problem of language acquisition is something that every theory of language must address. 2.2.3 Angeborenheitshypothese Der angeborene, spezifische Sprachlernmechanismus (language acquisition device, LAD) existiert laut Chomsky, um eine Antwort auf das logische Problem des Spracherwerbs zu geben. Die Angeborenheitshypothese besagt, dass die Grundlage für die menschliche Sprachfähigkeit in Form des LAD angeboren ist (Chomsky (1965)). Dafür zieht Chomsky eine Reihe von Argumenten heran ((1)-(4)): (1) Der Spracherwerb verläuft schnell. Der Spracherwerb erfolgt bei Kindern unglaublich schnell. Im Vergleich dazu erwerben Erwachsene eine Fremdsprache viel langsamer. Auch andere Gebiete des Faktenwissens wie z.B. mathematische oder physikalische Formeln oder die Namen aller menschlichen Knochen werden nicht so schnell gelernt. (2) Der Spracherwerb verläuft automatisch und mühelos. Der Spracherwerb bei Kindern erfolgt automatisch, das bedeuet, dass Kinder nicht dazu trainiert oder erzogen werden müssen. Es genügt, dass sie sprachlichen Reizen ausgesetzt sind. Chomsky spricht oft von einem Sprachorgan (language organ). Sprache entwickelt sich ähnlich wie andere Organe (z.B. wie der Bewegungsapparat oder das visuelle System (Augen)). Ein Kind lernt nur dann gehen bzw. sehen, wenn es auch die Gelegenheit hat, seine Muskeln zu trainieren bzw. verschiedene Dinge wahrzunehmen (z.B. Kanten, Helligkeitsunterschiede, Farben). Versuche an Blinden, deren Sehfähigkeit im Erwachsenenalter wiederhergestellt worden ist, haben gezeigt, dass nur dann gesehen werden konnte, wenn die Sehfähigkeit der Personen als Babys und Kleinkinder vorhanden war. 8 2. Generative Grammatik (3) Bestimmte Fehler treten nie auf. Während des Spracherwerbs machen Kinder Fehler. Diese Fehler sind allerdings sehr speziell, das heißt, es treten nur bestimmte Typen von Fehlern auf. Andere Fehler, die auch denkbar sind, kommen nie vor. Zum Beispiel entwickeln Kinder Übergeneralisierungen (overgeneralizations), sobald sie eine Grammatikregel erworben haben. Beispielsweise erfolgt die regelmäßige Bildung des Präteritums im Deutschen durch das Suffix -te, also zeichnete, putzte, schraubte. Eine Übergeneralisierung wäre, diese Regel auf alle, also auch auf die eigentlich starken Verben anzuwenden: leste, sitzte, eßte. Andere Typen von Fehlern werden von deutschlernenden Kindern nie gemacht. (4) Die Grammatik von Kreolsprachen deutet auf einen angeborenen Sprachlernmechanismus hin. Kinder, deren Eltern eine Pidginsprache (pidgin language) (= eine Art „Behelfssprache“, die dann entsteht, wenn Erwachsene mit unterschiedlichen Muttersprachen sich verständigen müssen) sprechen, entwickeln eine Kreolsprache (creole language). Die Pidginsprache der Elterm verfügt über keine vollständige Grammatik, die Kinder allerdings entwickeln während des Erstspracherwerbs eine vollständige, Regeln gehorchende Grammatik. Diese neu entstandene Sprache nennt man Kreolsprache. Das bedeutet, dass Kinder von vornherein angeborene Grammatikregeln besitzen müssen, denn die Sprache der Eltern, wenn sie nur stur „auswendiggelernt“ würde, beinhaltet diese Strukturen nicht. Innateness hypothesis • In order to solve the logical problem of language acquisition, Chomsky suggests that there is an innate language acquisition device. • The arguments in favor of the hypothesis are as follows: Acquisition is fast, automatic, and effortless. • Some theoretically possible errors never occur. • Once children learn a grammatical rule, they overgeneralize it. Only at a later stage are they able to restrict its use. • Creole languages are new languages that have a full set of grammatical rules. They are derived from pidgins, which do not have these complex rules. Chomskys Angeborenheitshypothese ist nicht unumstritten. Unter anderem wurden folgende Gegenpositionen vorgebracht ((1)-(4)): (1) Allgemeine kognitive Fähigkeiten reichen für den Spracherwerb aus. Grammatik wird nicht durch eine spezielle Sprachfähigkeit erworben, sondern durch allgemeine kognitive Fähigkeiten. Es gibt also, wenn überhaupt, nur 2.2 Die kognitive Wende 9 einen einzigen Lernmechanismus, der für den Erwerb aller Fähigkeiten und jeder Art von Wissen verantwortlich ist. (2) Das Poverty-of-the-Stimulus-Argument ist falsch. Das Poverty-of-the-Stimulus-Argument geht davon aus, dass Kinder nicht genügend Informationen aus ihrer Umwelt bekommen, um überhaupt Sprache erwerben zu können, deswegen muss es einen angeborenen Anteil geben. Die Kritik geht nun dahin, dass dieses Argument ja nur ein Argument ist. Niemand hat wirklich gezeigt, dass Kinder tatsächlich so wenig Informationen bekommen. Es könnte sein, dass sie so viele sprachliche Äußerungen hören, dass der Spracherwerb auch ohne angeborenes Wissen möglich ist (vgl. dazu auch § 8.3.1). Deb Roy untersucht dies mit Hilfe einer Langzeitstudie, in der er alle Daten, die ein Kind hört, aufnimmt und auswertet (Roy et al. (2006)). (3) Die Konstruktionsgrammatik nimmt an, dass beim Grammatikerwerb nur allgemeine Schemata gelernt werden. Die Sprachwissenschafterin Adele Goldberg geht davon aus, dass nur allgemeine Schemata (constructions) erlernt werden (Goldberg (1995), Goldberg (2003), Goldberg (2006)). Solche allgemeinen Schemata können für viele verschiedene Arten von Wissen nützlich sein, es handelt sich also nicht um sprachspezifisches Wissen. Beispielsweise wird oft das Wissen über einen Restaurantbesuch als Illustration für Schemawissen herangezogen. Ein typischer Restaurantbesuch besteht aus folgenden Punkten, wobei bei jedem Punkt Abweichungen möglich sind: 1. Restaurant betreten, sich an einen Tisch setzen 2. Speisen wählen und bei der Bedienung bestellen 3. Essen wird serviert 4. vorgesetzte Speisen verzehren 5. Rechnung bezahlen 6. Restaurant verlassen Abweichungen sind schon beim ersten Punkt möglich: Es könnte ein Stehlokal sein, wo es keine Tische gibt, oder ein Drive-in-Restaurant. Auch der zweite Punkt kann variieren: In Selbstbedienungsrestaurants kommt kein Kellner, man muss das Essen selbst holen. Goldberg behauptet nun, dass sprachliches Wissen auf eine ähnliche Art erworben wird wie das Schemawissen: Zuerst lernt man für ein oder zwei typische Verben ihre Verwendung. • Bei geben lernt man, dass jemand (Nominativ) jemandem (Dativ) etwas (Akkusativ) gibt. Sobald das grundlegende Schema erworben wurde (in diesem Beispiel das Schema für dreiwertige Verben), kann eine Generalisierung auf andere Verben erfolgen, die die gleiche Argumentstruktur haben. • Generalisierung auf z.B. schenken, schicken, bringen, übermitteln, überreichen 10 2. Generative Grammatik Das letzte Argument gegen die Angeborenheitshypothese bezieht sich auf den Stellenwert der sozialen Interaktion. (4) Die soziale Interaktion zwischen Kind und Bezugsperson und deren geteilte Aufmerksamkeit ist die Grundlage für den Spracherwerb. Michael Tomasello (Tomasello (1992), Tomasello (2000a), Tomasello (2009)) schlägt vor, dass für den Grammatikerwerb der sprachliche Input irrelevant ist. Es kommt also seiner Meinung nach nicht darauf an, welche sprachlichen Daten das Kind hört. Viel wichtiger ist die Fähigkeit zur sozialen Interaktion mit der Bezugsperson. Konkret geht es darum, dass das Kind und die Bezugsperson gemeinsam auf Dinge referieren (= sich beziehen) können. Zeigt die Bezugsperson etwa auf ein Auto und sagt „Auto“, so ist auch ihre Aufmerksamkeit, Michael Tomasello (*1950) c Jussi Puikkonen meistens auch ihre Augen, auf das Auto gerichtet. Das Kind, das Sprache erwirbt, muss die Aufmerksamkeit der Bezugsperson verstehen, es muss verstehen, dass die Person auf das Auto schaut. Erst wenn das Kind versteht, dass das lautliche Zeichen „Auto“ sich auf das bezieht, worauf die Aufmerksamkeit der Bezugsperson gerichtet ist, kann es das Wort lernen. Counterarguments to the innateness hypothesis • General cognitive abilities are su cient for language acquisition. • The poverty of the stimulus argument is wrong. • During language acquisition, only general cognitive schemes are acquired, but not speci cally linguistic rules. • The social interaction between caretaker and child is the most important factor. 2.2.4 Autonomiehypothese Neben der Angeborenheitshypothese vertritt Chomsky auch noch die Autonomiehypothese (hypothesis of the autonomy of grammar). Diese besagt, dass die Grammatik ein unabhängiger Teil des Geistes ist. Die Grammatik wird nicht durch andere Komponenten wie das allgemeine Weltwissen, das Gedächtnis, die Fähigkeit, Schlüsse zu ziehen, die Mathematikfähigkeit usw. geformt oder beeinflusst. Die Grammatik ist in diesem Sinn von den anderen kognitiven Funktionen unabhängig, also autonom (siehe dazu auch die Diskussion in Newmeyer (1998): § 2). Die Autonomiehypothese wird durch zwei Argumente unterstützt. Um zu zeigen, dass Sprache und allgemeine Intelligenz voneinander unabhängig sind, betrachtet man einerseits den normalen Spracherwerb bei verminderter allgemeiner Intelligenz, andererseits die Beeinträchtigung des Spracherwerbs bei normaler allgemeiner Intelligenz. Wenn es möglich ist, dass Sprache trotz fehlender oder geringer Intelligenz erworben werden kann, dann ist die Sprach- 2.2 Die kognitive Wende 11 sind Kinder, die am Williams-Syndrom leiden (Bellugi et al. (1988)). Diese weisen eine verminderte Intelligenz auf, haben aber im Gegensatz zu Kindern ohne Williamssyndrom mit vergleichbarer Intelligenz eine deutlich bessere Sprachfähigkeit. Dies bedeutet, dass die Sprachfähigkeit nicht in einem direkten Zusammenhang mit den allgemein-kognitiven Fähigkeiten steht. Andererseits weisen manche Kinder einen verzögerten bzw. fehlerhaften Spracherwerb auf, obwohl sie über eine gute allgemeine Intelligenz verfügen. Dies be zeichnet man als Sprachentwicklungsverzögerung (specific language impair ment) bzw. spezifische Sprachentwicklungsstörung. Das zeigt, dass die all gemein-kognitiven Fähigkeiten nicht mit der Sprachfähigkeit gleichzusetzen . Autonomy of grammar hypothesis • Nothing in uences the shape of grammar. • Grammar is independent of other cognitive functions, such as memory, general reasoning, etc. • Williams syndrome and speci c language impairment pose a double dissociation from general cognition and grammar. Auch die Autonomiehypothese, die besagt, dass Grammatik unabhängig von kognitiven Funktionen und unabhängig von der kommunikativen Funktion ist, ist nicht unumstritten. Folgende Gegenpositionen werden vertreten (siehe u.a. Newmeyer (1998): § 3): Die Grammatik ist nicht unabhängig, sondern wird durch außergrammatische Dinge geformt und beeinflusst (z.B. durch die kommunikative Funktion, durch die allgemein kognitive Funktion). Die Form der Sprache, das heißt die Grammatikregeln, ist durch ihre Funktion bestimmt. Es ist nicht so, dass die Grammatikregeln einfach so sind, wie sie sind (z.B. weil sie oder ihre Grundlage angeboren sind), sondern sie sind so, wie sie sind, weil damit etwa die kommunikative Funktion von Sprache besonders unterstützt wird. Die Sprache besitzt eine kommunikative Funktion, die auf die Beschaffenheit der Grammatik einen Einfluss ausübt. Mit anderen Worten, Grammatik wird von der kommunikativen Funktion der Sprache geformt. Dabei spielt die Verarbeitung eine entscheidende Rolle. Sprache muss so beschaffen sein, dass eine HörerIn die Äußerungen von anderen verstehen kann. Sprache ist nicht unabhängig von der sozialen Funktion. Beispielsweise dient Sprache dazu, Gruppen zu bilden bzw. Gruppenidentitäten festzulegen. Über die Sprache einer Person kann man bis zu einem gewissen Grad ihre Zugehörigkeit zu einer oder mehreren Gruppen bestimmen (z.B. Alter, Geschlecht, Herkunftsregion, Bildungsgrad). - - fähigkeit nicht von diesen kognitiven Fähigkeiten abhängig. Ein Beispiel dafür sind 12 2. Generative Grammatik Die Grammatik muss mit den allgemein-kognitiven Fähigkeiten zusammenspielen. Deswegen wird sie von diesen beeinflusst. Die Grammatik ist genauso evolutionär zu erklären wie alle anderen Phänomene des Lebens. In diesem Sinne kann Grammatik als nicht autonom verstanden werden, da ihre Form abhängig von ihrer evolutionären Entstehungsgeschichte ist (siehe auch § 3.6). Counterarguments to the autonomy of grammar hypothesis • General cognitive functions shape grammar. • The need for communication shapes grammar. • Social functions, such as establishing group identity, shape grammar. • Evolution, in general, shapes grammar. 2.2.5 Modularität In der theoretischen Psychologie werden (ganz allgemein) Erklärungsmodelle für die Funktionsweise der verschiedenen geistigen Fähigkeiten und deren Zusammenspiel aufgestellt. Eine davon ist die Modularitätstheorie (modularity of mind) von Jerry Fodor (Fodor (1983)). Gemäß dieser Theorie gibt es mehrere „kleine“, spezialisierte Module, die Informationen aufnehmen und weitergeben. Weiters existiert ein „großer“ Teil für die allgemeine Kognition, in dem die Informationen aus den „kleinen“ Modulen zusammenfließen. Für die Sprachwissenschaft sind vor allem die „kleinen“ Module interessant. Diese sind z.B. für das Erkennen von Kanten, für das Erkennen von Anordnungen im Raum, für das Gesichtererkennen, für das Erkennen von Melodien usw., aber auch für das Verarbeiten von Sprache zuständig. Wie wir sehen werden, ist es seitens der Forschung noch nicht entschieden, wie viele Module für welche Teilaufgaben es bei der Sprachverarbeitung gibt (siehe dazu auch die Karte der formalen Syntax in § 4.2). Beispiele für Module • Grammatik • Gesichtererkennen • Theory of Mind (=Wissen über das, was der andere weiß) Gemäß Fodor arbeiten alle diese Module auf die gleiche Art und Weise: • domänenspezifisch • informationell gekapselt • automatisch • schnell • einfacher Output 2.2 Die kognitive Wende 13 Domänenspezifisch (domain-specific) bedeutet, dass ein Modul nur Informationen aus seiner eigenen Domäne verarbeiten kann. Beispielsweise kann das Kantenerkennungsmodul nur Kanten erkennen, aber weder Farben sehen noch Wörter verstehen. Informationell gekapselt (informationally encapsulated) bedeutet, dass die Module diejenige Information bearbeiten, die bei ihnen eingelangt ist. Sie geben Informationen nicht an Nachbarmodule, sondern ausschließlich an die allgemeine Kognition weiter. Zum Beispiel sieht eine Person ein Gesicht (z.B. das von Falco). Erst wenn die Person das Gesicht erkannt hat (wenn die Information aus dem Gesichtserkennungsmodul an die allgemeine Kognition weitergeleitet wurde), kann sie sich an Ganz Wien erinnern. Der Begriff automatisch (automatic) bedeutet in Zusammenhang mit der Modularität, dass die Aktivität der Module nicht der willentlichen Kontrolle unterliegt. Dies bedeutet, dass man es nicht verhindern kann, dass man einen Satz, der in seiner Muttersprache gesprochen wird, versteht. Man kann nicht „nicht zuhören“, denn das Modul arbeitet automatisch. Schnell (fast) bedeutet, dass die Informationsverarbeitung in den Modulen im Vergleich zum (willentlichen) Nachdenken sehr schnell erfolgt. Mit einfachem Output (simple output) ist gemeint, dass die Information, die vom Modul an die allgemeine Kognition geliefert wird, einfach strukturiert ist. Das heißt, es kommt kein weiteres Wissen dazu, und die Repräsentationssprache ist nicht komplex. Laut Fodor müssen Module ein fixes neurologisches Korrelat, also eine neurologische Entsprechung im Gehirn haben. Module besitzen eine charakteristische Ontogenese (characteristic ontogenesis): Die Module entwickeln sich bei allen Kindern in einer bestimmten, biologisch vorgegebenen Reihenfolge. So erfolgt der Spracherwerb bei deutschsprachigen Kindern relativ ähnlich, d.h. der Zustand nach 1 Jahr, nach 1,5 Jahren, nach 2 Jahren kann zwischen den einzelnen Kindern verglichen werden. Module können einzeln gestört werden und ausfallen. Im Falle eines Hirnschadens (z.B. durch Unfall, Schussverletzung, Schlaganfall oder Tumor) können Teile des Gehirns beeinträchtigt sein und nicht mehr funktionieren. Demensprechend gibt es bestimmte neurologische Erkrankungen wie Aphasien (Sprachzentrum ist betroffen), die Prosopagnosie (prosopagnosia) (Gesichter können nicht erkannt werden) oder die Rindenblindheit (blind sight). Letzteres ist eine Störung, bei der trotz intakter Augen PatientInnen nichts sehen können, da das Sehzentrum im Gehirn beschädigt ist (Weiskrantz (1986)). Chomskys Annahmen über die Sprache, die Angeborenheits- und die Autonomiehypothese, sind mit der Fodor’schen Modularität kompatibel. Das heißt nicht, dass die Sprachfähigkeit genau einem Modul entsprechen muss. Vielmehr geht es um eine psychologische Theorie, die mit den Annahmen der generativen Theorie vereinbar ist. Wie diese Vereinigung konkret aussieht, und ob sie tatsächlich zutrifft, ist derzeit noch umstritten. 14 2. Generative Grammatik Modularity • The theory of modularity goes back to Fodor (1983). • Modules are domain-speci c, work informationally encapsulated, automatically, and fast. • They produce a simple output which general cognition can process. • Modules have a xed neurological correlate and show a characteristic ontogenesis. • Modules that have been identi ed include theory of mind, (parts of) grammar, and several stages of visual processing, such as face recognition. 2.2.6 Alternativen zur generativen Theorie Es gibt verschiedene Alternativen zur formalen Herangehensweise, wie sie die generative Grammatiktheorie nach Chomksy vertritt. Diese befürworten weder die Angeborenheitshypothese noch die Autonomiehypothese. Funktionalistische Theorien (functionalist theories) beispielsweise lehnen die Autonomiehypothese ab. Diese Theorien gehen ganz allgemein davon aus, dass Sprache immer die Funktion von irgendetwas anderem ist. Sie nehmen an, dass die Form der Sprache in ihrer Funktion begründet ist. So könnte etwa Sprache zum Zweck der Kommunikation existieren. In diesem Fall ist die Sprache so aufgebaut, dass die Kommunikation besonders leicht fällt. Zum Beispiel sind die häufigsten Wörter einer Sprache immer sehr kurz und meistens morphologisch unregelmäßig, was das Sprechen erleichtert. Wären die häufigsten Wörter besonders lang, so müsste man besonders lange sprechen, um eine Nachricht zu kommunizieren. Dies wäre natürlich unpraktisch. In diesem Sinne gehen funktionalistische Theorien davon aus, dass die Sprache für irgendetwas (etwa für die Kommunikation oder das Denken oder die Gruppenbildung usw.) besonders geeignet ist. Die Natürlichkeitstheorie (naturalness theory) (vor allem die natürliche Phonologie und die natürliche Morphologie) von Wolfgang U. Dressler, Willi Mayerthaler, Oswald Panagl und Wolfgang Ullrich Wurzel (Dressler et al. (1987), Dressler (1990)) ist ein Beispiel für eine funktionalistische Theorie der Sprache, es gibt aber auch noch andere ForscherInnen, die sich dieser Richtung verpflichtet fühlen. In der Natürlichkeitstheorie wird davon ausgegangen, dass sprachliche Zeichen bestimmten Kriterien genügen müssen. Je mehr und je Wolfgang U. Dressler (*1939) besser ein Zeichen die Kriterien erfüllt, desto häufiger tritt es auf, desto früher wird es im Erstspracherwerb erworben und desto stabiler ist es im diachronen Wandel. Kriterien sind unter anderem Ikonizität (je ikonischer ein Zeichen 2.3 Entwicklungsstufen der generativen Grammatik 15 ist, umso besser) und morphosemantische Transparenz (je transparenter, desto besser), es gibt aber noch weitere. Folgendes Beispiel illustriert die morphosemantische Transparenz (morphosemantic transparency): • Die regelmäßigen Präteritumsbildungen des Deutschen erfolgen durch das Anhängen des Suffixes -te, z.B. zeichne-te, verzehr-te, dös-te. Die Trennung zwischen Stamm und Tempussuffix ist sehr klar, die morphosemantische Transparenz somit hoch. • Die unregelmäßigen Präteritumsbildungen sind nicht so transparent. Bei saß, las, rief kann man nicht so leicht den Stamm und ein Morphem für das Tempus bestimmen. • Gemäß diesem Kriterium sollten die regelmäßigen Präteritumsbildungen bevorzugt werden. Allerdings widersprechen diese Formen dem Kriterium der Kürze. Eine bestimmte Wortform kann daher nicht für alle Kriterien optimal sein. Es gilt, die widersprüchlichen Anforderungen optimal zu erfüllen. Functionalist theories of language • This familiy of theories is an alternative to generative theory. Functionalist theories do not conform to the autonomy of grammar or innateness hypotheses. • They assume that language and grammar are a function of something else. For instance, language could be shaped by the need for communication. • The naturalness theory is an example of a functional theory of language. 2.3 Entwicklungsstufen der generativen Grammatik 2.3.1 Das Prinzipien-und-Parameter-Modell Das Prinzipien-und-Parameter-Modell erreichte 1981 mit der Rektions-und- Bindungstheorie (theory of government and binding) seinen Höhepunkt (Chomsky (1981)), bevor es anschließend weiterentwickelt und vom minimalistischen Programm abgelöst wurde. Dieses Modell geht davon aus, dass es eine Universalgrammatik (universal grammar) gibt, die die Beschaffenheit von allen Sprachen bestimmt. Die Universalgrammatik ist aber nicht das Regelsystem einer einzelnen Sprache, sondern sie legt fest, wie Grammatikregeln der menschlichen Sprache prinzipiell aussehen können und wie nicht. Sie legt damit auch fest, welche Grammatikregeln unmöglich sind und in keiner Sprache vorkommen. 16 2. Generative Grammatik Die Universalgrammatik ist nach Prinzipien (principles) organisiert. Diese gelten für alle Sprachen. Zum Beispiel ist der allgemeine Aufbau von syntaktischen Phrasen für alle Phrasentypen und für alle Sprachen gleich: Es gilt das X-bar-Schema, das verlangt, dass jede Phrase zumindest aus einem Haupt (head) (X 0 ), einer oder mehreren Zwischenprojektionen (X’) sowie einer maximalen Projektion (maximal projection) (X” bzw. XP) besteht (Jackendoff (1977)). XP X’ X 0 Die einzelnen Sprachen folgen den Grammatikregeln der Universalgrammatik. Diese müssen jedoch in einer bestimmten Ausprägung vorliegen. Dabei geht es nicht um das lexikalische Material an sich, denn natürlich besitzt jede Einzelsprache ihr spezifisches Vokabular. Es geht um die Grammatikregeln, um die syntaktischen Regeln, die den Aufbau von Phrasen und Sätzen bestimmen, sowie um die phonologischen Regeln, die den Aufbau und die Zusammensetzung von phonologischen Strukturen festlegen. Diese Regeln variieren nach bestimmten Parametern (parameters). Je nach Belegung der Parameter ist die konkrete Grammatikregel einer Einzelsprache von der einer anderen Sprache verschieden (siehe dazu auch § 3.3.3 sowie § 2.3.1). Betrachten wir den Phrasenaufbau. Hier muss festgelegt werden, auf welcher Seite das Haupt steht: rechts oder links. Haupt rechts Haupt links XP a X’ b X 0 XP X’ X 0 b a Dieser Parameter heißt Direktionalitätsparameter (directionality parameter). Es wird nicht nur pro Sprache festgelegt, auf welcher Seite sich das Haupt befindet, die Richtung kann auch innerhalb einer Sprache je nach Phrase variieren (Chomsky (1981)). Beispielsweise sind Adjektiv- und Nominalphrasen im Deutschen linkshäuptig, die Verbalphrase aber rechtshäuptig. Andererseits gilt etwa das Japanische durchgehend als rechtshäuptig, das Englische durchgehend als linkshäuptig. Die Rektions-und-Bindungstheorie gliedert sich in mehrere Subtheorien. Je nach grammatischem Phänomen bzw. grammatischer Ebene wurden eigene Submodule angenommen, so etwa ein Modul für die Kasustheorie (case theory), eines für die Thetatheorie (theta theory) und ein eigenes für die Lokalität (locality). Die Kasustheorie ist für die Verteilung und Lizensierung von Nominalphrasen zuständig. Sie bestimmt, an welcher Stelle im Satz und unter 2.3 Entwicklungsstufen der generativen Grammatik 17 welchen Bedingungen Nominalphrasen auftreten können. Dies wird wiederum völlig allgemein gehalten, die postulierten Regeln der Kasustheorie sind Teil der Universalgrammatik und gelten somit für alle Sprachen. Die Thetatheorie regelt die Bedingungen, unter denen die thematischen Rollen an die Argumente des Verbs verteilt werden; unter Lokalität versteht man Beschränkungen auf Verschiebungen von Häuptern oder Phrasen. The principles and parameter model of grammar • Universal grammar (UG) determines the shape of all human languages. • Universal grammar consists of grammatical rules or principles such as the X-bar schema. The principles are the same for all languages. • Parameters con gure the rules of UG for speci c languages. The directionality parameter determines the position of the head of a phrase for each category and language. 2.3.2 Das minimalistische Programm Der recht umfangreiche terminologische Apparat des Prinzipien-und-Parameter- Modells hat das Problem, dass es zu viele Regeln, Vorschriften und Prinzipien gibt, für die keine Grundlage gefunden werden kann. Daher ist Chomsky darum bemüht gewesen, ein theoretisches Modell der Grammatik zu entwerfen, das weniger Mechanismen besitzt. Im Idealfall sollen die verwendeten Mechanismen und die Bausteine, auf die sie angewendet werden, in mathematischen Prinzipien begründet sein. Das neue Modell, das minimalistische Programm (minimalist program) (Chomsky (1995)) reduziert die Maschinerie des Prinzipien-und-Parametermodells drastisch. Nur noch einfachste Operationen, die letztendlich in der Mengenlehre begründet sind, sind erlaubt. Die Aufspaltung in Kasustheorie, Thetatheorie der Rektions-und-Bindungstheorie werden im Minimalismus abgeschafft. Auch syntaktische Regeln wie das Empty Category Principle (ECP) oder die Rektionsbeziehung sind im Minimalismus nicht mehr vorhanden. Im minimalistischen Programm gibt es nur noch zwei Operationen: Move und Merge und die Schnittstellenbedingungen (interface conditions). Dies bedingt, dass auch die Repräsentationsebenen Tiefenstruktur und Oberflächenstruktur, die es in der Rektions-und-Bindungstheorie noch gegeben hat, abgeschafft wurden. Sehen wir uns das Modell im Detail an. Die beiden Operationen Move und Merge sind die einzigen Mechanismen, die die Grammatik besitzt. Sie dienen zur Strukturbildung, das bedeutet, mit ihnen werden aus einzelnen Elementen 18 2. Generative Grammatik die Baumstrukturen zusammengesetzt. Dabei übernimmt die Operation Merge diese Zusammensetzung. Merge verknüpft zwei lexikalische Elemente oder zwei Substrukturen zu einer gemeinsamen Struktur. Mit anderen Worten: Merge „pappt“ zwei Sachen zusammen und erzeugt einen Teilbaum. Merge: A, B ) A B Move hingegen ist diejenige Operation, die für die Verschiebung zuständig ist. Sie nimmt eine vorhandene Struktur, schneidet einen Teil aus und fügt ihn am oberen Ende wieder an. Move wird auch als remerge bezeichnet. Remerge: A B C ) C A B C Um eine vollständige Verschiebung zu erreichen, muss die ursprüngliche Kopie noch gelöscht werden: Move: C A B C ) C A B - Der Auslöser für alle Operationen, insbesondere für Move, sind immer Merkmale (features). Diese entscheiden, welcher Teil eines Baumes bewegt wird, und an welche Stelle er kommt. Im minimalistischen Programm sind die Merkmale der einzige Mechanismus, mit dem alles gesteuert wird, spezielle Regeln wie in der Vorgängertheorie gibt es nicht mehr. Die Verarbeitung der lexikalischen Elemente und syntaktischen Strukturen erfolgt so lange, bis die Struktur an eine Schnittstelle (interface) gelangt: an die Schnittstelle zur semantisch-konzeptuellen Interpretation oder an die Schnittstelle der phonetisch-artikulatorischen Interpretation. Dort darf die syntaktische Struktur nur noch interpretierbare Merkmale aufweisen. Alle uninterpretierbaren Merkmale wie z.B. Kasus müssen bis dahin getilgt worden sein (über die Operation Move und die Merkmalskongruenz). Von besonderer Bedeutung sind die Schnittstellenbedingungen (interface conditions), die für jede Schnittstelle festlegen, welchen Wohlgeformtheitsbedingungen die syntaktische Struktur entsprechen muss. Im minimalistischen Programm geht es um die Verbindung von Laut und Bedeutung, die hier als Schnittstellenbedingungen in Erscheinung tritt. Damit wird die - laut Chomsky einzige - Aufgabe der Sprache direkt in die Syntaxtheorie eingebaut. Chomsky (Chomsky (2004), Berwick & Chomsky (2011)) geht davon aus, dass die menschliche Sprachfähigkeit die optimale Lösung zur Verbindung von 2.3 Entwicklungsstufen der generativen Grammatik 19 Laut und Bedeutung (sound and meaning) ist. Das Problem ist, so Chomksy, dass der Gedanke bzw. die Bedeutung, die man ausdrücken möchte, serialisiert werden muss, um sie auszusprechen. Wie bereits im minimalistischen Programm (Chomsky (1995), Chomsky (2001)) festgehalten, existiert in der menschlichen Sprache die Dislozierung (displacement). Dies bedeutet, dass manche Phrasen nicht an der Stelle ausgesprochen werden, an der sie in der syntaktischen Struktur eigentlich stehen müssten. Dies ist beispielsweise bei Fragesätzen der Fall. Im Deutschen ist es ja so, dass das Fragewort am Satzanfang steht und nicht dort, wo das dazugehörige Antwortwort eigentlich auftritt. • Mathilde sieht den Kuchen. • Was sieht Mathilde? • ) Das was steht nicht dort, wo der Kuchen im Aussagesatz steht. Chomsky betrachtet die Dislozierung als Unvollkommenheit (imperfection), da sie für die reine Informationsübertragung, wie man sie auch aus formalen Sprachen wie z.B. Programmiersprachen kennt, nicht notwendig ist. Da die Evolution andauernd bessere Lösungen sucht, ist so eine Unvollkommenheit gar nicht möglich. Chomksy argumentiert nun, dass die Dislozierung eben keine wirkliche Unvollkommenheit ist, sondern die optimale Lösung zum Problem der Abbildung von Laut und Bedeutung. Diese beiden Ebenen bzw. Schnittstellen (interfaces) können nicht besser als mit den Mitteln der natürlichen Sprache miteinander in Bezug gesetzt werden. Minimalism • The minimalist program aims at reducing the machinery from the P&P model. There are only two basic operations: merge and move, as well as interface conditions. • Merge and move are triggered by features. Only interpretable features may remain visible at the interfaces; uninterpretable ones must be deleted beforehand by checking. • There are two interfaces: the articulatory-perceptual interface and the conceptual-intentional interface. • Grammar is the optimal solution of the relationship between sound and meaning. 2.3.3 Biolinguistik Den Begriff Biolinguistik (biolinguistics) als solches gibt es bereits seit einiger Zeit. Lenneberg (1967) vertritt das erste Mal die Auffassung, dass Sprache eine biologische Eigenschaft ist. Es folgen mehrere Treffen auf den Sommerschulen der Linguistic Society of America in Salzburg in den 1970er Jahren, denen auch der Verhaltensforscher Konrad Lorenz beiwohnte. Lyle Jenkins, der ab 20 2. Generative Grammatik ca. 1978 am damals neu gegründeten Institut für Sprachwissenschaft der Universität Wien lehrte, verfasste im Jahr 2000 eine Monographie zum Thema (Jenkins (2000)). Nach der Jahrtausendwende kommt das Thema so richtig in Schwung und zahlreiche LinguistInnen, besonders diejenigen, die im Rahmen des minimalistischen Programms arbeiten, verstehen sich als BiolinguistInnen. Die wesentlichen Ideen sind in Fitch (2009) und Berwick & Chomsky (2011) nochmals aufgeführt. Die Biolinguistik versteht sich als Forschungsprogramm, in dem die Verbindung zwischen Biologie und Linguistik im Mittelpunkt steht. Die menschliche Sprachfähigkeit wird als biologische Eigenschaft aufgefasst, die es - ähnlich wie andere biologische Eigenschaften - mit Hilfe der biologischen Methoden zu untersuchen gilt. Besonders wichtig sind die Fragen nach Evolution und Variation, die beide in der (theoretischen) Biologie eine große Rolle spielen. Wie konnte die menschliche Sprachfähigkeit im Lauf der Evolution entstehen? Geschah dies mittels natürlicher Selektion? Entstand die Sprache langsam und in kleinen Schritten, oder gab es einen plötzlichen Sprung? Wie kann es sein, dass eine derartige Vielfalt an Sprachen existiert, wie wir sie jetzt vorfinden? (Siehe dazu auch § 3.6.) Genau diese Fragen nach der Existenz und Vielfalt der Arten wurden bereits von Charles Darwin gestellt, allerdings ging es ihm nicht um einzelne Sprachen, sondern um einzelne biologische Spezies und Gattungen. Somit gibt es eine Parallele zwischen den Sprachen einerseits und den Gattungen andererseits, die Fragen und die Methode ihrer Beantwortung sind gleich. Das biolinguistische Programm erhebt den Anspruch, mit naturwissenschaftlichen Methoden überprüfbar zu sein. Somit trägt es die Linguistik ein Stück weg von der „weichen“ Geisteswissenschaft hin zur „harten“ Naturwissenschaft. Diese Überprüfung findet in erster Linie experimentell statt, wie auch die Methoden der Physik, Chemie und Biologie es verlangen. Fitch (2009) formuliert eine ganze Liste an empirisch überprüfbaren Hypothesen, die im Paradigma der Biolinguistik gestellt werden können und zur besseren Klärung, was denn nun die menschliche Sprachfähigkeit ist, wie sie entstanden ist und warum sie in dieser unglaublichen Vielfalt existiert, beiträgt. Diese Hypothesen betreffen unter anderem die Entwicklung des menschlichen Vokaltraktes und die Funktionsweise des Imitierens von sprachlichen und nicht-sprachlichen Signalen (siehe § 3.2.2). Natürlich spielt in der Biolinguistik auch die Genetik eine Rolle; Chomsky geht davon aus, dass die Sprachfähigkeit durch die Gene determiniert ist. Dementsprechend wurde die Suche nach dem Sprachgen eröffnet (siehe § 3.1). The biolinguistic enterprise • Biolinguistics is a research program that investigates the human language faculty with the help of biological methods, starting from a minimalist perspective. 2.3 Entwicklungsstufen der generativen Grammatik 21 • Researchers think of language as a biological trait. They try to answer questions about the evolution and variation of language. 2.3.4 Die Chomsky-Hauser-Fitch-Debatte In den Jahren 2002 bis 2005 tobte ein öffentlicher Streit über die Frage, wie es sich denn nun mit der Evolution der Sprache und dem Unterschied zwischen Mensch und Tier hinsichtlich der Sprachfähigkeit verhält. Teilnehmer waren der Linguist Noam Chomsky, der Psychologe Marc Hauser und der Biologe Tecumseh Fitch auf der einen Seite sowie der Psychologe Steven Pinker und der Linguist Ray Jackendoff auf der anderen Seite. Eröffnet wurde der Disput durch einen Artikel in der Zeitschrift Science (Hauser et al. (2002)), in dem die erste Partei einen konkreten Vorschlag über die Entstehung der Sprache und die spezifisch menschliche Fähigkeit entwarf, der breites Echo erzeugte, auch über die Sprachwissenschaft hinaus. Hauser et al. (2002) trennen die menschliche Sprachfähigkeit in zwei Komponenten: die Sprachfähigkeit im weiteren Sinn (faculty of language broad sense, FLB) und die Sprachfähigkeit im engeren Sinn (faculty of language narrow sense, FLN). Die FLN ist der eigentliche syntaktische Mechanismus (narrow syntax), der von Chomsky und anderen im Rahmen des minimalistischen Programms erforscht wird. Es handelt sich dabei um ein kombinatorisches System, das einzelne Bausteine zu komplexeren Ausdrücken zusammensetzt. Die zentrale Hypothese des Artikels ist, dass die FLN ein rekursiver Mechanismus ist (vgl. dazu die Operationen Merge und Move in § 2.3.2). Die FLB hingegen besteht aus der FLN und weiteren kognitiven Systemen wie dem konzeptuell-semantischen und dem sensomotorischen System. Die Autoren weisen allerdings darauf hin, dass Systeme wie das Gedächtnis, der Kreislauf oder die Verdauung nicht dazu gehören. Hauser, Chomsky und Fitch gehen davon aus, dass die FLN nur beim Menschen existiert, die FLB hingegen auch bei Tieren vorhanden sein kann. Damit gelangen sie zu ihrer zentralen Hypothese, die im weiteren von verschiedenen Seiten diskutiert und angegriffen wurde: Hypothese von Hauser, Chomsky und Fitch - „Only FLN is uniquely human. [...] FLN—the computational mechanism of recursion—is recently evolved and unique to our species.“ 1 - Nur die FLN ist menschlich, nur Menschen „können“ Rekursion, nur der menschlichen Kognition ist die Rekursion möglich. 2 Damit einhergehend machen die Autoren einen konkreten Vorschlag, wie die menschliche Sprachfähigkeit im Laufe der Evolution entstanden ist. Die Rekur- 1 Hauser et al. (2002): 1573, Hervorhebung im Original. 2 Deutsche Formulierung A.R. 22 2. Generative Grammatik sion bzw. die Syntax (FLN) selbst entstand durch einen plötzlichen, sprunghaften Schritt und breitete sich anschließend aufgrund der enormen Vorteile rasant aus. Die anderen an der Sprache beteiligten Systeme (FLB) sind hingegen langsam entstanden. Sie sind auch in anderen Spezies vorhanden. Die Unterschiede zwischen FLN und FLB sind in Tabelle 2.1 zusammengefasst. Sprachfähigkeit im Sprachfähigkeit im engen Sinn (FLN) weiten Sinn (FLB) syntaktischer Mechanismus sensomotorisches Systeme kombinatorisches System konzeptuell-semantisches System Rekursion keine Rekursion nur beim Menschen auch bei Tieren sprunghaft entstanden langsam und graduell entstanden Tabelle 2.1: Unterschied von FLN und FLB gemäß Hauser et al. (2002) Pinker & Jackendoff (2005) antworten auf den Vorschlag von Hauser, Chomsky und Fitch. Sie lehnen den Vorschlag ab, dass das Spezifische an der menschlichen Sprachfähigkeit die Rekursion ist, und argumentieren dafür, dass die Sprachfähigkeit komplex ist. Insbesondere ist sie im Laufe der Evolution nicht sprunghaft entstanden, sondern graduell durch wiederkehrende Adaptation mittels natürlicher Selektion entstanden. Pinker und Jackendoff verorten die graduelle Entstehung der Sprache somit im Forschungsprogramm der evolutionären Psychologie (evolutionary psychology), die davon ausgeht, dass alle psychologisch-kognitiven Eigenschaften graduell und durch natürliche Selektion entstanden sind. Somit muss jede kognitive Eigenschaft eine spezifische Funktion gehabt haben, die einen spezifischen Vorteil gegenüber den koexistierenden Lebewesen dargestellt hat. Fitch et al. (2005) beziehen zu den Argumenten von Pinker und Jackendoff Stellung. Sie argumentieren, dass die Trennung von FLB und FLN missverstanden wurde, und dass sich die Argumente von Pinker und Jackendoff nur auf FLB, nicht aber auf FLN beziehen. 2.3 Entwicklungsstufen der generativen Grammatik 23 The Hauser-Chomsky-Fitch debate • Hauser et al. (2002) argue that the human language faculty consists of two separate systems. - The faculty of language narrow sense (FLN) corresponds to the core syntactic machinery. It allows for recursive computation; only humans have it, and it evolved suddenly. - The faculty of language broad sense (FLB) corresponds to other cognitive systems, such as the conceptualsemantic and the sensorimotor system. It is not able to carry out recursive computations; animals may have it, and it evolved gradually over time. • Pinker & Jackendoff (2005) disagree and take up the position of evolutionary psychology. - All cognitive traits, including the human language faculty, have evolved gradually. - Recursion is not the core property of the language faculty; it is more complex. Kapitel 3 Sprache und Biologie Im folgenden Kapitel wird die Verbindung zwischen Sprache und Biologie vorgestellt. Diese umfasst verschiedene Bereiche: Zunächst gehen wir der Frage nach, ob die menschliche Sprache genetisch verankert ist (§ 3.1). Anschließend betrachten wir einen Ausschnitt der Diskussion, ob und wie Sprache bei Tieren vorhanden sein kann (§ 3.2). Ein besonders wichtiges Thema für die Biologie ist die Evolution. In § 3.3 werfen wir einen philosophischen Blick auf die Theorie der Evolution, um anschließend zwei Anwendungen der Evolutionstheore näher zu betrachten (Anwendung auf Psychologie und Kultur). Danach wird die Spieltheorie, die mathematische Grundlage der Evolutionstheorie, vorgestellt. Damit geht es zurück zur Frage nach dem Ursprung und der Entwicklung der Sprache. Wir betrachten zunächst spieltheoretische Modelle der Signalentstehung sowie der Pragmatik (§ 3.5.1) und wenden uns anschließend den Hypothesen der Sprachentstehung zu, wie sie von verschiedenen Linguisten aufgestellt wurden (§ 3.6). 3.1 Sprachgene Die Biolinguistik (siehe § 2.3.3), die Sprache als biologisches Phänomen begreift, fragt nach der biologischen Grundlage dieser Fähigkeit, insbesondere nach der genetischen. Ein wesentliches Arbeitsprogramm der derzeitigen Genetikforschung besteht darin, die Gene für die einzelnen anatomischen und physiologischen Phänomene zu finden, beispielsweise Gene, die für das Ausbrechen bestimmter (Erb-)Krankheiten verantwortlich sind, oder auch Gene, die die Ausbildung bestimmter Körperteile (z.B. Arme und Beine) steuern. Die Suche nach dem Sprachgen ist daher auch von großem Interesse für die Biologie. In den 1990er Jahren entdeckte Myrna Gopnik eine Familie, deren Mitglieder alle eine Sprachstörung aufwiesen (Gopnik (1990), Gopnik & Crago (1991)). Diese wurde als KE-Family bekannt. Dabei handelte es sich weder 3.1 Sprachgene 25 um eine erworbene Sprachstörung (z.B. auf Grund eines Schlaganfalls) noch um eine spezifische Sprachentwicklungsstörung (SLI, specific language impairment). Es konnte nachgewiesen werden, dass die Sprachbeeinträchtigung der Familie auf einen erblichen Defekt des Gens FOXP2 zurückführbar ist. Man hatte also scheinbar das Sprachgen gefunden. Allerdings ist die Sache nicht ganz so trivial (Piattelli-Palmarini & Uriagereka (2011)). Die KE-Familie weist folgende Symptome auf: Bei der Bearbeitung von Benennungsaufgaben, bei der Wiederholung von komplexen Pseudowörtern und hinsichtlich des Gebrauchs der Flexionsmorphologie verhalten sich die betroffenen Mitglieder der KE-Familie wie gewöhnliche AphasikerInnen. Besonders schlecht sind sie bei der Wiederholung von einfacheren Wörtern und in lexikalischen Entscheidungsaufgaben (lexical decision tasks). Die Wiederholung komplexer Wörter und die Sprachflüssigkeit sind bei den Mitgliedern der KE-Familie besser als bei den AphasikerInnen. Das Hauptkennzeichen der KE- Familie sind besondere Schwierigkeiten mit der Wiederholung von polysyllabischen Pseudowörtern (Piattelli-Palmarini & Uriagereka (2011): 102-103). Die Mitglieder der KE-Familie sind unterschiedlich intelligent, einige von ihnen sogar überdurchschnittlich, was die Ergebnisse der nonverbalen Teile von Intelligenztests betrifft. Daher steht die Beeinträchtigung der sprachlichen Fertigkeiten nicht in einem Zusammenhang mit der allgemeinen Intelligenz, es handelt sich um einen spezifischen Ausfall des sprachlichen Systems (Gopnik (1990)). Gopnik beschreibt die Sprachstörung als Merkmalsblindheit (feature blindness). Dies bedeutet, dass eine gravierende Störung des Kongruenzsystems (agreement system) vorliegt. Die PatientInnen haben besondere Schwierigkeiten mit der Flexionsmorphologie bei Nomen und Verben sowie mit der morphologischen Übereinstimmung von Subjekt und Prädikat. Das Syndrom der KE-Familie ist nicht unumstritten. Faraneh Vargha-Khadem bezweifelt, dass die betroffenen Mitglieder der KE-Familie an einer Sprachstörung leiden. Vielmehr handelt es sich ihrer Meinung nach um eine Dyspraxie (dyspraxia, developmental coordination disorder) (eine Störung des motorischen Handlungsablaufs) im Gesichtsbereich und um allgemeine kognitive Entwicklungsdefizite. Dies führt dazu, dass sich die Steuerung der feingliedrigen Muskulatur, wie sie für das Sprechen notwendig ist, nicht herausbilden kann (Vargha-Khadem et al. (2005)). Verschiedene Teile des Gehirns sind bei den betroffenen Mitgliedern der KE-Familie beeinträchtigt. Neben der linken Insula, dem mittleren posterioren Temporalgyrus, dem Putamen und dem Neostriatum sind vor allem das Cerebellum und der Nucleus Caudatus betroffen. Das Cerebellum (Kleinhirn) ist für das prozedurale Lernen verantwortlich. Es beherbergt das operationale Gedächtnis, das für bestimmte automatische Fähigkeiten wie Radfahren oder Schuhe zubinden verantwortlich ist. Dabei geht es immer um die korrekte Abfolge der einzelnen motorischen Handlungsschritte. Darüber hinaus ist das Cerebellum für das Timing von Ereignissen zuständig. Bei Ausfällen treten zu- 26 3. Sprache und Biologie meist motorische Störungen auf, die das Einschätzen von Distanzen und das Gleichgewicht betreffen. Der Nucleus Caudatus ist bei Tätigkeiten wie dem Klopfen eines Rhythmus involviert. Gemeinsam mit den Basalganglien ist er für das Kurzzeitgedächtnis und die motorische Kontrolle verantwortlich. Auf Grund seiner Bedeutung für die Abfolge von Operationen wird auch angenommen, dass der Nucelus Caudatus für das Parsing von Sprache wichtig sein könnte. Weiters ist das Broca-Areal während der Sprachverarbeitung weniger aktiv als bei gesunden Vergleichspersonen (Piattelli-Palmarini & Uriagereka (2011)). Alles in allem ist ein direkter Zusammenhang zwischen den beschriebenen Fähigkeiten und einer spezifischen Störung des grammatischen Kongruenzsystems schwierig herzustellen. Obwohl der Zusammenhang zwischen Gendefekt, betroffenen neurologischen Arealen und der Sprachstörung klar ist, ist dessen Funktionsweise noch lange nicht geklärt (Piattelli-Palmarini & Uriagereka (2011)). Das FOXP2-Gen (Forkhead-Box-Protein P2) ist ein Replikationsgen. Solche Gene sorgen dafür, dass Informationen, die in der DNA kodiert sind, ausgelesen und in einer RNA abgespeichert werden. Sie sind ganz allgemein für die Bildung der RNA und für die Steuerung der Informationsübertragung zuständig. Solche Replikationsgene, die man auch als Transkriptionsfaktor (transkription factor) bezeichnet, kodieren daher nicht ein bestimmtes Körperteil, ihre Aktivität hat vielmehr weitreichende Auswirkungen auf verschiedeste Bereiche der Anatomie und Physiologie. Die Mitglieder der KE-Familie weisen Abbildung 3.1: Struktur des FOXP2-Proteins eine spezifische Punktmutation an der mütterlichen Genkopie auf, die genau ein Nukleotid betrifft. Dies ist ein idealer Bereich für die Forschung, da die Veränderung sehr klein, sehr spezifisch und punktuell ist. Somit könnte man eigentlich direkt die Auswirkung eines einzigen Nukleotids feststellen. Da es sich jedoch bei FOXP2 um einen Transkriptionsfaktor handelt, betreffen die Auswirkungen der Mutation die Replikation, die wiederum zahlreiche verschiedene Auswirkungen auf den Organismus hat. Ein einfacher und direkter Zusammenhang zwischen Mutation und Auswirkung ist daher nicht möglich. Das FOXP2-Gen ist phylogenetisch recht alt und in vielen Spezies vorhanden, es tritt bereits bei Fischen und Reptilien auf. Auch bei Singvögeln 3.2 Sprache bei Tieren 27 spielt es eine wichtige Rolle: Zwei neuronale Schaltkreise steuern den Erwerb und die Ausführung des Vogelgesanges. Die Verbindungsregion zwischen diesen Schaltkreisen enthält Spiegelneuronen, ihre Aufgabe entspricht der der Sprachverarbeitung beim Menschen. Das FOXP2-Gen beeinflusst die Entwicklung dieser Verbindungsregion bei Singvögeln. Somit scheint es folgende Parallele zwischen Sprache und Vogelgesang zu geben: Die betroffene Hirnregion enthält Spiegelneuronen und das FOXP2-Gen ist dafür zuständig (siehe Piattelli-Palmarini & Uriagereka (2011) und dortige Referenzen). The language gene • The members of the KE family all show some language disorders. They share a genetic defect on the FOXP2 gene. • The language disorder affects the agreement system. It is controversial as to whether or not the disorder is a speci c language impairment or dyspraxia. • The FOXP2 gene is a transcription factor. It controls the shape of the RNA; therefore, this controls the transfer of information in general. 3.2 Sprache bei Tieren Eine wichtige Frage, die Biologie und Sprachwissenschaft verbindet, ist, ob die tierische Kommunikation mit der menschlichen Sprache vergleichbar ist bzw. ob die beiden sogar äquivalent sind. Dazu betrachten wir im Folgenden zunächst den Vogelgesang in § 3.2.1. Ist dieser genauso komplex strukturiert wie die menschliche Grammatik? In § 3.2.2 betrachten wir kurz die Entwicklung des menschlichen Vokaltraktes. Möglicherweise ist dessen Absenkung eine notwendige Voraussetzung für die Entstehung der Sprache. 3.2.1 Die Grammatik des Vogelgesangs In diesem Kapitel wollen wir uns anschauen, inwieweit die tierische Kommunikation der menschlichen Sprachfähigkeit gleicht. Gemäß der zentralen Hypothese von Hauser et al. (2002) unterscheidet sich die tierische von der menschlichen Kommunikation ausschließlich in der Rekursionsfähigkeit: Die menschliche Syntax (narrow syntax) ist inhärent rekursiv, die Muster der tierischen Verständigung sind dies nicht. Einige Studien über die Muster bei Singvögeln (song birds) sind genau dieser Frage nachgegangen: Ist es möglich, Vögeln „Sätze“ gemäß einer bestimmten Grammatikvorschrift beizubringen, so dass genau diese Regel gelernt wird? Die Voraussage von Hauser et al. (2002) ist, dass dies nicht der Fall sein kann. 28 3. Sprache und Biologie Der Vogelgesang (birdsong) ist ähnlich wie die menschliche Sprache aus Bausteinen verschiedener hierarchischer Ebenen aufgebaut. Berwick et al. geben an, dass der Vogelgesang aus Noten (notes) und aus darauf aufbauenden sequenziellen Silben (syllables) besteht, die wiederum zu Motiven (motifs) kombiniert werden. Eine komplette Gesangsperiode (song bout) setzt sich aus mehreren Motiven zusammen (Berwick et al. (2011): 115). Dieser Aufbau ähnelt dem Aufbau der menschlichen Grammatik, die sich ebenfalls aus hierarchisch gegliederten Bausteinen zusammensetzt (Phonem, Morphem, Wort, syntaktische Phrase, Satz, Text). Als Versuchstiere wurden Stare (sturnus vulgaris) (Gentner et al. (2006)), japanische Mövchen (bengalese finch, Lonchura striata domestica) (Abe & Watanabe (2011)) und Nachtigallen (nightingale, Luscinia megarhynchos) verwendet. Die einzelnen Forschergruppen diskutieren, ob sich der Erwerb von Grammatikregeln auf die richtige Syntax bezieht, oder ob es sich nur um phonotaktische Regelmäßigkeiten handelt. Berwick et al. geben an, dass die Abfolge der „Silben“ in den meisten untersuchten Vogelgesängen mit stochastischen Methoden wie etwa Markov-Modellen vorhersagbar ist. Demnach genügt ein lokaler Kontext wie etwa ein, zwei oder drei Silben hintereinander, um die nächste Silbe vorauszusagen. Ein derartiges Modell ist formal deutlich schwächer als eines, dass ein Regelsystem einer kontextfreien Grammatik benötigt. Allerdings weisen Berwick et al. darauf hin, dass die Silbenfolge des japanischen Mövchens nicht mit derart einfachen Mitteln zu erfassen ist. Dazu wurden alle Silbensequenzen eines einzigen Individuums aufgenommen und identifiziert, so dass in einem weiteren Schritt ein Automat für diese Sprache aufgestellt und dessen Eigenschaften formalisiert werden konnten. Dabei stellte sich heraus, dass die Silbenfolge des japanischen Mövchens einem k-reversiblen, endlichen Automaten entspricht. Eine derartige Sprache kann besonders leicht gelernt werden, da nur lokale Informationen herangezogen werden müssen, um zwei Zustände des Automaten unterscheiden zu können (Berwick et al. (2011): 118 und dortige Literaturverweise). Die Autoren geben an, dass auch die menschliche Phonotaktik weit simpler ist als angenommen. Sobald Worthäufigkeiten und Silbenfrequenzen berücksichtigt werden, ergibt sich ein ähnliches Modell wie bei den Vögeln. Hinsichtlich der Syntax stellt sich die Frage, ob die verschiedenen Vögel nur reguläre Sprachen und deren Subklassen verarbeiten können, oder ob sie auch die Regeln von kontextfreien Sprachen erlernen können (vgl. dazu die Chomsky-Hierarchie in § 8.2). Während die regulären Sprachen die einfachsten sind, besitzen die kontextfreien auch einen Speicher, so dass die Verarbeitung von Einbettungen möglich wird. Zum Beispiel muss man sich die Zahl der offenen Klammern merken, wenn man dazwischen einen Ausdruck angeben will, die Klammern aber auch alle wieder schließen möchte. 3.2 Sprache bei Tieren 29 • (((( irgendetwas dazwischen )))) Bei den kontextfreien Sprachen darf es keine Überschneidungen zwischen den abhängigen Elementen geben, bei der nächstkomplexeren Stufe, den kontextsensitiven Sprachen, ist dies aber möglich. Die menschliche Grammatik entspricht einer schwach kontextsensitiven Grammatik der Chomsky-Hierarchie. Diese ist etwas komplexer als eine kontextfreie, jedoch nicht so mächtig wie eine kontextsensitive Grammatik (siehe dazu auch Kapitel 8). Die Frage ist nun, ob auch Vögel derart beschaffene Grammatikregeln erlernen können. Gentner et al. (2006) und Abe & Watanabe (2011) untersuchen dabei folgendes Muster: • A n B n Es sollen immer genauso viele As wie Bs auftreten. Sobald die Bs beginnen, muss die Anzahl der As genau bekannt sein. Erlaubte Wörter dieser Sprache sind z.B.: • AAABBB • AAAAAABBBBBB Können Vögel Muster erkennen, die eine Zentraleinbettung (center embedding) beinhalten? Diese ist nur in kontextfreien oder noch komplexeren Sprachen möglich. Die Stimuli für die Versuchstiere wurden so gestaltet, dass sie dieses Kriterium erfüllen. • a b c c b a Gentner et al. (2006) zeigen, dass ihre Versuchstiere die kontextfreie Regel A n B n erlernen können. Sie waren sogar imstande, eine Generalisierung der Regel zu produzieren: Die Tiere konnten Sätze, die mittels eines höheren Faktors n erzeugt wurden als in den Lernsätzen vorhanden war, korrekt identifizieren. Jedoch weisen die AutorInnen darauf hin, dass der Lernprozess viel langwieriger war als Trainingsmethoden, die andere Fertigkeiten betreffen. Abe & Watanabe (2011) zeigen, dass japanische Mövchen diesen Typus von Grammatikregel ebenfalls erlernen konnten. Dazu wurden zunächst die Versuchstiere an die Sätze gewöhnt. Kam nun ein neuer Satz, der der Regel entsprach, waren sie nicht aufgeregt. Hörten sie jedoch einen Satz, der die Regel verletzte, reagierten sie darauf. Zur Kontrolle wurde eine Parallelgruppe von Vögeln mit einer Grammatik trainiert, die keine Vorhersage über bestimmte Muster in den Sätzen bot. Diese Gruppe zeigte keine besonderen Reaktionen. Berwick et al. (2011) merken an, dass die Studien nicht die gewünschte Eigenschaft untersuchen. Insbesondere kritisieren die Autoren, dass nicht untersucht wurde, inwieweit die Tiere eine kompositionale Semantik besitzen. Die einzelnen Laute haben immer eine festgelegte Bedeutung (Balzgesänge, Hinweis auf Gefahrenquelle u.Ä.), erlangen aber nie die Bedeutung aus ihren Teilen, wie es beim Menschen der Fall ist. Weiters geben Berwick et. al. an, dass die verschiedenen Vögel keine Wörter im linguistischen Sinn besitzen und somit auch keine Kategorien und Phrasen mit Häuptern bilden können. Gerade dies ist für die menschliche Syntax von zentraler Bedeutung. 30 3. Sprache und Biologie Birdsong • Birdsong has a hierarchical structure. What complexity does it have? • Researchers investigate what kind of grammar birds may be able to learn (regular or context-free). The critical question is whether birds can learn and generalize structures that require center embedding. • The evidence suggests that birds are able to learn the required type of rule, just like humans. 3.2.2 Die Entwicklung des Vokaltraktes Eine weit verbreitete Theorie besagt, dass im Laufe der Evolution zunächst der Vokaltrakt (vocal tract) abgesenkt werden musste, damit überhaupt Sprachlaute erzeugt werden konnten. Die Absenkung des Vokaltraktes beim erwachsenen Menschen scheint somit die anatomische Vorbedingung für die Entstehung der Sprache zu sein. Zumal besitzt kein anderes Lebewesen eine derartige Beschaffenheit des Vokaltraktes. Die Begünstigung der Kommunikation durch einen abgesenkten Vokaltrakt scheint also ein Überlebensvorteil gewesen zu sein. Noch beim kindlichen Menschen (im Säuglingsalter) ist der Vokaltrakt höher gelagert, so dass die Trennung von Atmung und Speisetrakt nicht immer gut gelingt. Der erwachsene Vokaltrakt ist aber so gebaut, dass die Luft- und Nahrungszufuhr mit Ausnahme des versehentlichen Verschluckens bzw. Verkutzens gut getrennt sind. Fitch & Reby (2001) untersuchen diese These anhand des Vokaltraktes von Rothirschen (Cervus elaphus) und Damhirschen (Dama dama). Sie können nachweisen, dass diese Spezies ebenfalls über einen abgesenkten Vokaltrakt verfügen, was die oben genannte Hypothese über dessen Funktion in der Entstehung der Sprache untergräbt. Die Autoren stellen zwei unterschiedliche Vorschläge in den Raum, zu welcher Funktion der abgesenkte Vokaltrakt bei Hirschen dienen könnte: Zum einen bedeutet ein abgesenkter Vokaltrakt einen größeren Raum zur Lauterzeugung und somit einhergehend tiefere Töne. Diese sind besser zur Signalübertragung über weite Distanzen geeignet als solche mit höheren Tönen. Man denke auch an die Radiowellen: Die Lang- und Längstwellensender verbreiten ihre Signale viel weiter als die Kurzwellen- und Ultrakurzwellensender. Dies ist möglich, weil langsamere Schwingungen sich besser ausbreiten. Die zweite Möglichkeit, so Fitch & Reby (2001), ist, dass die tiefe Stimme beim Röhren der männlichen Hirsche zur Paarungszeit ein größeres Körpervolumen vorgaukelt. Die Weibchen, so die Autoren, paaren sich besonders gerne 3.3 Evolution 31 mit großen und kräftigen Exemplaren. Eine tiefe Stimme kann somit den entsprechenden Körperbau vortäuschen. Dies könnte auch der Grund sein, warum erwachsene Männer ebenfalls über eine tiefe Stimme verfügen. Vocal tract • The lowering of the vowel tract is a precondition for producing speech sounds in humans. From an evolutionary perspective, it seems to be bene cial to have a lowered vowel tract that can be used for communication. • Deer also have a lowered vowel tract. Two reasons have been proposed for its existence: Lower tones have low-frequency sound waves that spread farther than higher tones. Lower tones sound more male; therefore, they are more attractive to females for reproduction. 3.3 Evolution 3.3.1 Theorie der Evolution Die Theorie der Evolution geht auf Charles Darwin zurück. Im Folgenden sollen die wichtigsten Begriffe dieser Theorie kurz erläutert werden. Darwin geht davon aus, dass der entscheidende Mechanismus der Evolution die natürliche Selektion (natural selection) ist (Darwin (1859)). Dies ist auch unter dem Slogan „survival of the fittest“ bekannt. Populationen von Lebewesen wachsen prinzipiell exponentiell, falls sie ideale und uneingeschränkte Lebensbedingungen vorfinden. Dies bedeutet, dass mit jeder Generation enorm viele neue Lebewesen entstehen, so dass die Kindergeneration immer viel mehr Individuen umfasst als die Elterngeneration. Allerdings sind derartige Lebensbedingungen nicht real anzutreffen, da es immer eine gewisse Beschränkung an Lebensraum und Nahrung gibt. In der Realität kann die Population daher niemals unbeschränkt wachsen. Die Individuen der Population unterscheiden sich voneinander anhand ihrer Eigenschaften. Manche Individuen haben Eigenschaften, die ein leichteres Überleben ermöglichen. Das Prinzip der natürlichen Selektion besagt, dass nur die fittesten Individuen einer Generation so lange überleben, dass sie sich fortpflanzen und ihre Eigenschaften weitergeben können. In The Origin of Species behandelt Darwin weiters die gemeinsame Abstammung (common descent). Sie besagt, dass alle Lebewesen von einem gemeinsamen Vorfahren abstammen. Im Laufe der Zeit hat sich in zahlreichen Entwicklungsschritten eine Differenzierung der Lebewesen in die einzelnen Gattungen ergeben, doch diese sind alle auf einen gemeinsamen Vorgänger 32 3. Sprache und Biologie zurückzuführen. Die taxonomischen Gruppierungen, wie sie in der Zoologie aufgestellt wurden, weisen auf gemeinsame Vorgänger hin. Besonders diese Idee hat Darwin viel Kritik, insbesondere von der Kirche, eingebracht. Auch heute noch gibt es solche Gegner (z.B. die VertreterInnen des Intelligent Design). Die Darwin’sche Theorie wurde im 20. Jahrhundert mit der Mendel’schen Vererbungslehre und Genetik zur sogenannten modernen Synthese (modern synthesis) verschmolzen. Es wurde festgestellt, dass die Vererbung über Gene erfolgt, so dass die Populationsgenetik an Bedeutung gewinnt. Sie behandelt die Frage, wie sich einzelne Gene in Populationen über die Zeit hinweg verhalten. Barbieri weist darauf hin, dass neuere Entwicklungen davon ausgehen, dass Gene nicht fix auf Chromosomen verankert sind, sondern auch zwischen Barbara McClintock (1902-1992) Chromosomen hin- und herspringen können (Barbieri (2003): 58). Dieser Mechanismus bewirkt neben der Selektion eine zusätzliche Veränderung des Erbmaterials. Barbara McClintock, die für Forschungen auf diesem Gebiet den Nobelpreis erhalten hat, spricht in diesem Zusammenhang von fluid genome und DNA slippage (McClintock (1951), McClintock (1956)). Theory of evolution • Natural selection: Given an unlimited amount of food, populations grow exponentially. In reality, the amount of resources is limited; thus, not all organisms survive. Only the ttest do. • Common descent: All creatures share a common ancestor. Over the course of time, organisms have developed into different species. • Modern synthesis is the combination of evolutionary theory and genetics. 3.3.2 Argumente gegen die Allmacht der natürlichen Selektion Die in Kapitel 3.3.1 dargestellten Mechanismen und Erklärungsgrundlagen der Evolution werden nicht von allen geteilt. Zum einen lehnt die Bewegung des Kreationismus (creationism) die Entstehung der Arten durch die natürliche Selektion ab. AnhängerInnen des Kreationismus gehen davon aus, dass ein Erschaffer oder ein Gott der Schöpfer aller Lebewesen ist. Der Kreationismus wird vor allem von einigen Richtungen des Christentums vertreten. Neuerdings finden sich diese Ideen unter dem Titel Intelligent Design wieder. Hier wird ebenfalls angenommen, dass die Natur und insbesondere die Lebewesen derart komplex konstruiert sind, so dass sie nicht mit Hilfe der natürlichen Selektion entstanden sein können. Gemäß der Theorie des Intelligent Design kann die Komplexität der Lebewesen nicht „aus dem Nichts“ entstanden sein, es muss 3.3 Evolution 33 daher einen oder mehrere intelligente Schöpfer geben, die absichtlich die Lebewesen konstruiert haben bzw. absichtlich die Grundlage für deren Komplexität erschaffen haben (Dembski & Colson (2004), Pennock (2001)). Auf die Debatte zu Kreationismus und Intelligent Design werden wir im Weiteren nicht eingehen. Die zweite Kritik an der natürlichen Selektion wird von Jerry Fodor in mehreren Schriften geäußert (Fodor (2000), Fodor & Piattelli-Palmarini (2010)). Fodors Kritik richtet sich gegen die weitläufige Rezeption des Darwinismus (darwinism) in der heutigen Biologie. Der Darwinismus besagt, dass die natürliche Selektion der einzig relevante Mechanismus der Evolution ist. Fodor argumentiert, dass die Arten zwar durch die Evolution entstanden sind, dass aber die natürliche Selektion nicht der entscheidende und alleinige Mecha- Jerry Fodor (*1935) nismus ist. Vielmehr müssen andere Bedingungen und Mechanismen an der Evolution beteiligt sein. Fodor argumentiert, dass die natürliche Selektion immer nur auf Phänotypen, nicht aber direkt auf die genetische Diversität zugreifen kann. Die Selektion des genetischen Materials erfolgt immer indirekt über die Phänotypen. Damit das genetische Material selektiert werden kann, muss es in einem Phänotypen realisiert werden. Es wird nicht jede beliebige Genschwankung als Phänotyp realisiert, denn das genetische Material muss zahlreichen inneren Beschränkungen (internal constraints) genügen, damit es überhaupt in einem Lebewesen realisiert werden kann. Es existieren zahlreiche Filter und regulatorische Prozesse in der Physik und Chemie, die auf das genetische Material wirken, wenn es zum Phänotyp wird. Somit kann die natürliche Selektion nur auf eine Teilmenge aller möglichen Genkombinationen zugreifen. Gemäß Darwin ist die Evolution ein gradueller Prozess. Das bedeutet, dass die Veränderungen in kleinen Schritten erfolgen, die dann von den Umweltbedingungen gefiltert werden. Es stehen daher immer zahlreiche verschiedene Formen zur Verfügung, die sich nur wenig unterscheiden. Auf Grund der Fitness gegenüber der Umwelt werden aber nur einige davon für die weitere Evolution selektiert. Fodor kontert, dass nicht von vornherein zahlreiche Varianten existieren. Viel eher sind die möglichen Alternativen, die überhaupt als Phänotyp realisiert werden, durch die inneren Beschränkungen stark reduziert, so dass überhaupt nur wenige auftreten. Es gibt für die Evolution daher nur wenig Spielraum. Fodor argumentiert, dass es allerdings in der Biologie wirklich optimale und fast optimale Lösungen für verschiedene Probleme gibt. Diese können daher nicht von der natürlichen Selektion gefunden werden, sondern müssen beispielsweise in der Physik, Chemie, in autokatalytischen oder in selbstorganisierenden Prozessen begründet sein. Fodor argumentiert weiters, dass die natürliche Selektion immer lokal erfolgt, sie kann nicht von vornherein ein langfristiges Ziel anvisieren, das über ungünstige, weniger fitte Zwischenstufen führt. Trotzdem existieren optimale Lösungen in der Biologie, die über den Weg der lokalen Maxima nicht unbe- 34 3. Sprache und Biologie dingt erreicht werden können. Beispielsweise könnte man sich vorstellen, dass die natürliche Selektion besondere Sprungbeine anvisiert. Bis diese entstehen, haben die Lebewesen zunächst dünne, kraftlose Beine, die im Vergleich zu den anderen Lebewesen den Nachteil haben, dass ihre BesitzerInnen sich schlechter fortbewegen können. Die Selektion weiß aber, dass die Lebewesen nach 100 Generationen optimale Sprungbeine haben werden, so dass diese schlechtere Zwischengeneration trotzdem selektiert wird. Ein derartiges Szenario ist bei der natürlichen Selektion nicht möglich, denn sie ist immer lokal. Mit anderen Worten, sie pickt immer das Beste in der jeweiligen Generation heraus, ohne auf mögliche bessere Organismen in der Zukunft zu achten. In diesem Zusammenhang wird immer wieder auf das 1917 erstmals erschienene Werk On Growth and Form von dem Biologen und ersten Biomathematiker D’Arcy Thompson (cf. Thompson (2000)) verwiesen. Dieser ging davon aus, dass die Evolution im Sinne der natürlichen Selektion nicht alles bestimmt, sondern dass auf bestimmte mathematische und physikalische Gegebenheiten Rücksicht genommen werden muss. Mathematische und physikalische Beschränkungen verhindern es, dass beliebige Formen durch die Evolution entstehen können. Beispielsweise ist es nicht möglich, dass besonders dicke und schwere Augen an besonders langen und dünnen Fühlern befestigt sind, da diese dann einfach aus rein physikalischen Gründen abbrechen würden. Diese Auffassung vertrat auch Alan Turing (Turing (1952)), ebenso weisen die Arbeiten von Stuart Kauffman in diese Richtung. Der Komplexitätsforscher geht davon aus, dass nicht die Evolution allein für die Entstehung der biologischen Vielfalt verantwortlich ist, sondern auch die Selbstorganisation und die mathematische Komplexität (cf. Kauffman (1993) und Kauffman (1995)). Vereinfacht gesagt ist es in einem System von bestimmter Komplexität rein mathematisch notwendig, dass bestimmte andere, größere Einheiten entstehen. Beispielsweise zeigt Kauffman anhand der Verteilung der ersten Molekü- Stuart Kauffman (*1939) le, dass, wenn genug solche Moleküle vorhanden sind, zwangsläufig chemische Reaktionen entstehen, die zu wiederum größeren Molekülen führen, die dann irgendwann zu Eiweißen werden und so den Weg zum Leben bahnen. Arguments against the universal power of natural selection • Natural selection is not the only relevant mechanism involved in evolution. • The selection process always involves the phenotype, not the genetic material directly. The phenotype is subject to physical and chemical constraints which reduce the number of possible realizations. • Natural selection only nds local maxima. Nevertheless, there seem to be many optimal solutions in biology. 3.3 Evolution 35 • Mathematical, physical and chemical constraints, as well as selforganizing properties, play a crucial role in evolution. 3.3.3 Taxonomien in Biologie und Sprache Die biologische Taxonomie bildet einerseits den Verwandtschaftsgrad einzelner Lebewesen zueinander ab, andererseits ist der taxonomische Baum auch als die Entwicklung der Abstammung der Arten zu lesen. Das heißt, dass sich ältere, historisch weiter zurückliegende Arten im Laufe der Evolution verzweigt und spezifiziert haben. Wie in der Biologie die einzelnen Gattungen und Spezies in einer taxomischen Ordnung angeordnet sind, die ihren Verwandtschaftsgrad und ihre Abstammung darstellen, so sind auch Sprachen miteinander verwandt. Es liegt nahe, das biologische Ordnungssystem auf das sprachliche zu übertragen. Die einzelnen Sprachen stehen in gewissen Verwandtschaftsverhältnissen zueinander, so sind Sprachen einer Sprachfamilie einander ähnlicher als Sprachen unterschiedlicher Familien. Beispielsweise sind das Französische und das Italienische einander ähnlicher als das Französische und das Russische, da Französisch und Italienisch beides romanische Sprachen sind, das Russische aber zur slawischen Sprachfamilie gehört. August Schleicher hat im 19. Jahrhundert vorgeschlagen, dass sich die indogermanischen Sprachen hinsichtlich August Schleicher (1821-1868) ihrer Abstammungsverhältnisse genauso verhalten wie die biologischen Arten (Schleicher (1850), Schleicher (1863)). Dies ist als Stammbaumtheorie (tree model) bekannt geworden. Diese Theorie geht davon aus, dass Sprachen sich immer weiter auseinanderentwickeln und spezifizieren, so dass strukturell genau solche Verwandtschafts- und Entwicklungsverhältnisse bestehen wie in der Fauna und Flora. Diesem Vorschlag wurde einige Kritik entgegengebracht, zunächst von den Junggrammatikern und vor allem von Johannes Schmidt, der in der Wellentheorie (wave theory) vorschlug, dass die Sprachen sich wie Wellen ausbreiten und miteinander interagieren (Schmidt (1872)). So kommt es auch durch Sprachmischungen im Sprachkontakt zu neuen Entwicklungen. Die gemeinsamen Eigenschaften der Sprachen des Balkansprachbundes, die ja aus unterschiedlichen Sprachfamilien kommen, illustrieren diese Idee. Die aktuellen sprachtypologischen Ansätze, deren Ideen auf Wilhelm von Humboldt und August Schlegel zurückgehen, orientieren sich an anderen Eigenschaften, nicht zwingend an der historischen Entwicklung. So werden die Sprachen in flektierende (inflectional), agglutinierende (agglutinating), isolierende (isolating) und inkorporierende (incorporating) Sprachen eingeteilt. Flektierende Sprachen haben morphologische Markierungen, die grammatische Merkmale wie etwa Kasus ausdrücken. Da die grammatische Funk- 36 3. Sprache und Biologie Abbildung 3.2: Polysynthesis Parameter Hierarchie. Baker (2003b) tion am Wort festgemacht wird, ist die Wortstellung frei. Lateinisch, Russisch und Deutsch sind Beispiele für flektierende Sprachen. Isolierende Sprachen hingegen markieren die grammatische Funktion nicht mit morphologischen Mitteln. Man sieht dem Wort nicht an, ob es Subjekt oder Objekt in einem Satz ist. Chinesisch und Englisch sind isolierende Sprachen. In agglutinierenden Sprachen wird jedes einzelne Merkmal mit einem eigenen Morphem ausgedrückt. Die Wörter können relativ lang werden, da für Tempus, Kasus, Numerus, Besitz etc. jeweils ein eigenes Affix angehängt wird. Türkisch und Ungarisch sind agglutinierende Sprachen. In inkorporierenden Sprachen werden die Argumente in das Verb „einverleibt“, so dass ein Wort fast den ganzen Satz ausdrückt. Inkorporierende Sprachen sind etwa Nahuatl, Quechua und Salish. Entgegen den traditionellen, aus der Indogermanistik stammenden Auffassungen haben SprachwissenschaftlerInnen, die sich der generativen Grammatik verpflichtet fühlen, eine andere Perspektive auf die Unterschiede und Gemeinsamkeiten der Sprachen. Wie im Prinzipien-und-Parameter-Modell (siehe § 2.3.1) festgelegt, unterscheiden sich Sprachen ausschließlich anhand von Parametern. In der Borer-Chomsky-Vermutung (Borer-Chomsky conjecture) (Borer (1984), Chomsky (2006)) wird festgelegt, an welchem Punkt die sprachliche Variation auf die Form der jeweiligen sprachspezifischen Grammatik Einfluss nimmt: 3.3 Evolution 37 Borer-Chomsky-Vermutung Alle Unterschiede zwischen den Sprachen sind im Lexikon verankert, die Grammatik ist immer gleich. Die lexikalischen Eigenschaften sind der einzige Ort, an denen sich Sprachen voneinander unterscheiden. 1 Diese Vermutung besagt, dass die Grammatik immer gleich ist, so dass sich Sprachen nur anhand von einzelnen Merkmalen unterscheiden. Diese Merkmale sind immer lexikalisch, das heißt, die Ausprägung dieser Merkmale sind je nach Sprache spezifisch und müssen vom Kind erlernt werden. Der grammatische Regelapparat ist nicht spezifisch und muss daher auch nicht erlernt werden: Seine Grundlage ist angeboren, er entfaltet sich im Laufe der Entwicklung des Kindes. Mark Baker (Baker (1996), Baker (2001), Baker (2003b)) geht davon aus, dass sich die Sprachen der Erde nur anhand weniger Parameter unterscheiden. Er spricht hier von Makroparametern (macroparameter). Diese bestimmen die Beschaffenheit der Grammatik selbst. Bakers Hauptparameter ist der Polysynthesis-Parameter. Er gibt an, ob eine Sprache inkorporierend ist oder nicht. Ein weiterer Parameter bestimmt, ob die Sprache serielle Verben erlaubt (wie etwa Edo und Khmer) oder nicht (wie Englisch und Indonesisch). Die Mark C. Baker (*1959) Unterscheidung, ob eine Sprache Akkusativ oder Ergativ markiert, ist ebenfalls ein Makroparameter. Genauso gehört der Pro-drop-Parameter dazu. Die Parameter sind in Abbildung 3.2 zu sehen. Diese Einteilung ist nicht mit der biologischen Taxonomie zu vergleichen, da Bakers Parameterhierarchie weder Verwandschaftsbeziehungen noch historische Entwicklungsstände bezeichnet. So sind etwa Japanisch und Türkisch nicht eng miteinander verwandt, auch wenn sie in der Darstellung einen gemeinsamen Mutterknoten haben. Es bedeutet nur, dass sie sich in einem strukturellen Merkmal unterscheiden. Ebenso sind Englisch und Edo nicht eng miteinander verwandt. Diese vier Sprachen stammen jeweils aus völlig unterschiedlichen Sprachfamilien. Baker möchte mit der Theorie der Makroparameter darauf hinweisen, dass die durch die Makroparameter gegebenen Variationsmöglichkeiten die größtmögliche Auswirkung auf das Erscheinungsbild der Sprachen haben, wobei das zugrundeliegende logisch-grammatische System immer gleich bleibt. Joseph Greenberg (1915-2001) c Ed Souza / Stanford News Service Joseph Greenberg (Greenberg (1963), Greenberg (1966)) verfasste eine bedeutende typologische Arbeit, in der er zahlreiche Universalien aus den Sprachen der Erde herausgearbeitet hat. Unter anderem lassen sich die Sprachen der Erde nach ihrem Wortstellungstyp einteilen: Die häufigsten Sprachtypen sind SVO (Subjekt-Verb-Objekt), SOV (Subjekt-Objekt-Verb) und VSO (Verb-Subjekt-Objekt). Beispielsweise ist das Deutsche vom Typ SOV, das Englische vom Typ SVO und das Arabische vom Typ VSO. Alle anderen möglichen Kombinationen sind deutlich seltener zu finden. 1 Deutsche Formulierung A.R. 38 3. Sprache und Biologie Taxonomies in language and biology • Biological taxonomies capture both the relationship between and the history of species. This idea has been transferred to the study of language. The tree model relates languages according to their common history, grouping them into families that have developed from a common ancestor. • Wave theory argues that languages interact like waves. Language contact provides the basis for new developments and innovation. • The tradition going back to Willhelm von Humboldt distinguishes between isolating, agglutinating, in ectional, and incorporating languages. • The generative tradition assumes the Borer-Chomsky conjecture is true, which states that all variation is tied to learnable features of lexical items. • Mark Baker proposes a theory of macroparameters that relates languages not to their common historical development but to linguistically relevant properties. • Greenberg’s universals are important observations that are still waiting for an explanation. Some of them describe the common and uncommon patterns of verb, subject, and object within the world’s languages. 3.4 Anwendungen der Evolutionstheorie 3.4.1 Evolutionäre Psychologie Die aus der Biologie stammende Evolutionstheorie wurde von einigen WissenschaftlerInnen herangezogen, um psychologische Phänomene zu erklären. Dabei stehen einerseits die Verhaltensmuster bei der Partnerwahl sowie die Eltern- und Verwandtschaftsbeziehungen beim Menschen im Mittelpunkt, andererseits befasst sich die evolutionäre Psychologie (evolutionary psychology) auch mit den Präferenzen für bestimmte Nahrungsmittel sowie mit Mustern der Kooperation und Aggression. Im Weiteren versucht das Forschungsprogramm der evolutionären Psychologie, sämtliche psychologischen Teilgebiete mit Hilfe der Evolution zu erklären. Das Grundmuster der Erklärung lautet wie folgt: Die natürliche Selektion wirkt zunächst auf die Gene. Durch sie werden bestimmte biologische Eigenschaften bevorzugt, weiterverbreitet und -entwickelt. Auf der Basis des Genmaterials entstehen bestimmte kognitive Eigenschaften beim Menschen und seinen Vorgängern (etwa das Gedächtnis, bestimmte Komponenten der visuellen Verarbeitung usw.). Die Entstehung und die Beschaffenheit der kogniti- 3.4 Anwendungen der Evolutionstheorie 39 ven Eigenschaften können daher mit der Theorie der Evolution erklärt werden. Dementsprechend sind die Umweltbedingungen, insbesondere die historischen, für die Erklärungen besonders wichtig. Beispielsweise wird die Präferenz für süße und fette Lebensmittel auf die Lebensumstände in der Steinzeit und die dadurch entstehenden Selektionsbedingungen zurückgeführt. Tooby & Cosmides (1992) entwickeln einen Vorschlag, wie die Evolutionstheorie auf die Psychologie ausgedehnt werden kann, nicht ohne zuvor Kritik an der Vorgehensweise der Sozialwissenschaften zu üben. Das Standardmodell der Sozialwissenschaften, so Tooby und Cosmides, geht davon aus, dass alles kulturell bedingt ist: Der Mensch kommt als Tabula rasa zur Welt, alle psychologischen Eigenschaften und das gesamte Wissen werden erlernt. Dazu ist ein möglichst genereller Lernmechanismus vonnöten, der es erlaubt, verschiedenste Arten von Wissen zu erwerben. Gemäß dem Standardmodell der Sozialwissenschaften ist es die Aufgabe der Psychologie, die Mechanismen dieses Lernmechanismus zu erforschen. Aufgabe der Anthropologie hingegen ist es, die kulturellen Rahmenbedingungen zu studieren, denn alle Inhalte, die gelernt werden, stammen von ihr. Somit legt das Standardmodell eine strenge Arbeitsteilung der Disziplinen fest (Tooby & Cosmides (1992)). Die Autoren bemängeln weiters, dass die Sozialwissenschaften sich nicht nachvollziehbarer mathematischer und empirischer Methoden bedienen, sondern sich in die Analyse verschiedener Diskurse verstricken, sie sich immer wieder im Kreis drehen. Die Sozialwissenschaften sind zwar im Stande, einzelne empirische Generalisierungen aufzustellen, sie sind jedoch weit davon entfernt, diese in ein Theoriegebäude einzubetten und weitreichendere, grundlegendere Gesetzmäßigkeiten zu finden. Die Sozialwissenschaften sind darauf beschränkt, einen Haufen chaotischer, komplexer Phänomene zu analysieren. Tooby und Cosmides entwickeln daraufhin folgenden Gegenvorschlag: Der menschliche Geist besteht aus zahlreichen, hoch spezialisierten Modulen, die im Rahmen der Evolution durch natürliche Selektion und Adaptation entstanden sind. Die Idee der Module geht auf Fodor (1983) und Chomsky zurück (siehe § 2.2.5), Tooby und Cosmides bauen diesen Ansatz weiter aus. Während ursprünglich kognitive Module für sehr spezielle Fähigkeiten vorgesehen waren (z.B. Gesichtererkennen, Kantenerkennen, auch bestimmte sprachliche Verbarbeitungen etc.), gibt es nun keine Grenzen mehr für das, was alles ein Modul sein kann. Die Module sind jeweils für spezifische Inhalte zuständig. Damit wird die Trennung zwischen Anthropologie und Psychologie aufgehoben, denn die Psychologie muss sich jetzt mit dem Erlernen bestimmter, definierter Inhalte auseinandersetzen. Daher, so Tooby und Cosmides, müssen Lernmechanismen und Kultur (bzw. Umwelteinflüsse) interagieren. Denn in Anlehnung an Chomskys Auffassung können sich die einzelnen Module nur durch die Verarbeitung von bestimmten Außenreizen und die Interaktion mit der Umwelt entwickeln. 40 3. Sprache und Biologie Evolutionary psychology • Evolutionary psychology tries to explain questions raised by different forms of psychological research (mating, cooperation, food preferences, etc.) in evolutionary terms. • Cognitive traits can also be explained in evolutionary terms: Cognitive traits are encoded by genes and shaped by natural selection. • Tooby and Cosmides suggest that the mind consists of Fodorian modules which may even be speci c to culturally learned content. Therefore, innate learning mechanisms must be able to interact with input from the environment. 3.4.2 Kulturelle Evolution Die Erkenntnisse der biologischen Evolutionstheorie werden auch auf die Kultur angewandt. Bei dieser Unternehmung geht es darum, verschiedene kulturelle Phänomene wie etwa die Verbreitung bestimmter Speisen, Geschichten, Lieder oder auch Sprache anhand der Evolutionstheorie zu erklären. Dabei soll die Kultur möglichst ähnlich analysiert werden wie das genetische Erbgut, das sich innerhalb der Population über Generationen hinweg verbreitet. Der Begriff der kulturellen Evolution (cultural evolution) geht auf Cavalli- Sforza & Feldman (1981) zurück. Die beiden stellen anhand der Senkung der Geburtenrate in Italien fest, dass es eine kulturelle Evolution geben muss, die unabhängig von der biologischen Evolution ist. Die Idee, immer weniger Kinder zu bekommen, wird nicht von einer Generation auf die nächste weitergegeben, sondern erfolgt durch die horizontale Übertragung innerhalb einer Generation. Die Frauen schauen, was die Gleichaltrigen tun, und machen es ihnen nach. Die kulturelle Evolution erfolgt über das Lernen. Dabei wird nicht nur von den Eltern gelernt, sondern auch von anderen Personen. Dies hat den Vorteil, dass prinzipiell auch nützliche Eigenschaften erworben werden können, über die die Eltern selbst nicht verfügen. Die Auswahl der Personen, von denen gelernt wird, orientiert sich gemäß Boyd & Richerson (1988) (siehe aber auch die Übersicht in Lewens (2013)) an zwei Strategien. Einerseits lernt man von Personen, die in der Gruppe ein hohes Prestige genießen; andererseits besteht die Möglichkeit, dass man mit der Gruppe konform geht. Das bedeutet, dass man das Vorherrschende imitiert. So kommt es zu einer Interation zwischen der kulturellen und der biologischen Evolution. Im Weiteren wurden formale Modelle entwickelt, um die kulturelle Evolution im Modell der biologischen Evolution zu integrieren. Dawkins (1976) führt diesbezüglich die Meme (memes) ein. Dies sind die kulturellen Entsprechun- 3.5 Biomathematik und ihre Anwendungen 41 gen der Gene, die kleinsten kulturellen Einheiten, das kulturelle Erbgut. Mit Hilfe der Meme kann untersucht werden, wie sich diese entwickeln und verbreiten. Dawkins’ Theorie wurde dahingehend kritisiert, dass die Meme keine mit Genen vergleichbare Eigenschaften haben (Lewens (2013): § 5): Sie sind keine diskreten Einheiten, sie haben keine Abstammung, ihre Replikation funktioniert anders (man lernt aus vielen Einflüssen, daher gibt es in der Kultur keine 1: 1-Replikation). Außerdem sind die selektiven Kräfte in der kulturellen Evolution stärker als in der biologischen. Die kulturelle Replikation ist weitaus fehleranfälliger, so dass sie stärker stabilisiert werden muss. Cultural evolution • Cultural evolution aims at modelling the distribution and evolution of cultural phenomena within populations using evolutionary theory. • Cultural traits spread via learning. This occurs between generations and between peers. • Memes, as introduced by Richard Dawkins, are the cultural counterparts of genes. 3.5 Biomathematik und ihre Anwendungen 3.5.1 Biomathematik Spieltheorie Die Spieltheorie (game theory) und ihre Weiterentwicklung, die evolutionäre Spieltheorie (evolutionary game theory), stellt als Disziplin der Mathematik ein Bündel von mathematischen Methoden zur Verfügung, um das Verhalten von TeilnehmerInnen eines Spieles zu modellieren. Sie untersucht das Verhalten der SpielerInnen, wenn mehrere konkurrierende TeilnehmerInnen aufeinandertreffen. Von Interesse ist hierbei, welche Strategie die SpielerInnen auswählen, um das Spiel zu gewinnen. Die Spieltheorie geht auf John von John von Neumann (1903-1957) Neumann und Oskar Morgenstern (von Neumann & Morgenstern (1944)) sowie John Nash, nach dem das Nash-Gleichgewicht benannt ist, zurück. Eine aktuelle Darstellung findet sich etwa in Osbourne & Rubinstein (1994). Die Spieltheorie hat besonders viele Anwendungen hervorgebracht. Vor allem in der Wirtschaft wird untersucht, wie einzelne TeilnehmerInnen eines Marktes aufeinander reagieren. Zum Beispiel wird der Preis einer Werbeanzeige bei Google mit Hilfe der Spieltheorie durch eine Versteigerung bestimmt (Henzinger (2010)). Die Spieltheorie findet ihre Anwendung aber auch in der 42 3. Sprache und Biologie Modellierung von politischen Wettbewerben sowie in der Psychologie und Soziologie. In der Biologie ist besonders die evolutionäre Spieltheorie relevant. In der Spieltheorie werden die Eigenschaften unterschiedlicher Arten von Spielen untersucht. So wird untersucht, wie sich Spielsysteme verhalten, deren SpielerInnen eine umfassende Information über alle Spielzüge und Eigenschaften der anderen haben (Spiel mit perfekter Information (games with perfect information)) bzw. deren SpielerInnen nicht alles wissen (Spiel mit imperfekter Information (games with imperfect information)). In Spielen mit perfekter Information gibt es auch keine Zufallselemente wie z.B. Würfel. Weiters Oskar Morgenstern (1902-1977) wird unterschieden, ob einzelne SpielerInnen oder Gruppen von SpielerInnen teilnehmen. Schließlich ist es von Bedeutung, ob es sich um ein strategisches Spiel (strategic game) handelt, bei dem die SpielerInnen alle gleichzeitig ihre Entscheidung treffen. In solchen Spielen weiß die einzelne nicht, welche Entscheidung die anderen getroffen haben, wenn sie ihre Entscheidung trifft. Die Strategien werden hier im Vorhinein festgelegt. Es gibt viele berühmte Spiele wie beispielsweise das Gefangenendilemma (prisoner’s dilemma), auf die hier nicht näher eingegangen wird. Als Beispiel soll lediglich das Falke-Taube-Spiel (hawkdove bzw. chicken game) dienen (Osbourne & Rubinstein (1994): Beispiel 16.3). Zwei Tiere streiten sich um ihre Beute. Die beiden können sich jeweils für eine von zwei Verhaltensstrategien entscheiden: entweder aggressiv zu sein wie ein Falke oder zurückhaltender wie eine Taube. Wenn sich beide Tiere für die Falkenstrategie entscheiden, endet die Situation im Kampf und niemand bekommt etwas zu fressen. Wenn sich beide für die Taubenstrategie entscheiden, wird die Beute gerecht aufgeteilt, jeder erhält drei Einheiten. Falls sich eines der Tiere für die Falkenstrategie, das andere für die Taubenstrategie entscheidet, so erhält der Falke vier Punkte, die Taube hingegen nur einen. In der folgenden Tabelle sind die Strategien und die jeweils erreichten Punkte angeführt. Derartige Strategietabellen finden sich häufig in der Spieltheorie; die Punkte werden auch als Erfolgsfunktion (payoff function) bezeichnet. Payoff-Funktion des Falke-Taube-Spiels Taube Falke Taube 3, 3 1, 4 Falke 4, 1 0, 0 (Osbourne & Rubinstein (1994): Abb. 17.2) Der bestmögliche Ausgang des Spieles ist für jeden Spieler, dass er selbst die Falkenstrategie anwendet, während der andere die Taubenstrategie wählt. Das Nash-Gleichgewicht (Nash equilibrium) bezeichnet die besten Strategien für jede SpielerIn unter Einbeziehung der Strategien der GegnerInnen. In einem Nash-Gleichgewicht gibt es für keine SpielerIn eine bessere Strategie. Wenn alle anderen SpielerInnen ihre Entscheidungen nicht verändern, hat 3.5 Biomathematik und ihre Anwendungen 43 der betreffende Spieler somit die bestmögiche Entscheidung gewählt. In dem Falke-Taube-Spiel gibt es zwei Nash-Gleichgewichte: (Falke, Taube) und (Taube, Falke), je nach dem, von welchem Spieler aus man das Spiel betrachtet. Ein John Forbes Nash (1928-2015) Nash-Gleichgewicht ist also ein stabiler Zustand eines Spielsystems. In der Spieltheorie werden solche Gleichgewichte gesucht, also die bestmöglichen Lösungen für die SpielerInnen. Je nach Spiel kann es sein, dass ein, mehrere oder kein Nash-Gleichgewicht existieren. Die Aufgabe der Spieltheorie ist es, die Anzahl der Nash-Gleichgewichte für verschiedene Spielarten zu bestimmen sowie ihre Werte zu berechnen. Vor allem in Anwendungsfällen wie etwa in der Vorhersage des Verhaltens der Marktwirtschaft kann dies schwierig werden, da nicht immer alle Bedingungen bekannt sind. Game theory • Game theory is a branch of mathematics that investigates the behavior of participants in a game. Its applications are very important for economics, biology, and other disciplines. • Game theory investigates the players’ strategies. The payoff function describes how much each player wins depending on the strategy he or she has chosen. • Within a Nash equilibrium, the strategies of all participants are optimal. There is no better strategy for any of the participants. Game theory tries to nd Nash equilibria for various types of games. Evolutionäre Spieltheorie Die evolutionäre Spieltheorie (evolutionary game theory) ist eine Erweiterung der klassischen Spieltheorie. Man möchte mehrere Durchläufe von Spielen analysieren. Diese Durchläufe können einerseits von den immer gleichen SpielerInnen gespielt werden, die sich jedes Mal neu für eine Strategie entscheiden. In diesem Fall gilt es zu untersuchen, welche Strategie sich durchsetzt. Andererseits ist es von Interesse, wie sich Populationen über die Zeit hinweg verhalten, wenn jedes Individuum nur eine ganz bestimmte Strategie verfolgen kann. Dieses Forschungsgebiet wird als Populationsdynamik (population dynamics) bezeichnet. Hierbei geht es darum, das Individuum und seine Fortpflanzungsrate zu studieren: Je erfolgreicher ein Individuum ist, desto mehr Nachkommen hat es, die seine Strategie erben. Somit gibt es in darauffolgenden Generationen der Population mehr Individuen mit der erfolgreichen Strategie. In der evolutionären Spieltheorie treten verschiedene Strategien direkt gegeneinander an, während in der klassischen Spieltheorie die einzelnen SpielerInnen von Interesse sind (Ross (2010)). 44 3. Sprache und Biologie Die sich dauerhaft durchsetzende Strategie wird von Maynard Smith (1982) als evolutionär stabile Strategie (evolutionary stable strategy) bzw. ESS bezeichnet. Eine ESS liegt dann vor, wenn kein Individuum mit einer veränderten Strategie in die Population eindringen und sie nachhaltig beeinflussen kann. Weiters besitzt jedes Individuum die beste Strategie gegen Individuen vom gleichen Typ (vgl. Maynard Smith (2002)). Allerdings ist es nicht zwingend, dass sich eine reine Strategie durchsetzt. John Maynard Smith (1920-2004) Es kann auch der Fall eintreten, dass es am geschicktesten ist, teilweise die eine, teilweise die andere Strategie zu verwenden. Dies ist beispielsweise im wiederholten Falke-Taube-Spiel der Fall. Wenn alle Individuen immer nur die Falke-Strategie wählen würden, würden sie verhungern, da sie in jedem Durchgang auf andere Falken träfen und immer 0 Punkte erhalten würden. Für dieses Spiel ist eine gemischte Strategie evolutionär stabil: manchmal Taube, manchmal Falke. Nicht immer gibt es für ein bestimmtes Spiel eine ESS. Falls ein Spiel mehr als zwei reine Strategien besitzt, so kann das System ein zyklisches Verhalten aufweisen: Im Laufe der Zeit springt das System von einer ESS zur nächsten und immer weiter im Kreis. Beide Zweige der evolutionären Spieltheorie haben in der Biologie große Bedeutung erlangt. Neben John Maynard Smith haben vor allem Josef Hofbauer und Karl Sigmund (Hofbauer & Sigmund (1984), Hofbauer & Sigmund (1998)) die evolutionäre Spieltheorie mit der Biologie verknüpft. Karl Sigmund (*1945) Die evolutionäre Spieltheorie wird besonders oft mit Computersimulationen untersucht, da sich hier das Verhalten von Populationen über die Zeit hinweg gut modellieren lässt. Eine der Fragen, die in letzter Zeit mit Hilfe der evolutionären Spieltheorie zu beantworten versucht wurde, ist, warum es altruistisches Verhalten gibt, also wie es dazu kommt, dass Individuen anderen helfen, obwohl sie scheinbar nichts davon haben. Martin Nowak konnte wei- Martin Nowak (*1965) tere Ergebnisse hinsichtlich der evolutionären Dynamik (Nowak (2006)), vor allem aber auch bezüglich des Altruismus erzielen. Er versucht außerdem, die Entstehung der Sprache und der Syntax mit Hilfe der evolutionären Spieltheorie zu erklären (siehe § 3.5.2). Evolutionary game theory • Evolutionary game theory is an extension of classical game theory. It investigates the strategies and equilibria for iterations of single games. • Population dynamics investigates the behavior of populations in repeated games, each individual pursuing a distinct strategy. • An evolutionary stable strategy is a strategy within a game that prohibits the intrusion and spreading of individuals with a different strategy. 3.5 Biomathematik und ihre Anwendungen 45 3.5.2 Evolution von Kommunikationssystemen Eine bestimmte Art von Spielen, die Signalspiele (signaling games), haben besondere Bedeutung für die Untersuchung von sprachlichen Phänomenen im Rahmen der Spieltheorie. Die Untersuchung von Signalspielen beginnt mit der Dissertation von David Lewis (Lewis (1969)) und ist heute ein aktives Forschungsgebiet (u.a. Pawlowitsch (2007), Pawlowitsch (2008)). Ein Signalspiel (vgl. Jäger (2012): 2488) besteht aus einem Sender und einem Empfänger, wobei der Sender dem Empfänger eine Information mit einem Signal übermitteln möchte. Der Empfänger reagiert auf das Signal mit einer Handlung. Beispielsweise könnte sich der Sender in einer Welt befinden, in der es heiß ist, oder in einer, in der es kalt ist. Je nachdem sendet er das Signal „heiß“ oder „kalt“. Die Strategie des Empfängers ist es, Signale in Aktionen zu übersetzen. Erhält in dem Beispiel der Empfänger das Signal „heiß“, so kann er das Fenster aufmachen, erhält er „kalt“, so kann er die Heizung aufdrehen - vorausgesetzt, er möchte die Wünsche des Senders erfüllen. Wie bei den bereits zuvor vorgestellten Spielen der Spieltheorie haben auch Signalspiele eine Payoff-Funktion, die mittels einer Matrix dargestellt werden kann. Sie ordnet möglichen Welten bestimmte Aktionen zu. Der Sender kommuniziert mittels Signal, in welcher möglichen Welt er sich befindet. Je nachdem, was der Empfänger versteht, wählt er dann die entsprechende Aktion aus. Wie auch in den anderen Spielen der Spieltheorie gibt es für jedes Welt- Aktions-Paar jeweils einen bestimmten Wert für den Sender und den Empfänger; beide versuchen, ihren jeweiligen Gewinn zu optimieren. Erhält der Empfänger ein Signal und kann er mit mehreren möglichen Aktionen darauf reagieren, so wählt er diejenige aus, die ihm den höchsten Gewinn bringt. Dabei muss das Signal nicht immer genau einer Welt entsprechen. Jäger (2008b): § 2 erläutert dies anhand folgendem Beispiel: Im Rahmen eines Bewerbungsgespräches stehen zehn Welten zur Verfügung, die der Qualifikation des Senders (des Bewerbers) entsprechen. Dieser möchte immer um genau einen Punkt besser erscheinen als er ist. Der Empfänger möchte allerdings einen Sender, der exakt seinen Erwartungen entspricht. In einem Szenario, in dem jeder Welt genau ein Signal entspricht, wird das Spiel darauf hinauslaufen, dass der Sender immer das höchste Signal sendet und der Empfänger dem Sender niemals glaubt. In einer Variante, in der nur zwei Signale zur Verfügung stehen („1 bis 3“ und „4 bis 10“) wird eine erfolgreiche Kommunikation entstehen, in der der Empfänger dem Sender glauben kann. Bei Signalspielen ist es nicht notwendig, dass sich die TeilnehmerInnen des Spiels vorab über die verwendeten Signale und ihre Bedeutung einigen. Dies würde nur zu einem unendlichen Regress führen (vgl. Lewis (1969)). Vielmehr interpretieren die TeilnehmerInnen die Signale gemäß ihren Erwartungen über das Verhalten der anderen, also gemäß der Payoff-Funktion (vgl. Jäger (2011) § 2). 46 3. Sprache und Biologie Signaling games • Signaling games consist of a sender and a receiver. The sender tries to signal in which possible world he or she is. The receiver acts depending on the world he or she understands the sender is in. • Signaling games are investigated within game theory. They have a payoff function; its bene t to the sender depends on the receiver’s action. The point of equilibrium means that the current set of signs is stable. • The signal does not have to be known in advance; it may develop over time. Es kann nicht immer darauf vertraut werden, dass Sender und Empfänger ehrlich sind, denn manchmal kann es für den Sender besser sein, dem Empfänger nicht die Wahrheit zu sagen. Zur Sicherstellung der Wahrheit wurden Kosten des Signals in das Modell der Signalspiele aufgenommen: Wenn es für den Sender sehr teuer ist, sein Signal zu senden, so wird es eher der Wahrheit entsprechen. Jäger (2008a) illustriert dies anhand folgendem Beispiel: Wenn jemand seinen Reichtum zur Schau stellen möchte, dann fährt er z.B. ein besonders teures Auto. Wenn jemand mit weniger Einkommen sich als reich darstellen möchte, könnte er sich auch ein derartiges Fahrzeug beschaffen, allerdings sind die Kosten dafür dann doch zu hoch, so dass er es nicht tun wird. Aufgrund dieser Signalkosten ist das Signal „teures Auto“ relativ zuverlässig, was den Reichtum der BesitzerIn anbelangt. In diesem Zusammenhang spricht Rabin (1990) von einer glaubwürdigen Nachricht (credible message): Eine Nachricht ist glaubwürdig, wenn es rational ist, das Signal zu glauben. Hinsichtlich der Beschaffenheit von natürlichen Sprachen vertreten van Rooij (2004) und Jäger (2007) die Hypothese, dass natürliche Sprachen Gleichgewichte von Signalspielen entsprechen. Deshalb ist die Untersuchung dieser Spiele von großem Interesse: Kann man die natürliche Sprache mit Hilfe von Signalspielen derart genau modellieren, dass sich die tatsächlich gefundenen sprachlichen Muster in ihnen widerspiegeln, so besitzt man ein Wissen über die Beschaffenheit des Systems. Man kennt damit die möglichen Gleichgewichte und Interaktionsmuster der TeilnehmerInnen. Damit sind auch Vorhersagen über die Art des Sprachwandels möglich (natürlich ist es nicht möglich, mit so einem Modell vorauszusagen, welche neuen Wörter es in fünf Jahren geben wird). Das Signalspiel ist in seiner evolutionären Entwicklung von besonderem Interesse für die Erforschung der Entstehung der Sprache, sowohl hinsichtlich des Vokabulars als auch hinsichtlich der Grammatik. Dazu werden entweder 3.5 Biomathematik und ihre Anwendungen 47 mehrere Generationen von SpielerInnen oder mehrere Durchläufe des Signalspiels mit denselben TeilnehmerInnen untersucht. Dabei steht die Frage im Mittelpunkt, welche Signalstrategien sich langfristig durchsetzen. Haben Sender und Empfänger gleiche oder sehr ähnliche Interessen, so ist die Kommunikation untereinander nützlich. Sie wird sich durchsetzen. Jäger (2011) gibt dazu an, dass in diesem Fall alle möglichen Ausgangskonstellationen eines Spiels zu Signalen mit Bedeutung führen. Sind die Interessen der beiden SpielteilnehmerInnen allerdings entgegengesetzt, so wird keine zuverlässige Kommunikation entstehen: Der Sender und der Empfänger versuchen sich andauernd zu beschummeln, um die eigenen Interessen durchzusetzen. Am interessantesten für die Spieltheorie sind diejenigen Fälle, in denen der Sender und der Empfänger teilweise die Interessen teilen. Hier wird sich ein bestimmtes Muster der Kommunikation einpendeln. Insbesondere erweist sich die evolutionäre Variante des Signalspiels als wichtig, um die Entstehung von altruistischem Verhalten nachvollziehen zu können. Im Laufe der Evolution eines Spiels ist es möglich, dass das System in suboptimalen Lösungen steckenbleibt. Erst das Vorhandensein eines gewissen Rauschens garantiert, dass immer die optimale Lösung gefunden wird (vgl. Jäger (2011)). Weiters muss die biologische von der kulturellen Evolution besonders bei Signalspielen auseinandergehalten werden. Während in der biologischen Evolution die Replikation nur einmal durch die Fortpflanzung und Entstehung einer neuen Generation erfolgt, so ist die Replikation in der kulturellen Evolution anders beschaffen. Sie ist ungenauer und kann durch Lernen mehrfach und länger erfolgen. Die Signalspiele weisen eine starke Verbindung zur Pragmatik von Paul Grice auf (Grice (1975)). Seine Konversationsmaximen (z.B. Maxime der Relevanz, Maxime der Kürze, Maxime der Kooperation) sind ebenfalls verschiedene Strategien, die SprecherIn und HörerIn zur Verfügung haben. Nach Grice ist eine Kommunikation dann erfolgreich, wenn alle diese Maximen möglichst gut erfüllt sind. Ähnlich verhält es sich auch bei den Signalspielen: Das Spiel ist dann in einem Gleichgewicht, wenn die Kosten und Gewinne für Sender und Empfänger optimiert sind. Zusammenfassend lässt sich festhalten, dass Signalspiele dazu dienen, dass der Sender mit Hilfe von Kommunikation das Verhalten des Empfängers zu seinen Gunsten beeinflussen möchte. Die Spieltheorie untersucht die Eigenschaften solcher Spiele hinsichtlich der Möglichkeiten der Verständigung, des optimalen Verhaltens der SpielerInnen und der evolutionären Entwicklung der Strategien solcher Spiele. • Signaling games that contain populations and/ or run for several iterations can be used to model the evolution of language. Researchers investigate what kind of signal strategies thrive. 48 3. Sprache und Biologie • Signaling games are related to current pragmatic theories. Die Theorie der Signalspiele wurde auch experimentell überprüft: In den 1990er Jahren fand das Talking-Heads-Experiment statt (Steels (2003)). Dabei mussten zwei Roboter über einfache, gefärbte Formen zu kommunizieren lernen, und zwar ohne dass zuvor eine bestimmte Sprache einprogrammiert worden wäre. Vielmehr lag dem Versuch die Idee zu Grunde, ein sich selbst organisierendes System zu beobachten. Die Roboter agierten als dynamische Agenten, die aus sich selbst heraus einen Kommunikationsmodus finden sollten. Über Kameras konnten sie die Objekte auf einer Tafel wahrnehmen, mittels Laserpointer auf sie zeigen. Der erste Roboter suchte sich ein Objekt aus, benannte es und ließ den zweiten raten, was er meinte. Falls es das falsche war, korrigierte er die Antwort durch Zeigen auf das richtige Objekt. Mittels mehrerer Durchläufe bildete sich so eine gemeinsame Sprache heraus. Dazu waren gemäß Steels (2003) zwei wesentliche Prozesse notwenig: Zum einen musste der Sprecher den Kontext derart verstehen, dass er in der Lage war, die für die Beschreibung relevante Kategorie auszuwählen (z.B. Farbe, Form, Größe oder Position des Objekts). Zum anderen musste der Sprecher in der Lage sein, diese Kategorie durch derartige Wörter auszudrücken, die der Hörer auch verarbeiten konnte. Somit zeigte das Experiment, wie sich Signalspiele in einer verkörperten Simulation verhalten. • In the Talking Heads experiment, robots developed a system of signals for communication without any previous agreement. It is a real-world instantiation of a signaling game. 3.5.3 Spieltheoretische Pragmatik Die Spieltheorie findet nicht nur in der Untersuchung der Entstehung von Zeichen ihre Anwendung, sondern auch in der Pragmatik. Im Folgenden werden zunächst einige pragmatische Phänomene besprochen, die sich nicht allein mit dem formalen Apparat der Semantik analysieren lassen. Anschließend wird das Modell der Optimalitätstheorie vorgestellt, dessen Erweiterung direkt Methoden der Spieltheorie aufgreift. Pragmatik In der Semiotik umfasst der Begriff Pragmatik (pragmatics) die Beziehung zwischen Zeichen und SprecherIn, er wird zum ersten Mal von Charles Morris 3.5 Biomathematik und ihre Anwendungen 49 verwendet (Morris (1938)). Bei der Pragmatik geht es darum, die Sprachverwendung zu analysieren. Man kann auch sagen, dass bei der Pragmatik die „Sprache als Handeln“ untersucht wird. Nach der Zeichentheorie ist die Sprechakttheorie (speech act theory) die nächste wichtige Etappe in der Entwicklung der Pragmatik. Sie wurde vor allem von John Austin (Austin (1962)) und John Searle (Searle (1969)) vertreten. In der Sprechakttheorie wird zwischen der Bedeutung und den Implikaturen (implicatures) unterschieden. Die Bedeutung ergibt sich gemäß den semantischen Regeln direkt aus der Bedeutung der einzelnen Bestandteile. Sie kann also deterministisch berechnet werden. Die Implikaturen hingegen sind nicht so eindeutig und direkt mit den einzelnen Bestandteilen der Äußerung verbunden. Beispielsweise kann die Interpretation von nicht-wörtlichem Sprachgebrauch wie etwa Höflichkeit oder Umschreibungen nicht direkt aus der Bedeutung der einzelnen Wörter erzeugt werden. Zum Beispiel kann mit der Äußerung • Mir ist etwas warm. ausgedrückt werden, dass die HörerIn das Fenster aufmachen soll. Die wörtliche Version • Öffnen Sie das Fenster! wäre viel unhöflicher. Ähnlich funktionieren auch skalare Implikaturen (scalar implicatures): Hier wird bei Quantoren auf bestimmte Werte der Skala geschlossen. Zum Beispiel lässt die Verwendung von nur in der Äußerung • Fritz hat nur drei Grillhendln gegessen. darauf schließen, dass Fritz normalerweise mehr als drei Hendln isst. Es gibt also eine bestimmte Anzahl von Grillhendln, die Fritz normalerweise isst. Nur weist darauf hin, dass der Wert drei deutlich unter diesem Normalwert liegt. Ebenfalls für die Pragmatik interessant sind die Präsuppositionen (presuppositions), also die Voraussetzungen dafür, dass ein Satz interpretiert werden kann. Im Unterschied zu den Wahrheitsbedingungen bleiben die Präsuppositionen auch unter Verneinung erhalten. Der Satz • Christoph schwimmt im Neoprenanzug durch den See. besitzt folgende Präsuppositionen: • Es gibt Christoph. • Es gibt einen See. • Es gibt einen Neoprenanzug. • Christoph hat einen Neoprenanzug an. Alle diese bleiben gültig, wenn der Satz negiert wird: • Christoph schwimmt nicht im Neoprenanzug durch den See. Interessant ist nun, welche Präsuppositionen existieren und wie diese erzeugt werden. Für die Analyse eines Gesprächs sind diese besonders wichtig, da sie als gemeinsames Wissen von SprecherIn und HörerIn vorhanden sein müssen. 50 3. Sprache und Biologie Dieses Wissen steuert zum Beispiel die Verwendung von bestimmten und unbestimmten Artikeln (der unbestimmte Artikel wird verwendet, wenn etwas Neues in den Diskurs eingeführt wird) und von Pronomen (Pronomen können nur auf etwas verweisen, über das schon geredet wurde). Im Anschluss an die Sprechakttheorie entwickelt Paul Grice (Grice (1975)) eine Theorie der Aufgaben von SprecherIn und HörerIn in der Konversation. Ihm zufolge wird die sprachliche Kommunikation durch das Kooperationsprinzip gesteuert, welches durch folgende vier Maximen näher bestimmt wird: • Maxime der Quantität („sage nicht mehr und nicht weniger als notwendig“) • Maxime der Qualität („sage die Wahrheit“) • Maxime der Relevanz („sage zum Thema Relevantes“) • Maxime der Modalität („sage Klares und Eindeutiges“) Diese Maximen können nicht immer alle gleichzeitig erfüllt werden. Sprachliche Äußerungen bilden daher ein Gleichgewicht zwischen den einzelnen Anforderungen. Verstöße gegen die Maximen erhalten immer eine besondere Bedeutung. Zum Beispiel erzeugt ein Verstoß gegen die Maxime der Quantität die Interpretation, dass die SprecherIn eine bestimmte (negative) Meinung zu dem Gesagten hat, es entsteht beispielsweise Ironie. So unterscheidet sich folgende Beschreibung eines Arbeitstages in einem Amt • Veronika hat heute 280 Zetteln sortiert, 34 Belege abgeheftet, den Bleistift gespitzt, 6 Tassen Kaffee getrunken und 2 Stunden den Bildschrim angeschaut. von derjenigen Beschreibung, die der Maxime der Quantität gehorcht: • Veronika hat die Abrechnung erstellt. Als weiterer Schritt wurde ab den 1980er Jahren innerhalb der Pragmatik die Relevanztheorie (relevance theory) entwickelt (Sperber & Wilson (1986)). Dazu siehe Kapitel 7.2. Pragmatics • Pragmatics investigates language in use. Research concentrates on how speakers interact with each other and what rules underlie successful communication. • An implicature is the non-literal meaning that a speaker tries to convey with an utterance. Scalar implicatures refer to speci c values of a scale. • Gricean maxims govern conversations between a speaker and a hearer. They comprise quantity, quality, relevance, and modality. Similar to the rules of a signaling game, they function as payoff functions. 3.5 Biomathematik und ihre Anwendungen 51 Optimalitätstheorie In den frühen 1990er Jahren wurde in den USA im Rahmen der Phonologie die Optimalitätstheorie (optimality theory), abgekürzt OT, entwickelt. Die generative Phonologie, die mit Chomsky & Halle (1968) ihren Höhepunkt fand, befand sich in einer Krise, nur noch wenige Arbeiten wurden erstellt. Mit Prince & Smolensky (1993), Archangeli & Langendoen (1997), Grimshaw (1997) und Barbosa et al. (1998) wurde das Paradigma der Optimalitätstheorie entworfen. Zunächst nur für die Phonologie entwickelt, breitete sich die OT auch auf andere Gebiete der Sprachwissenschaft aus (Syntax), vor allem aber erwies sie sich für die Pragmatik als nützlich. Die Optimalitätstheorie basiert auf einem grundlegend anderen Grammatikmodell als der generative Ansatz. Jede Komponente der Grammatik (d.h. die Syntax, die Phonologie, die Morphologie etc.) besitzt verschiedene Bedingungen (constraints), die die Wohlgeformtheit eines Ausdruckes bestimmen. Gemäß der OT sind diese Bedingungen universell, d.h. es existieren immer alle Bedingungen in allen Sprachen. Nun kann es allerdings sein, dass einzelne Bedingungen miteinander in Konflikt stehen. Beispielsweise kann eine Bedingung erfordern, dass es in einer Sprache Komposita gibt, eine weitere Bedingung kann verlangen, dass Komposita ausgeschlossen sind. Deshalb ist es innerhalb der OT möglich, dass Bedingungen verletzt werden können, es ist sogar systematisch notwendig. Die einzelnen Bedingungen sind in jeder Sprache in einer bestimmten Reihenfolge angeordnet. Je weiter oben eine Bedingung steht, desto teurer bzw. schlimmer ist eine Verletzung. Je weiter unten eine Bedingung steht, desto weniger macht ihre Verletzung aus. Dementsprechend sind auch die beiden Kompositabedingungen in den Sprachen angeordnet: Im Deutschen etwa ist die Bedingung, dass es Komposita gibt, höher gereiht als die Bedingung, dass es keine Komposita gibt. Daher ist es weniger schlimm, wenn letztere Bedingung verletzt wird (irgendeine der beiden muss verletzt werden). Die Aufgabe von Analysen innerhalb der Optimalitätstheorie ist es, die Bedingungen zu finden. Natürlich sollte es möglichst wenige und möglichst zutreffende Constraints geben, die sich für möglichst viele Sprachen als nützlich erweisen, doch ist dies kein ausschlaggebendes Kriterium, da prinzipiell auch unzählige unnötige Constraints eingebaut werden können, die dann einfach - falls nicht benötigt - weiter nach unten gereiht werden. Typische Analysen im Rahmen der Optimalitätstheorie sind durch die Aufstellung von Tableaus gekennzeichnet. In ihnen werden für jede mögliche Konfiguration der Bedingungen die Kosten berechnet. Ein bestimmter Ausdruck ist nur dann in einer Sprache grammatisch, wenn dieser im Vergleich zu allen anderen möglichen Ausdrücken die niedrigstmöglichen Kosten verursacht. 52 3. Sprache und Biologie Optimality theory • Optimality theory is a theory of grammar. It is available for all branches of linguistic theory, with phonology and syntax being the most prominent ones. • Several con icting constraints (the number and shape of them is still under debate) restrict the shape of linguistic elements. Reinhard Blutner hat in mehreren Arbeiten die bidirektionale Optimalitätstheorie (bidirectional optimality theory) entwickelt (Blutner (1999), Blutner (2004)). Er möchte mit ihr die unterschiedlichen Anforderungen von SprecherIn und HörerIn in einer Kommunikationssituation modellieren, deren Bedürfnisse er zurückgehend auf Horn (1984) als Q-Prinzip (Quantitätsprinzip; so viel wie möglich sagen) und I-Prinzip (so wenig wie möglich sagen) festhält. Ein linguistisches Zeichen wird nach zwei Kriterien evaluiert: Sowohl die Form als auch die Bedeutung sind jeweils in einer Rangliste geordnet und verursachen unterschiedliche Kosten. Ein Zeichen ist dann optimal, wenn es gleichzeitig das Q- und das I-Prinzip optimiert. Somit werden in Blutners Theorie die Bedürfnisse der SprecherIn und der HörerIn optimiert. Damit ist es gelungen, die pragmatischen Maxime von Paul Grice in ein formales, optimalitätstheoretisches System zu überführen. Blutner verwendet die bidirektionale Optimalitätstheorie, um pragmatische Phänomene wie etwa die pragmatische Straffung (pragmatic strengthening) zu erklären. Pragmatische Straffung bedeutet, dass die Bedeutung eines Satzes und die aus ihr generierten Inferenzen nicht nur durch streng logische Mechanismen berechnet werden, sondern dass auch andere - eben pragmatische - Methoden dabei eine Rolle spielen. Blutner (2004) erläutert dies anhand folgendem Beispiel: (1) Ich bin nicht glücklich. Der Satz in (1) wird immer derart interpretiert, dass die SprecherIn zutiefst unglücklich ist, obwohl die Äußerung genau genommen bedeutet, dass das Glücksgefühl nicht gegeben ist. Dies würde natürlich einen Normalzustand von weder glücklich noch unglücklich einschließen, welcher jedoch mit dieser Äußerung nicht gemeint ist. Bidirectional optimality theory • Bidirectional optimality theory tries to explain pragmatic phenomena. It models linguistic signs in terms of two con icting principles (quantity and information). • A sign is optimal if the principles are in equilibrium, as in game theory. 3.6 Hypothesen zur Sprachentstehung 53 3.6 Hypothesen zur Sprachentstehung Die natürliche Selektion, so die klassische Evolutionstheorie, begünstigt immer diejenigen Eigenschaften der Organismen, die sie fitter und überlegener gegenüber ihren koexistierenden Lebewesen machen. Unter diesem Blickwinkel stellt sich die Frage, welche Eigenschaft es war, die die menschliche Sprachfähigkeit hervorbrachte. Eine mögliche, jedoch von Chomsky und anderen abgelehnte Antwort ist, dass die verbesserte Kommunikation den entscheidenden Vorteil brachte. So eine Perspektive erlaubt die graduelle Entstehung der Sprachfähigkeit, wie sie etwa von den Adaptionisten vertreten wird (z.B. Steven Pinker und Ray Jackendoff, siehe § 2.3.4). Jedoch ist es nicht einfach festzuhalten, was genau eine Funktion wovon ist. 3.6.1 Was entsteht? Wenn man sich über die Entstehung der Sprache Gedanken macht, muss man sich zunächst fragen, was überhaupt entstanden ist. Im Folgenden soll es nur darum gehen, unter welchen Umständen und auf welche Weise die Grammatik (insbesondere die Syntax und die Phonologie) entstanden ist. Damit in Zusammenhang steht die Entstehung von sprachlichen Zeichen, die miteinander kombiniert werden, um neuartige Strukturen ausdrücken zu können. Es ist im Folgenden nicht von Interesse, wie die einzelnen Wörter entstanden sind, und wie es überhaupt möglich wurde, dass Lebewesen miteinander kommunizieren. 3.6.2 Protosprache Bereits Charles Darwin geht davon aus, dass eine musikalische Protosprache als Vorläufer der heutigen Sprache existiert hat (Darwin (1871)). Diese diente, ähnlich wie im Tierreich, zur Balz und zur Territorialmarkierung. Erst in einem weiteren Entwicklungsschritt konnte diese Protosprache um Wörter und propositionale Bedeutungen angereichert werden. Ebenso geht Derek Bickerton (Bickerton (1990), Bickerton (1998), Bickerton (2007) und andere Werke) davon aus, dass die Menschen eine vereinfachte Vorstufe der Sprache verwendet haben, die Protosprache (protolanguage). Diese Protosprache hatte noch nicht die komplexe Syntax der heutigen menschlichen Sprache. Gemäß Bickerton war die Protosprache eine wortbasierte Sprache mit kleinem Vokabular, die weder über eine Syntax noch über eine Phonologie verfügte, ähnlich wie die auch heute existierenden Pidginsprachen. Vor allem waren weder Verben noch die Realisierung aller Argumente obligatorisch. Es genügte also, ein oder wenige Substantive relativ wahllos aneinanderzureihen. Es besteht sogar die Vermutung, dass die Protosprache überhaupt keine Verben 54 3. Sprache und Biologie enthielt (vgl. Carstairs-McCarthy (1999)). Weiters hatte diese Sprache möglicherweise auch keine Eigennamen (vgl. Hurford (2003)). Erst die Einführung der Syntax erlaubte es, Verben und deren Argumente strukturiert zu erfassen. Ab diesem Zeitpunkt war auch die Realisierung der Argumente obligatorisch. Bickerton geht davon aus, dass es einen abrupten, „katastrophalen“ Übergang von der Protosprache zur heutigen Sprache mit der Syntax gegeben hat (vgl. auch Bickertons Terminus catastrophic syntax). Er nimmt an, dass der Übergang zu einer Sprache mit Syntax der letzte Schritt in der Evolution der menschlichen Sprache war. Insbesondere geht Bickerton davon aus, dass bei denjenigen Hominiden, die die Protosprache verwendet hatten, die motorische Verarbeitung im Gehirn völlig getrennt vom konzeptuellen System war. Bicker- Derek Bickerton (*1926) c Uwe Dettmar ton argumentiert, dass die Lebewesen auf dieser Stufe der Entwicklung sehr wohl über soziale Intelligenz und konzeptuelles Wissen, insbesondere über die Verarbeitung einer thematischen Struktur verfügten, dieses jedoch nicht mit den Wörtern der Protosprache in Verbindung bringen konnten. Erst die plötzliche Verbindung dieses konzeptuellen Wissens zur phonetischen Repräsentation der Wörter ermöglichte die Entstehung der Syntax. Genauer nimmt Bickerton (1998) an, dass die Syntax als eine direkte Verbindung der thematischen Struktur zur phonetischen Repräsentation entstand. • Protolanguage has a small vocabulary and contains no syntactic rules, much like a pidgin language. • The emergence of syntax happened abruptly. 3.6.3 Sprache ist wichtig für die Gruppenverwaltung Robin Dunbar (Dunbar (1996), Dunbar (1998) und weitere Werke) schlägt einen weiteren möglichen Grund für die Entstehung der Sprache vor: die Verwaltung und Koordination größerer Gruppen. Beim Zusammenleben in Gruppen ist es wichtig, dass die einzelnen Mitglieder einander helfen, sich gegenseitig beschützen und auch Ressourcen wie etwa Futter miteinander teilen. Jedes Gruppenmitglied sollte im Idealfall kooperieren, d.h. ebenfalls die anderen beschützen und das Futter teilen. Für die Organisation des Gruppenlebens Robin Dunbar (*1947) ist es daher von Bedeutung, dass die nicht kooperierenden Mitglieder, also die Trittbrettfahrer (free-riders) ausgeschlossen werden. Während bei kleineren Gruppen die einzelnen Individuen die anderen am Aussehen und am Geruch erkennen können, ist das bei größeren Gruppen nicht mehr möglich. Gemäß den Ideen von Dunbar werden in kleineren Gruppen Trittbrettfahrer daher re- 3.6 Hypothesen zur Sprachentstehung 55 lativ schnell erkannt, in größeren Gruppen ist es notwendig, andere Strategien zu erfinden, um Trittbrettfahrer ausfindig zu machen. Bei Affen sind die Individuen in Familien organisiert. Diese Lebewesen erkennen einander ohne Probleme, z.B. die Mutter das Neugeborene. Etwas größere Verbände werden bei verschiedensten Affenarten über die Fellpflege (grooming) aufrechterhalten. Das Lausen und Säubern des Felles von anderen Tieren hat nicht nur hygienische Aspekte, sondern spielt vor allem eine soziale Rolle. Durch diese Fellpflege werden die sozialen Beziehungen aufrechterhalten, die einzelnen Tiere erkennen einander wieder (Dunbar (1996)). Ab einer gewissen Gruppengröße ist der Mechanismus der gegenseitigen Fellpflege nicht mehr geeignet, die sozialen Beziehungen aufrechtzuerhalten, da hier immer eine 1: 1-Handlung durchgeführt werden muss. Um Trittbrettfahrer zu erkennen, muss gemäß Dunbar auf andere Mechanismen ausgewichen werden. Dunbar schlägt vor, dass die Verwendung der Sprache diese Rolle einnimmt. Er spricht von vokaler Fellpflege (vocal grooming) (Dunbar (1996): 162). Über die Verbreitung von Reputation und Tratsch kann sich in einer Gruppe sehr schnell herumsprechen, wie ein entsprechendes Individuum einzustufen ist: ob es vertrauenswürdig ist oder ob es sich um einen Trittbrettfahrer handelt. Dunbar geht davon aus, dass auch beim Menschen die Sprache eine überwiegend soziale Funktion besitzt, da die meisten Äußerungen nicht zur Übermittlung eines bestimmten Inhaltes getätigt werden. Mit anderen Worten: Den Menschen geht es weniger darum, was sie sagen, sondern vielmehr darum, soziale Beziehungen zu gestalten. Dunbar (1998) gibt an, dass über verschiedene Kulturen hinweg der durchschnittliche Anteil der Zeit, die die Menschen mit Tratschen verbringen, in etwa 20 % der Wachzeit ist. Somit argumentiert Dunbar, dass die Entwicklung der Sprache als ein Ersatz für das Lausen zu sehen ist, welches nicht primär der Körperpflege, sondern der Ausdifferenzierung und Aufrechterhaltung der sozialen Struktur der Gruppe dient. Damit in Zusammenhang steht die Tatsache, dass die Hirngröße der Lebewesen proportional zur Größe der Gruppen ist, in denen sie leben. Je größer die Gruppe, desto größer das Gehirn. Dunbars Resultate scheinen im Alltagsleben sehr plausibel: Denken Sie etwa an das Erkennen von anderen Dialekten oder fremden Akzenten. Sie wissen genau, dass die betroffene Person aus einer anderen Region stammt als Sie selbst. Des Weiteren zeigen die Forschungsergebnisse der Soziolinguistik und der Diskursanalyse immer wieder, wie Sprache dazu verwendet wird, um Gruppen zu kennzeichnen und zu konstituieren (etwa bei bestimmten Berufsgruppen, Jugendlichen usw.). Ähnlich wie Dunbar argumentiert Terrence Deacon (Deacon (1997)). Auch er geht davon aus, dass die Erweiterung des Gruppenlebens die wichtigste Voraussetzung für die Entstehung der Sprache darstellte, wie wir sie heute kennen. Den Ideen der Zeichentheorie von Charles S. Pierce folgend, ist vor allem die 56 3. Sprache und Biologie Verwendung abstrakter Symbole für Deacon der Weg zur Sprache. Sie ermöglichen den Gebrauch abstrakter, nicht auf Erfahrung und Sinneswahrnehmung begründeter Symbole, Eigenschaften, Relationen und Objekte. Deacon geht davon aus, dass sich derartige Symbole auf Grund der speziellen Anforderung der menschlichen Gesellschaftsstruktur entwickelt haben: Für ihn ist die Paarbeziehung beim Menschen im Vordergrund, da diese Lebensweise ansonsten recht selten im Tierreich anzutreffen ist. Im Gegensatz zu den meisten anderen Lebewesen kümmern sich beim Menschen zwei Erwachsene um den Nachwuchs. Auf Grund der Nahrungsbeschaffung, insbesondere der Fleischbeschaffung durch Jagen, kommt es zu einer Arbeitsteilung „Essenser- Terrence Deacon (*1950) werb“ und „Kinderpflege“. Deacon spricht diesbezüglich von einer speziellen „Sex-gegen-Fleisch“-Regelung. Insbesondere sind die ersten abstrakten Symbole auf Grund der widersprüchlichen Anforderungen der väterlichen Fürsorge einerseits und der Zugehörigkeit zu Männergruppen andererseits entstanden, beispielsweise entstanden Versprechen wie eine Heirat. Es sind also die abstrakten Symbole und deren Beziehungen untereinander die wesentliche Errungenschaft, nicht unbedingt eine bestimmte Grammatikfähigkeit im Sinne eines strukturellen Kombinationsmechanismus. Im Unterschied zu Dunbar schlägt Deacon vor, dass das Tratschen zwar als soziale Funktion sehr wichtig ist, dass es jedoch nicht die entscheidende Abstraktionsebene bewirkt, die für die Entstehung der Sprache notwendig ist. • Robin Dunbar: Language originated because it is useful for the development and cohesion of larger groups. Apes are able to recognize their group members due to their common grooming activity. Humans recognize their group members by their shared dialect, technical language or sociolect. • Terrence Deacon: Language enables the use of abstract symbols. These are necessary for life within a complex human society. In particular, language makes a wedding vow possible, which is necessary to balance men’s diverging responsibilities of parenting and hunting. 3.6.4 Carstairs-McCarthy: Beginnend mit der Phonologie Andrew Carstairs-McCarthy (Carstairs-McCarthy (1998), Carstairs-McCarthy (1999)) geht davon aus, dass sich zunächst die Phonologie entwickelte. Auf Grund der Entwicklung des menschlichen Vokaltraktes ergab sich eine besondere Silbenstruktur, die andere Tiersprachen nicht besitzen. Diese Silbenstruktur war die Grundlage für ein nicht-rekursives Regelsystem, die Phonologie. 3.6 Hypothesen zur Sprachentstehung 57 Aus diesem konnte in einem zweiten Schritt ein rekursives Regelsystem entstehen: die Syntax. Carstairs-McCarthy geht davon aus, dass immer mehr sprachliche Zeichen in Form von verschiedenen Lauten verwendet wurden, bis dieses große Vokabular nicht mehr von dem Gedächtnis bewältigt werden konnte. Um dennoch die lautlichen Zeichen zu gebrauchen, entwickelte sich das phonologische Regelsystem. Man musste sich damit nicht mehr alle Zeichen einzeln merken, sondern konnte mit Hilfe weniger Regeln zahlreiche lautliche Zeichen konstruieren. Der Kapazitätsengpaß war somit gelöst. Andrew Carstairs- McCarthy (*1945) Letztendlich ist die hierarchische Struktur der Grammatik in der motorischen Kontrolle begründet. Sie breitet sich über die Phonologie auf die Syntax aus. Phonology rst • The human vocal tract makes it possible to pronounce special syllables which other animal languages prohibit. • Due to the rising complexity of sounds, the phonological system emerged. Later the remaining grammatical rules followed. Kapitel 4 Sprache im Gehirn Das folgende Kapitel behandelt das Thema Sprache und Gehirn. Die zentrale Frage lautet: Welche Teile des Gehirns werden für das Produzieren und Verstehen von Sprache benötigt? Themenschwerpunkte sind zunächst die Sprachzentren des Gehirns sowie Sprachstörungen. Diese werden anhand der klassischen Aphasielehre vorgestellt. Es folgt ein Überblick über bildgebende Verfahren und experimentelle Methoden, wie sie in der Neurologie und in der Neurolinguistik angewendet werden. Danach werfen wir einen genaueren Blick auf den aktuellen Stand der Forschung, was die syntaktische, die semantische sowie die prosodische Verarbeitung und die Repräsentation von Wörtern betrifft. 4.1 Sprachstörungen Die klassische Untersuchung, wie Sprache im Gehirn verankert ist, geht auf neurologische Studien des 19. Jahrhunderts zurück. Damals wurden Patient- Innen mit Kopfverletzungen beobachtet, die spezifische Schwierigkeiten mit dem sprachlichen Ausdruck und/ oder dem Verständnis hatten. Da noch keinerlei bildgebende Verfahren existierten, konnte man erst durch das Sezieren des Gehirns nach dem Tod der PatientInnen erste Aussagen über die betroffenen Hirnregionen machen. Die Hirnschäden der Patienten wurden entweder durch Hirnblutungen („Schlaganfall“) oder durch Unfälle bzw. Schussverletzungen hervorgerufen. Letztere waren für die Wissenschaft besonders dienlich, da diese zumeist scharf abgegrenzte Bereiche des Gehirns außer Gefecht setzten. Die Störungen der Sprachfähigkeit, die auf neurologische Erkrankungen zurückgeführt werden, bezeichnet man als Aphasie (aphasia). Es wurde sowohl für die Neurologie als auch für die Linguistik ein wichtiges Thema, die unterschiedlichen Ausprägungen der Aphasien zu beschreiben sowie die mit ihnen im Zusammenhang stehenden Hirnteile zu finden. Dieses Forschungsprogramm verspricht, über die Funktionsweise des Gehirns im Hinblick auf die 4.1 Sprachstörungen 59 Sprachfunktion Aufschluss zu geben: Welche sprachlichen Komponenten können einzeln ausfallen? Welche nur gemeinsam? Obwohl mittlerweile durch neuartige bildgebende Verfahren und ausgeklügelte Experimente die klassische Aphasielehre nahezu über den Haufen geworfen wurde, soll sie dennoch vorgestellt werden, da auch im aktuellen Forschungsdiskurs unentwegt auf die traditionellen Begrifflichkeiten und die grundlegenden Muster verwiesen wird. Die Annahme einer 1: 1-Beziehung von sprachlicher Funktion und physiologischem Korrelat kann jedoch als überholt betrachtet werden. Zunächst wollen wir die linke Hemisphäre betrachten, von der im Allgemeinen angenommen wird, dass sie bei RechtshänderInnen die verschiedenen Sprachzentren beherbergt. Vereinfacht dargestellt mag dies mit folgenden Ausnahmen zutreffen: Linkshänder weisen mitunter eine andere Aufteilung der Hemisphären auf, so dass bei diesen Personen das Sprachzentrum entweder bilateral oder rechts gelagert ist. Außerdem findet die semantische Verarbeitung, also das inhaltliche Verstehen der Information und die Einbettung in den Situationskontext, bei Rechtshändern in der rechten Hemisphäre statt. Obwohl sich die einzelnen Sprachstörungen, die im Folgenden vorgestellt werden, erheblich voneinander unterscheiden, ist ihnen doch gemeinsam, dass praktisch alle PatientInnen phonematische Paraphrasien (phonematic paraphrasia) produzieren. Das bedeutet, dass ein anvisiertes Wort nicht korrekt ausgesprochen, sondern lautlich verändert wird: Einzelne Laute werden fälschlicherweise ausgelassen, ausgetauscht oder hinzugefügt. 4.1.1 Broca-Aphasie Der französische Neurologe Paul Broca (Broca (1861), Broca (1865)) war der Erste, der eine Sprachstörung in Zusammenhang mit einer bestimmten Hirnregion brachte - die nach ihm benannte Broca-Aphasie (Broca’s aphasia / agrammatic aphasia / expressive aphasia). Diese ist dadurch gekennzeichnet, dass die Sprachproduktion beeinträchtigt ist: Die PatientInnen können sich nur wenig und bruchstückhaft äußern, gesprochene und geschriebene Sprache jedoch relativ gut verstehen. Es tritt Agrammatismus (agrammatism) auf, ei- Paul Broca (1824-1880) ne deutliche Reduktion der verwendeten syntaktischen Strukturen. Die Flexionsmorphologie entfällt fast vollständig: Suffixe für Numerus oder Kasus werden nicht mehr verwendet, nur der Wortstamm allein tritt auf. Ebenso werden Funktionswörter wie Artikel und Präpositionen weggelassen. Dies bezeichnet man auch als Telegrammstil (telegraphic speech): Die Äußerungen beinhalten ähnlich wie in einem Telegramm nur die Inhaltswörter. Bei der Broca-Aphasie erfolgt das Sprechen langsam und mühselig. Das Bilden und Hervorbringen der Laute bereitet den PatientInnen Schwierigkeiten. Jedoch ist die Broca-Aphasie keine Störung der Motorik; die Muskeln des Sprechapparates können anders als bei einer Dysarthrie (Dysarthria) durch- 60 4. Sprache im Gehirn aus angesteuert werden. Es ist also nicht das Sprechen, sondern die Sprache an sich gestört. Das bei der Broca-Aphasie betroffene Hirnareal, das Broca-Areal (Broca’s area), befindet sich in der linken Hemisphäre in den Brodman-Arealen 44 und 45, also nahe der motorischen Seite des zentralen Gyrus. Abbildung 4.1: Broca-Areal Störung des Passivs bei der Broca-Aphasie Yosef Grodzinksy hat in mehreren Studien das Sprachverständnis von PatientInnen mit Broca-Aphasie untersucht (Grodzinsky et al. (1991), Grodzinsky (2000)). Obwohl die Broca-Aphasie im klassischen Sinn eine Störung der Produktion ist, ist das Phänomen des Agrammatismus für die Syntaxforschung von großem Interesse. Verstehen die PatientInnen mit Agrammatismus möglicherweise auch spezifische, rein grammatisch kodierte Informationen nicht? Grodzinsky konnte zeigen, dass Sätze im Passiv nicht korrekt interpretiert werden. Ein Satz wie in (1) wird nicht gemäß der grammatischen Information des Verbes interpretiert (der Satz steht im Vorgangspassiv, es ist also die Krähe und nicht die Katze, die die Handlung durchführt), sondern einfach gemäß der Reihenfolge, in der die Nomen auftreten. (1) The cat is caught by the crow. [Grodzinsky et al. (1991): 449] PatientInnen mit Agrammatismus verstehen daher, dass die Katze die Krähe gefangen hat, da im Satz zuerst die Katze und anschließend die Krähe vorkommt. Möglicherweise verstehen die AgrammatikerInnen nur Folgendes: • Katze ... fangen ... Krähe Da die grammatische Information, wer wem was getan hat, fehlt, wird der Satz defaultmäßig nach der Reihenfolge oder dem vorhandenen Weltwissen interpretiert. 4.1 Sprachstörungen 61 Um diese Tatsache zu erklären, stellt Grodzinsky die Hypothese der gelöschten Spuren (trace deletion hypothesis) (Grodzinsky (2000)) auf: „in agrammatism in Broca’s aphasia, all traces of movement are deleted from syntactic representations“ (Grodzinsky (2000): 6). Mit anderen Worten: AgrammatikerInnen verfügen über keine syntaktischen Repräsentationen, die Spuren (traces) enthalten. Dies ist insbesondere beim Passiv der Fall, von dem angenommen wird, dass es von der aktiven Verbform durch Verschieben des Patiens abgeleitet wird (Perlmutter (1978), Bresnan (1982), Baker et al. (1989)). Diese Verschiebung erzeugt eine Spur. So ist sichergestellt, dass auch in der abgeleiteten, passiven Form klar ist, welches Argument welche thematische Rolle trägt - also wer das Agens und wer das Patiens ist. Betrachten wir hierzu nun eine etwas detailliertere Erläuterung anhand eines Beispiels. Das Verb verteilt innerhalb der Verbphrase (VP) die thematischen Rollen ( ✓ -Rollen) wie Agens, Patiens, Experiencer etc. In unserem Beispiel erhält die Katze die Agens-Rolle und die Maus die Patiens-Rolle: • weil die Katze die Maus frisst. VP DP die Katze ✓ -Rolle Agens V’ DP die Maus ✓ -Rolle Patiens V 0 frisst Getrennt von der semantischen Information wird der Kasus vergeben, denn jede Determinatorenphrase (DP) muss einen abstrakten Kasus erhalten. Der Akksuativ wird direkt vom Verb an das Patiens zugewiesen, der Nominativ wird von dem finiten Haupt T 0 der Temporalphrase (TP) an das Agens zugewiesen. Damit das möglich ist, muss sich das Agens in die Spezifikatorposition von TP bewegen. 62 4. Sprache im Gehirn TP DP die Katze [+Nominativ] T’ VP t d ieK atz e V’ DP die Maus ✓ -Rolle Patiens [+Akkusativ] V 0 frisst T 0 [+finit] Die Verschiebung des Agens die Katze erzeugt eine Spur (genau das, was bei Agrammatikern verloren geht): Der Ursprungsort innerhalb der VP wird mit einem t gekennzeichnet (t für engl. trace). Damit man sich immer auskennt, auch wenn mehrere Konstituenten verschoben werden, kann man das t noch genauer beschreiben, im Beispiel wird es zu t d ieK atz e . Das Passiv wird durch folgende Regeln erzeugt: • Die Verbform wird geändert. • Das Verb weist keinen Akkusativ mehr zu. • Das Agens ist optional. Da jede DP einen Kasus bekommen muss, wird das Patiens nach SpecTP verschoben, um dort Nominativ zu erhalten. Das Agens ist ohnehin optional und kann mittles einer von-Phrase eingehängt werden. Wichtig ist jedoch, dass beim Passiv immer das Patiens verschoben wird, so dass in dessen Basisposition eine Spur zurückbleibt. TP DP die Maus [+Nominativ] T’ VP (Agens) V’ t d ieM aus ✓ -Patiens V 0 gefressen wird T 0 [+finit] 4.1 Sprachstörungen 63 Die Hypothese der gelöschten Spuren besagt nun, dass AphasikerInnen keine Spuren mehr in der syntaktischen Repräsentation haben. Dies führt dazu, dass etwa die Struktur keine Spuren mehr enthält: TP DP die Maus [+Nominativ] T’ VP (Agens) V’ V 0 gefressen wird T 0 [+finit] Damit ist nicht mehr klar, welche Thetarolle die Maus bekommt, so dass nicht mehr verstanden wird, ob die Maus etwas tut, oder ob ihr etwas zugefügt wird. Die AgrammatikerInnen versuchen dennoch, den Satz zu verstehen und tun dies mit anderen als den grammatischen Mitteln. Entweder, sie ziehen Weltwissen heran (wer frisst normalerweise wen? ) oder sie interpretieren einfach gemäß der Reihenfolge der Wörter (das erste Nomen ist immer das Agens) bzw. raten sie einfach. Neue Aufgaben des Broca-Areals In neueren Studien zur Verarbeitung von Musik hat sich herausgestellt, dass das Broca-Areal auch dafür von zentraler Bedeutung ist. Die Hypothese ist, dass im Broca-Areal die zeitliche Abfolge von Mustern verarbeitet wird. Dies können einerseits Rhythmusinformationen (im Falle von Musik), andererseits grammatische Informationen (im Falle von Sprache) sein. Diese Erkenntnis zeigt, dass das Bild von Sprache, insbesondere gemäß der klassischen Aphasielehre, viel zu einfach ist. Möglicherweise gibt es viel grundlegendere Funktionen, aus denen dann unterschiedliche höhere geistige Fähigkeiten zusammengesetzt werden. Siehe dazu auch Kapitel 9. 4.1.2 Wernicke-Aphasie Die zweite wichtige Aphasieform wurde von dem deutschen Neurologen Carl Wernicke beschrieben: die Wernicke-Aphasie (Wernicke’s aphasia / receptive aphasia / fluent aphasia / sensory aphasia) (Wernicke (1874)). Sie betrifft Störungen des Wernicke-Areals (Wernicke’s area) im Gehirn. Dieses befindet sich im sensorischen Kortex der linken Hemisphäre im Brodmann-Areal 22. 64 4. Sprache im Gehirn Abbildung 4.2: Wernicke-Areal Bei der Wernicke-Aphasie ist in erster Linie das Sprachverständnis beeinträchtigt, es handelt sich also um eine Störung der Sprachperzeption. Die PatientInnen verstehen nicht, was man ihnen sagt. Die Sprachproduktion ist flüssig, das Sprechen fällt den PatientInnen leicht, sie produzieren auch komplexe Sätze und Satzgefüge. Allerdings kann auch hier einiges von der syntaktischen Struktur durcheinandergeraten. Es kommt zu einer falschen Verwendung der Flexionsmorphologie und der Flexionswörter. Man spricht hier auch von Pa- Carl Wernicke (1848-1905) ragrammatismus (paragrammatism). Inhaltswörter werden nicht so häufig produziert, die Äußerungen werden von inhaltslosen Wörtern und Flexionswörtern dominiert. Oft treten auch semantische Paraphrasien (semantic paraphrases) auf, das heißt, es wird nicht das Wort mit der beabsichtigten Bedeutung verwendet, sondern ein semantisch verwandtes. Die PatientInnen haben zumeist das Gefühl, flüssig und richtig sprechen zu können; die Beeinträchtigung ist ihnen oft nicht bewusst. 4.1.3 Leitungsaphasie Die Leitungsaphasie (conduction aphasia) ist eine Störung, die das Nachsprechen betrifft. Sowohl das Sprachverständnis als auch die Sprachproduktion sind erhalten: Die betroffenen PatientInnen können sowohl Sprache verstehen als auch selbst äußern. Allerdings ist es ihnen unmöglich, einen Satz nachzusprechen. Der Leitungsaphasie liegt eine Schädigung des Fasciculus arcuatus zu Grunde. Dies ist das Nervenbündel, das das Brocamit dem Wernicke-Areal verbindet. Es ist sozusagen die „Leitung“ unterbrochen (Goldenberg (1997): 67, Mayer & Dogil (2014), Schneider et al. (2012): 33). 4.1 Sprachstörungen 65 4.1.4 Transkortikale Aphasie Die transkortikale Aphasie (transcortical aphasia) ist das Gegenteil der Leitungsaphasie. Das Nachsprechen von Sprachmaterial ist intakt, aber die selbständige Sprachproduktion sowie das Sprachverständnis sind schwer beeinträchtigt. Die transkortikale Aphasie tritt in zwei Ausprägungen auf. Bei der transkortikal-motorischen Aphasie (transcortical motor aphasia) ist besonders die Sprachproduktion gestört, das Verständnis jedoch eher erhalten. Auch das Vorlesen eines geschriebenen Textes ist möglich. Bei der transkortikalsensorischen Aphasie (transcortical sensory aphasia) ist das Sprachverständnis mehr als die Produktion gestört (Goldenberg (1997): 67 f., Mayer & Dogil (2014), Schneider et al. (2012): 33). 4.1.5 Globalaphasie Unter der Globalaphasie (global aphasia) versteht man einen Zustand von völlig reduzierter Sprachfähigkeit, in dem sowohl die Produktion als auch die Perzeption nahezu unmöglich sind. Die betroffenen Personen können sprachlich praktisch nicht mehr kommunizieren. Dennoch sind wiederholte Äußerungen eines einzelnen Wortes möglich. Mitunter können auch sprachliche Automatismen wie die Nennung der Wochentage oder eines Gebetes erhalten sein. Interessant ist auch, dass manchmal Liedtexte beim Singen gesungen werden können, obwohl ein Wiederholen desselben Textes ohne Gesang unmöglich ist (Goldenberg (1997): 66, Mayer & Dogil (2014), Schneider et al. (2012): 32). 4.1.6 Amnestische Aphasie Die amnestische Aphasie (amnesic aphasia) betrifft das Finden der richtigen Wörter. Jeder kennt das Gefühl, wenn einem ein Name oder ein bestimmtes Wort auf der Zunge liegt, man aber beim besten Willen das gesuchte Wort nicht findet. Im Falle der amnestischen Aphasie tritt genau dieser Zustand in gravierendem Ausmaß auf: Es handelt sich um eine pathologische Wortfindungsstörung. Es ist unklar, ob bei der amnestischen Aphasie nur die phonologische Wortform nicht abgerufen werden kann oder ob das gesamte mit dem gesuchten Ausdruck verknüpfte Konzept verloren gegangen ist. Im ersten Fall wissen die PatientInnen über das gesuchte Konzept bescheid. Fällt einer Patientin beispielsweise das Wort „Tasse“ nicht ein, so weiß sie, falls das Konzept erhalten geblieben ist, dass es sich um ein Gefäß mit einem kleinen Henkel handelt, dass dies zum Trinken von Flüssigkeiten verwendet wird, dass diese zumeist Tee oder Kaffee und ziemlich heiß sind etc. Falls jedoch das gesamte Konzept verlorengegangen ist, so weiß die Patientin alle diese Dinge nicht mehr. In der Regel ist das Sprachverständnis intakt, bis auf schwere Fälle erfolgt die Sprachproduktion flüssig. Oft werden die gesuchten Wörter durch semanti- 66 4. Sprache im Gehirn sche Paraphrasien oder ausweichende Floskeln ersetzt. Die syntaktische Struktur der Sätze ist intakt, es können komplexe, grammatisch korrekte Sätze gebildet werden. Auch die Flexionsmorphologie und die Funktionswörter sind nicht betroffen. Die amnestischen Aphasie ist Folge einer Schädigung der temporoparietalen Region (Goldenberg (1997): 67, Mayer & Dogil (2014), Schneider et al. (2012): 33). 4.1.7 Wernicke-Lichtheim-Schema Das Wernicke-Lichtheim-Schema in Abbildung 4.3 ist ein historisches Modell zur Klassifikation der einzelnen Aphasietypen (Lichtheim (1885)). Zur Übersicht und Zusammenfassung ist es auch heute noch nützlich und weit verbreitet, obwohl die Aufgaben der einzelnen Komponenten vermutlich nicht so klar abgegrenzt sind. Abbildung 4.3: Wernicke-Lichtheim-Schema Language disorders • Broca’s aphasia is due to lesions in BA 44 and 45. Patients have di culties producing language but are able to comprehend language. Their grammar shows a loss of in ectional morphology (agrammatism), which makes their utterances look like a telegraph (telegraphic speech). Recent studies show that Broca’s aphasia affects the ability to form the passive (trace deletion hypothesis). Other results indicate that Broca’s area is responsible for processing temporal patterns in general (e.g. rhythms). • Wernicke’s aphasia is due to lesions in BA 22. Patients have dif- culties comprehending language but speak uently. They misuse in ectional morphology (paragrammatism). • Conduction aphasia affects the repetition of utterances. Language production and perception are almost unaffected. 4.2 Bildgebende Verfahren und Experimente 67 • Patients who suffer from transcortical aphasia are able to repeat utterances but cannot speak or comprehend language. • Global aphasia affects language production and perception. Patients are unable to speak and comprehend language. • Those who suffer from amnestic aphasia cannot nd the words they want to say. It remains unclear whether the whole concept is lost or whether the phonological form is affected. 4.2 Bildgebende Verfahren und Experimente Die Neurolinguistik bedient sich seit etwa zwanzig Jahren zahlreicher bildgebender Verfahren (brain imaging, medical imaging), die ursprünglich in der Neurologie entwickelt wurden. Ziel ist es, die Gehirnaktivität während der Bearbeitung unterschiedlichster Aufgaben zu beobachten, um Rückschlüsse auf die involvierten Bereiche des Gehirns ziehen zu können. Neben den bereits erwähnten Läsionsstudien (lesion studies) an Patient- Innen mit einer Hirnschädigung erlauben die neuen Verfahren, die Hirnaktivität von gesunden Personen zu beobachten. Das erste solche Verfahren ist die Elektroenzephalographie (EEG), die in den 1920er Jahren von Hans Berger entwickelt wurde (Berger (1929)). Mit diesem Verfahren ist es möglich, die elektrischen Ladungen, die bei der Aktivität von Neuronen entstehen, an der Oberfläche des Schädels zu messen. Mehrere Elektroden, die außen am Kopf angebracht werden, messen die elektrische Ladung im zeitlichen Verlauf. Diese Messungen sind zeitlich relativ exakt, die räumliche Auflösung ist jedoch ungenau. Ähnlich wie das EEG funktioniert auch die Magnetenzephalographie (MEG), allerdings misst diese magnetische Ströme, die sich durch die elektrische Aktivität ergeben, und nicht die elektrische Aktivität selbst (Schneider et al. (2012): 79). Das zweite wichtige Verfahren ist die funktionelle Magnetresonanztomographie (fMRI, functional magnetic resonance imaging), die die Resonanz von Atomkernen in einem sehr starken magnetischen Feld misst (Dogil et al. (2002)). Diese Methode beruht darauf, dass sauerstoffreiches und sauerstoffarmes Blut verschieden starke magnetische Eigenschaften haben. Somit kann festgestellt werden, in welchem Bereich des Gehirns viel Sauerstoff verbraucht wurde. Hoher Sauerstoffverbrauch deutet immer auf einen aktiven Stoffwechsel und einen hohen Energieverbrauch hin. Damit kann der Ort einer starken Aktivität bestimmt werden. Die funktionelle Magnetresonanztomographie erlaubt eine besonders feine räumliche Auflösung, allerdings ist die zeitliche Auflösung gröber als beim EEG. Die Position von Aktivitäten kann genau bestimmt werden, im Unterschied zum EEG jedoch nicht der exakte Zeitpunkt. Funktio- 68 4. Sprache im Gehirn nell bedeutet in diesem Zusammenhang, dass man die Funktion des Gehirns beobachtet, also die Reaktion auf bestimmte Reize und das Verhalten beim Lösen von Aufgaben. Studien, die mit Hilfe von ereigniskorrelierten Potenzialen (event-related potentials, ERP) durchgeführt wurden, erweisen sich ebenfalls als aufschlussreich (Luck (2014)). ERP bedeutet, dass man die Aktivität des Gehirns nach einem bestimmten Ereignis beobachtet. Das Ereignis kann beispielsweise ein visuell dargebrachter Stimulus wie ein Wort oder ein Satz sein, die Testdaten können aber auch akustisch präsentiert werden. Zu unterschiedlichen Zeitpunkten nach dem Onset, d.h. nach dem Beginn der Lautfolge des Wortes, weist das EEG einen Ausschlag auf, also eine besonders starke Aktivität im Neokortex. Das EEG misst die elektrischen Ströme an verschiedenen Punkten der Schädeldecke, dadurch kann man auf die Aktivität der Neuronen in verschiedenen Hirnregionen Rückschlüsse ziehen. Die elektrischen Ladungen entstehen durch die Aktivität der Neuronen, also durch das „Feuern“. Die Ausschläge treten in Form einer besonders starken positiven oder einer besonders starken negativen Ladung auf. • Brain imaging uses various techniques including lesion studies, EEG, MEG, and fMRI. All these methods create a picture of the brain and mark where and when it is active. Event-related potentials are used to trace the brain’s activity after providing it with some sort of stimulus. Das Ziel der bildgebenden Verfahren ist es, für die einzelnen linguistischen Subsysteme (Syntax, Morphologie, Lexikon etc.) eine Hirnlandkarte zu entwickeln. Im Idealfall sollte eine solche Landkarte Erkenntnisse aus der theoretischen Linguistik miteinbeziehen. Damit sollen die grundlegenden Mechanismen der neuronalen Verarbeitung und ihre Beteiligung an der Sprachfähigkeit verdeutlicht werden. Eine derartige Komponente ist möglicherweise die Verarbeitung von zeitlichen Mustern zu höheren Kategorien. Yosef Grodzinsky und Angela Friederici (Grodzinsky & Friederici (2006)) stellen zwei Herangehensweisen vor, wie ein solches Ziel erreicht werden kann: die Karte der formalen Syntax (formal syntax map) und die Karte der Sprachverarbeitung (language processing map). Die Karte der formalen Syntax geht der Hypothese nach, dass Subkomponenten der generativen Grammatiktheorie direkte Entsprechungen im Gehirn besitzen. Ziel dieses Unterfangens ist es, grammatisches Wissen eindeutig mit bestimmten Hirnarealen zu identifizieren, sozusagen die „fleischgewordene Grammatiktheorie“ zu finden. So wird erwartet, dass es ein Hirnareal für die Bindungstheorie (binding theory) gibt, d.h. ein eigenes Areal für dieje- 4.3 Syntaktische Verarbeitung 69 nigen Regeln, die die Verteilung von Pronomen (Personal- und Reflexivpronomen) steuern. Ein weiteres mögliches Areal wäre für die Kasustheorie (case theory) zuständig, also für die Regeln, die die Positionen der Nomen bestimmen und die sicherstellen, dass jedes Nomen auch durch Kasuszuweisung lizensiert wird. Des Weiteren wird vermutet, dass auch die unterschiedlichen Typen von Bewegungen (Phrasenbewegung (phrasal movement, move-XP)) und (Hauptbewegung (head movement, move-X)) derart verankert sind sowie natürlich auch die Zusammensetzung mittels Merge und die Verarbeitung lexikalischer Kategorien in spezialisierten Regionen erfolgen. Grodzinsky & Friederici (2006) geben an, dass die Phrasenbewegung eine Aktivität im linken inferioren Frontalgyrus sowie im linken und rechten superioren Temporalgyrus auslöst. Es ist also das Broca-Areal betroffen. Die Hauptbewegung verursacht keine Aktivität im linken inferioren Frontalgyrus, sondern betrifft den linken superioren und den mittleren Frontalgyrus. Die Unterscheidung von Haupt- und Phrasenbewegung findet sich auch in den Daten von PatientInnen mit Broca-Aphasie, die Move-XP nicht mehr durchführen können. Allerdings wurde nur die Verbbewegung untersucht, andere Fälle der X 0 -Bewegung wurden nicht berücksichtigt. Die Karte der Sprachverarbeitung verfolgt eine andere Hypothese: Die einzelnen Stadien bei der Echtzeitverarbeitung von Sprache entsprechen eigenen neuronalen Einheiten. Der Aufbau der lokalen Phrasenstruktur geht mit einer Aktivität im frontalen Operculum einher, das sich hinter dem Broca-Areal befindet. Die Bestimmung von Abhängigkeitsrelationen wie etwa Bewegungen wie beim Passiv erfolgt direkt im Broca-Areal. Die syntaktische Integration schließlich geht im linken und rechten Temporalgyrus vonstatten. • The formal syntax map project seeks to provide a map of brain areas that correspond to different modules of syntactic theory, such as Case theory, head movement, and phrasal movement. • The language processing map project attempts to create a map of the brain areas that are active during language processing in the temporal sequence. 4.3 Syntaktische Verarbeitung Verschiedene psycho- und neurolinguistische Studien haben gezeigt, wie die syntaktische und semantische Verarbeitung von Sprache im Gehirn abläuft. Die syntaktische Verarbeitung von sprachlichem Input läuft in den drei folgenden Phasen ab (Friederici (2002)): Zunächst erfolgt in der ersten Phase nach ca. 150-200 ms ein erster negativer Ausschlag, auch als ELAN (very early 70 4. Sprache im Gehirn left-anterior negativity) bezeichnet. Dieser steht in Zusammenhang mit der Erzeugung der syntaktischen Struktur und der Erkennung der Wortarten. Wird ein dementsprechend falscher Stimulus präsentiert (z.B. an einer Stelle in einem Satz ein Wort der falschen Wortart), so tritt hier ein besonders starker Ausschlag auf. Auch die Unterscheidung von Wörtern und Pseudowörtern erfolgt zu diesem Zeitpunkt. Die zweite Phase tritt nach ca. 300-500 ms auf und wird als N400 bzw. LAN (left-anterior negativity) bezeichnet. Das N bedeutet, dass es sich um einen negativen Ausschlag handelt, es wird also besonders viel negative elektrische Energie freigesetzt. Zu diesem Zeitpunkt erfolgt die morphosyntaktische und semantische Integration des vorhandenen Materials. Insbesondere erfolgt die Verarbeitung von semantischen Relationen wie die Zuweisung der thematischen Rollen zu den Argumenten. Einen besonders starken Ausschlag gibt es, wenn der Stimulus Wörter enthält, die nicht integriert werden können, z.B. wenn sie gar keine Thetarolle (sozusagen ein Argument zu viel) oder wenn sie eine falsche Thetarolle zugewiesen bekommen haben. Die dritte Phase tritt nach ca. 600 ms auf. Sie wird auch als P600 bezeichnet, da es sich um einen positiven Ausschlag der Aktivität handelt, sie ist auch als SPS (syntactic positive shift) bekannt. Zu diesem Zeitpunkt findet die syntaktische Integration statt: vor allem Reanalyse und Reparaturstrategien wie etwa das „Zurückspulen“ bei der Verarbeitung von Garden-Path-Sätzen. Einen besonders starken Ausschlag gibt es wiederum bei fehlerhaften Stimuli wie etwa bei Fehlern in der Phrasenstruktur oder der Kongruenz. 150-200 ms ELAN Erzeugung der (very early syntaktischen Struktur und left-anterior negativity) Erkennung der Wortarten 300-500 ms N400 / LAN morphosyntaktische (left-anterior negativity) und semantische Integration, thematische Rollen 600 ms P600 / SPS syntaktische Integration, (syntactic positive shift) Reanalyse Tabelle 4.1: Ablauf der syntaktischen Verarbeitung nach Friederici (2002) 4.3 Syntaktische Verarbeitung 71 Stages of syntactic processing • At 150-200 ms, (ELAN) lexical categories are detected and syntactic structure is built. • At 300-500 ms, (LAN) morphosyntactic integration occurs. • At 600 ms, (SPS) syntactic integration and optional reanalysis take place. 4.3.1 Syntaktische Verarbeitung der Argumentstruktur Ein Spezialfall der syntaktischen Verarbeitung ist die Verarbeitung der Argumentstruktur. Erst 2008 wurde die bekannte Unterscheidung von unakkusativen (fallen, sterben) und unergativen Verben (schlagen, fressen) empirisch untersucht. Friedman et al. (2008) konnten zeigen, dass während der Verarbeitung von unakkusativen Verben das Subjekt direkt nach dem Verb nochmals aktiviert wird. Dies verifiziert die Hypothese, dass dieses Subjekt eigentlich an der Objektposition steht. Im Gegensatz dazu können unergative Verben direkt mit ihrem Subjekt verknüpft und interpretiert werden, es erfolgt keine erneute Aktivierung. Eine Untersuchung von „gemischten“ Verben wie etwa Emissionsverben (verbs of emission) zeigt, dass diese gleich wie unergative Verben verarbeitet werden (Koring et al. (2012)). Außerdem wurde in dieser Studie das Ergebnis von Friedman et al. repliziert: Das Subjekt von unakkusativen Verben wird 950 ms nach dem Verbende reaktiviert. Dieses Ergebnis weist darauf hin, dass für die syntaktische Verarbeitung von Verben deren syntaktische Struktur relevant ist, nicht aber die vergebenen thematischen Rollen. Denn unergative Verben und gemischte Verben haben beide ein externes Argument, dieses trägt jedoch bei gemischten Verben und unakkusativen Verben die Thetarolle Patiens. In einer MRI-Studie (Shetreet et al. (2009)) konnte gezeigt werden, dass bei der Verarbeitung von unakkusativen Verben der linke inferiore Frontalgyrus (BA 45/ 46/ 47) und der linke posteriore mittlere Temporalgyrus (BA 21) aktiviert werden. Dies entspricht jedoch nicht exakt dem Broca-Areal, sondern einer dem Broca-Areal benachbarten Region (Shetreet et al. (2009): 2311). Dieser Teil der Hirnrinde wurde bereits von zahlreichen anderen Studien mit der lexikalisch-semantischen Verarbeitung in Verbindung gebracht. 72 4. Sprache im Gehirn Processing of argument structure • Psycholinguistic studies show that the theoretical distinction between unaccusatives and unergatives matters for processing. • The subject of unaccusatives is reactivated after the verb has occurred. • Unaccusatives elicit activity close to Broca’s area (BA 45/ 46/ 47) and BA 21. 4.4 Semantische Verarbeitung Die semantische Verarbeitung verläuft gemäß Binder & Desai (2011) in den folgenden Etappen: Zunächst erfolgt die Verarbeitung von Reizen (z.B. externe, auditive, visuelle oder somatosensorische Reize) durch den entsprechenden Abschnitt des sensorischen Primärkortex (z.B. primärer visueller oder auditiver sensorischer Abschnitt). Anschließend werden die semantischen Informationen in den lokalen Konvergenzzonen (local convergence zones) gebildet, ein Vorschlag, der auf Antonio Damasio (Damasio (1989)) zurückgeht. Dieser entspricht auch den perzeptuellen Symbolsystemen von Lawrence Barsalou (siehe dazu § 10.2). Nahe den primären sensorischen Feldern erfolgt eine erste höhere semantische Verarbeitung. Es werden modalitätsspezifische Informationen zu immer höheren, modularen Einheiten zusammengesetzt. Die Repräsentation bleibt jedoch immer in der Modalität des Inputs (d.h. entweder visuell oder auditiv etc.). Neben diesen Bottom-up-Informationen werden zusätzlich Top-down-Informationen miteingebunden, die etwa von anderen modalitätsspezifischen Repräsentationen stammen oder die die Aufmerksamkeit als relevant markiert. Im nächsten Schritt erfolgt die Verarbeitung in supramodalen Konvergenzzonen (supra-modal convergence zones). Hier entsteht die Repräsentation des abstrakten, schematischen, konzeptuellen Wissens. Diese Konvergenzzonen sind im inferioren Parietallappen (vgl. Abbildung 4.4) und im lateralen Temoprallappen lokalisiert. Gemäß verschiedenen Studien (siehe dazu die Angaben in Binder & Desai (2011)) ist der inferiore Parietalkortex für die Repräsentationen des semantischen Gedächtnisses zuständig. Auch anatomisch ist er so lokalisiert, dass die verschienenen Verarbeitungsströme hier zusammenfließen. Daher kann an dieser Stelle die Zusammenführung von auditiven, visuellen, somatosensorischen und räumlichen Informationen erfolgen. Im Gyrus Angularis (Abb. 4.5), wo Temporal-, Okzipital- und Parietallappen aufeinandertreffen, sind in erster Linie dorsale Aufmerksamkeitsnetzwerke beheimatet (siehe dazu § 4.9). Hier erfolgt die räumliche Kognition sowie die Handlungs- und Bewegungswahrnehmung. Binder & Desai (2011) gehen da- 4.4 Semantische Verarbeitung 73 Abbildung 4.4: Inferiorer Parietallappen von aus, dass der Gyrus Angularis für die Repräsentation von Ereigniskonzepten zuständig ist, beispielsweise wird hier der Unterschied zwischen Geburtstagsfest und Picknick gespeichert (Binder & Desai (2011): 533). Diese Art der semantischen Information ist besonders für die soziale Kognition (Theoryof-Mind-Verarbeitung), das episodische Gedächtnis sowie für die Verarbeitung zeitlicher und räumlicher Informationen in Texten und Geschichten relevant. Abbildung 4.5: Gyrus Angularis In den Konvergenzzonen des Temporallappens befindet sich das ventrale Netzwerk zur Objekterkennung bei der visuellen Information und der ventrale „was“- Strom der auditiven Information. Es erfolgt hier die Repräsentation von Konzepten für konkrete Objekte (Binder & Desai (2011)). Im präfrontalen Kortex schließlich gibt es laut Binder & Desai (2011) zwei Bereiche, die für die semantische Verarbeitung wichtig sind: den linken präfron- 74 4. Sprache im Gehirn Abbildung 4.6: Präfrontaler inferiorer Gyrus und superiorer Frontalgyrus talen inferioren Gyrus und den superioren Frontalgyrus (Abb. 4.6). In Ersterem erfolgt die Auswahl der semantischen Information, beispielsweise, wenn Benennungsaufgaben gelöst werden. Außerdem ist dieses Hirnareal aktiv, wenn lexikalische Ambiguitäten auseinandergedröselt werden müssen. Der zweite Bereich ist dafür zuständig, aus einem emotionalen Bedürfnis heraus einen strukturierten Plan für die Auffindung von semantischem Wissen zu erzeugen. Es entsteht durch eine Top-down-Aktivierung ein Plan dafür, welche semantischen Kategorien aktiviert werden müssen, damit die vorliegende Aufgabe gelöst werden kann. sensorischer Primärkortex Verarbeitung der Inputreize lokale Konvergenzzonen Zusammenfassung von modularitätsspezifischen Informationen zu höheren Einheiten supramodale Konvergenzzonen Repräsentation des abstrakten, konzeptuellen Wissens präfrontaler Kortex Auswahl der semantischen Infor mation für das Lösen von Aufgaben Plan zum Finden von semantischem Wissen Tabelle 4.2: Ablauf der semantischen Verarbeitung nach Binder & Desai (2011) Entgegen zahlreicher Studien in der Literatur gehen Binder & Desai (2011) nicht davon aus, dass die Schläfenlappenpole (temporal poles) eine besondere Rolle in der semantischen Verarbeitung spielen. Bisher wurde von zahlreichen AutorInnen angenommen, dass dort die amodale semantische Representation beheimatet ist. 4.5 Prosodie 75 Abbildung 4.7: Schläfenlappenpol Neben den neuropsychologischen Modellen exisiteren auch verschiedene rein psychologische Vorstellungen darüber, wie das semantische Wissen im Gehirn verarbeitet wird (z.B. das Modell der Fein-/ Grobkodierung von Mark Beeman oder die Latente Semantische Analyse von Thomas Landauer und anderen). Siehe dazu § 7.4. Steps of semantic processing • First, the sensory cortex processes the input. • Second, local convergence zones create modality-speci c higher units of representation. This takes place close to the primary sensory cortex. • Third, supramodal convergence zones represent abstract knowledge. They are located within the inferior parietal lobe and the lateral temporal lobe. • Finally, the prefrontal cortex governs what kind of semantic knowledge is relevant for the current task. 4.5 Prosodie Die Prosodie (prosody) ist derjenige Teil der Grammatik, der sich mit Betonung, Rhythmus und Intonation beschäftigt, also den Tonfolgen und Betonungsmustern, die in der natürlichen Sprache auftreten. Der Frage, an welchen Stellen in einem Wort oder in einem Satz überhaupt Betonungen auftreten können, wird in der metrischen Phonologie (metrical phonology) nachgegangen. Welche prosodischen Einheiten (prosodic consti- 76 4. Sprache im Gehirn tuents) es gibt, wird von der prosodischen Phonologie (prosodic phonology) beantwortet. Solche Einheiten sind etwa die Silbe (syllable), das phonologische Wort (phonological word) oder die phonologische Phrase (phonological phrase) (Selkirk (1984), Nespor & Vogel (1986)). Da die Position der Betonungen immer von der jeweiligen prosodischen Einheit abhängt, sind die metrische und die prosodische Phonologie eng miteinander verbunden. Beispielsweise wird in Wörtern des Deutschen die morphologische Wurzel betont, jedoch nicht die Flexionsendung. So wird in dem Wort schaffte des Satzes sie schaffte es niemals das Flexionssuffix -te betont: (2) SCHAFFte (3) *schaffTE Interessant sind auch deutsche Komposita. Ihre Betonung liegt am linken Teil des Wortes. Allerdings steht das Haupt des Kompositums in den allermeisten Fällen rechts: Der Apfelkuchen ist, genauso wie der Zwetschenkuchen und der Marillenkuchen, ein Kuchen. (4) APFELkuchen (5) *apfelKUCHEN Für die die Prosodie betreffenden Forschungen ist es auch von Bedeutung, wie sich Fokuskonstruktionen verhalten. Unter Fokuskonstruktionen versteht man Sätze, in denen ein Wort oder eine Phrase betont wird, so dass plötzlich verschiedene Alternativen in Betracht gezogen werden. Das Element, zu dem es Alternativen gibt, trägt die besondere Betonung: (6) Alexander wollte EINE SCHNULZE hören. In (6) ist eine Schnulze betont, die Alternativen dazu wären etwa ein Lied, eine Arie oder auch ein Schlager. Alle diese Typen von Musikstücken wollte Alexander eben nicht hören, sondern nur die Schnulze. Liegen die Ergebnisse der metrischen Phonologie vor und sind die möglichen Orte der Betonung bekannt, dann kann weiter gefragt werden, wie denn die Betonung hinsichtlich der Tonhöhe aussieht. Dies geschieht in der Forschung zur Intonationsphonologie (intonational phonology) (Ladd (2008)). Hierbei wird pro Sprache das Inventar der verschieden hohen und tiefen Töne aufgestellt. Dabei geht es weniger um die Bestimmung der absoluten Tonhöhe (dies unterscheidet sich ohnehin je nach SprecherIn), sondern vielmehr um die Feststellung der Tonhöhenverläufe bezogen auf die Grundfrequenz. Im Allgemeinen werden hohe Töne durch H, tiefe Töne durch L gekennzeichnet. Mit diesen beiden Tönen können nun Abfolgen definiert werden wie z.B. L-L, H-H, LH-L usw. Eine derartige Abfolge kennzeichnet im Deutschen den Satzmodus (Aussagevs. Fragesätze). Fragesätze werden gegen Ende immer höher, Aussagesätze hingegen immer tiefer. Folgendes Beispiel illustriert die Melodie des Aussagesatzes: • Sie L ! ist zu Hause H*LL [aus: Dudenredaktion (2006): § 153, vereinfachte Darstellung] 4.6 Prosodische Verarbeitung 77 Am Ende des Satzes wird ein hoher Ton gesetzt, auf den ein tiefer Ton und ein tiefer Phrasenabschluss folgen. Dies ist das typische Muster von Aussagesätzen. Der Stern nach dem H bedeutet hier, dass der Ton von einer nuklearen Silbe getragen wird, also einer Silbe mit Hauptbetonung. • Prosodic phonology investigates the grouping of phonological entities (e.g. syllables, feet, phonological phrases). • Metrical phonology asks what kind of rhythmical patterns exist (e.g. weak and strong syllables, heads of phonological phrases, etc.). • Intonation describes the tones and tone patterns of a language. Tones always occur at positions marked by metrical phonology; tone patterns differ among languages. 4.6 Prosodische Verarbeitung Im Folgenden wollen wir uns ansehen, wie die prosodische Verarbeitung im Gehirn abläuft. Bevor wir die diesbezüglichen Forschungsergebnisse betrachten können, muss die Unterscheidung zwischen linguistischer (linguistic) und affektiver Prosodie (affective prosody) getroffen werden. Die linguistische Prosodie bezieht sich auf die grammatische Kodierung von Information (z.B. Fokus). Sie ist Teil des grammatischen Systems und funktioniert wie im vorigen Abschnitt beschrieben. Die affektive Prosodie hingegen betrifft die Gefühls- und Stimmungskomponente des verbalen sowie des nonverbalen Ausdrucks. Je nach Stimmung, in der sich die SprecherIn gerade befindet, klingt eine Äußerung unterschiedlich. Dies kann wütendes Brüllen, hysterisches Kreischen, verzweifeltes Fragen, nagende Unsicherheit, überschwängliche Freude und vieles mehr sein. Jede dieser Emotionen bewirkt eine spezifische klangliche Färbung der Äußerung: die affektiven Prosodie. Die linguistische Prosodie und die affektive Prosodie sind zwei getrennte Systeme, für die auch unterschiedliche Teile des Gehirns zuständig sind (Baum & Pell (1999)). Allerdings kann einer dieser Aspekte in den Vordergrund treten. Baum & Pell (1999) nennen in diesem Zusammenhang die funktionale Auslastungshypothese der prosodischen Verarbeitung (functional load hypothesis of prosodic processing). Diese besagt, dass der affektive bzw. der linguistische Gehalt einer Äußerung bestimmt, in welcher Hemisphäre vorwiegend die Prosodie verarbeitet wird. 78 4. Sprache im Gehirn • Linguistic prosody refers to the grammatical encoding of several features with the help of stress and tones. • Affective prosody deals with the expression of emotions, both verbally and non-verbally. 4.6.1 Das aprosodische Syndrom Evidenz dafür, dass die Prosodie in spezifischen Hirnarealen verankert ist, kommt von Läsionsstudien mit PatientInnen, die am aprosodischen Syndrom (aprosodic syndrome) leiden. Diese PatientInnen haben eine relativ gut erhaltene Sprachfähigkeit, sie können jedoch keinerlei emotionalen Gehalt in ihre Äußerungen integrieren. Ihre Äußerungen klingen monoton. Beim aprosodischen Syndrom sind die gleichen Areale wie bei der Aphasie betroffen, allerdings nicht in der linken, sondern in der rechten Hemisphäre (Ross & Monnot (2008)): Die Produktion von affektiver Prosodie ist dann gestört, wenn die rechte posterior-inferiore Frontalregion verletzt ist (ibid.: 66). In diesem Fall können die PatientInnen keine Tonfolgen produzieren, die dem auszudrückenden emotionalen Gehalt entsprechen. Andererseits kann auch das Verständnis der affektiven Prosodie gestört sein. In diesem Fall ist es den PatientInnen nicht möglich, eine Aufforderung, eine Bitte oder einen Entsetzensausruf anhand des verwendeten Tonmaterials zu unterscheiden. Dabei ist das Verständnis der einzelnen Worte und des Satztyps an sich nicht gestört. Für diese Störung zeigt sich ein Ausfall in der rechten posterior-superioren Temporalregion verantwortlich. Alles in allem scheint es sich beim aprosodischen Syndrom um einen Verlust des nonverbalen Lexikons zu handeln. Die Repräsentationen für die Kommunikation von Gefühlszuständen sind nicht mehr vorhanden. Interessant ist, dass bei klassischen AphasikerInnen, also bei Personen, die eine Schädigung in den Sprachzentren der linken Hemisphäre aufweisen, die affektive Prosodie erhalten geblieben ist. Sehr oft ist es den PatientInnen auch noch möglich zu singen. Ebenso kann unverständliches Sprachmaterial, das produziert wird, ohne Weiteres mit der korrekten emotionalen Intonation versehen werden (Ross & Monnot (2008)). • Patients with aprosodic syndrome can neither produce nor grasp the emotional meaning of an utterance. They have lesions in areas of the right hemisphere corresponding to the language areas in the left one. Affective prosody is preserved in classical aphasia. 4.6 Prosodische Verarbeitung 79 4.6.2 Die unterschiedliche zeitliche Au ösung der Hemisphären Bevor überhaupt der prosodische Gehalt einer Äußerung verarbeitet werden kann, müssen zunächst die Frequenz und Intensität des akustischen Signals dekodiert werden. Schirmer & Kotz (2006) gehen davon aus, dass die Verarbeitung von komplexem Tonmaterial 100 ms nach dem Onset des Stimulus im sekundären auditiven Kortex in beiden Hälften des Gehirns erfolgt. Sehen wir uns jetzt die Aufgaben der rechten Hemisphäre hinsichtlich der prosodischen Verarbeitung etwas genauer an. Die rechte Hemisphäre ist allgemein für die Verarbeitung von emotionalen Informationen zuständig, so auch für den speziellen Fall, herauszufinden, welchen emotionalen Gehalt eine verbale Äußerung besitzt. Es wird angenommen (Schirmer & Kotz (2006)), dass die rechte Hemisphäre eine gröbere zeitliche Auflösung besitzt als die linke. Das bedeutet, dass längere Zeitintervalle verarbeitet werden können, so dass es möglich wird, Tonhöhenabfolgen zu analysieren. Das Zeitfenster für die Verarbeitung von zeitlicher Information in der rechten Hemisphäre befindet sich 200-300 ms nach dem Onset des Stimulus (Boemio et al. (2005)). Es können also 100 ms auf einmal betrachtet werden. Weiters konnte experimentell festgestellt werden, dass die Verarbeitung von verständlichen und unverständlichen Geräuschen, die von der Zusammensetzung her wie echte Sprachgeräusche aufgebaut sind, immer eine Aktivität im rechten superioren Sulcus temporalis erzeugen (siehe Abb. 4.8). Dies zeigt, dass die rechte Hemisphäre für Sprachlaute an sich sensitiv ist, egal ob diese aus echten Wörtern und Sätzen bestehen oder nicht. Schirmer & Kotz (2006) bezeichnen dies als paralinguistische Aspekte der Sprachverarbeitung. Ross & Monnot (2008) fügen hinzu, dass in der rechten Hemisphäre die Verarbeitung von Konnotationen erfolgt. Außerdem werden dort thematische Inferenzen gezogen. Die Verarbeitung von Metaphern und nicht-wörtlichem Sprachgebrauch erfolgt ebenfalls in der rechten Hemisphäre. Siehe dazu auch Kapitel 7. Die linke Hemisphäre unterscheidet sich von der rechten gemäß Schirmer & Kotz (2006) wie folgt: Zunächst besitzt sie eine feinere zeitliche Auflösung, es wird der Zeitraum 25-50 ms nach Onset des Stimulus verarbeitet (Boemio et al. (2005)). Dies sind nur 25 ms im Vergleich zu 100 ms der rechten Hemisphäre. Während sowohl verständliche als auch unverständliche Sprachlaute den linken superioren Sulcus temporalis (wie auch den rechten) aktivieren, so erzeugen nur verständliche, nicht aber unverständliche Sprachlaute eine Aktivität im anterioren Sulcus temporalis der linken Hemisphäre. Dies bedeutet, dass die linke Hemisphäre spezifisch auf sprachliche auditive Information reagiert, auditive Informationen, die einen akustischen Aufbau wie Sprachlaute haben, werden jedoch in beiden Hemisphären verarbeitet. Schirmer et. al. schließen daraus, dass auditive linguistische Objekte nur in der linken Hemisphäre identifiziert werden. 80 4. Sprache im Gehirn Abbildung 4.8: Sulcus temporalis Language processing within the hemispheres • The right hemisphere processes longer intervals of time (approx. 100 ms) compared to the left one (approx. 25 ms). • The right hemisphere processes longer phrases and more coarse-grained information. • Language-speci c sounds are processed in the left hemisphere only. 4.7 Wörter im Kopf Neuere Forschungsarbeiten fokussieren auf den Zusammenhang zwischen Körper, Repräsentationen und der menschlichen Sprachfähigkeit. Dabei steht die Frage im Mittelpunkt, ob und wie die Repräsentation des eigenen Körpers im Gehirn für die Repräsentation von abstraktem Wissen, insbesondere für die Repräsentation von sprachlichem Wissen wie Wörtern herangezogen werden kann. 4.7.1 Wortarten im Gehirn Pulvermüller (1999) stellt ein Modell vor, wie verschiedene Typen von Wörtern im Gehirn repräsentiert sein könnten. In seinen Untersuchungen wird nicht von syntaktischen oder morphologischen Kriterien ausgegangen, so dass nicht spezifische Wortarten wie Nomen, Verben, Präpositionen oder Adjektive systematisch untersucht werden. Vielmehr werden die Wörter nach semantischen Gesichtspunkten eingeteilt. Zum einen werden Funktionswörter (func- 4.7 Wörter im Kopf 81 tion words) und Inhaltswörter (content words) unterschieden. Funktionswörter haben grammatischen Inhalt, es sind zumeist Artikel, Konjunktionen, Auxiliare, Präpositionen und Ähnliches. Inhaltswörter hingegen haben einen reichen semantischen Inhalt. Pulvermüller teilt die Klasse der Inhaltswörter weiter auf in Handlungswörter (action words) einerseits und in Wörter mit visueller Bedeutung (visual words) andererseits. Ausgehend von einem Modell der Hebb’schen Neuronenkreise (cell assemblies) ergeben sich folgende Voraussagen über die Repräsentation von verschiedenen Worttypen (Pulvermüller (1999), § 4.1: 263 f.): Funktionswörter rufen starke Aktivierungsmuster im perisylvischen Kortex der linken Hemisphäre hervor, Inhaltswörter aktivieren nicht nur den perisylvischen Kortex, sondern verursachen Erregungsmuster in beiden Hemisphären und unterschiedlichen Regionen. Handlungswörter bewirken eine Aktivität in den motorischen Bereichen des Frontallappens, während Wörter mit einer visuellen Bedeutung Aktivitäten im visuellen Kortex hervorrufen. Die Neuronenkreise werden sehr schnell nach Eintreffen des Stimulus aktiviert, eine spätere, erneute Aktivierung erfolgt an derselben Stelle - das Echo (reverberation). Verschiedene empirische Studien bestätigen diese Vermutungen. Funktionswort linker perisylvischer Kortex, 280 ms Inhaltswort beidseitig, verschiedene Regionen, 350 ms Handlungswort motorischer Bereich des Frontallappens visuelles Wort visueller Kortex Tabelle 4.3: Aktive Regionen des Kortex bei der Verarbeitung verschiedener Worttypen nach Pulvermüller (1999) Funktionswörter werden schneller und genauer bei Aufgaben der lexikalischen Entscheidung (lexical decision tasks) verarbeitet, die Versuchspersonen machen weniger Fehler beim Beurteilen von Funktionswörtern. Inhaltswörter werden langsamer verarbeitet, Versuchspersonen machen mehr Fehler. Bei der Verarbeitung von Funktionswörtern erfolgt bereits nach 280 ms ein negativer Ausschlag in der linken Hemisphäre; bei der Verarbeitung von Inhaltswörtern erfolgt nach 350 ms ein negativer Ausschlag in beiden Hemisphären (Pulvermüller (1999): 267). Betrachtet man die beiden Subklassen der Inhaltswörter genauer, so ergibt sich folgendes Bild: Die Verarbeitung von Handlungswörtern aktiviert die Verbindung zum Motorkortex in den motorischen Arealen des Frontallappens. Es erfolgt eine genaue Unterscheidung je nach den involvierten Muskelgruppen, so aktiviert ein Wort wie schreiben andere motorische Repräsentationen als Wörter wie schlagen, hacken oder treten. Allerdings können nicht alle Handlungswörter über die Simulation im motorischen Kortex repräsentiert werden, da einige Handlungen nicht mit dem menschlichen Körper ausführbar sind wie etwa fliegen (Pulvermüller (1999): 262). Diese gehören daher weniger zu den 82 4. Sprache im Gehirn Handlungswörtern als viel mehr zu den Wörtern der visuell wahrgenommenen Bewegung. Pulvermüller betont, dass die visuelle Wahrnehmung auch für die Bewegungen des eigenen Körpers eine wichtige Rolle spielt. Zum einen werden immer Augenbewegungen bei Bewegungen ausgelöst, zum anderen werden Eigenbewegungen immer auch visuell koordiniert. Deshalb ist das Zusammenführen der beiden Zeigefinger mit geschlossenen Augen um einiges schwieriger als mit offenen. Die Wörter mit hauptsächlich visueller Bedeutung aktivieren den perzeptuellen Kortex im Okzipitallappen und im inferioren Temporallappen. Wiederum wird eine Unterscheidung je nach herausragender Eigenschaft des Stimulus getroffen: Farbe, Bewegung, Kante oder Konturen aktivieren die entsprechenden Teile des visuellen Kortex. Auf Grund der Aktivierungsmuster des Kortex im Hinblick auf verschiedene Worttypen lassen sich keine Voraussagen über die lexikalische Kategorie des Wortes machen. Es handelt sich hierbei also in erster Linie um eine semantische Repräsentation, nicht um eine grammatische. Es bleibt ungeklärt, ob Bewegungen, die als Verb oder als Nomen kodiert sind, unterschiedliche Aktivierungen hervorrufen oder nicht. Ebenso ist es derzeit ungeklärt, wie abstrakte Inhaltswörter wie zum Beispiel Gericht, Projekt oder Lohnsteuerausgleich repräsentiert werden. Diese haben keine visuellen Eigenschaften, daher ist eine Aktivierung des visuellen Kortex nicht zu erwarten. Pulvermüller vermutet, dass diese einen mittleren Grad an Lateralität aufweisen und durchaus deutliche Aktivierungsmuster des linken perisylvischen Kortex verursachen. Ein weiteres Problem sind Homonyme (homonymes), also Wörter mit gleicher Lautform, aber unterschiedlicher Bedeutung. Pulvermüller schlägt vor, dass diese jeweils ein gemeinsames Aktivierungsmuster im perisylvischen Kortex besitzen, sich dann allerdings über striatale Verbindungen (striatal connections) (das Striatum stellt den Eingang zu den Basalganglien dar, einem Regelkreis im Gehirn) gegenseitig hemmen, so dass nur eine Bedeutung aktiviert wird. • Function words show activity in the perisylvian cortex of the left hemisphere after 280 ms. • Content words show activity in both hemispheres after 350 ms. • Results of lexical decision tasks are better for function words than for content words. • Action words activate the relevant part of the motor cortex which would also be activated by the corresponding movement. • Visual words activate the perceptual areas of the cortex (occipital lobe and inferior temporal lobe). • The activation patterns are not related to the syntactic category of the word. • It is still unclear which parts of the brain process abstract words and homonyms. 4.7 Wörter im Kopf 83 4.7.2 Idiosynkratische Bedeutung und Schablonenbedeutung Aufbauend auf die Arbeiten um Friedemann Pulvermüller unterbreitet David Kemmerer einen Vorschlag, wie spezifisch grammatisches Wissen repräsentiert sein könnte. Im Mittelpunkt des Interesses steht die Frage, wie das grammatische Wissen der Argument- und Ereignisstruktur und wie das lexikalische, wortspezifische Wissen verarbeitet werden (Kemmerer & Gonzalez- Castillo (2010)). Wie in der linguistischen Literatur zu den Themen Argumentstruktur (argument structure) und Ereignisstruktur (event structure) üblich, wird zwischen der idiosynkratischen Bedeutung (idiosyncratic meaning) eines Wortes und der grammatischen Schablonenbedeutung (template meaning) unterschieden. Die idiosynkratische Bedeutung unterscheidet beispielsweise einzelne Verben voneinander, die die gleiche Schablonenbedeutung haben. Folgende Verben bezeichnen alle die menschliche Fortbewegung, es handelt sich also ausschließlich um Bewegungsverben. • gehen, hüpfen, laufen, schleichen, trippeln, latschen, rennen, joggen, sprinten, schlendern, spazieren Diese Verben unterscheiden sich jedoch hinsichtlich ihrer idiosynkratischen Bedeutung: Jedes dieser Verben bezeichnet eine andere, spezifische Art und Weise der Fortbewegung. Gemeinsam ist ihnen die Ereignisstruktur der Bewegungsverben. Solange kein weiterer Modifikator vorhanden ist, bezeichnen sie eine Aktivität ohne inhärenten Handlungsendpunkt. Alle Bewegungsverben sind offen für eine Modifikation mit einer Weg-PP und einer Orts-PP. Dies wird von der Schablonenbedeutung festgelegt. • Anton geht (den Weg entlang). • Berta hüpft (neben den Geleisen). • Cornel läuft (entlang des Baches). • Dorothea schleicht (vor dem Haus herum). idiosynkratische Bedeutung Schablonenbedeutung jeweils gemeinsame Ereignisstruktur, unterschiedliche Argumentstruktur Verben für verschiedene Verben lexikalische Bedeutung grammatische Bedeutung Kemmerer und Kollegen beschreiben nun, wie diese beiden Komponenten im Gehirn repräsentiert sein könnten, und formulieren zwei Hypothesen. Hypothese 1 Die idiosynkratische Bedeutung eines Wortes, insbesondere die eines Verbs, wird mit Hilfe einer somatotopischen Abbildung im motorischen und prämotorischen Kortex der linken Hemisphäre repräsentiert. Diese erfolgt durch Spiegelneuronen. [Kemmerer & Gonzalez-Castillo (2010): § 1, Übersetzung A.R.] 84 4. Sprache im Gehirn Das Konzept, das mit dem Wort verbunden ist, wird also durch die Aktivierung der Neuronen in denjenigen Teilen des Kortex repräsentiert, die bei der Wahrnehmung bzw. der Ausführung der entsprechenden Handlung beteiligt sind. Hinsichtlich der Verben der menschlichen Fortbewegung bedeutet das, dass die Unterscheidung der Art und Weise über den Motorkortex geschieht: Beim Hüpfen sind andere Körperteile, Muskeln und Bewegungsabläufe beteiligt als beim Schlendern oder Sprinten. Spiegelneuronen spielen hierbei eine spezielle Rolle, denn sie sind sowohl bei der Ausführung als auch bei der Beobachtung von Bewegungen und Handlungen aktiv. Die zweite Hypothese betrifft die Repräsentation der Ereignisstruktur: Hypothese 2 Die Schablonenbedeutung eines Verbs wird mit Hilfe von Spiegelneuronen des BA 44 des linken inferioren Frontalgyrus repräsentiert. [Kemmerer & Gonzalez-Castillo (2010): § 1, Übersetzung A.R.] Kemmerer argumentiert, dass die Ereignisstruktur mittels Spiegelneuronen verarbeitet wird, die für schematische Entitäten zuständig sind. Im Gegensatz zu der idiosynkratischen Bedeutung befinden sich die für die Schablonenbedeutung wichtigen Neuronen im linken, inferioren Frontalgyrus im Brodmann- Areal 44, dem Broca-Areal. Hier werden laut Kemmerer auch die Ziele und Intentionen des Agens repräsentiert. Zusammenfassend argumentiert Kemmerer dafür, dass die zwei unterschiedlichen Aspekte der Verbbedeutung von zwei unterschiedlichen Systemen von Spiegelneuronen repräsentiert werden - einerseits diejenigen der motorischen und sensorischen Areale (diese dienen zur Unterscheidung der idiosynkratischen Bedeutung), andererseits diejenigen im Broca-Areal, die die Ereignisstruktur und die schematischeren, weniger konkreten Aspekte der Bedeutung verarbeiten. • A somatotopic map within the motor cortex represents the idiosyncratic meaning of a verb. • The template meaning of a verb and its event structure is processed in Broca’s area. 4.8 Wortarten Die klassische Definition der Wortarten bezieht sich auf die morphologische Gestalt. In den griechischen und lateinischen Grammatiken wurden die Wörter nach Deklinations- und Konjugationsfamilien eingeteilt. Alle diejenigen, die Kasusendungen besitzen, wurden als Nomen, alle diejenigen, die Endungen für Person, Zahl und Zeit besitzen, als Verben kategorisiert. Natürlich gibt es ne- 4.8 Wortarten 85 ben den Substantiven weitere Wortarten, die je nach Kasus unterschiedliche Endungen haben, z.B. Adjektive, Pronomen oder Artikel. Da diese in sich aber morphologisch einheitlich sind, wurden sie wiederum als jeweils eigene Wortart zusammengefasst. Man sieht schon, dass dieses Wortartensystem sehr spezifisch für die indogermanischen Sprachen ist. Im Falle von inkorporierenden oder agglutinierenden Sprachen hat eine derartige morphologische Einteilung keinen Sinn, da keine Gruppen je nach Flexionsendung gebildet werden können. Eine weitere Möglichkeit ist, die Wortarten nach ihrer syntaktischen Kategorie zu betrachten. Dabei ist es egal, welche morphologischen Eigenschaften das Wort besitzt. In der generativen Grammatik werden für die Wortarten diskrete (discrete) Einheiten angenommen. Das bedeutet, dass ein Wort entweder zu einer Wortart gehört oder nicht, es gibt keine fließenden Übergänge. In anderen, funktionalistisch ausgerichteten Grammatikmodellen ist dies nicht der Fall. Dort herrscht ein Kontinuum zwischen den Wortarten, so dass ein Wort z.B. relativ stark ein Nomen ist, aber auch ein bißchen ein Verb (etwa Infinitive und Partizipien). Die generative Grammatik kennt nach Chomsky (1970) vier lexikalische Kategorien: Nomen (N), Verb (V), Adjektiv (A) und Präposition (P). Diese werden auf Grund von zwei Merkmalen unterschieden (N und V), so dass sich genau vier Möglichkeiten ergeben: N+ N- V+ A V V- N P Tabelle 4.4: Wortarten in der generativen Grammatik Diese vier Kategorien werden verwendet, um das offene Lexikon (open-class items) abzubilden. Dies sind Wortarten, zu denen immer neue Wörter hinzugefügt werden können wie Bezeichnungen für neu erfundene Dinge oder Vorgänge (man denke nur an die zahlreichen Anglizismen der Computerterminologie wie googeln oder Compiler). Alle anderen Wortarten, vor allem solche des geschlossenen Lexikons (closed-class items) (also Pronomen, Artikel, Konjunktionen etc.) werden als funktionale Kategorien (functional categories) definiert. Wörter des geschlossenen Lexikons beinhalten rein grammatische Information. Diese Wörter haben eine spezifische Position in der syntaktischen Repräsentation, sie entsprechen festgelegten Knoten im Syntaxbaum. Beispielsweise besitzt jeder N 0 -Knoten eine darüberliegende D-Schicht (D für Determinator; diejenige Position, wo der Artikel beheimatet ist). Allerdings bleibt es eine Frage der Forschung, ob es genau eine D-Schicht mit einem einzigen D 0 - Haupt gibt oder ob diese Schicht in verschiedene Projektionen aufgespalten werden muss, beispielsweise jeweils eine Extraschicht für Numerus, Kasus, Definitheit etc. 86 4. Sprache im Gehirn Mark Baker (Baker (2003a)) revolutioniert das Wortartensystem der generativen Grammatik, indem er versucht, Erklärungen für die Existenz der grundlegenden, lexikalischen Kategorien zu finden. Ihm genügt Chomskys Merkmalsanalyse nicht mehr, er fahndet nach weiteren, grundlegenderen Bausteinen der Grammatik. Zunächst kommt er zu dem Schluss, dass es nur drei (und nicht vier) lexikalische Kategorien gibt: N, V und A. Nomen sind solche lexikalischen Einheiten, die über ein Referenzargument verfügen. Sie sind damit die einzigen linguistischen Einheiten, die sich direkt auf etwas beziehen können. Verben dagegen besitzen eine andere Eigenschaft: Sie haben als einzige Kategorie einen Spezifikator. Dies bedeutet, dass sie als einzige Kategorie im Stande sind, Relationen auszudrücken, also zwei Elemente zueinander in Beziehung zu setzen. In der bisherigen Grammatikforschung wurde dies immer als Prädikation (predication) aufgefasst, jedoch war die Prädikationsbeziehung nicht auf Verben beschränkt. Zum Beispiel konnten auch Adjektive das Prädikat zu einem Nomen sein; man denke auch außerdem an die vielbeforschten Sätzchen (small clauses). Baker verneint dies nicht, jedoch sind Verben die einzigen, die zwei Entitäten zueinander in Beziehung setzen können. Alle anderen Kategorien können maximal eine Entität und eine Eigenschaft miteinander verbinden. Adjektive schließlich sind laut Baker diejenigen Elemente, die keine der beiden erwähnten Eigenschaften besitzen, also weder ein referentielles Argument noch einen Spezifikator. Die Präpositionen gehören für Baker zu den grammatischen Kategorien. Nomen haben referenzielles Argument Verb haben Spezifikator Adjektiv haben nichts davon alle anderen Kategorien sind grammatisch und gehören zur geschlossenen Klasse (auch Präpositionen) Tabelle 4.5: Wortarten nach Mark Baker Richard Kayne (Kayne (2009)) führt die Diskussion über Wortarten weiter. Er schlägt eine prinzipielle Unterscheidung in zwei Kategorien vor: Nomen und Non-Nomen. Einzig und allein Nomen sind Mitglieder der offenen Klasse. Alle anderen Wortarten gehören zur geschlossenen Klasse, sie sind also mehr oder weniger grammatisch. Dieser zunächst recht unintuitiv anmutende Blick auf die lexikalischen Kategorien führt Kayne aus Gründen seiner Antisymmetrietheorie (Kayne (1994)) aus. Obwohl eigentlich auch Verben und Adjektive als offene Klassen erscheinen, argumentiert er dafür, dass dem nicht so ist: Verben sind vielmehr eine geschlossene Klasse. Kayne bezieht sich auf die Arbeiten von Hale & Keyser (1993), wonach Verben rein grammatische Entitäten sind, die nur die Ereignis- und Argumentstruktur zu einem bereits vorhandenen (nominalen) lexikalischen Gehalt hinzufügen: „All Verbs are light Verbs“ (Kayne 4.9 Prädikat-Argument-Struktur 87 (2009): (13)). Die grammatische Information unterscheidet sich noch weiter zwischen den lexikalischen Kategorien: Nomen haben immer von vornherein Merkmale mit zugewiesenen Werten, es tritt keinerlei Variation zwischen Sprachen auf. Non-Nomen und somit auch Verben besitzen immer Merkmale, die noch keinen Wert zugewiesen haben. Die Sprachvariation ist in dieser Kategorie möglich. Zusammenfassend kann festgehalten werden, dass sich die Wortartenlehre weg von morphologischen Kriterien hin zu syntaktischen Primitiva entwickelt. Dabei steht die Frage im Mittelpunkt, welche Komponenten die grammatische Information beinhalten und welche die rein lexikalische. Es ist diese rein lexikalische Information, die die Schnittstelle zum Weltwissen und zu den im Gedächtnis gespeicherten Kategorien bildet. Für die kognitionswissenschaftliche Perspektive auf die Grammatikforschung ist es daher von Bedeutung, die kleinsten, rein grammatischen Bausteine ausfindig zu machen, damit diese in einem zweiten Schritt empirisch am menschlichen Verhalten und der menschlichen Hirnaktivität nachgewiesen werden können. Lexical categories • The traditional view rests on morphological observations of Greek and Latin. Lexical categories such as verb, noun, adjective, and preposition correspond to morphological classes that show a similar conjugation or declination. • Noam Chomsky argues that there are only four lexical categories that are derived from two features: ± V and ± N. There is no interpretation of these features. • Mark Baker argues that there are only three lexical categories: nouns (which refer), verbs (which allow for predication), and adjectives (which do neither). • Richard Kayne argues that only nouns are members of the open class. Non-nouns (e.g. everything else) are grammatical; therefore, they belong to the closed class. 4.9 Prädikat-Argument-Struktur James Hurford (Hurford (2003)) entwirft ein Modell, das klären soll, wie die neurophysiologische Grundlage für Prädikat-Argument-Strukturen aussieht. In einem formalen semantischen Modell wird versucht, Bedeutung mittels eines formalen, an die Logik angelehnten System zu erfassen. Dafür dienen Prädikate mit Argumenten als Grundlage, egal welches logischen Systems man sich bedient - sei es die Prädikatenlogik, die Modallogik oder ein anderer logikbasierter Formalismus. Die Prädikation über ein Argument ist fundamental. 88 4. Sprache im Gehirn Diese symbolische Repräsentation - bei Jerry Fodor auch language of thought, bei Noam Chomsky logical form - hat im Grunde nichts mit neurologischen Mechanismen zu tun. Daher ist es umso interessanter, wenn es sich herausstellt, dass doch eine Verbindung existiert. Hurford versteht Prädikate (predicates) als konstante Eigenschaften in der externen Welt. Natürlich gibt es Unterschiede hinsichtlich der Konstanz von Prädikaten, man denke nur an die Unterscheidung von Stadienprädikaten (stage-level) wie krank und Individuenprädikaten (individual-level predicates) wie braunäugig, die sich ja gerade in ihrer Permanenz unterscheiden. Diese Unterscheidung ist natürlich auch für Hurfords Modell gültig, doch spielt sie eine untergeordnete Rolle. Wichtig ist, dass Prädikate Eigenschaften sind, die prinzipiell vorhanden sind, prinzipiell zutreffen können und prinzipiell konstant sein können. Im Gegensatz dazu stehen die Argumente (arguments). Diese sind Individuenvariablen und haben keine konstante Bedeutung in der Welt. Das bedeutet, dass das Objekt, worauf sich die SprecherIn gerade bezieht, immer wieder wechseln kann. Man kann über viele verschiedene Dinge sprechen, in jedem Satz über neue Entitäten, ja sogar manchmal in einem Satz über mehrere verschiedene gleichzeitig. Hurford geht es um die neurophysiologische Verankerung der folgenden Struktur: • PRÄDIKAT(x) Er versucht, das dorsale System (dorsal system) und das ventrale System (ventral system) mit der Prädikat-Argument-Unterscheidung in Beziehung zu setzen. Die Erforschung der beiden Systeme stammt ursprünglich aus dem visuellen Bereich. Diese beiden Typen von Nervenkanälen verbinden den primären visuellen Kortex mit weiteren visuellen Rindenfeldern, augenscheinlich auf zwei getrennten Wegen, die nur geringe Kommunikation miteinander zulassen. Das dorsale System wird auch als „wo“-Strom bezeichnet. Es ist an der Entstehung einer handlungsorientierten, betrachterzentrierten Repräsentation beteiligt und umfasst auch visuomotorische Aktivität. Es ist der Kanal des aktiven Schauens, der die charakteristischen Merkmale eines Objekts verarbeitet. Das ventrale System hingegen wird auch als „was“-Strom bezeichnet. Es handelt sich dabei um einen vorwiegend perzeptuell-orientierten Kanal, der weitere Informationen über ein Objekt einholt, sobald die Aufmerksamkeit der wahrnehmenden Person darauf gerichtet ist. Es wird hier keine betrachterzentrierte, sondern eine allozentrische (allocentric) Repräsentation erzeugt. Dies ist eine globale Sicht, die ein Objekt an sich oder mehrere Objekte zueinander in den Mittelpunkt stellt. Das ventrale System leitet langandauernde Informationen über ein Objekt weiter. Auch im auditiven System werden dorsale und ventrale Leitungen unterschieden. Hierbei wird einerseits das Geräusch bzw. dessen Quelle räumlich lo- 4.9 Prädikat-Argument-Struktur 89 kalisiert, andererseits wird die qualitative Beschaffenheit des Geräusches festgestellt (ist es ein Bellen, ein Miauen, ein Quietschen, ein Surren? ). Hurford schlägt vor, dass Individuenvariablen, also Argumente, den Informationen aus dem dorsalen System entsprechen; Prädikate ordnet er den Informationen aus dem ventralen System zu. Die „wo“-Entität, die kurzzeitig durch einen aktiven, motorisch gesteuerten Wahrnehmungsprozess entsteht, wird mit einem „was“-Prädikat kombiniert. Das „was“-Prädikat ist eine langandauernde Eigenschaft, eine Kategorie, die durch die perzeptuelle Wahrnehmung aktiviert wird. Die immer wieder neu zuzuordnenden Kategorien (die Belegung der Individuenvariable) und die langandauernden Kategorien (die Eigenschaften bzw. Prädikate) finden so ihre neurophysiologischen Korrelate. Schließlich versucht Hurford zu definieren, was eine Objektsrepräsentation ausmacht: Ein Objekt ist etwas, das die Aufmerksamkeit auf sich zieht und behält. Bei der Verarbeitung von wahrgenommenen Reizen und der Entstehung von Kategorien und Objektrepräsentationen stehen daher nicht einzelne Merkmale oder Prädikate wie hell/ dunkel, Farbtöne oder Bewegungsmuster im Mittelpunkt, vielmehr wird die Aufmerksamkeit auf einen bestimmten Punkt im Raum gelenkt, der dann weiter perzeptuell verarbeitet wird. Dorsal and ventral systems / predicate argument structure • Jim Hurford investigates the neural correspondents of predicate and argument. • The dorsal system is also called where -stream. It locates perceived entities. It represents arguments. • The ventral system is also called what -stream. It encodes speci c, inherent properties of the perceived object. It represents predicates. Kapitel 5 Semantik und Logik In diesem Kapitel soll die Frage geklärt werden, was Semantik mit Logik zu tun hat. Um dies zu beantworten, betrachten wir den Zusammenhang zwischen Wahrheit und Logik (es gibt verschiedene Wahrheitstheorien in der Philosophie, eine davon verwendet logische Formeln, um Wahrheitswerte auszurechnen). Außerdem gehen wir näher auf den Begriff Logik ein: Es gibt nämlich nicht nur eine einzige Art von Logik, sondern viele verschiedene! Danach sehen wir zwei Anwendungen der Logik innerhalb der Analyse der natürlichen Sprache an. Schließlich möchte ich festhalten, warum die formale Semantik für die Kognitionswissenschaft so wichtig ist. Doch zu Beginn schauen wir, woher denn der Begriff Semantik überhaupt kommt und was man mit ihm in der Informatik und der Sprachwissenschaft anfangen kann. 5.1 Semantik ist Bedeutungslehre 5.1.1 Das semiotische Dreieck Der Begriff der Semantik (semantics) muss zunächst aus einer semiotischen Perspektive definiert werden. Die Semiotik (semiotics) ist die Wissenschaft vom Zeichen bzw. von Zeichensystemen. Sie untersucht daher nicht nur sprachliche Zeichen, sondern alles, was als Zeichen verwendet werden kann. Sie interessiert sich für das Zeichen an sich. Innerhalb der Semiotik wurde von Charles Sanders Peirce das semiotische Dreieck aufgestellt. Es regelt die Beziehungen zwischen Symbol, Objekt und Interpretant. Das semiotische Drei- Charles S. Peirce (1839-1914) eck erläutert die Bedingungen, unter welchen ein Symbol als Repräsentation für ein Objekt verwendet werden kann. Die Aufgabe der Syntax im semiotischen Dreieck ist es, die einzelnen Teile des Symbols bzw. mehrere Symbole miteinander zu verbinden. Die Semantik ist die Beziehung zwischen Symbol und Objekt. Allgemein wird die Semantik auch als Bedeutungslehre bezeichnet. Die Pragmatik ist definiert als Bezie- 5.1 Semantik ist Bedeutungslehre 91 hung zwischen Symbol und Interpretant. Die Pragmatik beschreibt, was der Interpretant mit dem Symbol tun kann. Verwandt mit dem semiotischen Dreieck ist der Begriff des Zeichens (sign), wie er von Ferdinand de Saussure geprägt wurde. Allerdings lässt Saussure die Ebene der Pragmatik und des Interpretanten weg, ihm geht es nur um den Aufbau des Zeichens selbst. Er geht davon aus, dass das Zeichen aus Signifikat (= das Bezeichnete, das Objekt) und Signifikans (= das Bezeichnende, das Symbol) besteht. Wichtig ist, dass die Beziehung zwischen Signifikat und Signifikans immer arbiträr, also zufällig, ist. • Semiotics is the study of signs. • The semiotic triangle relates the sign, the content, and the user. • Syntax describes the relation between signs; semantics affects the relation between the sign and its content; pragmatics is the relation between the sign and its user. 5.1.2 Semantik in der Informatik Nicht nur in der natürlichen Sprache spielt die Semantik eine Rolle, auch in der Informatik hat sie ihren Stellenwert (Fehr (1989), Nielson Riis & Nielson (2007)). Hierbei geht es darum, die Bedeutung von Computerprogrammen zu bestimmen. Man möchte wissen, was ein bestimmtes Programm tut. Dies ist deshalb wichtig, weil man zumeist daran interessiert ist, dass das Programm genau das tut, was man von ihm will. Man möchte die Frage überprüfen, ob das Programm der Spezifikation entspricht, bzw. möchte man auch wissen, was genau eine vorliegende Spezifikation beschreibt. Deswegen wird die Semantik von Spezifikationen untersucht. Dieses Thema läuft auch unter dem Namen formale Verifikation von Software (formal verification). Besonders für die Industrie ist dies sehr wichtig. Es gibt verschiedene Methoden, die Bedeutung eines Computerprogramms herauszufinden: die denotationelle Semantik, die operationale Semantik und die axiomatische Semantik. An dieser Stelle wollen wir nicht näher auf die Unterschiede eingehen, sondern nur einen ersten Einblick in das Thema gewinnen. Das zu untersuchende Programm wird in eine formale Sprache wie etwa den Lambda-Kalkül, ein Programm für eine Turing-Maschine (diese sind äquivalent) oder in etwas Ähnliches übersetzt, da man von der konkreten Programmiersprache, in der das Programm geschrieben ist, abstrahieren möchte. Diese Darstellung kann anschließend mit Hilfe von formalen Methoden auf ihre Korrektheit untersucht werden. Beispielsweise kann die Frage gestellt werden, ob das Programm einen Widerspruch enthält. 92 5. Semantik und Logik In der denotationellen Semantik zum Beispiel betrachtet man Zustandsübergänge. Dies bedeutet, dass man das Programm für eine bestimmte Variablenbelegung durchspielt, ähnlich wie man es auch tut, wenn man beim Programmieren einen Debugger benützt. Die formale Darstellung der Zustandsübergänge erlaubt es nun, jeden einzelnen Zustand nacheinander zu betrachten und die Werte der Variablen dabei zu kontrollieren. Nachdem dies ein logikbasiertes Verfahren ist, geht dies natürlich automatisch und möglichst für beliebig viele Zustände, also für möglichst viele verschiedene Variablenbelegungen. In der Semantik von Programmiersprachen werden, ähnlich wie in der Untersuchung der formalen Semantik von natürlichen Sprachen, formale, mathematische Methoden wie etwa die Modelltheorie (model theory) verwendet (Hodges (1997)): Es wird für das zu untersuchende Programm ein Modell aufgestellt. Dieses Modell kann nun verschiedene Eigenschaften haben: Entweder das Programm ist für alle Modelle wahr oder nur für manche oder, wenn es einen Fehler enthält, für alle. • Within computer science, semantics is used to verify computer programs. Logical methods can check programs and their speci- cations: Do they do what they should? Do they contain internal errors? 5.2 Semantik von natürlichen Sprachen 5.2.1 Formale Semantik Die formale Semantik (formal semantics) ist eine Teildisziplin der Sprachwissenschaft, die, genauso wie die Semantik allgemein, Bedeutung untersuchen will. Allerdings benützt die formale Semantik im Unterschied zu anderen Herangehensweisen eine bestimmte, formale Methode: Sie verwendet die Wahrheitswertsemantik, ähnlich wie auch die Semantik in der Informatik. Sie knüpft direkt an die philosophische Tradition der Korrespondenztheorie der Wahrheit an (siehe § 5.3.1). Die formale Semantik möchte möglichst exakte Wahrheitsbedingungen für Sätze der natürlichen Sprache angeben. Diese Wahrheitsbedingungen werden mit Hilfe eines formalen Systems ausgedrückt, sie werden quasi „in eine Logik übersetzt“ und nicht in einer bestimmten natürlichen (Fach-)Sprache beschrieben. Zumeist wird eine Darstellung im Lambda- Kalkül benützt (vgl. § 5.4.5). Im Folgenden betrachten wir das Kompositionalitätsprinzip sowie die Begriffe Sinn und Bedeutung, um uns anschließend dem Werk von Richard Montague, dem Begründer der formalen Semantik, zu widmen. 5.2 Semantik von natürlichen Sprachen 93 Kompositionalitätsprinzip Für die formale Semantik ist das Kompositionalitätsprinzip (principle of compositionality) von großer Bedeutung. Es geht auf Gottlob Frege (Frege (1892)) zurück 1 und besagt: Kompositionalitätsprinzip Die Bedeutung eines Satzes ist durch die Bedeutungen seiner Teile bestimmt. Das bedeutet, dass man die Bedeutung eines Satzes ausrechnen kann. Dies gilt sowohl für natürliche als auch für formale Sprachen. Das „Ausrechnen“ ist wörtlich gemeint: Man kennt die Bedeutung der Einzelteile, also der Wörter, und die Vorschrift, wie diese verknüpft werden. Dadurch kann man Stück für Stück ganz automatisch die gesamte Bedeutung ausrechnen. Dies funktioniert prinzipiell genauso wie das Ausrechnen einer langen Addition: Man kennt die Bedeutung der einzelnen Ziffern (d.h. ihren Wert), und man weiß, was man tun muss, wenn man auf den Operator „+“ trifft. So kann man (oder auch ein Computer) eine lange Addition Schritt für Schritt ausführen, ein „+“ nach dem anderen ausrechnen. In der formalen Semantik wird dazu der Lambda-Kalkül verwendet. Die Schwierigkeit besteht nun darin, die einzelnen Bausteine zu finden: Einerseits muss man die genaue Bedeutung der einzelnen Wörter festlegen, andererseits muss man all diejenigen Komponenten formalisieren, die nicht direkt als Wörter gegeben sind wie zum Beispiel Tempus oder Kontextabhängigkeit. Kontextabhängigkeit bedeutet hier, dass die Bedeutung von manchen Wörtern wie etwa Pronomen („ich“, „du“) immer von der aktuellen Sprechsituation abhängen (mit „ich“ ist immer die gerade aktuelle SprecherIn gemeint). Principle of compositionality • This principle was invented by Gottlob Frege. It says that the meaning of a sentence can be determined by the meaning of its parts. Sinn und Bedeutung Frege (1892) trifft eine weitere wichtige Unterscheidung, nämlich die zwischen Sinn (sense) und Bedeutung (reference) bzw. zwischen Extension (extension) und Intension (intension). Wie wir oben gesehen haben, wird in der formalen Semantik immer davon ausgegangen, dass Sätze einen Wahrheitswert haben. Dies ist keine schlechte 1 Vorliegende deutschsprachige Formulierung A.R., genaue Herkunft uneindeutig, siehe Szabó (2013): § 1. 94 5. Semantik und Logik Idee, führt jedoch zu Problemen, wenn man die Bedeutung von eingebetteten Sätzen untersuchen will. Betrachten wir folgende Beispiele: 2 (1) Superman steht auf einem brennenden Haus. (2) Clark Kent steht auf einem brennenden Haus. Gehen wir davon aus, dass unsere Welt derart beschaffen ist, dass Superman und Clark Kent ein und dieselbe Person sind, und dass dieser Clark Kent bzw. Superman tatsächlich auf dem Dach eines brennenden Hauses steht, wahrscheinlich, um das Feuer zu löschen und den entsprechenden Bösewicht einzufangen. Die beiden Sätze (1) und (2) sind also wahr. Jetzt interessieren wir uns aber für komplexere Sätze, solche, wo jemand wie zum Beispiel Lois Lane etwas glaubt oder vermutet: • Lois Lane glaubt, dass Superman auf einem brennenden Haus steht. • Lois Lane glaubt nicht, dass Clark Kent auf einem brennenden Haus steht. Wenn man nur den Wahrheitswert gemäß den obigen Überlegungen verwendet, entsprechen diese beiden Sätze dem Folgenden: • Lois Lane glaubt, dass wahr. • Lois Lane glaubt nicht, dass wahr. Mit dieser einfachen Betrachtung geht also die Tatsache verloren, dass ein einziges Objekt in der Welt, nämlich Superman/ Clark Kent (oder auch Venus/ der Morgenstern/ der Abendstern, das von Frege benützte Beispiel vor dem Zeitalter der Superhelden) zwei verschiedene „Darstellungen“ haben kann, von denen Unterschiedliches geglaubt werden kann. Die tatsächliche Person Superman/ Clark Kent bezeichnet man als Extension, die „Darstellung“ als Intension. Lois Lane hat also von ein und demselben Objekt in der Welt unterschiedliche Vorstellungen, da sie nicht weiß, dass Clark Kent und Superman derselbe sind. Um Intensionen zu erfassen, wurde die extensionale Semantik auf die intensionale Semantik (intensional semantics) erweitert. Diese beinhaltet in der Interpretation immer auch mögliche Welten (possible worlds). Diese möglichen Welten dienen in gewissem Sinne zur Relativierung. In den obigen Beispielen zählen etwa nur die möglichen Welten, die Lois Lane glaubt, und in diesen ist eben Clark Kent nicht derselbe wie Superman. • According to Gottlob Frege, a sign always consists of a sense and a reference. • Sense is the object in the world the sign is referring to. • Reference is the presentation mode, i.e., the belief about the object that the user of the sign has. 2 Frege verwendet als Beispiel „Morgenstern“, „Abendstern“ und „Venus “, die Abwandlung mit Superman ist weit verbreitet, ihr Ursprung unklar. 5.2 Semantik von natürlichen Sprachen 95 Montague Richard Montague war ein Schüler von Alfred Tarski und somit von seiner Ausbildung her Logiker: In seiner Dissertation befasste er sich mit der Axiomatisierung der Mengenlehre (Montague (1957)). Er hatte die Idee, dass die Analyse von formalen und natürlichen Sprachen mit den gleichen Werkzeugen zu bewerkstelligen sein sollte. Deshalb versuchte er, die Analyse der formalen Sprachen, die bisher entwickelt worden war, auf natürliche Sprachen anzuwenden. Konkret untersuchte er einen Teil der englischen Sprache (Montague Richard Montague (1930-1971) (1973)). Er ging davon aus, dass jedes Wort zunächst eine Intension besitzt, die relativ zu einer oder mehreren möglichen Welten interpretiert wird. Um die Extension zu bekommen, muss man die mögliche Welt definieren. Hinsichtlich des Superman-Beispiels bedeutet dies Folgendes: Der Ausdruck Clark Kent besitzt zunächst eine Intension, d.h. je nachdem, um welche mögliche Welt es sich handelt, ergibt sich eine andere Extension. Der Satz in (2) bekommt seinen Wahrheitswert abhängig davon, welche mögliche Welt in Betracht gezogen wird. Handelt es sich bei der möglichen Welt um das Wissen von Lois Lane, so ist der Satz falsch, denn sie ist überzeugt davon, dass Clark Kent hinter seinem Schreibtisch sitzt und einen Artikel schreibt. Handelt es sich bei der möglichen Welt jedoch um die von Superman, so ist der Satz wahr, denn Superman weiß, dass er selbst auf dem Dach steht. Richard Montague verankert genau diese Idee der Intensionen und der möglichen Welten in seiner Analyse der natürlichen Sprache. Er entwirft eine intensionale Semantik mit höheren Typen. Damit wird es erstmals möglich, dass die Wahrheitsbedingungen, wie sie zunächst nur in der formalen Logik von Tarski benutzt wurden, auf die Analyse der Bedeutung von natürlichsprachlichen Sätzen angewendet werden konnten, und zwar so, dass das Kompositionalitätsprinzip und die Intensionen erfasst wurden. Dadurch wurde es möglich, die Bedeutung eines Satzes auszurechnen, und zwar anhand seiner Wahrheitsbedingungen, die sich, genau wie in der Logik, aus den Wahrheitswerten seiner Teile bestimmen lassen. Montague (1973) (PTQ, „The Proper Treatment of Quantification in Ordinary English“) gilt als dasjenige Werk, das die formale Semantik, wie wir sie heute kennen, begründet. Montague hat damit einen ganzen Forschungszweig, ja eine ganze Disziplin ins Leben gerufen. In diesem Artikel führt er die Theorie der generalisierten Quantoren (generalized quantifiers) ein (siehe dazu auch Barwise & Cooper (1981) sowie § 5.5.1). Das System erlaubt nicht nur die einheitliche Analyse von Quantoren, sondern auch die Analyse von de dicto- und de re-Lesarten sowie die Analyse von opaken Verben. Für alle diese ist es notwendig, dass die Bedeutung Intensionen zulässt. Die Montague- Grammatik ist eine Weiterentwicklung des Systems von PTQ und bezeichnet eine frühe Form der heute üblichen Darstellungen der formalen Semantik. Montague wurde im Alter von 40 Jahren ermordet. 96 5. Semantik und Logik • Richard Montague applied Alfred Tarski’s logical methods to the study of natural language. Thus, he founded the discipline of formal semantics. • He incorporated Frege’s principle of compositionality, as well as intensions (and possible worlds), into his system. • Montague’s system made it possible to systematically compute sentences’ truth conditions by breaking the sentences down into their parts. The system covers generalized quanti ers, opaque verbs, as well as de dicto/ de re -readings. 5.2.2 Andere Semantiken Neben der modelltheoretischen Semantik gibt es innerhalb der Sprachwissenschaft auch noch andere Herangehensweisen an das Thema Bedeutung. Vor allem die kognitive Semantik (cognitive semantics) ist hier zu nennen. Sie unterscheidet sich in verschiedenen theoretischen Annahmen grundlegend von der formalen Semantik. Zunächst geht es um die Fragen der Autonomie und der Modularität. Die VertreterInnen der formalen Semantik gehen davon aus, dass die menschliche Sprachfähigkeit modular organisiert ist. Die VertreterInnen der kognitiven Semantik lehnen dies ab. Der Begriff der Modularität bedeutet in diesem Zusammenhang, dass die Sprachfunktion bzw. einzelne Teile von ihr in Modulen organisiert sind. Diese sind derart beschaffen, wie es Fodor (1983) beschrieben hat: Sie sind autonom, d.h. unabhängig von der allgemeinen Kognition, sie arbeiten automatisch und effizient und sie haben eine charakteristische Ontogenese, d.h. ihre Entwicklung im Laufe der Kindheit folgt einem spezifischen Ablauf (siehe dazu auch § 2.2.5). Diejenigen SprachwissenschaftlerInnen, die in der Tradition Chomskys arbeiten, sowie diejenigen, die im Rahmen der formalen Semantik forschen, bekennen sich klar zur Autonomie und Modularität der Grammatik. Sie gehen davon aus, dass das grammatische System (sowohl die Syntax als auch die Semantik) unabhängig von anderen kognitiven Mechanismen ist, insbesondere unabhängig von der allgemeinen Kognition und unabhängig vom Körper. Deshalb sind die Fragen nach dem Aufbau und der Beschaffenheit des formalen Systems, in das die Grammatik gefasst werden kann, für diese ForscherInnen im Mittelpunkt des Interesses. Anders ist dies für die VertreterInnen der kognitiven Semantik. Sie lehnen sowohl die Autonomieals auch die Modularitätshypothese ab. Vielmehr gehen sie davon aus, dass die menschliche Sprachfähigkeit ein Teil der allgemeinen Kognition ist. Es gibt einige grundlegende Prinzipien, wie das menschliche 5.3 Wahrheit 97 Denken organisiert ist; diese gelten auch für die Sprache und finden sich in ihrer Analyse wieder. Beispielsweise geht Leonard Talmy (Talmy (2000)) davon aus, dass das aus der Wahrnehmungspsychologie bekannte Figur/ Grund- Prinzip auch in der Grammatik zu finden ist. In der Theorie von Mark Johnson, George Lakoff und Mark Turner (Lakoff & Johnson (1980), Lakoff (1987), Lakoff & Johnson (1999)) geht es zunächst darum, Metaphern zu analysieren. Jedoch betrifft ihr Theoriegebilde viel mehr den Zusammenhang zwischen Denken, Sprache und Körper, der sich auch in den verwendeten Begrifflichkeiten erkennen lässt. Johnson, Lakoff und Turner gehen davon aus, dass der Körper das wichtigste, wenn nicht sogar das einzige Mittel ist, um zu denken und um Erkenntnisse über die Umwelt zu erlangen. Die Körpererfahrungen erzeugen allgemeine Denkschemata, wie etwa Innen-Außen oder Vorne-Hinten. Diese Kategorien werden auch für das allgemeine Schlussfolgern benützt und sind auch in der Sprache zu finden, besonders in der verwendeten Metaphorik. Diese Metaphorik - wie etwa Zukunft ist vorne - wird als Beweis bzw. Evidenz für ihre Theorie herangezogen. Die Problematik der kognitiven Semantik besteht darin, dass die Komplexität der Strukturen nicht analyisert wird. Der Zusammenhang zwischen Sprache und allgemeinem Denken sowie deren Verhältnis zum Körper ist eine komplexe Frage, die nicht so leicht entschieden werden kann. Vgl. auch § 10 für weitere Argumente. Other semantic theories • Formal semantics and generative grammar assume that the language faculty is modular. In particular, grammar is taken to be autonomous from general cognition. • Non-formal semantics denies these properties. It assumes that there is a strong interaction between grammar, general cognition, and the body. • Leonard Talmy suggests that grammar is organized along the lines of Gestalt psychology’s gure/ ground principle. • Cognitive semantics by Johnson, Lakoff, and Turner assumes that the body shapes the categories humans use for thinking and reasoning. The same categories also underlie the structure of grammar. 5.3 Wahrheit Der Begriff der Wahrheit (truth) ist für die Semantik wichtig, denn ein Satz oder ein Zeichen sollte ja irgendwie auf die Umwelt zutreffen, damit es verwendet und verstanden werden kann. Insofern drängt sich die Frage auf, wann 98 5. Semantik und Logik denn ein Satz überhaupt zutreffend bzw. wahr ist. Die Philosophie, die bereits jahrtausendelang den Wahrheitsbegriff untersucht, bietet zurzeit drei große Auffassungen von Wahrheit, die im Folgenden kurz dargestellt werden. Die formale Semantik von natürlichen Sprachen ist nur mit einer von diesen kompatibel. 5.3.1 Korrespondenztheorie Die Korrespondenztheorie (correspondence theory) der Wahrheit geht davon aus, dass Aussagen mit den Gegebenheiten einer objektiv vorhandenen Umwelt übereinstimmen können oder auch nicht. Wenn eine Übereinstimmung vorhanden ist, der Satz also auf den beschriebenen Sachverhalt zutrifft, so ist er wahr. Wenn keine Übereinstimmung vorhanden ist, der Satz also nicht zutrifft, so ist dieser falsch. Diese Theorie geht davon aus, dass es immer möglich ist, den beschriebenen Sachverhalt genau zu überprüfen, um so die Wahrheit des Satzes zu bestimmen. Zum Beispiel könnte man den Satz Es schneit jetzt gerade in Wien sofort überprüfen, indem man ins Freie geht und den Niederschlag analysiert. Fallen gerade Schneeflocken vom Himmel, so ist der Satz wahr: Er entspricht der derzeitigen Beschaffenheit der Umwelt. Fallen gerade keine Schneeflocken vom Himmel, so ist der Satz falsch. Die Korrespondenztheorie der Wahrheit steht in einer engen Verbindung zur Wahrheitswertsemantik, denn jedem Satz kann genau ein Wahrheitswert (truth value) zugeordnet werden: wahr oder falsch, null oder eins. Dies entspricht der Herangehensweise der klassischen Logik (der Aussagen- und der Prädikatenlogik), wie sie seit Aristoteles bekannt ist. Logische Formeln sind entweder wahr oder falsch. Ihren Wahrheitsgehalt bestimmt man, indem man ein Modell betrachtet und die Formel überprüft, genauso wie wir es in dem Schneeflockenbeispiel gemacht haben. Auch die formale Semantik nimmt die Wahrheitswerte und somit die Korrespondenztheorie als Ausgangspunkt. Die wichtigsten Vertreter der Korrespondenztheorie sind Bertrand Russell (Russell (1905)) und George E. Moore (Moore (1953)). Auf der formalen Ebene konnte der Logiker Alfred Tarski den Wahrheitsbegriff definieren. Dies gelang ihm durch die Unterscheidung zwischen Objektsprache (object language) und Metasprache (meta language). Tarski (1936) stellt folgendes Prinzip auf: Alfred Tarski (1901-1983) • S ist genau dann wahr, wenn p S ist ein Satz der Objektsprache, p eine Aussage in der Metasprache. Tarskis Idee ist, dass nur Sätze der Metasprache einen Wahrheitswert haben können, nicht aber Sätze der Objektsprache. 5.3 Wahrheit 99 Correspondence theory of truth • Logical formulas as well as sentences of natural language have truth values (true or false ), depending on whether their meaning is consistent with some model (e.g. the current environment) or not. • Truth values can be determined by checking the model or by empirical observation, in the case of natural language. • The correspondence theory of truth is closely tied to the history of logic. The logician Alfred Tarski de ned the notion of truth in terms of object language and metalanguage. 5.3.2 Kohärenztheorie Die Kohärenztheorie (coherence theory) der Wahrheit geht davon aus, dass alle Sätze einer Wissensbasis miteinander kompatibel sein müssen, d.h. es muss immer ein kohärenter Wissensbestand existieren. Unter diesem Ansatz ist es nicht möglich, dass zwei Sätze der Wissensbasis einander widersprechen (Rescher (1973), Walker (1989)). Wird nun ein neuer Satz zu einer Wissensbasis hinzugefügt bzw. soll überprüft werden, ob ein bestimmter Satz wahr ist, so wird kontrolliert, welchen Effekt er auf die vorhandene Wissensbasis hat. Ist er kompatibel, so gilt er als wahr. Ist er nicht kompatibel, so gilt er als falsch. Ist es notwendig, einen anscheinend falschen Satz zu integrieren, so wird die Wissensbasis so modifiziert, dass sie keinen Widerspruch mehr enthält. Als Illustration können wir das klassische Beispiel der Vögel und Pinguine heranziehen. Angenommen, unsere Wissensbasis besitzt folgendes Wissen über Vögel: • Vögel haben Flügel. • Vögel haben Schnäbel. • Vögel fliegen. • Vögel schlüpfen aus Eiern. Nun soll der Satz Ein Pinguin ist ein Vogel auf seinen Wahrheitsgehalt überprüft werden. Dazu wissen wir weiters, dass der Pinguin einen Schnabel und Flügel hat, aber nicht fliegt, sondern schwimmt. Fügen wir diesen Satz zu unserer Wissensbasis hinzu, entsteht ein Widerspruch: Der Pinguin ist ein Vogel, der nicht fliegt. Somit wird der Satz als falsch bewertet. Sollte auf Grund weiterer Argumente die Aussage über den Pinguin zu unserer Wissensbasis hinzugefügt werden müssen, so sind wir gemäß der Kohärenztheorie gezwungen, diese zu modifizieren. Beispielsweise ist es möglich, 100 5. Semantik und Logik den Satz Vögel fliegen zu modifizieren: Die meisten Vögel fliegen, Pinguine sind eine Ausnahme. Coherence theory of truth • According to the coherence theory, a sentence is true if it is compatible with the facts in the current knowledge base. It is wrong if it is incompatible. • It is possible to adjust the knowledge base when there is enough evidence to do so. 5.3.3 Pragmatische Wahrheitstheorie Die pragmatische Wahrheitstheorie (pragmatist theory of truth) wurde von den US-amerikanischen Pragmatisten Charles Sanders Peirce (Peirce (1878)), William James (James (1907)) und John Dewey vorgeschlagen. Sie stammt aus der Tradition des Idealismus, dessen Vertreter unter anderem Spinoza, Kant, Fichte und Hegel sind. Ihre Kernaussage lautet: • Truth is satisfactory to believe, d.h. die Wahrheit zu glauben ist befriedigend. Dies bedeutet, dass eine Aussage genau dann als wahr gelten kann, wenn die Scientific Community zufriedengestellt ist, wenn also nicht mehr weitergeforscht werden muss. Für die Pragmatik ist immer das Handeln und die Zweckmäßigkeit von Bedeutung. Eine Aussage ist nur dann wahr, wenn es auch zweckmäßig ist, sie zu glauben: Durch das Wissen einer Aussage können bestimmte Handlungen durchgeführt oder bestimmte Vorhersagen gemacht werden. Eine wissenschaftliche Theorie ist demgemäß wahr, wenn sie genügend korrekte Voraussagen macht. Findet man beispielsweise eine Hypothese zu Ursache und Behandlung einer bestimmten Krankheit, so kann diese als wahr gelten, wenn genügend PatientInnen geheilt und die Entstehung und der Verlauf der Krankheit zur Genüge modelliert werden können. In diesem Fall kann man die Hypothese als wahr beurteilen, die Gemeinschaft der WissenschaftlerInnen muss nicht nach noch weiteren, noch grundlegenderen Ursachen suchen. Pragmatist theory of truth • A sentence is true if it is satisfactory to believe. It is true if the scienti c communitiy decides that no further research is needed. 5.4 Logiken 101 5.4 Logiken Die Geschichte der formalen Semantik ist eng mit der der Logik verknüpft, denn die formale Semantik fand ihren Ausgangspunkt durch die Beiträge von Richard Montague, der versucht hat, die natürliche Sprache, in seinem Fall das Englische, mit der intensionalen Logik zu erfassen (vgl. § 5.2.1). Im Folgenden werden wir einige Formen der Logik betrachten. Nicht jede der vorgestellten Logiken ist dafür geeignet, natürliche Sprache zu analysieren. Wir werden sehen, welche verschiedenen Arten von Logiken es gibt und welche für die Analyse von verschiedenen Phänomenen der natürlichen Sprache geeignet ist. Außerdem wird im Laufe der Diskussion deutlich werden, worin die Gemeinsamkeiten und Unterschiede zwischen Logiken und natürlichen Sprachen bestehen. Beispielsweise kommen Quantoren in beiden vor. 5.4.1 Aussagenlogik Die Aussagenlogik (propositional logic) geht auf Aristoteles zurück. Bei den Griechen war es das vorrangige Ziel, Regeln für schlüssige Argumente zu finden. In diesem Zusammenhang wurde die Aussagenlogik entdeckt: Sie diente dazu festzustellen, unter welchen Bedingungen Schlussfolgerungen in der rhetorischen Argumentation gültig sind. Eine solche Regel ist der Modus ponens, illustriert anhand eines altbekannten Beispiels: Alle Menschen sind sterblich. Sokrates ist ein Mensch. ——————————- Sokrates ist sterblich. Der Modus ponens besagt: Wenn eine Menge eine Eigenschaft besitzt (z.B. sterblich) und ein Individuum (z.B. Sokrates) zu dieser Menge gehört, dann besitzt dieses Individuum auch diese Eigenschaft. Die Aussagenlogik verknüpft ganze Aussagen miteinander (Hilbert & Ackermann (1928): Kapitel 1, Hoffmann (2011): § 2.3). Solche Aussagen bezeichnet man auch als Propositionen (propositions). Diese Propositionen können entweder wahr oder falsch sein. Sie besitzen daher einen Wahrheitswert in dem Sinn, wie wir es in § 5.3.1 über die Korrespondenztheorie der Wahrheit gesehen haben. In der Aussagenlogik können Propositionen nicht weiter zerlegt und analysiert werden, sie treten als unteilbare Bausteine auf, die auf verschiedene Weise miteinander verknüpft werden können. Die Verknüpfung erfolgt über Operatoren (operators), damit bezeichnet man zumeist mathematische oder logische Verknüpfungsvorschriften. Einige Operatoren aus der Mathematik sind weit bekannt, zum Beispiel + (plus), - (minus), * (mal) und : (dividiert). Es gibt jedoch noch viele andere. In der Aussagenlogik treten folgende Operatoren auf: 102 5. Semantik und Logik • und ^ • oder _ • nicht - • Implikation ) Man kann daher aus den Aussagen A und B folgende zusammengesetzte Aussagen bilden: • A: Hannes spielt die Telecaster. B: Marlene spielt Bass. • A ^ B Hannes spielt die Telecaster und Marlene spielt Bass. • A _ B Hannes spielt die Telecaster oder Marlene spielt Bass. • - B Marlene spielt nicht Bass. • A ) B Wenn Hannes die Telecaster spielt, dann spielt Marlene Bass. Den Wahrheitswert von Sätzen der Aussagenlogik kann man recht einfach und, wenn man möchte, auch automatisch, mit Hilfe von Wahrheitstafeln (truth tables) bestimmen. Hierbei macht man eine Liste der Wahrheitswerte für alle vorkommenden Variablen und gleicht diese systematisch miteinander ab. Hat man z.B. zwei Variablen A und B, so entstehen insgesamt vier Kombinationen: A B wahr wahr wahr falsch falsch wahr falsch falsch Nun kann man den Wert für einen bestimmten Operator, zum Beispiel für ^ in die dritte Spalte schreiben: A B ^ wahr wahr wahr wahr falsch falsch falsch wahr falsch falsch falsch falsch Wenn man möchte, kann man so komplexere Formeln berechnen. Die Einträge für die Operatoren sind gegeben, so dass jeweils immer die nächstkomplexere Spalte systematisch ausgefüllt werden kann. Möchte man z.B. (A ^ B) ^ A bestimmen, so kann man das Ergebnis von (A ^ B), wie es in der ersten Tabelle steht, nochmals mit der Spalte A und der Vorschrift für den Und-Operator kombinieren. 5.4 Logiken 103 A ^ B A ^ wahr wahr wahr wahr falsch falsch falsch wahr falsch falsch falsch falsch Die Aussagenlogik ist eng verwandt mit der Boole’schen Algebra (Boolean algebra), einer algebraischen Struktur, die von George Boole entwickelt wurde (Boole (1847)). Unter einer algebraischen Struktur (algebraic structure) versteht man eine Menge von Elementen und Verknüpfungen der Elemente. Beispielsweise ist die Menge der natürlichen Zahlen und die Operation Addition eine algebraische Struktur. Die Algebra selbst ist eine Teildisziplin der Mathematik, die sich mit der Erforschung solcher Strukturen beschäftigt (z.B. Welche gibt es? Welche Eigenschaften haben sie? Können sie auf andere Strukturen abgebildet werden? ). Die Schaltalgebra ist eine spezielle Variante der Boole’schen Algebra (Lipp & Becker (2008)). Sie besitzt nur zwei Elemente, 0 und 1. Diese sind als algebraisches Nullelement und Einselement definiert. Die Verknüpfungen sind wie in der Aussagenlogik und, oder sowie nicht. Mit dieser Algebra ist es möglich, Schaltungen zu beschreiben. Dies betrifft sowohl Stromkreise im Allgemeinen als auch die Schaltungen innerhalb des Computers, die Gatterschaltungen. Es gibt die UND-, ODER- und NICHT-Gatter sowie die NAND-, NOR- und XOR- Gatter. Man braucht nicht alle Typen von Gattern, um den gewünschten Schaltkreis zu bauen. Zum Beispiel können ODER- und NICHT-Gatter allein durch die Verschaltung von mehreren NAND-Gattern hergestellt werden. Die Schaltalgebra ist somit für die Informatik unabdingbar. Sie ist das logische Fundament, nach dem die Schaltungen der Rechenanlagen konstruiert werden. Abbildung 5.1: AND-Gatter Propositional logic • Propositional logic combines propositions (whole sentences) with the logical operators and ^ , or _ , not and implication ) . 104 5. Semantik und Logik • Propositions have truth values. The truth values of complex formulas can be systematically computed from truth tables. Machines can also do that. • Boolean algebra is closely related to propositional logic. It serves as the foundation of the circuits in computers. 5.4.2 Prädikatenlogik Die Prädikatenlogik (predicate logic) ist eine Weiterentwicklung der Aussagenlogik. Sie wurde von Gottlob Frege (Frege (1879)) und von Charles S. Peirce (Peirce (1880)) entwickelt. Sie enthält die gleichen Operatoren wie die Aussagenlogik, kann aber noch mehr: Die Aussagen werden nicht mehr als unteilbare Blöcke betrachtet, sondern bestehen aus Prädikaten (predicates) und Argumenten (arguments). Prädikate sind Eigenschaften, die eine oder mehrere Leerstellen haben. Diese können mit Konstanten (constants) (wie z.B. Eigennamen, die sich immer auf ein und dasselbe Objekt in der Welt beziehen) oder mit Variablen (variables) gefüllt werden. Ein Prädikat P mit einer Konstanten c wird wie folgt zu einer Aussage zusammengesetzt: P(c). • c ... Carl • P() ... ist_ein_Pianist • P(c) ... Carl ist ein Pianist. Das Beispiel verdeutlicht, dass die Aussage Carl ist ein Pianist nicht mehr wie in der Aussagenlogik als unteilbarer Block betrachtet wird, sondern dass auf seine Bestandteile, das Prädikat ist ein Pianist und die Individuenkonstante Carl zugegriffen werden kann. Dementsprechend kann auch ein anderes Individuum eingesetzt werden: • f ... Friedrich • P(f) ... Friedrich ist ein Pianist. Oder es kann ein anderes Prädikat verwendet werden: • G() ... ist_ein_Geiger • G(f) ... Friedrich ist ein Geiger. Weiters können nicht nur Konstanten, sondern auch Variablen in Prädikate eingesetzt werden. Diese sind zunächst einmal Leerstellen. (3) a. x ... x b. P(x) ... x ist ein Pianist. Damit ein Satz wie (3) einen Wahrheitswert bekommen kann, müssen für alle Variablen, die vorkommen, konkrete Werte, d.h. Individuenkonstanten oder Eigennamen eingesetzt werden. Man muss einfach wissen, wer oder was x ist, 5.4 Logiken 105 damit man feststellen kann, ob x ein Pianist ist oder nicht. Man sagt auch, dass Variablen gebunden (bound) werden müssen. Dies geschieht über Quantoren (quantifiers). Quantoren sind Operatoren, die, grob gesagt, festlegen, für wieviele Individuen die Variable stehen kann. Man unterscheidet den Allquantor 8 (universal quantifier) und den Existenzquantor 9 (existential quantifier). Der Allquantor bedeutet „für alle“, der Existenzquantor bedeutet „es gibt ein“. • 8 x . P(x) Für alle x gilt, x ist ein Pianist. • 9 x . P(x) Es gibt ein x, für das gilt: x ist ein Pianist. Selbstverständlich gelten auch weiterhin die Operatoren ^ , _ , - und ) aus der Aussagenlogik. • 9 x . P(x) ^ G(x) Es gibt ein x, für das gilt: x ist ein Pianist und x ist ein Geiger. Predicate logic • Predicate logic is an extension of propositional logic. Its sentences consist of predicates and arguments. • The arguments can be constants or variables. Variables must be bound by a quanti er such as all or there exists a. • The operators ^ , _ , - , and ) still exist. 5.4.3 Modallogik Die Modallogik (modal logic) ist ebenfalls eine Erweiterung der „herkömmlichen“ Logik, allerdings nicht zwingend eine Erweiterung der Prädikatenlogik, denn es kann bereits die Aussagenlogik in eine Modallogik umgewandelt werden (Blackburn et al. (2007)). Die Modallogik wurde bereits im Mittelalter von verschiedenen Philosophen verwendet, ihre formale Entwicklung erfolgte im 20. Jahrhundert durch Clarence Irving Lewis (Lewis & Langford (1932)) und Saul Kripke (Kripke (1963)). Letzterer entwickelte die Interpretation anhand möglicher Welten (possible worlds). Es gibt nicht eine einzige Art von Modallogik, sondern viele verschiedene. Kernstück sind immer zwei neue Operatoren, nämlich ⇤ und ⌃ , wobei eigentlich einer genügt, denn man kann den anderen aus dem einen erhalten: • ⇤ p ist äquivalent mit - ⌃ p Betrachten wir zunächst die Operatoren und gehen wir davon aus, dass sie der Aussagenlogik hinzugefügt werden. In der Modallogik kann eine Aussage nicht mehr nur wahr oder falsch sein, sondern auch möglich ⌃ (possible) und notwendig ⇤ (necessary): 106 5. Semantik und Logik (4) Aussagenlogik a. Heute regnet es. b. A (5) Modallogik a. Es ist möglich, dass es heute regnet. b. ⌃ A Der Satz der Aussagenlogik in (4a) ist entweder wahr oder falsch, je nachdem, wie die Wettersituation heute ist. Der Wahrheitswert kann also leicht überprüft werden, indem man die Umweltbedingungen in Erfahrung bringt. Mit dem Satz der Modallogik in (5a) verhält es sich anders: Er ist wahr, wenn die Möglichkeit besteht, dass es heute regnet. Er ist falsch, wenn diese Möglichkeit nicht besteht. Es geht also im Unterschied zur Aussagenlogik nicht darum, ob es jetzt tasächlich regnet oder nicht, sondern es geht darum, ob die Möglichkeit besteht. Genauso verhält es sich mit der Notwendigkeit: (6) Aussagenlogik a. Markus Rogan schwimmt. b. B (7) Modallogik a. Markus Rogan muss schwimmen. b. ⇤ B Wie im vorherigen Beispiel kann der Wahrheitswert der Aussage (6a) leicht festgestellt werden, indem überprüft wird, ob Markus Rogan in diesem Moment schwimmt oder nicht. Die Aussage der Modallogik, die die Notwendigkeit beinhaltet, wird wie folgt überprüft: Ist es der Fall, dass eine Notwendigkeit besteht, dass Markus Rogan schwimmt, oder nicht? Der Satz in (7a) ist genau dann wahr, wenn eine solche Notwendigkeit vorhanden ist. Zum Beispiel kann es sein, dass es für Markus Rogan unbedingt notwendig ist, dass er jeden Tag schwimmt, da ansonsten seine Muskelkraft abnimmt. Unter der Voraussetzung, dass seine Muskelkraft nicht schwinden darf, ist es notwendig, dass er schwimmt. Die Modallogik tritt in verschiedenen Varianten auf. Zum Beispiel wird in der epistemischen Logik (epistemic logic) das Wissen von ein oder mehreren „Personen“ modelliert. Der Operator ⇤ bedeutet in diesem Fall „weiß ganz sicher, dass...“, der Operator ⌃ „hält es für möglich, dass...“ bzw. „glaubt, dass...“ Dadurch kann untersucht werden, welches Wissen vorliegt. Die Temporallogik (temporal logic) beschäftigt sich mit der Modellierung von Zeiten und Zeitverhältnissen. Sie wurde von Arthur Prior (Prior (1957)) und Hans Kamp (Kamp (1968)) entwickelt. Ziel ist es, Zeitformen wie Präsens, Futur, Präteritum, Progressiv usw. zu formalisieren und so ihre Bedeutung zu bestimmen. Weiters wird formalisiert, was vorher, was nachher und was gleichzeitig ist und wie sich Intervalle verhalten (z.B. angrenzende oder überlappende Zeitintervalle). 5.4 Logiken 107 Die intensionale Logik (intensional logic) schließlich ist eine Modallogik, die die Begriffe Sinn und Bedeutung, wie Frege sie definiert hat, in ein formales System fasst (siehe auch § 5.2.1). Diese kurze Auflistung verschiedener Modallogiken zeigt, wie nahe sie an der Semantik von natürlichen Sprachen sind. Denn diese wollen Phänomene wie Tempus, präpositionale Einstellungen und Intensionen analysieren. In § 5.5 wollen wir einige von diesen näher betrachten. Modal logic • Modal logic is an extension of propositional or predicate logic with the addition of the operators ⇤ (necessity) and ⌃ (possibility). • There are different kinds of modal logic. Logicians investigate their particular properties. • Modal logic is used to model knowledge, tense, and the like. 5.4.4 Nichtklassische Logiken Unter dem Begriff nichtklassische Logiken (non-classical logics) werden mehrere Arten von Logiken zusammengefasst. Zum einen kann die klassische Aussagenbzw. Prädikatenlogik dahingehend erweitert werden, welche Wahrheitswerte es gibt. Bei den mehrwertigen Logiken (many-valued logics) gibt es neben wahr und falsch noch andere Wahrheitswerte, wie etwa unbekannt oder vielleicht in einer dreiwertigen Logik (Łukasiewicz (1920)). In der Fuzzy-Logic gibt es als Wahrheitswert alle Zahlen zwischen null und eins, also unendlich viele Wahrheitswerte. Damit ist es möglich, bestimmte Grade von Wahrheit zu erfassen. 1 ist demnach vollkommen sicher wahr, 0 ist vollkommen sicher falsch und 0,5 ist weder wahr noch falsch (Zadeh (1975)). In den nicht-monotonen Logiken (non-monotonic logic) passiert etwas anderes (Antoniou (1997)): Vorhandene, wahre Aussagen können auf einmal falsch werden, wenn neue Aussagen hinzukommen. Diese Tatsache ist vor allem für die Wissensmodellierung und -repräsentation von Interesse, da hier manchmal vorhandene Annahmen revidiert werden müssen. Monotone Logiken erfüllen diese Eigenschaft nicht: Was einmal wahr ist, bleibt immer so. Non-classical logics • There are several types of non-classical logics. All of them are an extension of propositional and/ or predicate logic. 108 5. Semantik und Logik • Many-valued logic allows for more than two truth values, e.g. unde ned is added as a third one. Fuzzy logic allows for truth values to be everything between 0 and 1. Non-monotonic logic is important for knowledge representation. True propositions may turn out to be wrong when some new facts are added. 5.4.5 Lambda-Kalkül Neben den verschiedenen Arten von Logiken ist der Lambda-Kalkül (lambda calculus) ein sehr wichtiger Formalismus. Mit ihm ist es möglich, Funktionen und ihre Anwendungen auf Argumente exakt und präzise darzustellen. Er ist besonders einfach, denn es gibt nur Variablen und einen einzigen Operator, den Lambda-Operator . Mit dem Lambda-Kalkül ist es möglich, beliebige (d.h. berechenbare) Funktionen und ihre Anwendung auf Argumente darzustellen. Diese Argumente können wiederum Funktionen sein, es besteht hier keine Einschränkung. Der Lambda-Kalkül wurde von Alonzo Church erfunden (Church (1932), Church (1936)), wobei sich laut Alama (2014): § 3 die ersten entsprechenden Ideen bereits bei Frege (Frege (1893)) finden. Der Lambda-Kalkül eignet sich, um mathematische Formeln eindeutig darzustellen, auch Computerprogramme können mit ihm dargestellt werden. Viele Computerprogramme sind direkt Lambda-Terme, das Prinzip der funktionalen Programmierung (functional programming), das Programmiersprachen wie Lisp oder Scala zugrunde liegt, entspricht direkt dem Lambda-Kalkül. Auch in der formalen Semantik der natürlichen Sprachen erfreut sich der Lambda-Kalkül großer Beliebtheit. Gemäß dem Kompositionalitätsprinzip werden die Teile eines Ausdruckes systematisch zusammengesetzt, so dass die Bedeutung des gesamten Satzes aus dessen Teilen berechnet werden kann. Der Lambda-Kalkül erlaubt es, die Teile des Satzes als Funktionen zu formalisieren, die wiederum aufeinander angewendet werden können. Somit ist der Lambda- Kalkül das ideale Werkzeug für die formale Semantik. Im Folgenden betrachten wir nun die Syntax des Lambda-Kalküls, seine Intensionalität sowie seine Bedeutung für die Informatik hinsichtlich der Berechenbarkeitstheorie und der funktionalen Programmierung genauer. Syntax des Lambda-Kalküls Der Lambda-Kalkül hat eine sehr einfache Syntax. Zunächst sind einfache Variablen Lambda-Terme: • x 5.4 Logiken 109 Zwei Lambda-Terme können kombiniert werden, indem der eine Term auf den anderen angewendet wird. Zum Beispiel wird im folgenden Beispiel die Funktion b auf das Argument c angewandt. Beide, b und c sind Lambda-Terme. • bc Schließlich gibt es noch die Lambda-Abstraktion (lambda abstraction), in der nun endlich der eigentliche Lambda-Operator in Erscheinung tritt. • x.T Die Abstraktion bedeutet, dass x eine Variable ist (sie wird durch das gekennzeichnet), die in dem Term T vorkommt. Derartige Terme können nun auf andere Terme angewendet werden, so dass alle Vorkommnisse der Variablen x im Term T durch diesen neuen Term ersetzt werden. Diese Anwendung auf Argumente bezeichnet man als -Reduktion. Betrachten wir dies anhand eines Beispiels aus der Mathematik an, damit klar wird, wie das Ganze funktioniert. Dazu gehen wir vom folgenden algebraischen Term aus: (8) 2 + 4 Es ist leicht zu sehen, dass der Wert von (8) 6 ist. Nun können wir den Vierer wegabstrahieren und erhalten eine Funktion, die eine Variable nimmt und zu dieser 2 hinzuzählt: (9) x. 2 + x Wir sehen, dass dort, wo der Vierer gestanden ist, jetzt ein x steht, nämlich die Variable. Außerdem ist das x am Anfang des Terms dazugekommen. Mit diesem Teil werden die Variablen markiert, die im Term vorkommen. Prinzipiell kann man jedes beliebige Zeichen für Variablen verwendet, also theoretisch auch das Zeichen 2. Damit sichergestellt ist, was die Variablen sind, werden diese am Anfang des Terms durch den Lambda-Operator gekennzeichnet. Die Funktion in (9) kann nun auf verschiedene Argumente angewendet werden, zum Beispiel: • ( x. 2 + x)(8) • ( x. 2 + x)(1) Mittels -Reduktion (das ist die Operation, mit der Funktionen auf ihre Argumente angewendet werden), erhält man im nächsten Schritt das Folgende: • 2 + 8 • 2 + 1 Man sieht, dass überall dort, wo das x war, das Argument eingesetzt wird. Nun kann man, wenn man möchte, den algebraischen Term noch ausrechnen. Dies ist aber nicht mehr Teil des Lambda-Kalküls. Intensionalität des Lambda-Kalküls Der Lambda-Kalkül ist intensional (Alama (2014): § 1.2), es wird also immer die beabsichtigte Funktion repräsentiert. Auch wenn zwei unterschiedliche Lambda-Terme für alle Argumente, auf die man sie anwendet, immer den 110 5. Semantik und Logik gleichen Funktionswert liefern, kann man nicht sagen, dass sie gleich sind, denn der erste Lambda-Term könnte einen anderen inneren Aufbau haben als der zweite. Dies kann anhand eines einfachen Computerprogramms illustriert werden. Man denke sich ein Programm, das eine Zahl einliest und genau diese Zahl dann wieder ausspuckt. Gibt man also 1 ein, erhält man 1, gibt man 42 ein, erhält man 42 usw. Folgendes Programm ist sehr einfach und liefert genau das gewünschte Ergebnis: • Programm A 1. lies den Wert ein 2. weise der Variablen x den eingelesenen Wert zu 3. drucke den Wert von x Programm B würde genau das gleiche Ergebnis liefern, allerdings erfolgt die Berechnung mit anderen (eigentlich sinnlosen) Schritten: • Programm B 1. lies den Wert ein 2. weise der Variablen x den eingelesenen Wert zu 3. addiere zum Wert x nochmals den Wert x, speichere das Ergebnis in y 4. subtrahiere von y den Wert x 5. drucke den Wert von y Die beiden Programme A und B liefern zwar immer genau das gleiche Ergebnis, sie sind aber keineswegs gleich. In diesem Sinne sind die entsprechenden Lambda-Terme für die Programme A und B auch nicht gleich. Eine normale Gleichung in der Mathematik verhält sich nicht so. y = 2*x ist genau das gleiche wie z = a*2. Der Lambda-Kalkül ist also intensional, die normale Mathematik bzw. Algebra nicht. Die Church-Turing-Hypothese Alonzo Church und Alan Turing konnten zeigen, dass der Lambda-Kalkül gleichmächtig wie die Turing-Maschine (Turing machine) ist. Beide, der Lambda-Kalkül wie auch die Turingmaschine, sind für die theoretische Informatik von zentraler Bedeutung. Die Berechenbarkeitstheorie (computability theory) untersucht, welche mathematischen Funktionen überhaupt ausgerechnet werden können und welche nicht. Manche Funktionen sind so kompliziert, dass ihre Berechnung entweder unendlich lange dauern oder unendlich viel Speicherplatz benötigen würde. Alonzo Church und Alan Turing haben diesbezüglich eine Hypothese aufgestellt, die bis heute nicht bewiesen worden ist (Copeland (2015)): 5.4 Logiken 111 Church-Turing-Hypothese Alle diejenigen Funktionen, die mittels des Lambda-Kalküls dargestellt werden können, sind berechenbar. All diejenigen, für die das nicht möglich ist, sind nicht berechenbar. Funktionale Programmiersprachen Der Lambda-Kalkül dient als theoretische Grundlage für die funktionalen Programmiersprachen (functional programming languages) wie Lisp, Clojure, Scala, Erlang oder Haskell. Die funktionale Programmierung ist ein Programmierparadigma, das bedeutet, eine Art und Weise, wie Programmiersprachen funktionieren. Neben der funktionalen Programmierung gibt es auch die imperative Programmierung (hier werden direkte Befehle nacheinander angeführt) oder die objektorientierte Programmierung (hier werden die zu modellierenden Datenstrukturen als Objekte mit Eigenschaften und Methoden verstanden; es existieren Verbindungen zwischen Objekttypen wie z.B. die Vererbung. Eine der bekanntesten objektorientierten Sprachen ist Java; die Objektorientierung ist in vielen Bereichen zum Industriestandard geworden). In der funktionalen Programmierung werden im Unterschied zu den anderen Sprachen hauptsächlich Funktionen geschrieben, die wiederum von anderen Funktionen aufgerufen werden können. Ein funktionales Programm ist also keine Beschreibung eines bestimmten Ablaufs, keine Auflistung verschiedener Befehle, sondern eine Beschreibung der einzelnen Funktionen. Deswegen ist die funktionale Programmierung auch ein Teil des deklarativen Programmierparadigmas. Natürlich muss man, wenn man den Wert einer Funktion berechnen will, diese irgendwann auch aufrufen. Die bekannteste funktionale Programmiersprache ist Lisp, dies ist eine Abkürzung für list processing, also Listenverarbeitung. Die grundlegende Datenstruktur in Lisp ist die Liste, von ihr können der Anfang und der Rest verwaltet werden. Besonders in der Computerlinguistik ist Lisp weit verbreitet. In den 90er Jahren und den Nullerjahren des 21. Jahrhunderts wurde Lisp dann weniger verwendet, es landete sozusagen im Exoteneck der künstlichen Intelligenz. In letzter Zeit gewinnt es wieder an Bedeutung, da einerseits die funktionale Programmierung für das Parallelrechnen (parallel computing) besonders gut geeignet ist, andererseits werden funktionale Sprachen auch gern im Rahmen der semantischen Technologien verwendet, da sie sich gut für computerlinguistische Anforderungen und Fragen der Wissensrepräsentation eignen (siehe auch § 8). 112 5. Semantik und Logik Lambda calculus • The lambda calculus is a formal system which makes it possible to investigate the properties of mathematical functions. It was developed by Alonzo Church. • The lambda calculus consists of mathematical terms and the special operator . It allows us to write functions and mark their arguments. -reduction is the operation that applies arguments to a term. • The calculus is intensional, i.e., although the results of two terms may be the same, the terms may differ. • The Church-Turing thesis assumes that all computable functions may be written in lambda terms. • Functional programming is a programming paradigm for computer programming that directly implements the lambda calculus. Examples are languages like Lisp, Scala, Erlang, and Haskell. 5.5 Linguistische Beispiele Im folgenden Kapitel wollen wir den Zusammenhang zwischen formaler Logik und formaler semantischer Analyse der natürlichen Sprache anhand zweier Beispiele betrachten: Quantoren und Modalverben. Beide, Quantoren und Modalitätsoperatoren sind Bestandteile der formalen Logik, beide treten aber auch in der natürlichen Sprache auf. Im Weiteren werden wir anhand dieser Beispiele sehen, wie sich die natürliche Sprache von der Logik unterscheidet und auf welche Weise logische Methoden für die Analyse der Bedeutung verwendet werden können. 5.5.1 Quantoren Nominalphrasen können Quantoren enthalten, so dass die Nominalphrasen sich dann auf mehrere Elemente beziehen, z.B. • ein, jeder, mancher, kein, einige, die meisten, die wenigsten, viele, wenige ... Denken wir uns beispielsweise die folgende Menge von Polizisten (für das Beispiel sind also nur diese Polizisten relevant, alle anderen Polizisten müssen nicht berücksichtigt werden.): 3 • Kottan • Bulle von Tölz 3 Man spricht auch davon, dass diese Polizisten im Diskursuniversum relevant sind, dass also im aktuellen Gespräch/ Text nur diese Polizisten vorkommen. 5.5 Linguistische Beispiele 113 • Der Alte • Inspector Columbo • Inspector Gadget • Derrick • Trautmann • Stockinger • Brenner Die quantifizierten Nominalphrasen könnten sich daher auf folgende Mengen von Polizisten beziehen: • einige Polizisten: nicht alle, aber doch mehrere der gegebenen Menge {Der Alte, Derrick, Brenner, Stockinger} • die meisten Polizisten: mehr als die Hälfte der gegebenen Menge {Kottan, Bulle von Tölz, Der Alte, Inspector Columbo, Derrick, Trautmann, Stockinger, Brenner} • ein Polizist: einer aus der Menge {Trautmann} • jeder Polizist: alle aus der Menge {Kottan, Bulle von Tölz, Der Alte, Inspector Columbo, Inspector Gadget, Derrick, Trautmann, Stockinger, Brenner} Auch kein ist ein Quantor, er bezeichnet genau kein Element aus der Menge. Beisielsweise gilt für unsere Menge: • Kein Polizist ist weiblich. • kein Polizist: niemand aus der Menge { } Skopusambiguität Sätze mit mehreren Quantoren haben immer mehrere Bedeutungen gleichzeitig, sie sind ambig. (10) Jeder Polizist will einen Verbrecher verhaften. Möglichkeit 1: Jeder Polizist will einen Verbrecher verhaften. Es gibt also genauso viele Verbrecher wie Polizisten. • Columbo will den Dieb verhaften. • Trautmann will den Mafiaboss verhaften. • Derrick will den Mörder verhaften. • Der Alte will den Einbrecher verhaften. • Kottan will den Falschparker verhaften. • Der Bulle von Tölz will den Heiratsschwindler verhaften. • .... Möglichkeit 2: Alle Polizisten träumen davon, Jack the Ripper zu verhaften. Es gibt also genau einen Verbrecher, den alle verhaften wollen. 114 5. Semantik und Logik Quantoren sind Operatoren, die ursprünglich aus der Logik stammen, man schreibt sie folgendermaßen: • 8 x .... für alle, Allquantor • 9 x .... es gibt, Existenzquantor Die Ambiguität von (10) lässt sich wie folgt formal darstellen: Formale Darstellung: (11) Möglichkeit 1: 8 x 9 y (x will y verhaften) (12) Möglichkeit 2: 9 y 8 x (x will y verhaften) Die unterschiedliche Reihenfolge von 8 und 9 bezeichnet deren Skopusunterschied. Derjenige Operator, der am weitesten links steht, hat den weitesten Skopus. In (11) hat 8 den weitesten Skopus. Das bedeutet, dass es für alle x irgendein y gibt (das x bestimmt, welches y), das x verhaften möchte. Dies entspricht der Bedeutung, wie sie unter Möglichkeit 1 beschrieben ist. Generalisierte Quantoren Montague (1973) entwickelte die Theorie der generalisierten Quantoren (generalized quantifiers). Daneben führten auch Barwise & Cooper (1981) die generalisierten Quantoren ein. Beide Papiere gemeinsam sind die Grundlage für die heutige Theorie der generalisierten Quantoren. Montagues intensionale Semantik verwendet Typen. Das Problem bei der klassischen Analyse ist, dass Individuen und Quantoren nicht den gleichen Typ haben. Daher müssten verschiedene Wörter wie zum Beispiel transitive Verben verschiedene Typen erlauben: • Der Uhu schläft. (Uhu ist ein Individuum) • Alle Uhus schlafen. („alle Uhus“ ist ein quantifizierter Ausdruck) In diesem Beispiel müsste das Verb schlafen in zwei Varianten auftreten, einmal für den Typ Individuum, einmal für den Typ Quantor. Damit eine derartige Verdoppelung nicht notwendig ist, kam Montague auf die Idee, dass es sich mit Quantoren systematisch anders verhält als mit Individuen. Während Individuen immer das Argument sind, also eine Leerstelle im Argumentrahmen des Verbs füllen, ist es bei den Quantoren umgekehrt. Quantoren nehmen Eigenschaften (also Verben) als Argument und nicht umgekehrt. Sie sind somit von höherer Ordnung. Der quantifizierte Satz bedeutet, dass die Menge der Individuen, die Uhus sind, eine Teilmenge von denjenigen Individuen ist, die schlafen. Es gibt also zwei Mengen: die Menge der Uhus und die Menge der Schlafenden. Der Quantor drückt eine Relation zwischen diesen Mengen aus. Im Fall des Allquantors ist die Menge der Uhus in der Menge der Schlafenden enthalten. Andere Quantoren drücken andere Mengenrelationen aus. 5.5 Linguistische Beispiele 115 Generalized quanti ers • Quanti ers in natural language are words like some, all, most, any, etc. • Sentences that contain two or more quanti ers systematically show a scope ambiguity; there are always several interpretations available. • Montague and Barwise & Cooper developed the theory of generalized quanti ers: Individuals always are the argument of a predicate and quanti ers are not; rather, they take predicates as their arguments. 5.5.2 Modalverben Nachdem wir schon so viel über Modallogik, mögliche Welten und deren Bedeutung für die Wissenschaftstheorie besprochen haben, wollen wir uns nun die Modalverben aus der linguistischen Perspektive etwas genauer ansehen, damit wir ein Gefühl dafür bekommen, worin sich die Logik von der Semantik unterscheidet und wie so eine semantische Analyse im Detail überhaupt aussieht. Die Darstellung ist nur ein sehr kurzer Überblick, denn die Literatur zu diesem Thema ist gewaltig. Folgende Verben des Deutschen gelten gemeinhin als Modalverben. Es gibt aber neben diesen noch viele weitere Möglichkeiten, Modalität in der natürlichen Sprache auszudrücken. • müssen, können, sollen, wollen, dürfen Auch brauchen ist ein Modalverb, jedoch ist seine Struktur komplexer. Die wichtigste und einflussreichste Analyse der Semantik der Modalverben stammt von Angelika Kratzer (Kratzer (1977)) und David Lewis (Lewis (1973b)). Sie basiert auf möglichen Welten, deren Anordnung und Erreichbarkeit. Doch bevor wir uns darin vertiefen, werfen wir einen kurzen Blick auf die unterschiedlichen Lesarten der Modalverben. Modalverben haben vielfältige Interpretationen, dennoch handelt es sich nicht um wildwüchsige Synonymien. Es ist möglich, die Bedeutung der Modalverben exakt festzulegen und die Bandbreite der Bedeutungsvariation genau zu bestimmen. Folgende Beispiele geben einen ersten Eindruck, auf wie viele verschiedene Arten das Modalverb können verwendet werden kann: (13) Hannes kann die Telecaster spielen. (Er besitzt diese Fähigkeit.) (14) Elvira kann jetzt schon zu Hause sein. (Es ist möglich, dass sie zu Hause ist, es ist wenig Verkehr, so dass ihre Wegzeit wahrscheinlich kurz ist.) (15) Astrid kann jetzt im Bett liegen. (Es ist für Astrid jetzt erlaubt, jetzt im Bett zu liegen, es ist bereits nach Dienstschluss.) 116 5. Semantik und Logik Beispiel (13) drückt eine Fähigkeit aus, konkret die körperliche Fähigkeit von Hannes, dieses Instrument zu spielen: Er ist in der Lage dazu. Beispiel (14) drückt aus, wie eine bestimmte Situation sein könnte, auf Grund von all dem, was über den Sachverhalt bekannt ist. Es wird also der Sachverhalt hinsichtlich des vorhandenen Hintergrundwissens über Elviras Reise eingeordnet. Beispiel (15) drückt aus, was für Astrid gemäß ihres Dienstplans erlaubt ist: Sie darf nur im Bett liegen, wenn sie frei hat, nicht aber, wenn sie Dienst hat. Es wird hier ausgedrückt, welche Regeln Astrid befolgen muss. Diese Einteilung der Modalverben bezieht sich auf den Redehintergrund (conversational background). In den drei Beispielen ist er jedes Mal ein anderer. Die Idee des Redehintergrundes wurde von Angelika Kratzer eingeführt. Es geht dabei darum, welche möglichen Welten bei der Interpretation zur Verfügung stehen. Erinnern wir uns an die Modallogik: Hier haben wir gesehen, dass die beiden Operatoren ⇤ und ⌃ bestimmen, ob der nachfolgende Teil der Formel in einer oder in allen möglichen Welten wahr sein muss. Für die natürliche Sprache ist es jedoch relevant, welche möglichen Welten überhaupt relevant sind, d.h. es wird nicht über alle möglichen Welten, die theoretisch denkbar sind, interpretiert. Vielmehr gibt der Redehintergrund an, um welche es jetzt gerade aktuell geht. Demnach unterscheidet man verschiedene Arten von Redehintergründen. In Beispiel (13) handelt es sich um den Fähigkeitshintergrund: Es werden diejenigen Welten betrachtet, die die Fähigkeiten von Hannes spezifizieren. können bedeutet hier, dass es eine zugängliche Welt gibt, in der Hannes das Instrument beherrscht. In Beispiel (14) ist der Redehintergrund epistemisch: alle Welten, die mit unserem derzeitigen Wissen kompatibel sind. In manchen von denen ist Elvira zu Hause, in anderen nicht, aber wir gehen nur von denjenigen aus, die mit dem Verkehrszustand und der Reisedauer, wie wir sie annehmen, kompatibel sind. In Beispiel (15) schließlich geht es um Welten, die das Gesetz, in diesem Fall die Arbeitsregelung von Astrid, erlaubt. Nur diese werden betrachtet. In der aktuellen Welt ist Dienstschluss, in anderen möglichen Welten, die dieser Regelung entsprechen, herrscht eine andere Uhrzeit und es ist noch nicht Dienstschluss. Wenn aber Dienstschluss herrscht, so gibt es eine Welt, in der Astrid im Bett liegt. Neben diesen drei Beispielen gibt es noch viele weitere Arten von Redehintergründen, die wir an dieser Stelle nicht weiter betrachten wollen. Geeignete Darstellungen finden sich in Stechow (2004) und Portner (2009) sowie in den Originalarbeiten von Angelika Kratzer. Neben dem Redehintergrund ist die Ordnungsquelle (ordering source) die zweite wichtige Komponente der Analyse von Modalverben. Die Ordnungsquelle ordnet die möglichen Welten an; es gibt nähere und weiter entfernte. Die beste und idealste Welt ist diejenige, in der alle Aussagen, die zur Diskussion stehen, wahr sind. Denkt man an einen deontischen Redehintergrund, also an die Regeln des Gesetzes, so ist die ideale Welt diejenige, in der alle Aussagen den Gesetzen entsprechen. Etwas weniger gute und somit etwas 5.5 Linguistische Beispiele 117 entferntere Welten sind solche, in denen einige, aber nicht alle der Aussagen gesetzeskonform sind. Natürlich gilt, dass je mehr Aussagen dem Gesetz entsprechen, desto näher die Welt am Ideal ist. Die Verben können und müssen entsprechen im Wesentlichen den Operatoren Möglichkeit ( ⌃ ) und Notwendigkeit ( ⇤ ), wie wir sie aus der Modallogik kennen. Die Möglichkeit bedeutet, dass mindestens eine zugängliche Welt existiert, in der die Aussage gilt. Im Falle der Notwendigkeit, d.h. bei müssen, gilt die Aussage in allen zugänglichen Welten. Auch in der Syntax sind die Modalverben ein interessantes Thema, denn gerade die deutschen Modalverben haben bestimmte Eigenschaften, die sie von anderen Verben unterscheidet: Sie bilden kein Partizip, sondern den Ersatzinfinitiv, sie tauchen weder in Passivnoch in Imperativkonstruktionen auf, und es steht kein zu beim Infinitiv. • Ernst hat singen *gekonnt/ können. • *Kann singen! • Ernst kann (*zu) singen. In den klassischen Analysen wird davon ausgegangen, dass die Modalverben je nach Redehintergrund eine andere Position im Strukturbaum einnehmen. Die epistemischen Lesarten verlangen, dass das Modalverb recht weit oben angesiedelt ist; die deontischen Hintergründe verlangen, dass es recht weit unten und nahe beim lexikalischen Verb steht. Zahlreiche Untersuchungen und Meinungen existieren zu diesem Thema. Es gibt einerseits viel Evidenz, dass die Modalverben tatsächlich unterschiedliche Positionen einnehmen, andererseits ist auch klar, dass die Zweiteilung in deontische (bzw. root) und epidemische Lesarten eine viel zu starke Vereinfachung darstellt. Siehe dazu auch Portner (2009), Reis (2001), Wurmbrand (2001) und andere. Modal verbs • Angelika Kratzer and David Lewis developed the analysis for modal verbs. It consists of a conversational background and an ordering source. • The conversational background speci es what kind of modality is expressed: knowledge, ability, laws, etc. • The ordering source determines the order of the possible worlds at hand. • Modal verbs have various syntactic properties: They do not form participles or passives. They cannot be used as an imperative. Their in nitive has a special morphological form. 118 5. Semantik und Logik 5.6 Zum Nutzen der formalen Semantik In diesem Abschnitt möchte ich den Nutzen der formalen Semantik für die Kognitionswissenschaft anhand der folgenden Themen darstellen: Zunächst sind Systeme mit Modalitätsoperatoren komplexer als solche ohne. Deshalb lohnt es sich zu erforschen, welche derartigen Operatoren in der natürlichen Sprache vorkommen und wie komplex das zugrundeliegende System sein muss. Dies erlaubt eine generelle Einsicht in die Komplexität von sprachlichen Denkvorgängen. Des weiteren ist die Verursachungsrelation für die Wissenschaftstheorie von zentraler Bedeutung. Sie wird durch die kontrafaktische Verursachungsrelation (§ 5.6.2) beschrieben, die sich wiederum auf kontrafaktische Konditionalsätze (§ 5.6.3) bezieht. Die Repräsentation von Wissen und die Ableitung von neuen Fakten, die mit logischen Inferenzmechanismen geschieht, ist für das Verstehen von gesprochenen Diskursen wichtig. Dies sehen wir im letzten Abschnitt dieses Kapitels. 5.6.1 Modale Systeme sind komplexer Paul Portner erläutert, wieso die Untersuchung der Modalität für die Semantik von so großer Bedeutung ist, dass zahlreiche ForscherInnen sich mit Modalverben, Arten der Modalität, Satzmodus, dem Konditional und ähnlichen Phänomenen beschäftigen, aber Fragen der lexikalischen Semantik wie etwa den Bedeutungswandel eines Adjektivs wie blöd völlig außer Acht lassen (Portner (2009), § 2.1). Diese Frage scheint berechtigt, da sich zahlreiche andere ForscherInnen, vor allem solche aus den Philologien, auf den Wandel spezifischer Gruppen von Lexemen konzentrieren wie etwa Flurnamen oder die Namenkunde (Onomastik) überhaupt. Auch die Analyse bestimmter Fachsprachen wie etwa die Politikersprache oder die Sprache der Kochbücher fällt in diesen Bereich. Mitunter führt dies dazu, dass ein erheblicher Streit unter SprachwissenschaftlerInnen entsteht, welche semantische Fragestellung denn nun die wesentliche sei. Oft wird der formalen Analyse von Seiten der Philologien der Vorwurf gemacht, sich in sinnlosen Formelspielereien zu verlieren. Portner erläutert, dass ein modales System wesentlich komplexer ist als ein nicht-modales, da sich modale Konzepte wie Möglichkeit und Notwendigkeit substantiell von nicht-modalen Konzepten unterscheiden (Portner (2009): 11, siehe dazu auch § 5.5.2). Deshalb ist es laut Portner unbedingt notwendig, Erkenntnisse über die Modalität in der menschlichen Sprache zu gewinnen, da sonst ein vereinfachtes und falsches Bild der menschlichen Sprachfähigkeit entstünde. 5.6 Zum Nutzen der formalen Semantik 119 5.6.2 Kontrafaktische Verursachung Die Kausalität (causality) bzw. die Verursachungsrelation ist in der Philosophie, und hier insbesondere in der Wissenschaftstheorie, von enormer Bedeutung. Man möchte wissen, wann etwas etwas anderes verursacht. So banal diese Frage klingen mag, so schwierig ist sie zu beantworten. Zum Beispiel möchte man in der Medizin herausfinden, ob ein bestimmtes Medikament wirkt. Dazu könnte man folgende einfache Untersuchungshypothese aufstellen: • Gabe von 50 mg Medikament XY bewirkt Reduktion der Körpertemperatur um 1 Grad • Gabe von 50 mg Medikament XY verursacht Reduktion der Körpertemperatur um 1 Grad • Gabe von 50 mg Medikament XY ! Reduktion der Körpertemperatur um 1 Grad Wir sehen schon die verdächtigen Wörter bewirkt und verursacht. In vielen Gebieten der Wissenschaft geht es zumeist darum, solche Zusammenhänge aufzustellen und empirisch zu überprüfen. Doch wie können wir uns sicher sein, dass das angenommene Antezedens wirklich die Ursache ist? Die klassische Logik hat sich vor allem darauf konzentriert, die Wahrheitsbedingungen der Implikation zu untersuchen. Damit können aus ganzen Wissensbasen Inferenzen gezogen und es kann neues Wissen gewonnen werden. Jedoch hilft die Untersuchung der Implikation nicht weiter, wenn es um die Verursachung geht. Denn ist es gar nicht so einfach, den richtigen Ursprung der Verursachung ausfindig zu machen. Gehen wir von folgendem Beispiel aus, einer Abwandlung der von Eckardt (2000) gegebenen Illustration: (16) Karin hat Sehnenscheidenentzündung. Der Grund für (16) könnte sein, dass Karin zu lange im Bett am Laptop geschrieben hat. Dadurch wurde ihr Handgelenk einseitig belastet, was zu besagter Sehnenscheidenentzündung geführt hat. Jedoch gibt es noch viele weitere Voraussetzungen oder Gründe, die zu Karins Zustand geführt haben. Beispielsweise: • Karin muss in zwei Tagen eine Seminararbeit abgeben, von der noch 15 Seiten ungeschrieben sind. Dies führt natürlich sofort zu der Frage, wieso denn die 15 Seiten noch ungeschrieben sind. Denn - vergessen Sie es nicht! - diese Notlage Karins hat zu dem ungesunden Schreibeifer im Bett geführt. Es war nämlich so, dass • Karin ein Zitat einfügen wollte, wozu sie ein Buch gebraucht hat, das nicht online verfügbar war. Das Buch war in der Bibliothek entlehnt,so dass Karin es erst jetzt bekommen konnte. 120 5. Semantik und Logik An dieser Stelle der Argumentationskette ist der unliebsame und gierige Entlehner des Buches also schuld an Karins Sehnenscheidenentzündung. Wie man leicht sehen kann, lässt sich dieses Muster nahezu unendlich weit fortsetzen. Die Wissenschaftstheorie fragt deshalb mit Recht, was als Ursache für bestimmte Effekte herangezogen werden kann. Der Philosoph Dawid Lewis (Lewis (1973a)) schuf mit dem Konzept der kontrafaktischen Verursachung (counterfactual theory of causation) Abhilfe für dieses Dilemma: (17) Kontrafaktische Verursachung Ereignis A verursacht Ereignis B genau dann, a. wenn A auftritt, tritt auch B auf und b. wenn A nicht auftritt, tritt auch B nicht auf. Kontrafaktisch bedeutet hier, dass eine Bedingung hinzukommt, die davon handelt, was passiert, wenn die vermutete Ursache nicht auftritt (Teilbedingung (18)). Diese Bedinung können wir auf Karins Sehnenscheidenentzündung anwenden. Wir wollen dabei herausfinden, ob das Tippen im Bett oder der unliebsame Entlehner des Buches die Ursache für ihren schmerzlichen Zustand ist. Zunächst zum Tippen im Bett: (18) A (Tippen im Bett) verursacht B (Sehnenscheidenentzündung) a. A tritt auf (Karin tippt im Bett), B tritt auf (Karin hat Sehnenscheidenentzündung) b. A tritt nicht auf (Karin tippt nicht im Bett), B tritt nicht auf (Karin hat keine Sehnenscheidenentzündung) Die Bedingungen in (18) sind valide, somit können wir das Tippen im Bett als Ursache akzeptieren. Nun zur Überprüfung des zweiten Grundes: (19) A (Das Buch ist entlehnt) verursacht B (Sehnenscheidenentzündung) a. A tritt auf (Das Buch ist entlehnt), B tritt auf (Karin hat Sehnenscheidenentzündung) b. A tritt nicht auf (Das Buch ist nicht entlehnt), B tritt nicht auf (Karin hat keine Sehnenscheidenentzündung) Diese Bedingung ist nicht gültig, denn Karin hat nicht immer Sehnenscheidenentzündung, wenn dieses eine Buch zu lange ausgeliehen ist. Die Theorie der kontrafaktischen Verursachung ist nicht nur für die analytische Philosophie und für die Wissenschaftstheorie interessant, sie bildet auch die Grundlage für die Suche nach der Ursache in unserem Rechtssystem, beispielsweise wenn nach Verantwortlichen von Unfällen oder von technischem Versagen gesucht wird. Obwohl die kontrafaktische Verursachung in vielen Bereichen wichtig ist, so ist sie doch für die Semantik von besonderer Bedeutung, denn sie enthält, 5.6 Zum Nutzen der formalen Semantik 121 wie wir gesehen haben, in ihren Bedingungen einen kontrafaktischen Konditionalsatz. Um solche Sätze und ihre Bedeutung für die Semantik, Linguistik und Kognitionswissenschaft geht es im nächsten Abschnitt. Lewis’ theory of counterfactual causation • Causation is central to the philosophy of science. One wants to know what causes what. • David Lewis de ned causation in counterfactual terms: x causes y if (a) when x happens, then also y happens and (b) when x doesn’t happen, then y also does not happen. 5.6.3 Kontrafaktische Konditionalsätze Konditionalsätze (conditional clauses) sind Bedingungssätze der Form: • wenn ..., dann ... Diese sind für eine syntaktische und semantische Analyse sehr interessant, da es verschiedene Arten dieser Sätze gibt. Auch das Tempus und der Modus der Verben sowie die Zeitenfolge unterliegen Regularitäten, die sich in allen Sprachen ähnlich verhalten. Insbesondere die Verwendung des Konjunktivs bzw. des Konditionals (conditional) (in romanischen Sprachen des Subjunktivs) stellt ein wichtiges Forschungsthema der Sprachwissenschaft dar. Wieso gibt es solche Verbformen? Gibt es diese in allen Sprachen? Wie ist ihre Bedeutung (in einem formalen Sinn)? Welche syntaktischen Muster gibt es (d.h. wann kann welche Verbform verwendet werden)? Es werden drei Formen der Konditionalsätze unterschieden: der reale, der potenziale und der irreale Konditionalsatz (Dudenredaktion (2006): § 749, § 752, Eisenberg (1994): 128, Helbig (1991): 42). Der reale Konditionalsatz (first conditional) drückt eine einfache Wenn-dann-Bedingung aus, eine Regel, die jederzeit angewendet werden kann. • Wenn du Nutella isst, wirst du fett. Der potenziale Konditionalsatz (second conditional) drückt eine Bedingung aus, die zwar möglich ist, aber unwahrscheinlich. • Wenn du Nutella äßest, dann würdest du fett. (Du isst aber kein Nutella.) Der irreale Konditionalsatz (third conditional) drückt eine Bedingung aus, die niemals eintreten kann. Er ist somit kontrafaktisch, also „gegen die Fakten“. • Wenn du Nutella gegessen hättest, wärest du fett geworden. (Die Chance ist vorbei, es gibt kein Nutella mehr.) Die kontrafaktischen Konditionalsätze sowie die Konditionalsätze mit Modalverb haben nicht die gleichen Wahrheitsbedingungen wie die materielle Impli- 122 5. Semantik und Logik kation aus der klassischen Logik. Erinnern wir uns: Die materielle Implikation der Aussagenlogik in (20) ist äquivalent zu der Formel mit oder in (21). (20) A ! B (21) - A _ B Diese beiden Formeln besitzen die folgende Wahrheitstabelle: A B A ! B t t t t f f f t t f f t Die Wahrheitstafel der materiellen Implikation gilt für die Interpretation von realen Konditionalsätzen, also solche, die im Präsens stehen und kein Modalverb beinhalten. Dies ist typischerweise die Form von Naturgesetzen. • Wenn Wasser auf 100 Grad erhitzt wird, dann kocht es. Wir sehen, dass die Wahrheitstafel der materiellen Implikation der Interpretation des realen Konditionalsatzes entspricht. Die Wahrheitswerte der Beispiele (22) bis (25) ergeben sich anhand von folgender Beispielwelt: Das Wasser wird auf 100 Grad erhitzt und das Wasser kocht. (22) Das Wasser wird auf 100 Grad erhitzt (t). Das Wasser kocht (t). WAHR (23) Das Wasser wird auf 100 Grad erhitzt (t). Das Wasser kocht nicht (f). FALSCH (24) Das Wasser wird nicht auf 100 Grad erhitzt (f). Das Wasser kocht (t). WAHR (25) Das Wasser wird nicht auf 100 Grad erhitzt (f). Das Wasser kocht nicht (f). WAHR Für die kontrafaktischen Konditionalsätze gilt dies nicht, denn der Wahrheitswert des Satzes kann nicht direkt aus seinen Teilen berechnet werden. Es liegt hier also ein Widerspruch zum Kompositionalitätsprinzip vor, das eigentlich die wesentliche Grundlage der formalen Semantik darstellt. Da dieses Prinzip keinesfalls aufgegeben werden soll, musste eine andere Analyse für die kontrafaktischen Konditionalsätze gefunden werden, die das Kompositionalitätsprinzip erfüllt. Die Lösung, die von David Lewis und Robert Stalnaker vorgeschlagen wurde (Stalnaker (1968), Stalnaker (1970), Lewis (1973b)), besteht darin, eine Modallogik zu verwenden. Das bedeutet, vereinfacht gesagt, dass nicht mehr der Wahrheitswert vom Teilsatz A überprüft wird, sondern dass man alle möglichen Welten betrachtet, in denen der Teilsatz A wahr ist. Ausgehend von diesem Punkt kann nun der Teilsatz B angeschaut und der Wahrheitswert des gesamten Satzes berechnet werden. Durch den Griff auf die Modallogik bleibt die Kompositionalität erhalten. Allerdings wird das zur Analyse verwendete 5.6 Zum Nutzen der formalen Semantik 123 Logiksystem komplexer, es entspricht jedoch den Gegebenheiten der menschlichen Sprache besser. Interessant ist die semantische Analyse der kontrafaktischen Konditionalsätze, nicht zuletzt, weil sie für die Erläuterung der Verursachungsbeziehung eine zentrale Rolle spielen, wie wir oben gesehen haben. Kai von Fintel (2006) erläutert das Problem anhand eines Beispiels vom folgenden Typ: • Wenn Jelena Schokolade isst, dann muss sie sich die Zähne putzen. Es handelt sich dabei um einen Konditionalsatz, dessen Hauptsatz ein Modalverb (müssen) beinhaltet. Das Problem bei der Untersuchung solcher Strukturen ist, dass diese keine kompositionale Analyse erlauben. Man wäre zunächst versucht, den Satz so zu analysieren, als hätte er zwei Operatoren: den wenn- (bzw. if -)Operator und den Modaloperator. Dies ist allerdings nicht zutreffend, denn es ist nicht der Fall, dass der wenn-Satz eine Bedingung aufstellt, aus der dann der Hauptsatz folgt. Mit anderen Worten: Aus der Bedingung wenn Jelena Schokolade isst folgt nicht die Notwendigkeit des Zähneputzens. Vielmehr folgt die Notwendigkeit des Zähneputzens aus Verhaltensrichtlinien, die man einhält, wenn man seine Gesundheit fördern möchte. Wie das Beispiel illustriert, so die Argumentation von von Fintel, drückt der wenn-Satz eine Beschränkung auf die modale Basis aus. Für die Interpretation geht man daher von allen möglichen Welten aus, in denen Jelena Schokolade isst. Dann betrachtet man alle Welten, die von dort aus zugänglich sind: solche, in denen sich Jelena die Zähne putzt, und solche, in denen sie es nicht tut. Nun schaut man, welche davon der Richtlinie (oder dem Gesetz) der Gesundheitsvorsorge entsprechen. Das sind natürlich die, in denen die Zähne geputzt werden. Siehe dazu auch Kratzer (1986). Counterfactual conditionals • There are three types of conditional sentences. The rst expresses a plain if-then relation. The second expresses what could have happened; it refers to a possibility which is no longer available. The third conditional expresses a condition which can never take place (it is counterfactual). • The analysis of counterfactual clauses centers around the theory of modal verbs. The if -clause speci es the modal base; the then clause restricts it. 5.6.4 Inferenzen und Diskursverstehen Stenning & Van Lambalgen (2008) argumentieren, wieso die Untersuchung des Schlussfolgerns (reasoning) mit Hilfe der Logik sinnvoll und wichtig für die 124 5. Semantik und Logik Kognitionswissenschaft ist: Das Schlussfolgern ist eng mit Planungsaufgaben (planning tasks) verwandt. Menschen führen alle möglichen Planungen durch, ohne dass sie diesen viel Aufmerksamkeit schenken. Zum Beispiel, wenn sie einen Busfahrplan interpretieren, wenn sie nach möglichen Routen und Abfahrtszeiten suchen, oder wenn sie den kürzesten Weg bei einer Wanderung abschätzen (Stenning & Van Lambalgen (2008)). Auch viele alltägliche Handlungen erfordern eine mehr oder weniger bewusste Planung des Ablaufs und der Reihenfolge der einzelnen Teilaufgaben. Dabei muss immer im Kopf behalten werden, wie der aktuelle Zustand ist, welche Teilereignisse bereits erledigt sind, welche als Nächstes zu tun sind und wo sich das dafür notwendige Material gerade befindet. Denken wir an das Kochen: • Der Kuchen wird gerade gebacken ) er befindet sich gemeinsam mit der Kuchenform im Backofen. • Während der Kuchen im Ofen gebacken wird, kann die Glasur zubereitet werden, aber es kann zu diesem Zeitpunkt nicht die Dekoration aufgetragen werden. Alle diese Dinge scheinen völlig banal, doch wenn man sie in einem künstlichen System nachprogrammieren möchte, ist es notwendig, dieses Weltwissen zu modellieren und die entsprechenden Regeln und Bedingungen zu implementieren. Die Schlussfolgerungen, welche Handlungen gerade möglich sind und welche nicht, sowie die Herstellung einer Ablaufreihenfolge werden mit Hilfe von logischen Inferenzen gewonnen. Es handelt sich also um ein wichtiges Einsatzgebiet von logischen Formalismen in der künstlichen Intelligenz. Eine derartige Planung ist auch für andere Fähigkeiten relevant, insbesondere für das Verstehen von sprachlichen Diskursen (understanding of discourse). Damit ist gemeint, dass in einem Diskurs von, sagen wir einmal, zwei Personen der jeweilige Stand der Dinge immer aufrechterhalten werden muss. Zum Beispiel führt der erste Teilnehmer eine Person in den Diskurs ein, über die er im Weiteren sprechen und auf die er sich beziehen wird. Die zweite Teilnehmerin muss diese Person als Referenz in ihrem Diskursmodell (discourse model) einführen, damit sie dem Gespräch folgen kann. Man erkennt das beispielsweise daran, dass bei der Einführung der Person der Name erwähnt, im weiteren Verlauf aber nur noch das Personalpronomen verwendet wird. Drückt nun der erste Teilnehmer im Diskursverlauf eine Eigenschaft der Person aus, so muss die zweite Teilnehmerin diese Eigenschaft der richtigen (nämlich der zuvor erwähnten) Person zuordnen. Kompliziert wird es natürlich, wenn der Diskurs mehrere Personen, Ereignisse und Orte beinhaltet. Genauso wie bei einer Planungsaufgabe müssen der Zustand der Ereignisse und Personen immer aktualisiert werden. Genauso wie bei der Planungsaufgabe müssen aus unvollständigen Informationen Inferenzen gezogen werden: Denkt man an eine Reise wie etwa 5.6 Zum Nutzen der formalen Semantik 125 • Sie fuhren nach Bad Ischl. so ist es ganz klar vom Kontext (und somit vom Diskursmodell) abhängig, welches Wissen aktiviert wird. Beispielsweise könnte sich sie auf Kaiser Franz Joseph und Sisi beziehen. In diesem Fall ist es klar, dass die Reise mit einer Kutsche stattfand und viele Stunden dauerte. Womöglich mussten sie zwischendurch übernachten. Auch die Ankunft wird wohl in dem Ort groß gefeiert worden sein. Daher ist der Folgesatz leicht interpretierbar: (26) Das Pferd lahmte in St. Pölten. Handelt es sich bei sie allerdings um Ostbahn Kurti und die Chefpartie, die auf Tour fahren, dann hat der Folgesatz (26) überhaupt keinen Sinn, da er nicht zum Diskursmodell passt. Im Idealfall verfügen beide DiskursteilnehmerInnen über ein möglichst ähnliches, wenn nicht sogar gleiches Diskursmodell. Gibt es grobe Unterschiede im Diskursmodell, so kommt es zu Verständnisschwierigkeiten. So könnte sich der erste Teilnehmer auf Ostbahn Kurti beziehen, die zweite Teilnehmerin hat aber ein anderes Diskursmodell und glaubt, es wird jetzt über Kaiser Franz Joseph geredet. Diese Art, Diskurse zu analysieren, wurde vor allem mit der Diskursrepräsentationstheorie (DRT, discourse representation theory) ermöglicht. DRT wurde in den 1980er Jahren unabhängig von Irene Heim (Heim (1982)) und Hans Kamp (Kamp (1981)) entwickelt. Discourse and reasoning • Planning tasks require a knowledge base and a set of inference rules. • To understand discourse is similar to a planning task, since the participants must keep track of the people and objects introduced into discourse. • For both types of tasks, logical modelling and logical inferences are essential. Kapitel 6 Wissen und Wörter Das vorliegende Kapitel befasst sich mit Konzepten (concepts), den Bausteinen des menschlichen Wissens. Man spricht auch von konzeptuellem Wissen (conceptual knowledge), im Gegensatz etwa zu prozeduralem Wissen oder Wissen über sich selbst und den Zustand des eigenen Körpers. Zunächst betrachten wir verschiedene Antworten auf die Frage, wie denn Konzepte beschaffen sind. Anschließend widmen wir uns dem Zusammenhang von Konzepten und Sprache: Inwiefern haben Wörter etwas mit Konzepten zu tun? Schließlich sehen wir uns zwei Vorschläge an, wie Konzepte mit dem allgemeinen Denken verbunden sein könnten. 6.1 Beschaffenheit von Konzepten In diesem Abschnitt werden die wichtigsten psychologischen Theorien von Konzepten vorgestellt. Die Diskussion beruht auf der Darstellung von Murphy (2002). 6.1.1 Eigenschaften Es wird allgemein angenommen, dass das Wissen, das für die menschlichen Denkvorgänge genutzt wird, in Form von Konzepten (concepts) abgespeichert ist. Das Konzept ist die grundlegende Einheit der Wissensstrukturierung. Die ursprünglichste Vorstellung ist, dass es aus einem Bündel von Eigenschaften (einer Merkmalsliste) besteht und in Beziehung zu weiteren Konzepten steht. Konzepte dienen dazu, sowohl konkrete Dinge als auch abstrakte Ideen einordnen zu können. Trifft man in seiner Umwelt auf ein Objekt, so möchte man wissen, was es ist: Man möchte das Objekt einem Konzept zuordnen, man möchte es kategorisieren. Beispielsweise könnte es sein, dass man auf ein Fahrzeug trifft. Man möchte nun wissen, ob man ein Fahrrad, ein Motorrad, ein Elektrofahrrad, einen Roller, ein Auto, einen Bus oder einen Lastwagen vor sich hat. Ist einmal die Kategorisierung erfolgt, so hat man sofort alle Fakten 6.1 Beschaffenheit von Konzepten 127 und Eigenschaften parat, die zu diesem Konzept gehören. In dem Fahrzeugbeispiel weiß man, welchen Treibstoff das Fahrzeug benötigt, wie viele Personen und Gepäckstücke transportiert werden können, wie schnell gefahren werden kann, auf welchen Straßen, Wegen, Gehsteigen oder Autobahnen man sich damit fortbewegen darf usw. Verschiedene PhilosophInnen und KognitionswissenschaftlerInnen haben sich Gedanken gemacht, wie denn eine derartige Kategorisierung sowohl für konkrete wie auch für abstrakte Gegenstände erfolgen kann. Die erste Idee, die letztendlich auf Aristoteles zurückgeht, besagt, dass notwendige (necessary) und hinreichende Kriterien (sufficient conditions) definiert sein müssen, um die Zugehörigkeit eines Objekts zu einer Kategorie zu gewährleisten (Murphy (2002): 11). Das bedeutet, dass wie auf einer „Checkliste“ genau festgelegt ist, welche Eigenschaften ein Objekt haben muss, damit es in eine bestimmte Kategorie fällt. Notwendig bedeutet, dass, wenn diese Eigenschaft nicht vorliegt, das Objekt keinesfalls unter die Kategorie fällt. Hinreichend bedeutet, dass das Objekt als Mitglied der Kategorie gilt, wenn diese Eigenschaft vorhanden ist. Dabei ist diese Eigenschaft nicht der einzig mögliche Grund. Die Mitgliedschaft in der Kategorie kann auch durch andere Eigenschaften begründet sein. Ray Jackendoff (Jackendoff (1983), Jackendoff (1989), Jackendoff (1990)) sieht Konzepte als partielle Definitionen an, das bedeutet, dass seiner Meinung nach nicht immer alle Eigenschaften vorhanden sein müssen, damit ein Objekt zu einem Konzept gehört. Konzepte bestehen demgemäß nur aus den notwendigen Bedingungen. Zur Illustration der notwendigen und hinreichenden Bedingungen für die Klassifizierung betrachten wir den Katalog des ICD-10, die internationalen Klassifikation der Krankheiten. Hier wird jede Krankheit durch bestimmte Eigenschaften definiert, von denen einige unbedingt vorliegen müssen (notwendiges Kriterium). Zum Beispiel lautet der Eintrag für „Unfall durch Exposition gegenüber mechanischen Kräften belebter Objekte“ wie folgt: • W 64.9 Unfall durch Exposition gegenüber mechanischen Kräften belebter Objekte 1 - Gequetscht- oder Gestoßenwerden bei Menschenansammlung oder von in Panik geratener Menschenmenge - Insektenstich, nichtgiftig - Tierbiss (nichtgiftig) - Verletzung an Pflanzen (nichtgiftig) - Exkl.: Bisse, giftig (X29.9), Getroffenwerden von Gegenständen (W49.9), Stiche (giftig) (X29.9), Sturz durch Zusammenstoß eines Fußgängers (oder eines von ihm benutzten Beförderungsmit- 1 https: / / www.dimdi.de/ static/ de/ klassi/ icd-10-gm/ kodesuche/ onlinefassungen/ htmlgm2016 / block-v01-x59.htm, abgerufen am 17.1.2016. 128 6. Wissen und Wörter tels) mit anderem Fußgänger (oder von diesem benutzten Beförderungsmittel) (X59.9), Tätlicher Angriff (Y09.9) Auch das objektorientierte Programmieren ist ein Beispiel für die Entwicklung von Konzepten. Hierbei werden die einzelnen Objekte durch ihren Namen und ihre jeweiligen Eigenschaften definiert. Wiederum gibt es Eigenschaften, die zwingend vorliegen müssen, und solche, die optional sind. Eine erste Alternative zum Verständnis von Konzepten und von Kategorisierung ist die Prototypentheorie (prototype theory) von Eleanor Rosch (Rosch & Mervis (1975)). Sie besagt, dass jedes Objekt besonders typische Eigenschaften hat, die charakteristisch sind. Um in eine Kategorie zu fallen, müssen nicht alle Eigenschaften vorliegen. Es genügt, wenn so viele Eigenschaften vorhanden sind, dass das Objekt dem typischen Exemplar nahe genug kommt. Zum Beispiel kann ein Fahrrad durch folgende Eigenschaften charakterisiert wer- Eleanor Rosch (*1938) den: • Prototypische Eigenschaften eines Fahrrads: - zwei Räder - Sattel - Lenker - Pedale - eine Kette - der Antrieb erfolgt durch Muskelkraft - es dient Menschen zur Fortbewegung Allerdings gibt es auch weniger typische Exemplare, denen auf den ersten Blick einige der notwendigen Eigenschaften fehlen, die trotzdem allgemein zur Kategorie der Fahrräder gerechnet werden: etwa das Laufrad, das Kleinkinder verwenden - es hat keine Pedale. Oder das Elektrofahrrad, dessen Antrieb nicht nur durch Muskelkraft, sondern auch durch eine Batterie erfolgen kann. Weiters ein Fahrrad mit Stützrädern - dieses hat insgesamt vier Räder, nicht nur zwei. Natürlich auch das Lastenfahrrad, das zumeist anstatt des Vorderrades eine „Schubkarre“ auf zwei Rädern besitzt. Und denken Sie an all die historischen Modelle, die in den unterschiedlichsten Designs vorhanden waren. Eine weitere Alternative ist die Exemplartheorie (exemplar theory) gemäß Medin & Schaffer (1978). Sie besagt, dass Konzepte nur anhand von Exemplaren erworben werden. Bezüglich des Fahrradbeispiels bedeutet das, dass man im Laufe seines (frühen) Lebens mehrere Fahrräder sieht und mit einigen von ihnen auch fährt. Aus diesen Erfahrungen ergibt sich eine Summe von Eigenschaften, die das Konzept des Fahrrades bildet. Entgegen der klassischen Theorie der Konzepte, die vorschlägt, dass immer eine exakte Definition vorliegen muss, wird gemäß der Exemplartheorie die Zugehörigkeit eines Objekts zu einem bestimmten Konzept vor allem aus der Erinnerung an den bisherigen Kontakt mit solchen Objekten und einer Ähnlichkeitsberechnung festgestellt. 6.1 Beschaffenheit von Konzepten 129 Einen weiteren Vorschlag zur Beschaffenheit von Konzepten ist die Theory- Theory von Gopnik & Meltzoff (1997): Konzepte sind strukturiert, umfassen also mehrere verschiedene Eigenschaften. Sie sind jeweils mit anderen Konzepten über eine mentale Theorie verbunden, die ähnlich wie eine wissenschaftliche Theorie funktioniert, das heißt, man besitzt ein Konzept, eine Theorie, wie dieses Konzept zu anderen Konzepten in Verbindung steht und leitet daraus Hypothesen ab. Diese Hypothesen können nun empirisch anhand der Interaktion mit der Umwelt überprüft werden. Hält die Theorie der Überprüfung nicht stand, so kann das betroffene Konzept modifiziert werden. Einen radikal anderen Vorschlag bezüglich der Beschaffenheit von Konzepten macht Jerry Fodor (Fodor (1998)): Er geht davon aus, dass Konzepte nicht ein strukturiertes Bündel von Eigenschaften sind, sondern dass sie atomar sind (konzeptueller Atomismus (conceptual atomism)). Das bedeutet, dass Konzepte nicht weiter zerlegbare Einheiten sind. Merkmalslisten, notwendige und hinreichende Bedingungen sind daher nicht notwendig und nicht Bestandteil von Konzepten. Diese Überlegung ermöglicht es, dass Konzepte als Ganzes einzelnen Wörtern entsprechen können. Das Problem, wie ein Wort als Einheit einem komplexen Ding wie einem Konzept entsprechen kann, entfällt somit. Murphy (2002) weist allerdings darauf hin, dass gemäß dieser Theorie die meisten Konzepte angeboren sein müssen, auch solche wie etwa „Xylophon“, da sie nicht als neue Bündel von Merkmalen erworben werden können. Classical treatment of concepts • Classically, concepts were considered bundles of properties (feature lists). The question of classi cation (Does an object belong to a concept? yes/ no) was central. • Necessary conditions of classi cation: If the condition does not hold, the object does not belong to the concept at hand. Su cient conditions: If the condition holds, the object belongs to the concept, no matter what other properties or conditions exist. • Prototype theory assumes that an object needs to have prototypical or characteristic properties in order to belong to a certain concept. • Exemplar theory argues that concepts are formed by all the encounters one had with the types of objects of a particular category. The concept is the sum of the properties one experienced when exposed to the relevant objects. • Theory theory assumes that concepts consist of properties and are related to other concepts via a theory. This theory is similar to scienti c theories: One makes hypotheses about the properties and the relations and tries to verify them empirically. 130 6. Wissen und Wörter • Conceptual atomism assumes that concepts are atomic, i.e., they do not consist of various properties. Therefore, they can be mapped as a whole to single words. 6.1.2 Frame-Theorie Im Rahmen der Forschungen auf dem Gebiet der künstlichen Intelligenz (artificial intelligence, AI) wurde versucht, Wissen im weitesten Sinn zu speichern und zu verarbeiten. Dadurch rückte die Frage in den Raum, welche Techniken am besten für die Wissensrepräsentation (knowledge representation) geeignet sind. Um diese Aufgabe zu bewerkstelligen, ließen sich verschiedene InformatikerInnen neuartige Algorithmen und Programmiersprachen einfallen. Insbesondere die Frage, welche Art von Datenstruktur (data structure) Marvin Minsky (*1927) am besten geeignet ist, konzeptuelles Wissen auf Maschinen zu repräsentieren, ist hierbei von Bedeutung. Ein möglicher Vorschlag für eine solche Datenstruktur ist die Frame-Theorie (frame theory), die ursprünglich auf Marvin Minsky, einem Forscher auf dem Gebiet der AI, zurückgeht (Minsky (1977)). Der Psychologe Lawrence Barsalou hat in einem darauf aufbauenden Schritt versucht, die Erkenntnisse aus der Frame Theory, wie sie für Computer entwickelt worden waren, auf das konzeptuelle Wissen beim Menschen anzuwenden (Barsalou & Hale (1993)). Die folgende Darstellung der Frame Theory beruht auf Barsalou & Hale (1993). Rahmen (frames) sind Erweiterungen von Merkmalslisten (feature lists). Diese bestehen aus den folgenden Komponenten: Ein Aspekt (aspect) des Konzepts (d.h. eine bestimmte Eigenschaft wie etwa hat zwei abstehende Zöpfe im Falle von Pippi Langstrumpf) ist für das jeweilige Konzept wahr oder falsch. Die Aspekte können über Konnektive (connectives) wie und oder oder miteinander verbunden werden (siehe auch § 5.4.1). Aspekte sind über Kon- Lawrence W. Barsalou (*1951) tingenzrelationen wie etwa sagt voraus oder impliziert miteinander verbunden. (1) Eigenschaften von Merkmalen in Merkmalslisten (Barsalou & Hale (1993): 98) 1. Aspekt 2. Wahrheit 3. Konnektive (und, oder) 4. Kontingenzrelation (sagt voraus, impliziert) Rahmen besitzen neben den Eigenschaften in (1) noch Attribut-Wert-Paare (attribute-value pairs) und strukturelle Invarianten (structural invariants). Attribut-Wert-Paare lassen sich anhand des folgenden Beispiels illustrieren: Das Konzept Pippi Langstrumpf könnte das Attribut Frisur haben. In einem Frame ist es nun möglich, diesem Attribut einen bestimmten Wert zuzuorden wie etwa 6.1 Beschaffenheit von Konzepten 131 zwei abstehende Zöpfe. Prinzipiell kann das Attribut Frisur jedoch auch andere Werte annehmen. Denkbar wären Stirnfransen, Rossschwanz oder auch lange, offene Haare. Diesen vier Werten ist nun gemeinsam, dass sie Werte für das Attribut Frisur darstellen, alle diese sind also Frisuren. Strukturelle Invarianten sind Eigenschaften, die über alle Instanzen eines Konzepts erhalten bleiben. Zum Beispiel hat jedes Auto Räder, egal welches Modell man betrachtet. In einer Frame-Struktur wird dies derart realisiert, dass alle Instanzen des Konzepts Auto zwingend das Attribut Räder haben müssen. Dieses kann je nach konkretem Modell mit verschiedenen Werten befüllt werden. Rekursive Frames (recursive frames) sind dadurch gekennzeichnet, dass jede Komponente des Frames wiederum aus einem Frame bestehen kann (Barsalou & Hale (1993)). So kann etwa das Attribut Frisur nicht nur ein einfacher Wert, sondern auch ein eigener Frame sein, der wiederum aus mehreren Attribut-Wert-Paaren besteht (beispielsweise aus Farbe, Länge, Haarschnitt etc.). Derartige Framestrukturen können auch taxonomische Informationen abbilden, etwa ein Auto ist ein Fahrzeug. • Frame-Struktur für das Konzept Person, Instanz: Pippi Langstrumpf - Frisur: zwei abstehende Zöpfe - Stärke: sehr stark, kann ein Pferd heben - Wohnort: Villa Kunterbunt - bester Freund: Tommi - beste Freundin: Annika • Frame-Strukur für das Konzept Frisur, Instanz zwei abstehende Zöpfe - Farbe: rot - Stirnfransen: ja - Länge: über die Schulter - Geflochtenes: zwei Zöpfe, rechts und links Dieses Beispiel lässt sich natürlich ergänzen. So sind Tommi und Annika wiederum eigene Framestrukturen (Instanzen des Konzepts Person), die ebenfalls das Attribut Frisur haben. Frames erlauben es, das jeweilige Hintergrundwissen zu aktivieren (Barsalou (1999)). Spricht man über eine bestimmte Komponente eines Konzepts (beispielsweise über die Frisur von Pippi Langstrumpf), so werden die anderen Attribute und ihre Werte des jeweiligen Konzepts gleich mitaktiviert. Frame theory • Frame theory is a data structure for representing conceptual knowledge. It originated in the tradition of arti cial intelligence. 132 6. Wissen und Wörter • Feature lists represent concepts by means of predicates which are either true or false. The predicates may be combined by connectives and contingence relations. • Frames are feature lists extended by attribute-value pairs and structural invariants. Recursive frames allow frames to consist of other frames. 6.1.3 Konzepträume Peter Gärdenfors entwickelte in mehreren Aufsätzen und Büchern eine Theorie der Konzepte, die auf Konzepträumen (quality spaces) beruht (u.a. Gärdenfors (1996), Gärdenfors (2000)). Ziel ist es, eine mathematische Theorie der Konzepträume zu entwickeln: Bekannte Verfahren der Geometrie sollen angewendet und nutzbar gemacht werden. Konzepträume besitzen Qualitätsdimensionen mit topologischen (topological) und/ oder metrischen Strukturen (metric structures). Ein Konzept verfügt über eine oder mehrere Dimensionen (z.B. Farbe, Gewicht, Temperatur etc.). Diese Dimensionen können eine metrische Struktur haben, das heißt, sie können gemessen werden (z.B. Temperatur in Graden, Gewicht in Kilogramm etc.). Auch eine topologische Struktur (eine bestimmte räumliche Anordnung im mathematischen Sinn) ist möglich. Peter Gärdenfors (*1949) Repräsentationen von Individuen (individuals) sind Vektoren (vectors) in einem solchen Konzeptraum (Gärdenfors (1996)). Das bedeutet, dass für jede Dimension des Vektors ein bestimmter Wert festgelegt wird (z.B. rot, 20 kg, 10 Grad). Individuen werden somit ausschließlich über ihre Eigenschaften definiert. Prädikate (predicates) hingegen sind Regionen im Konzeptraum (regions in conceptual space). Das bedeutet, dass die Dimensionen verschiedene Werte annehmen können bzw. dass mehrere Individuen mit dem Prädikat kompatibel sind. Natürlich ist auch der Spezialfall denkbar, dass die Region so klein ist, dass nur ein einziges oder auch gar kein Individuum darin enthalten ist. Die Konzepträume verhalten sich wie eine Voronoi-Parkettierung (Voronoi tessellation). Dies ist eine mathematische Methode, um einen Raum zu zerlegen. Dieser Raum kann eine zweidimensionale Ebene sein, die Methode funktioniert aber auch für alle anderen höherdimensionalen mathematischen Räume. Gegeben sind einige Punkte im Raum - die Zentrumspunkte, nach denen eingeteilt werden soll. Der Raum wird so aufgeteilt, dass jeder Punkt ein Zentrum bildet, so dass diejenigen Punkte, die zu seinem Bereich gehören, näher an ihm dran sind als an allen anderen gegebenen Zentrumspunkte. Der Abstand wird dabei durch die Euklidische Metrik bestimmt (der Abstand 6.1 Beschaffenheit von Konzepten 133 zwischen zwei Punkten im Raum, wie er in der Schule mit Hilfe der Vektorrechnung berechnet wird). Abbildung 6.1: Voronoi-Kachelung Diese mathematische Theorie beschreibt, welche Regionen zu einem Punkt im Raum gehören. Übertragen auf die Konzepträume bedeutet dies, dass sich anhand der Werte der Eigenschaften feststellen lässt, welche Individuen zu einem Konzept gehören und welche zu einem anderen. Damit ist die Theorie von Gärdenfors mit der Prototypentheore kompatibel: Der Punkt im Raum (das Zentrum der Vonoroi-Kachel) entspricht dem prototypischen Vertreter einer Kategorie. Jäger et al. (2011) untersuchen die evolutionäre Stabilität von Sender- Empfänger-Spielen. Die Autoren arbeiten im Rahmen der evolutionären Spieltheorie (siehe dazu auch § 3.5.1). In den von ihnen untersuchten Settings gibt es einige wenige Signale und einen sehr umfangreichen Bedeutungsraum, so dass eine 1: 1-Zuordnung von Signal und Bedeutung unmöglich ist. Die Autoren können zeigen, dass durch wiederholte Spiele eine Sprache entsteht, in der die Signale konvexe Regionen im Bedeutungsraum entsprechen. Damit kann darauf geschlossen werden, dass die Evolution eine Voronoi-Parkettierung entstehen lässt. Mit anderen Worten, das Gleichgewicht eines derartigen Signalspiels entspricht der Voronoi-Parkettierung des Konzeptraums, wobei nicht alle Sprachen, die dabei entstehen, evolutionär stabil sein müssen. Quality spaces • Concepts have quality dimensions that have topological or metric structure. These structures form the conceptual space. • Individuals are vectors; properties are areas of the conceptual space. • Concept spaces behave like Voronoi tesselations, a mathematical method for dividing space into regions. 134 6. Wissen und Wörter 6.2 Konzepte und Sprache 6.2.1 Philosophische Positionen Bislang wurden verschiedene Meinungen vorgebracht, wie der Zusammenhang zwischen Konzepten und Sprache beschaffen ist. In der Diskussion wurden alle möglichen Varianten vorgeschlagen (Margolis & Laurence (2014)): 1. Sprache ist die Voraussetzung für Konzepte (ohne Sprache keine Konzepte). 2. Konzepte sind an Sprache gebunden (konzeptuelles Denken ist nur mit Sprache möglich). 3. Die Wortbedeutung entspricht einem Konzept, es gibt aber auch Konzepte ohne direkte sprachliche Entsprechung. 4. Sprache und Konzepte sind unabhängig voneinander (ohne Sprache sind Konzepte möglich, Sprache ist auch ohne Konzepte möglich). Donald Davidson (Davidson (1975)) argumentiert dafür, dass Sprache notwendig ist, um Konzepte zu haben. Seine Analyse basiert auf dem Verständnis von Glaubenssätzen und propositionellen Einstellungen (propositional attitudes). Man kann nur dann eine Aussage glauben, wenn man das Konzept von glauben besitzt, da man dafür den Unterschied zwischen wahr und falsch sowie das Konzept des Irrtums (des falschen Glaubens) kennen muss. All dies ist nur dann möglich, wenn ein sprachliches System vorhanden ist. Peter Carruthers (Carruthers (1996), Carruthers (2002)) und Elizabeth Spelke (Spelke (2003)) vertreten die Meinung, dass gewisse Denkprozesse ausschließlich sprachlich möglich sind. Da Konzepte ja als Einheiten des Denkens definiert werden, sind sie somit sprachlich. Das Argument basiert darauf, dass einerseits die Phänomenologie und die Introspektion darauf hinweisen, dass gewisse Denkprozesse sprachlich sind (wenn man jemanden fragt: „Wie denkst du? “, dann folgt oft eine Erklärung, dass das Denken sprachlich abläuft). Weiters wurde in verschiedenen kognitionspsychologischen Experimenten gezeigt, dass Denkprozesse wie etwa die räumliche Verarbeitung durch gleichzeitige, störende sprachliche Aktivität herabgesetzt werden kann. Dabei ist natürlich zu beachten, dass auch einfach das Kurzzeitgedächtnis die knappe Ressource sein kann, die die Leistungen beeinträchtigt. Gemäß der Theorie von Paul Bloom (Bloom (2000), Bloom (2001)) entspricht die Wortbedeutung einem Konzept, Wortbedeutungen sind somit mentale Repräsentationen. Er geht von der Essentialismustheorie (essentialist theory) aus, die im Gegensatz zur Prototypentheorie und zur Exemplartheorie (siehe § 6.1.1) steht. Demnach haben Konzepte essentielle Eigenschaften (essential properties), die es ausmachen. Diese Kategorien sind natürlich entstanden, das heißt, sie basieren auf physikalischen oder evolutionären Vorgängen. Konzepte sind reichhaltig (rich), dies bedeutet, dass induktive Schlüsse (inductive reasoning) zulässig sind: Kennt man ein Exemplar eines Konzepts 6.2 Konzepte und Sprache 135 anhand einiger seiner Eigenschaften, dann kann man auch sofort weitere Eigenschaften voraussagen. Damit ist es möglich, neues Wissen induktiv zu generieren. Eine rein äußerliche Ähnlichkeit zwischen zwei Objekten ist deshalb noch nicht ausreichend, um sie unter ein gemeinsames Konzept zu bringen. Obwohl die Ähnlichkeit beim Wortlernen nicht unwesentlich ist, sind die essentiellen Eigenschaften der Dinge, also ihre inneren Gesetzmäßigkeiten bzw. ihr innerer Aufbau wichtiger. Beispielsweise könnte das Konzept „Hase“ alle Tiere mit zwei langen, aufstehenden Ohren umfassen. Trifft man nun auf einen verletzten Hasen, dem ein Ohr fehlt, dann fällt dieser natürlich auf Grund seiner Essenz immer noch unter die Hasenkategorie, auch wenn ihm die äußere Ähnlichkeit fehlen mag. Gemäß Bloom können Konzepte prinzipiell unabhängig von Wörtern existieren. Wortbedeutungen sind daher diejenigen Konzepte, mit denen zufälligerweise ein linguistisches Symbol verknüpft ist. Darüber hinaus gibt es noch zahlreiche weitere Konzepte, so dass der Einfluss der Sprache und der Grammatik auf das konzeptuelle Wissen eher gering ist. Bloom lehnt eine lexikalische Semantik ab, die eigenen Gesetzmäßigkeiten gehorcht und die mögliche Konzepte auf Grund ihrer Beschaffenheit beschränkt. Vielmehr entspringen alle Beschränkungen entweder der Pragmatik oder dem perzeptuellen System. Hinsichtlich des Zusammenhangs von Sprache und Konzepten sind Jerry Fodor und Steven Pinker (Fodor (1975) und Pinker (1994)) der Ansicht, dass Konzepte unabhängig von Sprache existieren. Die Sprache ist nur dazu da, um bereits vorhandene Konzepte ausdrücken zu können. Außerdem ist es möglich, neue Konzepte zu erfinden, für die erst in einem zweiten Schritt ein Name gefunden wird. Beispielsweise haben die aktuellen Mobiltelefone mit ihren vielfältigen Funkionen erst dann einen Namen erhalten, als sie bereits erfunden waren (Smart Phone, iPhone). Der Name bezieht sich auf die Funktion des Telefonierens und nicht etwa auf die des Fotografierens (was diese Apparate ja auch alle können). Weiters gehen Fodor und Pinker davon aus, dass zwar in der natürlichen Sprache Ambiguitäten auftreten (etwa Skopusambiguitäten in Sätzen mit zwei oder mehr Quantoren), Konzepte jedoch aber immer eindeutig sind. Damit ist ein weiterer Unterschied und somit eine Unabhängigkeit von Sprache und Konzepten gegeben. Concepts and language • Language is a prerequisite for conceptual knowledge. The concept of belief is necessary to determine the difference between true and false (Donald Davidson). • Some cognitive processing is only possible by linguistic means. Cognitive processing, such as spatial reasoning, interferes with linguistic processing (Peter Carruthers and Elizabeth Spelke). 136 6. Wissen und Wörter • The essentialist theory of concepts says that concepts are made up of essential properties which allow for inductive reasoning. Concepts exist independently of words (Paul Bloom). • Language and concepts exist independently of one another. Language is ambiguous, concepts are not. Language only serves to name concepts (Jerry Fodor and Steven Pinker). 6.2.2 LF-Repräsentationen In Chomskys Grammatikmodell (Chomsky (1995)) wird das konzeptuelle System nicht weiter beschrieben. Es existieren nur die Schnittstellenbedingungen zur phonologischen Form (PF, phonological form) und zur logischen Form (LF, logical form). Die logische Form bildet die Schnittstelle zum semantischkonzeptuellen System. Dort werden semantische Eigenschaften wie Quantoren, Indizes und Referenzbedingungen kontrolliert sowie Ambiguitäten ausgemerzt: Eine LF-Darstellung ist immer eindeutig. Weist ein Satz Ambiguitäten auf, so besitzt er so viele logische Formen, wie er Bedeutungen zulässt. Die Frage allerdings, wie Wörter auf Konzepte verweisen und welche grammatischen Informationen an der LF-Schnittstelle vorhanden sind, wird nicht weiter ausgeführt. Manfred Bierwisch (Bierwisch (1982), Bierwisch & Lang (1987) sowie zahlreiche folgende Arbeiten) entwickelt ein Modell, das genau diese Fragen beantworten möchte: die Zwei-Ebenen-Semantik (two-level approach to meaning). Diese besteht aus der semantischen Form (SF, semantic form) und der konzeptuellen Struktur (CS, conceptual structure). Die semantische Form dient zur Beschreibung der grammatischen Informationen eines Wortes, beispielsweise die Art und Anzahl der geforderten Argu- Manfred Bierwisch (*1930) mente. Ebenso ist die semantische Dekomposition, etwa mit Hilfe der aspektuellen Operatoren, Teil der semantischen Form. Somit ist die semantische Form mit der logischen Form vergleichbar: Beide liefern grammatische Informationen für die Bedeutung. Während die logische Form den Satz als Ganzes auswertet, ist die semantische Form für einzelne Wörter zuständig. Wunderlich (1997) spricht in diesem Zusammenhang von einer „Ausdehnung der LF auf sublexikalische Einheiten“ (Wunderlich (1997): 29, Übersetzung A. R.). 6.2 Konzepte und Sprache 137 logische Form semantische Form konzeptuelle Struktur Chomsky Bierwisch Bierwisch Jackendoff Lang Lang Wunderlich Wunderlich disambiguierte semantische Information konzeptuelles Satzbedeutung eines Wortes Wissen (Quantoren, (Belebtheit, (nicht Pronomen, Thetarolle, grammatisch) Variablen) aspektuelle Operatoren) Kompositionalitätsprinzip gilt gilt gilt nicht Die konzeptuelle Struktur betrifft das Weltwissen, das mit einem Wort verbunden ist. Das konzeptuelle Wissen ist vom grammatischen Wissen getrennt; es ist auf der Ebene der konzeptuellen Struktur repräsentiert und unterliegt nicht dem Kompositionalitätsprinzip. Das konzeptuelle Wissen kann auch bildhaft, tonal oder olfaktorisch sein. Die Bedeutung eines Konzepts ergibt sich hier nicht automatisch und regelhaft aus der Bedeutung seiner Einzelteile. Two-level approach to meaning • Logical form (LF) is the interface between core syntax and the semantic-conceptual system (Chomsky). • Semantic form (SF) is a layer that hosts representations of grammatical knowledge about sublexical items. It works like the rest of formal semantics. • Conceptual structure (CS) is a layer that hosts conceptual knowledge which does not obey the principle of compositionality. It may be visual, auditory, and the like. Peter Carruthers (Carruthers (2002)) schlägt eine spezifische Hypothese vor, was die Aufgabe von Sprache für das Denken betrifft: Die logische Form (LF) der Chomsky’schen Grammatiktheorie ist das zentrale Werkzeug für nicht-domänenspezifisches Denken. Gemäß Carruthers (und auch Susan Carey, siehe § 6.3.2) existieren neben den Modulen für die perzeptuelle Verarbeitung auch spezifische, domänengebundene Module für die kognitive Verarbeitung. Derartige kognitive Module sind jeweils auf eine bestimmte Art von Konzepten spezialisiert. Sie greifen auf die Ausgabe der perzeptuellen Module oder die Ausgabe anderer kognitiver Module zu und liefern wiederum eine konzeptuelle Repräsentation. Während die kognitiven Module immer domänenspezifisch sind, ist das sprachliche Denken, das in Form von LF-Repräsentationen stattfindet, nicht mehr an eine bestimmte Domäne gebunden. Damit ist das sprachliche Den- 138 6. Wissen und Wörter ken der Ort, und laut Carruthers der einzige Ort, an dem das domänenspezifische Wissen zusammenfließen kann. Das sprachliche Denken läuft sowohl bewusst als auch unbewusst ab. Wenn es bewusst ist, dann ist mit der jeweiligen LF-Repräsentation auch eine PF-Repräsentation assoziiert. Wenn es unbewusst ist, so die Annahme von Carruthers, dann gibt es keine dazugehörige PF-Repräsentation. Im Unterschied zu Tieren können Menschen neue Konzepte bilden. Dies ist ausschließlich auf Grund der sprachlichen Repräsentation möglich. Obwohl Tiere auch kognitive Module besitzen, ist ihre Denkfähigkeit in dieser Hinsicht beschränkt. Sie können nur spezifische Konzepte verarbeiten, für die ihre kognitiven Module prädestiniert sind. Eine Erweiterung ist nicht möglich. Non-domain-speci c processing (Peter Carruthers) • Domain-speci c knowledge is processed in special modules which are similar to perceptual modules. • LF-representations are the only representations for non-domainspeci c processing. • Domain-speci c knowledge is integrated only by languagespeci c processing. 6.2.3 Wortlernen bei Kindern Paul Bloom (Bloom (2000), Bloom (2001)) entwirft einen Vorschlag, wie der Erwerb von Wörtern bei Kindern vonstattengeht. Dazu kommt, dass er eine spezifische Hypothese entwirft, was die Bedeutung von Inhaltswörtern ist: Er plädiert für eine ganz bestimmte Theorie der Konzepte. Zunächst ist das Lernen der Wörter durch eine schnelle Zuordnung (fast mapping) charakterisiert. Kinder können sehr schnell ein lautliches Zeichen einem Gegenstand zuordnen. Meistens genügt es, wenn sie das entsprechen- Paul Bloom (*1963) c Greg Martin de Wort nur ein einziges Mal hören. Bloom argumentiert, dass die schnelle Zuordnung nicht nur für einzelne Wörter gilt, sondern auch für komplexere Beschreibungen (z.B. das Ding, das Onkel Paul vergessen hat). Damit ist die schnelle Zuordnung nicht unbedingt sprachspezifisch, sondern könnte ein allgemeineres Prinzip des Lernens sein. Die Explosion des Vokabulars (vocabulary explosion), die deutliche und plötzliche Zunahme des Wortschatzes, ist laut Bloom ein Artefakt. Die Lernrate wird kontinuierlich schneller, ab einem bestimmten Zeitpunkt ist sie so schnell, dass das Lernen erstaunlich rasch verläuft. Es handelt sich dabei allerdings nicht um einen sprunghaften Anstieg der Lerngeschwindigkeit. Der Input für das Wortlernen ist nicht zwingend die visuelle Repräsentation des Objekts. Kinder müssen das bezeichnete Objekt nicht unbedingt direkt 6.2 Konzepte und Sprache 139 anschauen, wenn sie einen neuen Ausdruck hören. Vielmehr achten sie darauf, worauf gerade die Aufmerksamkeit ihrer Bezugsperson gerichtet ist. Kinder drücken bei der Benennung von kulturellen Artefakten wie etwa Zeichnungen immer die Intention des Zeichnenden aus, selbst wenn das Bild gar nicht wirklich so aussieht wie das intendierte Objekt. Diesbezüglich verweist Bloom auch auf die wichtige Rolle der Theory of Mind beim lexikalischen Spracherwerb (eine ähnlich wichtige Bedeutung schreibt auch Michael Tomasello der Theory of Mind zu (Tomasello (2000b))). Sie ermöglicht es, pragmatisches Wissen zu nutzen. Kinder sind in der Lage, zu verstehen, dass sprachliche Zeichen arbiträr sind und dass sich ihr Bedeutungsumfang im Wesentlichen nicht überlappt. Bloom geht davon aus, dass Inhaltswörter zuerst erworben werden, rein grammatische Wörter wie Determinatoren oder Konjunktionen folgen später. Syntaktische Hinweise erleichtern den Erwerb von Eigennamen und Gattungsbezeichnungen. Von besonderer Bedeutung für den lexikalischen Spracherwerb ist die Tendenz zum gesamten Objekt (whole-object bias): Kinder vermuten zunächst, dass sich ein neues Wort auf ein gesamtes Objekt bezieht und nicht auf eines seiner Teile (Markman (1991)). Diese Tendenz ist nicht spezifisch für den Spracherwerb, sie konnte auch beim Erwerb des Zahlenverständnisses sowie in der Objekterkennung nachgewiesen werden. Sie ist ein allgemeines kognitives Prinzip: Die gegensätzlichen Forderungen nach Informativität und Distinktivität (Unterschiedlichkeit) eines Zeichens werden optimal erfüllt, wenn ein Objekt zunächst als Gesamtheit kategorisiert wird. Die Form der Objekte ist besonders wichtig für das Wortlernen, andere Eigenschaften wie Farbe, Textur oder haptische Qualitäten sind von geringerer Bedeutung. Zum Beispiel werden eher alle Hasen unter eine Kategorie zusammengefasst als alle braunen Dinge oder alle Gegenstände, die ein Fell haben. • Eigenschaften des lexikalischen Spracherwerbs (Bloom (2000)) - Es erfolgt eine schnelle Zuordnung von Zeichen zu Objekt. - Die Explosion des Vokabulars ist ein Artefakt. - Der Input ist vor allem die Intention der SprecherIn, weniger das visuell repräsentierte Objekt. - Gemäß der Tendenz zum gesamten Objekt werden neue Wörter zunächst einem Objekt als Ganzes zugeordnet. Lexical acquisition • Lexical acquisition maps an object onto its sign very quickly. • Vocabulary explosion doesn’t exist; it is an artifact of the learning curve. • The main input for learning words is the speaker’s intention. • The whole object bias says that new words are mapped onto whole objects, not parts of them. 140 6. Wissen und Wörter 6.3 Konzepte und Kognition 6.3.1 Sprachliche Vernunft Das sprachphilosophische Werk von Fritz Mauthner, dem Begründer der philosophischen Sprachkritik, umfasst Ideen zum Wissen, den Kategorien und deren Beziehung zur Sprache (Mauthner (1910), Mauthner (1923)). Die folgende Darstellung beruht auf den Ausführungen von Leinfellner (1992). Jede Erkenntnis wird von der Beschaffenheit der Sinnesorgane bestimmt, die Wahrnehmung ist daher für jede Spezies anders gemäß der Beschaffenheit ihrer jeweiligen Sinnesorgane. Nur diejenige Information kann kognitiv weiterverarbeitet werden, die über die Sinnesorgane in den Körper gelangt. Mauthner knüpft damit an David Hume an, der davon ausgeht, dass die Sinne zufällig sind und prinzipiell auch anders beschaffen sein könnten. Eine objektive Sprache oder objektive Wahrheit kann daher nicht existieren: Die Außenwelt Fritz Mauthner (1849-1923) wird immer durch die Sinnesorgane abgebildet, erst diese Repräsentation dient als Grundlage für die sprachliche Verarbeitung. Die kognitiven Prozesse sind in die sprachliche Vernunft (verbal reason) und den nicht-sprachlichen Verstand (non-verbal reason) geteilt. Das propositionale Denken, möglicherweise auch das Denken mit Hilfe von Kategorien, ist inhärent an das Vorhandensein von sprachlichen Fähigkeiten gekoppelt. Kategorien, Propositionen und symbolische Verarbeitung sind rein sprachliche Fähigkeiten. Die Verbindung von Sprache und Denken ist im Gedächtnis verankert, da die abgespeicherten Wörter auf komplexe Inhalte, insbesondere auf sensorische Daten referieren. Erst das Vorhandensein von Wörtern erlaubt es, die vielfältige Information, die ein Konzept umfasst, zu bündeln, zu ordnen und wieder abrufbar zu machen. Dementsprechend ist die Sprache für die Organisation des konzeptuellen Wissens unabdingbar. Mauthner meint damit allerdings nicht die grammatische Organisation. Er beschränkt sich auf die Verwendung von Wörtern, also von Symbolen. Eine Universalgrammatik (universal grammar) im Sinne Chomskys lehnt er sogar dezidiert ab: Seiner Auffassung nach existieren ausschließlich Individualsprachen, da diese jeweils von den subjektiven Wahrnehmungen geprägt werden. Die Sprache der jeweiligen SprecherIn dient dazu, ihre eigenen, spezifischen Sinneseindrücke zu referenzieren. Somit ist eine gemeinsame, angeborene Grammatik nach Mauthner nicht möglich. Der Sprachgebrauch zwischen Personen ist aber dennoch möglich, da der Kontext der Äußerung von größter Wichtigkeit ist. Gemäß dem pragmatischen Bedeutungsbegriff (pragmatic notion of meaning) ist die Bedeutung eines Wortes dessen Verwendung. Daher stehen für Mauthner nicht Wahrheitsbedingungen im Vordergrund, sondern eine am (sprachlichen) Handeln orientierte Bedeutungstheorie. Die Bedeutung eines Wortes ist daher je nach Kontext ein bestimmter Gedächtnisinhalt. 6.3 Konzepte und Kognition 141 Obwohl Mauthner eine Universalgrammatik ablehnt, geht er doch davon aus, dass - gemäß seiner Terminologie - drei Kategorien in jeder Sprache ausgedrückt werden (Mauthner (1925)): • Wahrnehmungen • Veränderung und intentionales Handeln • Kausalbeziehungen und Substanzen/ Dinge Diese Einteilung erinnert stark an die Ideen der lexikalischen Semantik und der dort vertretenen Auffassungen der Dekomposition mit Hilfe von aspektuellen Operatoren, wie es beispielsweise Dowty (1979) vorschlägt. Diese drei universellen Kategorien (universal categories) finden sich in der Grammatik wieder, wenn auch nicht eindeutig. Die Wortarten Substantiv, Adjektiv und Verb entsprechen Mauthners Kategorien. Das Adjektiv entspricht einer ungeordneten Wahrnehmung, es ist am direktesten mit den Sinneserfahrungen verbunden. Verben ermöglichen eine erste Ordnung. Sie erlauben es, Veränderungen und Beziehungen auszudrücken, so dass kausale und temporale Strukturen abgebildet werden können. Substantive sind Bündel von Adjektiven, das heißt, sie fassen mehrere unstrukturierte Eigenschaften zu einem neuen Konzept zusammen. Mauthners universelle Kategorien besitzen eine interessante Parallele zu Mark Baker (2003a) (siehe § 4.8). Dieser argumentiert ebenfalls dafür, dass Verben, Adjektive und Nomen die einzigen universellen Wortarten (universal lexical categories) sind: Nomen besitzen einen referentiellen Index, Verben einen Spezifikator (d.h. sie sind als einzige Kategorie inhärent relational) und Adjektive keine der genannten Eigenschaften. Gemeinsam ist den beiden Theorien, dass Adjektive die einfachsten, am wenigsten strukturierte Elemente der Grammatik sind. Verben ermöglichen es, zwei Bausteine zueinander in Beziehung zu setzen: dies erlaubt beispielsweise den Ausdruck von Kausalbeziehungen. Substantive verweisen auf Konzepte, ein referentieller Index kann als ein derartiger Mechanismus aufgefasst werden. Obwohl Mauthner die Universalgrammatik ablehnt, wird bei einer näheren Betrachtung seiner drei Kategorien deutlich, dass diese sich durchaus in der heutigen generativen Grammatiktheorie wiederfinden. Allerdings ist der Wortartenbegriff heute anders gefasst, da viele Studien über typologisch verschiedene Sprachen die klassische Einteilung nach morphologischen Kriterien hinter sich gelassen haben (siehe dazu auch Baker (2003a)). Mauthner ist in erster Linie für seine Sprachkritik bekannt. Er ist der Auffassung, dass Erkenntnistheorie (epistemology) am besten durch eine profunde Kritik an der Sprache durchgeführt werden kann. Im Mittelpunkt seines Interesses stehen dabei die Aufdeckung von Kategorienfehlern: Zum Beispiel ist der Begriff Seele für ihn falsch, da es sich hierbei nicht um ein Ding, sondern um Vorgänge bzw. Tätigkeiten handelt. Es müßte daher besser Geseel heißen (Mauthner (1920/ 23)). Aus diesem Fehler entsteht weiters der unverständliche Satz 142 6. Wissen und Wörter Die Seele ist unsterblich. Er ist unverständlich, da die Seele kein lebendiger Gegenstand ist (Leinfellner (1992): § 4.3.2). Fritz Mauthner’s verbal reason • Sensory organs map outer objects onto inner representations. Only the information that the sensory organs perceive can be processed further. • Verbal reason is the prerequisite for organizing and accessing conceptual knowledge. • Mauthner denies the existence of a universal grammar. Individuals create their own language from their speci c and personal sensory information. • The meaning of a word depends on its context and its usage (pragmatist theory of meaning). • Three universal categories (perception, change, and causation) are re ected in the following lexical categories: adjective (= unstructured perception), verb (= change and relations), and noun (= new category). • Epistemology can only be conducted when there is a thorough critique of language. 6.3.2 Zwei-Faktoren-Theorie Die amerikanische Psychologin Susan Carey (Carey (2009), Carey (2011)) befasst sich mit dem Erwerb von Konzepten bei Säuglingen und Kindern. Ihre allgemeine Theorie der Beschaffenheit des konzeptuellen Wissens geht davon aus, dass einige Konzepte angeboren sind, ähnlich wie die Mechanismen des Perzeptionsapparats und die Verarbeitung von sensomotorischer Information (z.B. das Erkennen von Kanten, Bewegungen, Gesichtern etc.). Die Entwicklung der Konzepte verläuft diskontinuierlich, das heißt, es treten im Lauf der Susan Carey (*1942) Zeit immer wieder Sprünge auf, die zu noch mächtigeren Repräsentationssystemen führen. Diese erlauben eine kognitive Verarbeitung auf einer weiteren, abstrakteren bzw. umfassenderen Ebene. Gemäß der Zwei-Faktoren-Theorie (dual factor theory) der Konzepte von Carey werden Konzepte teilweise durch die kausale Beziehung zwischen Repräsentation und repräsentiertem Objekt bestimmt. Mit anderen Worten: Die jeweilige Entität, die mental verarbeitet und repräsentiert wird, bestimmt das dafür verwendete mentale Symbol. Diese Auffassung wird auch von der Informationssemantik (information semantics) vertreten (Carey verweist hier auf Fodor (1998)). Der zweite Bestandteil dieser Theorie ist der beschränkte Inhalt (narrow content). Damit meint Carey, dass die verwendeten mentalen 6.3 Konzepte und Kognition 143 Symbole Teile ihrer Bedeutung bestimmen. Die Bedeutung ist somit auch von den gedanklichen Inferenzprozessen abhängig. Entgegen dem konzeptionellen Atomismus von Fodor ist Carey nicht der Meinung, dass alle (primitiven) Konzepte angeboren sind. Vielmehr geht sie davon aus, dass es die Kernkognition (core cognition) ist, die zur menschlichen Grundausstattung gehört. Diese umfasst drei Bereiche: • Bereiche der Kernkognition - Objekte der mittleren Distanz (räumliche und kausale Beziehungen) - agentive Objekte (Kommunikation und Intention) - Zahlenbereich (quantitative Abschätzungen) Die Objekte der mittleren Distanz dienen zur Verarbeitung von räumlichen und kausalen Beziehungen. Anhand der agentiven Objekte werden kommunikative Absichten und Aufmerksamkeitszustände, aber auch Intentionen, Ziele und kausatives Potenzial erkannt und berechnet. Der Zahlenbereich erlaubt quantitative Abschätzungen von Mengen und mengenbasierte Quantifikation. Dieses System der Kernkognition funktioniert ähnlich wie die perzeptuelle und sensomotorische Verarbreitung. Es besitzt die folgenden Eigenschaften: • Eigenschaften der Kernkognition - Die Inhalte können nicht auf Repräsentationen der Wahrnehmung oder der Motorik reduziert werden. - Sie besteht aus Input-Analyzern, die ähnlich wie Fodor’sche Module sind. - Ihre Repräsentationen sind ikonisch. - Das Wissen bleibt über die Lebensspanne konstant. - Konzeptuelles Wissen wird mittels Bootstrapping erworben. Die Inhalte der Konzepte der Kernkognition können nicht auf perzeptuelle oder sensomotorische Repräsentationen reduziert werden, da sie mitunter viel zu abstrakt sind. Beispielsweise sind abstrakte Begriffe wie Agens oder Entität, aber auch quantifizierende Ausdrücke wie beinahe oder die meisten nicht dafür geeignet, direkt aus einer perzeptuellen Erfahrung abgeleitet werden zu können. Die Kernkognition ist qualitativ verschieden von der perzeptuellen und sensomotorischen Verarbeitung. Diese Auffassung widerspricht zahlreichen Theorien des Embodiments, die der Ansicht sind, das jedes Wissen zunächst über den Körper erfahren und repräsentiert wird. Die Kernkognition besteht aus Input-Analyzern, die jeweils spezifisch auf ihre Domäne ausgerichtet sind und nur die entsprechenden Repräsentationen verarbeiten können. Damit funktionieren sie ähnlich wie Module im Fodor’schen Sinn, unterscheiden sich jedoch von denjenigen der perzeptuellen Verarbeitung. Diese Input-Analyzer sind angeboren, ihre spezifische Konfiguration, d.h. die exakten Inhalte, die repräsentiert werden, müssen aber erst erlernt werden. 144 6. Wissen und Wörter Die Repräsentationen der Kernkognition sind ikonisch (iconic), d.h. Teile der Repräsentation entsprechen wiederum Teilen der repräsentierten Entität. Damit wird der Auffassung, dass konzeptuelles Wissen vollkommen losgelöst und symbolisch repräsentiert wird, widersprochen. Das Wissen der Kernkognition ist über die gesamte Lebensspanne konstant (constant). Damit unterscheidet es sich fundamental von linguistisch kodiertem Wissen, das sich ja immer wieder ändern kann. Beispielsweise ändert sich das Wissen über Tiere und Pflanzen im Laufe der Schulbildung, da man immer mehr dazulernt. Es kann sich aber auch auf Grund von neuen wissenschaftlichen Erkenntnissen verändern. Das linguistisch kodierte Wissen ist, im Gegensatz zum Wissen der Kernkognition, auch nicht ikonisch repräsentiert. Genauso wenig ist es angeboren, es steht auch in keinem Bezug zu perzeptuellen oder sensomotorischen Repräsentationen. Wiederum läuft diese These den Theorien des Embodiment zuwider, die davon ausgehen, dass auch linguistisches Wissen auf körperliche Repräsentationen fusst (siehe dazu z.B. Pulvermüller (1999), Pulvermüller (2010b)). Der Lernmechanismus für konzeptuelles Wissen ist laut Carey Quine’sches Bootstrapping. Hierbei werden mentale Symbole des bestehenden Systems generiert oder verwendet, um auf neue Konzepte zu referieren. Dabei ist das verwendete mentale Symbol nur ein Platzhalter für ein ausgefeilteres Symbol, das der intendierten Bedeutung gerecht wird. Das mentale Symbol referiert dabei partiell auf ein bestehendes Konzept, so dass es möglich ist, in einem weiteren Schritt ein ausgefeilteres Konzept zu erzeugen. Damit ist es möglich, neue Hypothesen über das entstehende Konzept zu formulieren. Es werden im Bootstrapping-Prozess die bisher vorhandenen mentalen Symbole dazu verwendet, um Neuartiges zu modellieren. In den weiteren Schritten (Inferenzen, Gedankenexperimente, Analogiebildungen etc.) wird das neue Konzept dann ausgebildet, verfeinert und gefestigt. Susan Carey’s dual factor theory • Some concepts are innate; their development happens discontinuously. • To a certain extent, the causal relation between an object and its representation determines the mental symbol (information semantics). • Mental symbols determine parts of their meaning (narrow content). • Core cognition deals with objects (for spatial and causal relations), agents (for communication and intention), and numbers (quantitative estimation). 6.3 Konzepte und Kognition 145 • Properties of core cognition - Its content cannot be reduced to perception or motor action. - It consists of input analyzers which are similar to modules. - Its representations are iconic. - The knowledge is constant over a lifetime. - Conceptual knowledge is gained via bootstrapping. Kapitel 7 Metaphern Metaphern haben in Literaturwissenschaft und Philosophie ein enormes Ausmaß an Forschungsarbeiten ausgelöst. Die Menge an Literatur zu diesem Thema ist beinahe unerschöpflich. Dieses Kapitel verfolgt daher nicht das Ziel, den gesamten Iststand der Forschung zu präsentieren; vielmehr geht es darum, die für die Kognitionswissenschaft zentralen Fragen nach Konzepten und Bedeutung zu fokussieren: Inwieweit können Metaphern im Rahmen des kognitivorientieren, naturwissenschaftlichen, formalen Forschungsparadigmas behandelt werden? Welche Antworten gibt die generative Grammatiktheorie auf die Frage der Metaphern? Bisher ist die Analyse von Metaphern hauptsächlich in der Hand der Literaturwissenschaft gelegen. Von Seiten der Linguistik wurden einige Vorschläge im Rahmen der kognitiven Metapherntheorie (cognitive metaphor theory) gemacht. Dieses Kapitel möchte die Schwierigkeiten eines solchen Ansatzes aus generativer Perspektive herausarbeiten und unterschiedliche mögliche Analysemethoden, die mit der generativen Theorie mehr oder weniger kompatibel sind, aufzeigen. Schließlich sollen die für die Kognitionswissenschaft im engeren Sinne relevanten Themen anhand der Analyse von Metaphern abgearbeitet werden. Denn die Analyse von Metaphern bietet die einmalige Möglichkeit, die verschiedenen theoretischen Ansätze der Kognitionswissenschaft auf ein konkretes Problem anzuwenden und zu sehen, was die einzelnen Theorien für eine Antwortfindung tun können. 7.1 Kognitive Metapherntheorie Die kognitive Metapherntheorie (cognitive metaphor theory) geht in erster Linie auf George Lakoff und seine gemeinsamen Arbeiten mit Mark Johnson zurück (Lakoff & Johnson (1980), Lakoff (1987), Lakoff & Johnson (1999)). Lakoff war zunächst ein Schüler von Chomsky und arbeitete innerhalb der ge- 7.1 Kognitive Metapherntheorie 147 nerativen Theorie, bis er sich abwandte und die kognitive Linguistik (cognitive linguistics) begründete. Kognitive Linguistik ist als Fachterminus zu verstehen, der eine ganz bestimmte theoretische Schule bezeichnet. Es handelt sich nicht um den Versuch, die Linguistik allgemein in die Kognitionswissenschaft zu integrieren. George Lakoff (*1941) c Bart Nagel Die kognitive Linguistik und die kognitive Metapherntheorie spielen eine zunehmend stärkere Rolle innerhalb der Kognitions- und Literaturwissenschaft, vor allem auch innerhalb der kognitiven Literaturtheorie (cognitive poetics) (Gavins & Steen (2003), Stockwell (2002), Tsur (2008)). Insbesondere all diejenigen ForscherInnen, die sich mit Embodiment auseinandersetzen, verwenden für die linguistischen Aspekte ihrer Arbeiten die kognitive Linguistik als Grundlage. Beispielsweise fußen zahlreiche Arbeiten der Gender Studies auf Resultaten der kognitiven Linguistik, der Embodiment-Bewegung und der kognitiven Metapherntheorie. Für die kognitive Linguistik sind Metaphern der wichtigste Punkt des menschlichen Denkens. Einige wenige grundlegende Metapherntypen (basic metaphors) bilden das Fundament aller Kognition, Wahrnehmung und Sprache bauen darauf auf. Sprache ist sekundär, sie dient dazu, bereits vorhandene Metaphern und Denkschemata auszudrücken. In der Sprache, auch in der Syntax, werden die Metaphern und die allgemeine konzeptuelle Organisation sowie die grundlegenden Verarbeitungsmechanismen widergespiegelt, Sprache und Syntax sind daher in der kognitiven Linguistik nicht auto- Mark Turner (*1954) nom wie in der generativen Grammatiktheorie. Wörter entsprechen Konzepten und inkludieren Informationen über konzeptuelle Metaphern (Tendahl & Gibbs (2008), Lakoff & Turner (1989), siehe auch § 6). Die grundlegenden Metaphern haben ihre Basis in den körperlichen Funktionen. Die körperliche Erfahrung, unter anderem die räumliche und die zeitliche, bildet die Voraussetzung für die Entstehung der Denkschemata. Alle anderen, höheren kognitiven Mechanismen fußen darauf, Metaphern haben somit ihre Grundlage in körperlichen und neuralen Vorgängen (Feldman (2006), Gibbs (2006)). Dieser Standpunkt macht die kognitive Linguistik für viele Theorien des Embodiments attraktiv (vgl. § 10). Die kognitive Metapherntheorie unterscheidet folgende Typen von Metaphern (Tendahl & Gibbs (2008)): strukturelle Metaphern (structural metaphors), Orientierungsmetaphern (orientational metaphors) und Bildschemata (image-schemas). Strukturelle Metaphern erfassen ein Konzept im Rahmen eines anderen, bereits vorhandenen Konzepts. • Strukturelle Metaphern - Life is a journey. - Argument is war. [Tendahl & Gibbs (2008): 1826] 148 7. Metaphern Orientierungsmetaphern betreffen einen gesamten Konzeptraum, in dem die einzelnen Metaphern zueinander in Beziehung gesetzt werden. • Orientierungsmetaphern - Vorgänge werden als Substanzen aufgefasst. - Zustände werden als Behälter verstanden. [Tendahl & Gibbs (2008): 1826] Bildschemata entsprechen spatialen Relationen und Bewegungen im Raum. Die von Fauconnier & Turner (2002) vorgeschlagene Theorie des konzeptuellen Überblendens (conceptual blending theory) ist eine wichtige Weiterentwicklung der kognitiven Metapherntheorie. Die mentalen Konzepte, die dem Denken und der Sprache zugrunde liegen, können in einem eigenen „Arbeitsraum“ neu kombiniert werden. Dies beinhaltet auch die partielle Überblendung von konzeptuellen Strukturen. Dadurch ist es möglich, neue Bedeutungsstrukturen zu erzeugen. Beispielsweise können zwei vorhandene Strukturen überblendet und kombiniert werden, so dass neues Wissen über eine oder beide der ursprünglichen Domänen erzeugt werden kann. Das konzeptuelle Überblenden ist damit ein äußerst wichtiger Mechanismus zum Erzeugen von neuem Wissen und neuen Wissensstrukturen. Hinsichtlich der neuronalen Realisierung der kognitiven Metapherntheorie gibt Lakoff (2008) an, dass es keine auf Sprache spezialisierte Regionen im Gehirn gibt. Ebenso ist die Verarbeitung von Metaphern nicht an bestimmte Areale gekoppelt. Vielmehr findet eine verkörperte Simulation statt, bei der sensomotorische Information auf abstrakte Konzepte in verschiedenen Bereichen des Gehirns abgebildet wird, so dass metaphorische Abbildungen neuronalen Abbildungen entsprechen: Zwei getrennte Bereiche werden so durch gemeinsame neuronale Aktivität verknüpft. Lakoff denkt dabei insbesondere an Spiegelneuronen. Cognitive linguistics and cognitive metaphor theory • George Lakoff and Mark Johnson founded cognitive linguistics. • Cognitive linguistics plays a major role in embodiment theories, gender studies, and literature theory. • Metaphors are the foundation of cognition. Language and grammar re ect these metaphors. Language, grammar, and general cognition are not separated in this model. • Basic metaphors are rooted in bodily experiences. All other cognitive mechanisms are based on them. • The types of basic metaphors are structural metaphors, orientational metaphors, and image schemas. • In conceptual blending theory, concepts can be merged and combined in order to gain new concepts and knowledge. 7.2 Relevanztheorie und Ad-hoc-Konzepte 149 • Lakoff assumes that there are no specialized regions in the brain that deal with language. An embodied simulation maps sensorimotor information onto abstract concepts. 7.2 Relevanztheorie und Ad-hoc-Konzepte 7.2.1 Relevanztheorie Die Relevanztheorie (relevance theory) ist eine wichtige Theorie der Pragmatik (siehe auch 3.5.3). Sie geht auf die Maxime der Relevanz von Paul Grice zurück und wurde von Dan Sperber, Robyn Carston und Deirdre Wilson entwickelt (Sperber & Wilson (1986), Carston (2002), Carston (2003), Wilson & Carston (2007))). Die wichtigsten Eckpfeiler der Relevanztheorie sind: • kommunikatives Prinzip der Relevanz • Hypothese der gegenseitigen Anpassung • Unterdeterminiertheit Das kommunikative Prinzip der Relevanz (communivative principle of relevance) besagt, dass jede Äußerung die Annahme einer optimalen Relevanz und einer situationsspezifischen Erwartung erzeugt (Wilson & Carston (2007): 245). Das bedeutet, dass die Äußerung dem Aufwand und der Absicht der SprecherIn entspricht. Die SprecherIn kommuniziert nur das, was ihr wirklich relevant erscheint, Unnötiges wird weggelassen. Weiters ist die Äußerung den Verarbeitungsaufwand der HörerIn wert. Das bedeutet, dass es der HörerIn Robyn Carston (*1955) so leicht wie möglich gemacht wird, dass die Information für die HörerIn aber auch derart wichtig ist, dass sich die Informationsverarbeitung für sie auszahlt. Die Hypothese der gegenseitigen parallelen Anpassung (mutual parallel adjustment hypothesis) besagt, dass die wörtliche Bedeutung und die Implikaturen laufend angepasst werden, damit die Erwartungen der HörerIn bezüglich der Relevanz erfüllt werden (Wilson & Carston (2007): 248). Dies bedeutet, dass das kontextuelle Wissen beider GesprächsteilnehmerInnen andauernd aktualisiert und an die jeweilige Gesprächssituation angepasst wird. Damit stehen für die Interpretation eines Gesprächs nicht nur die lexikalische und die grammatische Bedeutung im Mittelpunkt. Hinsichtlich der Interpretation von Metaphern und nicht-wörtlicher Sprache ist dies von besonderer Bedeutung, da deren Interpretation ja per definitionem niemals wörtlich ist und immer Kontextwissen erfordert. Die HörerIn muss mittels deduktiver Inferenzen das Kontextwissen aktualisieren (vgl. § 3.5.3). Die Unterdeterminiertheit (underdeterminacy) der menschlichen Sprache ist eine essentielle Eigenschaft (Carston (2002): 82). Dies bedeutet, dass 150 7. Metaphern ein linguistischer Ausdruck niemals die Proposition, auf die er referiert, exakt bestimmen kann: Es bleibt immer ein gewisser Rest offen - die Unbestimmtheit - der durch kontextuelles Wissen, durch die Pragmatik, ergänzt wird. Von besonderem Interesse ist hier die Beziehung zwischen dem Wort (in erster Linie Inhaltswörter wie Nomen, Verben und Adjektive) und dem Konzept, auf das es referiert. Für Carston ist die menschliche Sprache für die Kommunikation so geeignet, da die GesprächsteilnehmerInnen die mentalen Zustände der anderen inferieren können. Dies ermöglicht es ihnen, den jeweils aktuellen Kontext und das nötige, relevante Hintergrundwissen zu ermitteln. Die pragmatischen Inferenzmechanismen sind allerdings von fundamental anderer Beschaffenheit als die anderen (nicht-sprachlichen) Arten, fremde mentale Zustände zu erkennen: Die sprachlichen Mechanismen, und nur diese, unterliegen dem Prinzip der optimalen Relevanz. Laut Carston existieren zwei pragmatische Hauptmechanismen, wie ein Konzept näher bestimmt werden kann: Konzepte können verengt (narrowed) oder verschärft (strengthened) werden. Relevance theory • Communicative principle of relevance: The speaker only utters what is relevant; the bene t for the hearer is worth his or her processing effort. • Mutual parallel adjustment hypothesis: Literal meaning is continuously updated in order to ful ll the hearer’s need for relevance. • Underdeterminacy: The relationship between a word and a context is never completely determined. It is always necessary to integrate contextual information and background knowledge. Carston argumentiert, dass metaphorischer Sprachgebrauch eigentlich lockerer Gebrauch (loose use) ist (Carston (2002) Kapitel 5, Carston (2003)). Im lockeren Sprachgebrauch werden Konzepte verändert. Es entstehen sogenannte Ad-hoc-Konzepte (ad-hoc concepts), die eine nicht-wörtliche bzw. übertragene Interpretation der Äußerung ermögichen. Das lose kodierte Konzept besitzt wie alle Konzepte logische und enzyklopädische Informationen. Es bezieht sich auf ein bestimmtes Weltwissen. Die metaphorische Bedeutung schliesst die kodierte Bedeutung ein oder überlappt mit ihr. In diesem Fall enthält die metaphorische Bedeutung die kodierte Bedeutung nur teilweise und kombiniert sie mit weiteren Referenzbeziehungen. Damit weist Carston die traditionelle Unterscheidung zwischen wörtlicher und übertragener Bedeutung zurück. In ihrer Theorie ist diese Grenze immer fließend. Dies sei anhand folgendes Beispiels illustriert: 7.2 Relevanztheorie und Ad-hoc-Konzepte 151 (1) a. Robert is a bulldozer. b. Sally is a block of ice. [Carston (2003): (3),(4)] Beiden Subjekten in (1) wird eine Eigenschaft zugeschrieben, die sie unter der wörtlichen Bedeutung niemals haben können, denn Menschen können weder Bulldozer noch Eisblöcke sein. Um diese Äußerung zu interpretieren, werden die beiden Konzepte Bulldozer und Eisblock gemäß dem Relevanzprinzip angepasst. Um den Sätzen eine sinnvolle Bedeutung zuweisen zu können, werden die beiden Konzepte von Objektbezeichnungen im wörtlichen Sinn auf psychische Eigenschaften erweitert. Dabei bleiben einige Merkmale des ursprünglichen Konzepts erhalten und werden auf die psychische Struktur der entsprechenden Persönlichkeit angewandt. Die möglichen Mechanismen der Anpassung von lexikalischen Konzepten, die zur Herausbildung von Ad-hoc-Konzepten führen, sind (Carston (2002) Kapitel 5, Carston (2003)): • reine Erweiterung (Teilmenge) • Kombination von Erweiterung und Näherung (Überlappung) • keine Beziehung • Näherung • Approximation • Metapher Bei der reinen Erweiterung (pure broadening) ist das lexikalische Konzept eine Teilmenge des Ad-hoc-Konzepts. Bei der Kombination von Erweiterung und Näherung existiert eine Überlappung zwischen dem lexikalischen Konzept und dem Ad-hoc-Konzept. Weiters ist es auch möglich, dass überhaupt keine Relation zwischen dem ursprünglichen und dem metaphorischen Konzept besteht. Wilson & Carston (2007) ergänzen die Mechanismen der Anpassung von lexikalischen Konzepten noch um folgende Varianten: Näherung (narrowing) bezeichnet die Inferenz zur stereotypen Bedeutung (vgl. Levinson (2000) und die Arbeiten von Reinhard Blutner, siehe § 7.3.3). Hierbei wird auf das prototypische Konzept geschlossen. Die Approximation (approximation) bezeichnet die Variation des Präzisionsstandards. Beispielsweise könnte das Adjektiv „riesig“ auf etwas Kleines angewendet werden. Dann meint man natürlich nicht, dass das Objekt im objektiven Maßstab groß ist, sondern dass es relativ zum relevanten pragmatischen Kontext enorm groß ist. Metapher (metaphor) bezeichnet eine absichtliche Verletzung der Maxime der Wahrhaftigkeit, die eine Implikatur bedingt. • Metaphorical language is loose use of language; new ad-hoc concepts are created. 152 7. Metaphern • Various operations adapt concepts to create ad-hoc concepts. These operations include broadening, narrowing, approximation, and metaphor. 7.2.2 Ad-hoc-Konzepte Der Entstehung von Ad-hoc-Konzepten wurde nicht nur im Rahmen der Relevanztheorie Aufmerksamkeit entgegengebracht, auch mehrere PhilosophInnen und LinguistInnen haben sich diesem Thema gewidmet. Wilson & Carston (2007) beschreiben folgende Perspektiven. François Recanati (Recanati (1993)) geht davon aus, dass Ad-hoc-Konzepte tatsächlich Teile der ausgedrückten Proposition sind. Wörter können somit auf ein Ad-hoc-Konzept referieren, das Teil der gesamten ausgedrückten Proposition wird. Damit können Ad-hoc-Konzepte Teil der Berechnung des Wahrheitswertes einer Proposition sein, genauso wie herkömmliche Konzepte auch. Dies wird als wahrheitswertbasierter pragmatischer Ansatz (truth-conditional pragmatic approach) bezeichnet. In späteren Arbeiten geht Recanati davon aus, dass sowohl assoziative Prozesse als auch Inferenzprozesse bei der Entstehung von Ad-hoc-Konzepten eine Rolle spielen. Deidre Wilson und Robyn Carston gehen davon aus, dass Näherung und Erweiterung Inferenzprozesse sind. Für die Berechnung des Wahrheitswertes einer Proposition werden daher nicht nur die kodierten Konzepte herangezogen, sondern auch diejenigen, die durch die pragmatischen Mechanismen entstehen können (siehe oben). Es ist daher möglich, dass diese pragmatisch angereicherten bzw. abgewandelten Bedeutungen in die semantische Berechnung der Bedeutung einfließen. Dies wird als Inferenzansatz der lexikalischen Pragmatik (inferential account of lexical pragmatics) bezeichnet. Es wurden in der Literatur auch nicht-inferentielle Vorschläge hinsichtlich der Entstehung von Ad-hoc-Konzepten gemacht. So schlägt Walter Kintsch (Kintsch (2000), Kintsch (2001)) vor, dass das nicht-wörtlich verwendete Wort direkt interpretiert wird. Sein Modell geht von der latenten semantischen Analyse (siehe § 7.4) aus. Die modifizierte Bedeutung des metaphorisch verwendeten Wortes wird mit Hilfe eines Algorithmus bestimmt, der die am ehesten kompatible Bedeutung berechnet. Dieses Wort wird anschließend interpretiert wie jedes andere auch. Von George Lakoff sowie von Fauconnier & Turner (2002) wurden Vorschläge unterbreitet, die neuronale Netze und Methoden der kognitiven Semantik beinhalten, die sich naturgemäß nicht ohne Weiteres mit Analysen aus der formalen Semantik vereinen lassen. Diese Vorschläge werden als nicht-inferentielle Ansätze (non-inferential accounts) bezeichnet. Hinsichtlich der Gedankensprache (language of thought) schlägt Jerry Fodor vor, dass Wortbedeutungen immer voll ausgebildeten Konzepten ent- 7.3 Generatives Lexikon vs. lexikalische Pragmatik 153 sprechen (Fodor (1998)). Die Relevanztheorie teilt diese Meinung nicht. Sie geht davon aus, dass Konzepte Schemata sind. Diese erlauben, dass ein tatsächlich verwendetes Konzept über pragmatische Mechanismen spezifiziert wird. Ansatz Beziehung zur Semantik AutorIn truth-conditional Ad-hoc-Konzept ist Recanati pragmatic Teil der Proposition inferential pragmatisch veränderte Bedeutung Wilson, Carston als Input der Semantik Teil der Proposition non-inferential direkte Interpretation, Kintsch, Lakoff, nicht-formale Semantik Fauconnier, Turner Tabelle 7.1: Beziehung von Ad-hoc-Konzept und semantischer Interpretation gemäß Wilson & Carston (2007) Integration of ad-hoc concepts • Truth-conditional pragmatic approach: The ad-hoc concept is part of the proposition. • Inferential account: The pragmatically adapted meaning serves as the input to semantic computation. • Non-inferential account: The predicate is interpreted directly. 7.3 Generatives Lexikon vs. lexikalische Pragmatik Das generative Lexikon von James Pustejovsky und die Diskursrepräsentationstheorie von Nicholas Asher und Alex Lascarides sind zwei Vorschläge, wie metaphorische Sprache analysiert werden kann, die im weitesten Sinne mit dem generativen Ansatz kompatibel sind. Sie stammen aus der Tradition der formalen Semantik und benötigen keine Grundlage, die sich auf die kognitive Linguistik beruft. Dieses ist einerseits das „generative Lexikon“ von James Pustejovsky, andererseits wurde von Asher und Lascarides ein Ansatz präsentiert, der sich der Diskursrepräsentationstheorie bedient. 7.3.1 Generatives Lexikon Gemäß James Pustejovsky (Pustejovsky (1995), Pustejovsky (2001)) umfasst ein linguistisches Zeichen mehrere Repräsentationsebenen: die Argumentstruktur (argument structure), die Ereignisstruktur (event structure), die Qualiastruktur (qualia structure) und die lexikalische Vererbungsstruktur (lexical inheritance structure). Die Argumentstrukur regelt, welche thematischen 154 7. Metaphern Rollen von einem Verb oder Adjektiv verlangt werden. Sie beschreibt die Anzahl und Beschaffenheit der TeilnehmerInnen an einem Ereignis. Die Ereignis- James Pustejovsky (*1956) struktur ist eng mit der Argumentstruktur verwoben, sie beschreibt den Ablauf und die möglichen Teilereignisse des beschriebenen Ereignisses. Der Qualiastruktur entspricht die prädikative Kraft eines Ausdruckes, d.h. aus welchen Basisprädikaten ein lexikalisches Element zusammengesetzt ist. Beispielsweise besteht Bier aus den Qualitäten flüssig und zum Trinken (Pustejovsky (2001): (59a)). Die lexikalische Vererbungsstruktur beschreibt die Beziehung zu anderen Strukturen im Typengitter. Die Theorie des generativen Lexikons beinhaltet ein Typensystem, das an das in der formalen Semantik üblichen System (Entitäten, Intensionen, Wahrheitswerte und aus diesen zusammengesetzte Typen) angelehnt ist, aber weitere Typen verwendet. Zusätzlich zu den Entitäten, Intensionen und Wahrheitswerten existieren natürliche Typen (natural types), die physikalische und abstrakte Entitäten näher klassifizieren und in ein formales System bringen. Hierbei werden beispielsweise Stöcke, Löwen, Kugeln und der Himmel unterschieden. Funktionale Typen (functional types) bringen Telizität und Agentivität in das System, womit es möglich wird, eine Zielgerichtetheit zu erfassen. Eine derartig komplexe Typensprache ermöglicht es, dass virtuelle Typen aus mehreren natürlichen und funktionalen Typen entstehen können. Damit können neue Gebilde, also neue Kombinationen von vorhandenen Konzepten, eingeführt und erfasst werden. Der nicht-wörtliche Sprachgebrauch entsteht gemäß der Theorie des generativen Lexikons dadurch, dass die Typensprache eine bestimmte Interpretation erzwingt. Beispielsweise müssen die Typen eines an und für sich inkompatiblen Paares von Subjekt und Verb derartig über virtuelle Typen kombiniert werden, dass eine Interpretation möglich ist. Im Gegensatz zum System der Relevanztheorie ist bei Pustejovsky kein Platz für die Pragmatik. Sobald die verschiedenen Typen und die Vorschrift ihrer Verknüpfung gemäß der Typensprache gegeben ist, erfolgt die Berechnung der Bedeutung vollkommen automatisch ohne den Einfluss des Kontextes oder der Pragmatik. Generative lexicon • A linguistic sign contains several structures: the argument structure, event structure, qualia structure, and lexical inheritance structure. • The classical type system of entities, intensions, and truth values is extended by natural and functional types. • Non-literal meaning emerges when the type language forces a certain interpretation. The meaning is determined by semantics, not by pragmatics. 7.3 Generatives Lexikon vs. lexikalische Pragmatik 155 7.3.2 Diskursrepräsentationstheorie Auch innerhalb der Diskursrepräsentationstheorie (discourse representation theory) wurde eine Analyse von metaphorischer Sprache durchgeführt (Asher & Lascarides (2001)). Ähnlich wie im Modell von Pustejovsky werden auch hier Repräsentationen mit Typen verwendet. Die lexikalische Information eines Wortes wird in einer Merkmalsstruktur repräsentiert, die den Vorgaben der Typenlogik Folge leistet. Die lexikalischen Einträge selbst besitzen eine reiche Qualiastruktur, die die Beschaffenheit des Objekts bzw. des Ereignisses näher spezifiziert. Für die Syntax verwenden Asher und Lascarides ein constraintbasiertes System wie etwa HPSG (head-driven phrase structure grammar, kopfgesteuerte Phrasenstrukturgrammatik). In einem derartigen Formalismus spielen die Unifikation (unification) und die Default-Unifikation eine bedeutende Rolle. Die Analyse von metaphorischer Sprache wird anhand des metaphorischen Gebrauchs von Verben der Ortsveränderung untersucht: • Sam crossed the line of permissible behavior. • He deviated from the norm. • He skirted over the holes in the argument. [Asher & Lascarides (2001): p. 264 (5def)] In diesen Beispielen ist es nicht der Fall, dass das Subjekt tatsächlich eine Ortsveränderung durchmacht, vielmehr wird die Ortsveränderung uminterpretiert, so dass eine metaphorische (nicht-wörtliche) Bedeutung entsteht. Metaphern sind durch formale Derivationsmechanismen beschränkt: Nicht jeder beliebige Typ von Metapher kann aus jedem Wort bzw. jedem syntaktischen Konstrukt entstehen. Die lexikalische Regel für Metaphern (metaphor lexical rule) beschränkt die metaphorische Interpretation einzelner Wörter, indem sie sicherstellt, dass linguistische Anforderungen wie etwa die Linkingbedingungen erfüllt werden (Asher & Lascarides (2001): 277). Dies bedeutet, dass die Argumentstruktur des ursprünglichen Wortes auch in seiner metaphorischen Verwendung erhalten bleibt. Diese Regel reicht aber nicht aus, da mehrere Werte der lexikalischen Merkmalsstruktur unterspezifiziert sind und über pragmatische Mechanismen angereichert werden müssen. Daher sind auch Asher und Lascarides der Meinung, dass rhetorische Beziehungen wie etwa der Gesprächsverlauf Einfluss auf die Interpretation nicht-wörtlichen Sprachgebrauchs haben. Innerhalb der Diskursrepräsentationstheorie wird eine Diskurskonstituente mit einer rhetorischen Relation zum Gesprächsverlauf angereichert. 156 7. Metaphern • Discourse representation theory uses a typed semantics and constraint-based syntax such as HPSG. • Linguistic requirements, such as linking constraints, must be met when creating metaphors (metaphor lexical rule). • Lexical features are underspeci ed and must be pragmatically enriched. Discourse context in uences the interpretation of nonliteral language. 7.3.3 Lexikalische Pragmatik Reinhard Blutner befaßt sich in mehreren Arbeiten mit der Arbeitsteilung zwischen lexikalischer Semantik und Pragmatik (Blutner (1998), Blutner (2004)) und schlägt folgendes Modell vor: Der Wortbedeutung entspricht eine Repräsentation von Konzepten (Semantik), davon getrennt ist die Verwendung von Wörtern im Diskurs (Pragmatik). Die semantischen Bedeutungen sind radikal unterspezifiziert (radically underspecified), sie können aber durch den pragmatischen Prozess der kontextuellen Anreicherung (contextual enrichment) Reinhard Blutner (*1948) interpretiert werden (Blutner (2004)). Mit seinem Konzept der radikalen Unterspezifizierung und kontextuellen Anreicherung wendet sich Blutner explizit gegen Theorien, die auf einem Typenzwang beruhen wie beispielsweise das generative Lexikon von Pustejovsky (siehe § 7.3.1). Blutner lehnt die Idee, dass ein Typenzwang zur gewünschten Interpretation führt, ab und betont die Rolle der Pragmatik und des Diskurskontextes. Das semantische System besitzt folgende Eigenschaften: Die Semantik gehorcht dem Kompositionalitätsprinzip (principle of compositionality) (siehe § 5.2.1). Das Inferenzsystem ist monoton (monotonic), das bedeutet, dass einmal vorhandenes Wissen nicht „deaktiviert“ oder „überschrieben“ werden kann. Wenn Inferenzen gezogen werden, so kann immer nur neues Wissen entstehen, das mit dem bereits vorhandenen kompatibel ist. Die Eigenschaft der Monotonie trifft auch auf das Lexikon zu. Damit entspricht die Wissensrepräsentation und -verarbeitung den Regeln der klassischen Logik (siehe auch § 5.4.4). Das pragmatische System beinhaltet darüber hinaus Wissen, das nicht dem grammatischen Verarbeitungsapparat zugänglich ist. Dieses Wissen kann nicht immer mit Symbolmanipulationen und Berechnungen verarbeitet werden. Die Pragmatik gehorcht prinzipiell Ökonomieprinzipien, die von Blutner in der bidirektionalen Optimalitätstheorie erfasst werden (siehe § 3.5.3). Im Gegensatz zur Semantik befolgt die Pragmatik nicht das Kompositionalitätsprinzip. Die kontextuelle Anreicherung gehorcht anderen Regeln: Die Monotonie gilt nicht, vielmehr werden Inferenzmechanismen der Defaultlogik (default logic) ein- 7.3 Generatives Lexikon vs. lexikalische Pragmatik 157 gesetzt (Reiter (1980)). Diese Logik besagt, dass ein Konzept defaultmäßig bestimmte Eigenschaften besitzt, diese können aber bei Vorhandensein von anderen Informationen überschrieben werden. Ein berühmtes Beispiel ist das des Konzepts eines Pinguins. Defaultmäßig haben alle Vögel Flügel und können fliegen, der Pinguin ist auch ein Vogel, er kann aber nicht fliegen, sondern schwimmt im Wasser. Die Eigenschaft kann-fliegen wird daher im Falle des Pinguins überschrieben - sie gilt nicht mehr. Des Weiteren wird in der Pragmatik auch die Abduktion (abduction) verwendet. Die Abduktion ist eine Schlussfolgerung (ähnlich wie der Modus ponens), die aber nicht den Gesetzen der klassischen Logik gehorcht (Peirce (1931- 1935)): A ! B B ————- A Wenn die Prämisse gilt A impliziert B und außerdem B wahr ist, dann besagt die Abduktion, dass auch A wahr ist. Die klassische Logik verbietet so einen Schluss! Es ist nur der Modus ponens erlaubt, der besagt, wenn A impliziert B und A wahr ist, dann gilt auch B. Allerdings werden abduktive Schlussfolgerungen von Menschen sehr oft getätigt (Kowalski (2011)). Beispielsweise könnte man folgende zwei Prämissen annehmen: • Wenn es schneit, dann ist es Winter. • Es ist Winter. Die Abduktion würde es erlauben, dass Folgendes wahr ist: • Es schneit. Wie wir wissen, schneit es zwar oft im Winter, aber nicht immer. Deswegen ist die Abduktion gemäß der klassischen Logik kein gültiger Schluss. Sie hilft uns aber, im Alltag Voraussagen zu machen, so dass wir besser zurecht kommen. Eine Anwendung der lexikalischen Pragmatik ist die Pragmatik der Adjektive (pragmatics of adjectves) (Blutner (1998)). Sie fragt danach, wie man eigentlich wissen kann, auf welchen Teil des Nomens sich das Adjektiv bezieht. Quine (1960) erläutert dieses Problem: Ein roter Apfel ist außen rot, aber eine rosa Grapefruit ist innen rosa. Das Adjektiv bezieht sich also nicht automatisch auf die äußere Erscheinung oder die Schale eines Objekts. Pragmatische Anomalien (pragmatic anomalies) sind Fälle, in denen ein Adjektiv irgendwie nicht auf sein Argument „passt“. Davon zu unterscheiden sind Kategorienclashes, eine Unterscheidung, die auf Keil (1979) zurückgeht. • ? The tractor is sweet. (pragmatische Anomalie) • *The tractor is pregnant. (Kategorienfehler) [Blutner (1998): (5fg)] 158 7. Metaphern Semantische Anomalien (semantic anomalies) hingegen sind Unvereinbarkeiten, die darauf zurückgehen, dass zwei Begriffe gegensätzliche Definitionen haben. Die betreffenden Begriffe sind also per definitionem im Widerspruch, z.B. „verheirateter Junggeselle“ (Blutner (2004) § 2.4). Schließlich fallen auch die systematische Polysemie (systematic polysemy) sowie die lexikalische Blockierung (lexical blocking) in den Bereich der lexikalischen Pragmatik. Mit dieser Theorie können auch Metaphern analyisert werden. Sie erlaubt es, die pragmatischen Inferenzprozesse, die notwendig sind, um eine Metapher zu verstehen, zu analysieren. Weiters hilft die Unterscheidung zwischen Semantik und Pragmatik herauszufinden, an welchen Stellen (nämlich an den pragmatischen) der lexikalischen Repräsentation die nicht-wörtliche Bedeutung entstehen kann. Schließlich zeigen die semantischen Anomalien, welche Art von Metaphern prinzipiell unmöglich sind. Die Analyse der Pragmatik der Adjektive zeigt, wie auch neue und ungewöhnliche Paarungen zu analysieren sind. Lexical pragmatics • The meaning of words is radically underspeci ed (semantics) and must be contextually enriched (pragmatics). • Semantics conforms to the principle of compositionality; inferences are monotonic (classical logic). • Pragmatics does not obey the principle of compositionality. Inference mechanisms are non-monotonic (default logic and abduction). • Pragmatics of adjectives, semantic and pragmatic anomalies, systematic polysemy, and lexical blocking are phenomena that are relevant to lexical pragmatics. • Lexical pragmatics speci es the inferences that are at work when interpreting metaphors. 7.4 Psycholinguistische Verarbeitungsmodelle Nicht nur theoretische Arbeiten befassen sich mit dem nicht-wörtlichen Sprachgebrauch, auch in der Psycholinguistik widmen sich eine Reihe von experimentellen Forschungsarbeiten diesem Thema. Dabei steht die Frage im Mittelpunkt, wie ein Modell aussehen könnte, das die spezifischen Verarbeitungsmuster von Metaphern vorhersagt und erklärt. Im Folgenden werden die Graded- Salience-Hypothese, das Fine-Coarse-Coding Modell sowie die latente semantische Analyse vorgestellt. Die Hypothese der graduellen Salienz (graded salience hypothesis) wurde von Rachel Giora in verschiedenen Arbeiten (Giora (1997), Giora (2002), 7.4 Psycholinguistische Verarbeitungsmodelle 159 Giora (2003)) enwickelt. Salienz (salience) bedeutet „Herausragen“ oder „Hervorspringen“. Herausragende (salient) Bedeutungen sind am wichtigsten, Rachel Giora (*1945) d.h. dass am ehesten solche Bedeutungen verstanden werden, die im jeweiligen Kontext am relevantesten erscheinen. Der Grad der Herausragung lässt sich anhand mehrerer Faktoren definieren: Die Konventionalität, die Frequenz, der Bekanntheitsgrad und die Prototypikalität sowie die Aktivierung durch den vorangehenden Kontext spielen dabei eine Rolle (Giora (1997)). Je mehr von diesen Eigenschaften auf ein Zeichen zutreffen, desto höher ist seine Salienz. Sowohl wörtlicher als auch nicht-wörtlicher Sprachgebrauch wird gemäß der Salienzhypothese interpretiert. Konventionelle Metaphern haben, ähnlich wie Sprichwörter oder Redensarten, einen hohen Grad an Konventionalität und sind daher fix im mentalen Lexikon gespeichert. Für ihre Interpretation ist es nicht notwendig, zuerst die wörtliche Bedeutung zu bestimmen, um diese anschließend auf einer anderen Ebene zu reinterpretieren. Vielmehr sind sie als gesamte Einheit abgespeichert und können gleich ihre übertragene Bedeutung zugewiesen bekommen (Giora (1997)). Experimentell konnte gezeigt werden, dass die rechte Hemisphäre für die Interpretation neuer Metaphern zuständig ist, während die linke Hemisphäre das Verständis konventioneller, salienter Zeichen ermöglicht (Giora et al. (2000)). Die Fein-Grob-Kodierung (fine-coarse coding), die von Mark Beeman (Beeman (1993), Beeman & Chiarello (1998)) vorgeschlagen wurde, besagt, dass die beiden Hemisphären des Gehirns für unterschiedliche Aspekte der semantischen Verarbeitung zuständig sind: In der linken Hemisphäre erfolgt die feine semantische Verarbeitung, hier werden die zentralen Aspekte der Bedeutung erfasst. Die linke Hemisphäre arbeitet dabei schnell, fokussiert und präzise. Im Gegensatz dazu steht die semantische Verarbeitung in der rechten Hemisphäre. Sie ist langsamer und weniger fokussiert, dafür kann sie gleichzeitig mehrere potienzielle Bedeutungen gleichzeitig verarbeiten. Sie ist dafür zuständig, die Bedeutung einer Äußerung in den weiteren Kontext des Gespräches einzubinden. Beeman geht davon aus, dass Mechanismen wie die konzeptuelle Verblendung und das Ziehen von Inferenzen in der rechten Hemisphäre erfolgen. Dazu kommt, dass auch die soziale Interpretation sprachlicher Geschehnisse in der rechten Hemisphäre verarbeitet wird. Unter anderem gibt es auch in der Texlinguistik Studien, die die Verarbeitung eines Textes als Ganzes in der rechten Hemisphäre verankert wissen wollen. Beeman geht davon aus, dass in der rechten Hemisphäre unterschiedliche, sogar inkonsistente Konzepte miteinander in Verbindung gebracht werden, wie es auch für die Interpretation ungewöhnlicher und neuartiger Metaphern notwendig ist. Die Verarbeitung von Metaphern erolgt gemäß der Fein-Grob-Kodierung in zwei Schritten: Die rechte Hemisphäre wählt verschiedene Konzepte aus, die linke wählt aus diesen aus und integriert sie (Beeman (1998)). Das Modell der latenten semantischen Analyse (latent semantic analysis) wurde von Thomas Landauer (Landauer & Dumais (1997), Landauer 160 7. Metaphern linke Hemisphäre rechte Hemisphäre feine semantische Verarbeitung grobe semantische Verarbeitung schnell, fokussiert, präzise langsam, mehrere gleichzeitig Bedeutung im Kontext konzeptuelle Verblendung Inferenzen soziale Interpretation Tabelle 7.2: Semantische Verarbeitung in der rechten und linken Hemisphäre et al. (1998)) vorgeschlagen. Es handelt sich dabei in erster Linie um eine Technik der Computerlinguistik, die dazu dient, mittels statistischer Verfahren Bedeutungszusammenhänge zu ermitteln, wobei die Syntax keine Rolle spielt. Auf Grund der methodischen Sauberkeit findet diese Technik auch in der Psycholinguistik ihre Anwendung hinsichtlich der Klassifizierung von Testdaten von Bedeutungszusammenhängen. Ungewöhnliche Metaphern haben naturgemäß schlechtere Werte in der latenten semantischen Analyse. Diese Methode kann ungewöhnliche Metaphern nicht von inkompatiblen Begriffspaaren unterscheiden. • The graded salience hypothesis assumes that the hearer understands the most relevant meaning in a context. Conventional metaphors are coded as xed lexical items; therefore, no reinterpretation process takes place. • The right hemisphere processes new metaphors, the left one conventional and salient expressions. • According to the ne-coarse coding theory, the left hemisphere processes fast and precisely. The right hemisphere processes more slowly; it establishes the social context, and it relates concepts to each other. • When processing metaphors, the right hemisphere selects several concepts and the left hemisphere integrates them. • Latent semantic analysis calculates the relations of meaning by statistical means. Rare metaphors and incompatible notions both have low values and cannot be distinguished in this model. 7.5 Strukturelle Typen von Metaphern Dedre Gentner entwickelte die Theorie der strukturellen Abbildung (Structure Mapping Theory), um eine Einteilung der unterschiedlichen Typen von 7.5 Strukturelle Typen von Metaphern 161 Metaphern zu ermöglichen (Gentner (1988)). Dieser Einteilung liegt das psychologische Interesse zu Grunde, ab welchem Alter bzw. Entwicklungsstand Kinder die verschiedenen Typen von Metaphern verstehen und produzieren können. Während ein richtiges metaphorisches Verständnis erst ab ca. 14 Jahren möglich zu sein scheint, ist ein metaphorischer Sprachgebrauch bereits ab Dedre Gentner etwa 1,5 Jahren zu beobachten. Attributive Metaphern (attributional metaphors) sind Abbildungen, sie sich rein auf die äußere Erscheinung beziehen, die also eine beobachtbare Ähnlichkeit beinhalten. Gentner nennt folgende Beispiele: (2) Her Ihre arms Arme were waren like wie twin swans. Zwillingsschwäne. [Gentner (1988): 48, Übersetzung A.R.] (3) Pancakes Palatschinken are sind nickels. Fünfcentstücke. [Gentner (1988): 49, Übersetzung A.R.] Relationale Metaphern (relational metaphors) hingegen sind komplexer, sie beinhalten Analogien. Es werden hier nicht einfache Eigenschaften verglichen, sondern es wird eine gesamte relationale Struktur abgebildet: (4) A Ein tire Reifen is ist a ein shoe. Schuh. [Gentner (1988): 49, Übersetzung A.R.] Das Beispiel zeigt, dass die relationale Metapher beinhaltet, dass ein Mensch Füße hat und dass die Räder eines Autos den Füßen des Menschen entsprechen. Hier wird das primäre Fortbewegungsorgan abgebildet. Im zweiten Schritt können nun Bekleidungsgegenstände zugeordnet werden: Schuhe dem Menschen, Reifen dem Auto. Doppelte Metaphern (double metaphors) sind Kombinationen aus attributiven und relationalen Metaphern. Sie beinhalten Vergleiche des Erscheinungsbildes und Abbildungen der relationalen Strukturen. Gentner illustriert dies anhand folgender Beispiele: (5) A Ein kite Drache is ist like wie a ein bird. Vogel. [Gentner (1988): 50, Übersetzung A.R.] (6) The Der sky Himmel is ist like wie the der ocean. Ozean. [Gentner (1988): 50, Übersetzung A.R.] Mehrere Experimente von Gentner zeigen, dass Erwachsene relationale Metaphern gegenüber attributiven präferieren. Im Laufe der Entwicklung kommt es zu einer drastischen Zunahme von relationalen Metaphern, während die attributiven bereits früh vorhanden sind und annähernd gleich bleiben. Es gibt einen spezifischen Entwicklungsschub, der die Verwendung und das Verständnis relationaler Metaphern ermöglicht. Diese Fähigkeit ist spezifisch und lässt sich nicht auf andere Ursachen zurückführen. 162 7. Metaphern Hinsichtlich des Spracherwerbs haben relationale Metaphern folgende Auswirkungen (Gentner (2003)): Präpositionen, Verben und Adjektive drücken in erster Linie relationale Konzepte aus, Objektnomina tun dies hingegen nicht. Dementsprechend werden im Laufe des Spracherwerbs zuerst Objektnomina erworben, da diese konzeptuell einfacher sind. Relationale Konzepte werden hingegen nicht automatisch erworben, so die Meinung Gentners, sondern sie bedürfen einer kulturellen und linguistischen Formung. Dies lässt sich anhand des Erwerbs von Verwandtschaftsbegriffen illustrieren (vgl. Gentner (2003)). Verwandtschaftsbezeichnungen werden zunächst als Ausdrücke für bestimmte Personen verwendet, erst in einem weiteren Lernschritt wird dem Kind klar, dass damit bestimmte Relationen gemeint sind. Dies ist in etwa ab dem 4. Lebensjahr der Fall. Ebenso entsteht die relationale Bedeutung von Verben wie etwa kaufen und bezahlen erst im 8. oder 9. Lebensjahr. Das Prinzip der relationalen Relativität (Relational Relativity Principle), wiederum von Gentner, besagt, dass zwischen den einzelnen Sprachen relationale Begriffe größerer Variabilität ausgesetzt sind als Objektbegriffe. Die Abbildung von Objekten auf Lexikoneinträge ist daher einfacher und eindeutiger als die Abbildung von Relationen. • Attributional metaphors are mappings that concern only visual similarities. • Relational metaphors map a relational structure such as functions. • Double metaphors are a combination of attributional and relational metaphors. • Acquisition: Attributive metaphors are easy and emerge very early in development. Relational metaphors only emerge once a speci c developmental process has nished (approx. at the age of 4 years); relational verbs emerge even later (approx. 8-9 years). 7.6 Vergleich Die in diesem Kapitel vorgestellten Theorien über Metaphern sind unterschiedlichsten wissenschaftlichen Traditionen verhaftet. Zum Abschluss soll versucht werden, mögliche Vergleichskriterien aufzustellen. Zunächst machen die einzelnen Theorien verschiedene Annahmen, wie die Syntax und die Semantik beschaffen ist (siehe Tabelle 7.3). Diese unterscheiden sich dahingehend, ob die Syntax als autonomes grammatisches System akzeptiert wird oder nicht. Gerade die kognitive Metapherntheorie lehnt diese Annahme ab, da sie jegliche Kognition, so auch die Grammatik, im Körper begründet sieht. Die Frage 7.6 Vergleich 163 nach der Verkörperung der Grammatik lässt sich allerdings nicht so einfach beantworten (siehe § 10.3): Manche Verkörperungstheorien sind mit einer nicht-funktionalistischen Perspektive auf Grammatik vereinbar. Die kognitive Metapherntheorie alleine reicht nicht als Argument gegen eine Autonomie der Grammatik aus. Syntax Semantik kognitive M.T. nicht autonom in Körpererfahrung begründet Gen.Lex, DRT formale Grammatik, HPSG kompositional mit Typensystem lex. Pragmatik radikal unterspezifizierte Wortbedeutung Tabelle 7.3: Syntax und Semantik in verschiedenen Metapherntheorien Weiters lassen sich die vorgestellten Klassifikationen von Metaphern betrachten. Hierbei versucht die kognitive Metapherntheorie zwar eine Klassifizierung, doch bleibt sie immer dem reinen Abbildungsbegriff verhaftet: Ein Konzept (oder ein Konzeptbündel) wird auf ein anderes Konzept (bzw. Bündel) übertragen. Eine strukturelle Klassifizierung, die auch tiefere Einsichten in kognitive Verarbeitungsmechanismen erlaubt wie die Theorie von Gentner, bietet sie nicht. • Typen von Metaphern - strukturelle Metapher Life is a journey. - Orientierungsmetapher Zustände werden als Behälter verstanden. - Bildschemata - attributionale Metapher Her arms were like twin swans. - relationale Metapher A tire is a shoe. - doppelte Metapher A kite is like a bird. Da viele Metaphern darauf beruhen, dass neue Kombinationen von Konzepten entstehen, lassen sich die vorgestellten Theorien auch dahingehend vergleichen, welche kognitiven Inferenzmechanismen für die Bildung von Ad-hoc- Konzepten angenommen werden (siehe Tabelle 7.4). Die kognitive Metapherntheorie schlägt mit der kognitiven Überblendung lediglich ein einziges Prinzip vor. Die Theorie des generativen Lexikons lagert alles in den Typenzwang aus. Um bestimmte Restriktionen zu erklären, müssen die entsprechenden Typen aufgelistet werden. Dies läuft im weitesten Sinne auf eine Kodierung des Weltwissens hinaus, die als Merkmale bzw. Typen bei den einzelnen Lexikoneinträgen mitgespeichert werden. Interessanter scheinen die Relevanztheorie und die lexikalische Pragmatik, die eine Fülle von pragmatischen Prinzipien zur Bedeutungsanpassung vorschlagen. 164 7. Metaphern Beschränkung / Inferenzmechanismus kognitive M.T. konzeptuelles Überblenden Relevanztheorie lockerer Gebrauch, Erweiterung, Näherung, Approximation Relevanzprinzip, parallele Anpassung, Unterdeterminiertheit Gen.Lex, DRT durch das Typensystem erzwungen (Semantik) grammatische Beschränkungen (z.B. Linking) müssen eingehalten werden lex. Pragmatik Defaultlogik, Abduktion radikale Unterspezifizierung kontextuelle Anreicherung Tabelle 7.4: Beschränkungen und Inferenzmechanismen bei der Bildung von Metaphern Kapitel 8 Sprache und Computer Dieses Kapitel betrachtet den Zusammenhang zwischen Sprache und Computer. Was ist der Unterschied zwischen natürlichen Sprachen und Computerprogrammen (§ 8.1)? Was haben Sprachen mit Maschinenmodellen zu tun (§ 8.2)? Diese Fragen weisen auf Fragestellungen hin, die in der theoretischen Informatik behandelt werden. Dazu gehört auch § 8.3, das die mathematische Lernbarkeitstheorie vorstellt: Wie müssen Sprachen beschaffen sein, damit es mathematisch möglich ist, dass sie gelernt werden können? Im zweiten Teil geht es um Anwendungen: Welche Technologien gibt es, die explizit sprachliches Wissen verwenden und verarbeiten? Vorgestellt werden zum Einen semantische Technologien (8.4), zum Anderen klassische computerlinguistische Verfahren (8.5). 8.1 Formale und natürliche Sprachen Menschliche Sprachen werden als natürliche Sprachen (natural language) bezeichnet, Computersprachen auch als formale Sprachen (formal language). Beiden Sprachen ist gemeinsam, dass es eine Grammatik gibt, die genau festlegt, welche Sätze (bzw. Computerprogramme) zu einer Sprache gehören und welche nicht. Unter einer Grammatik (grammar) kann man nicht nur die Normvorschrift für den korrekten Gebrauch einer Sprache verstehen, sondern auch das Wissen und das Regelsystem, wie man richtige Sätze bauen kann. Wenn Sie Deutsch als Muttersprache haben, dann wissen Sie, dass der Satz in (1a) richtig und der Satz in (1b) falsch ist. (1) a. Susi streichelt die Katze. b. *Susi streichelt das Katze. MuttersprachlerInnen haben das grammatische Wissen, um (1a) von (1b) unterscheiden zu können (I-language nach Chomsky (1986)). In der Syntaxforschung geht es darum, die zugrundeliegenden Regeln zu erforschen. 166 8. Sprache und Computer Ähnlich verhält es sich mit Computerprogrammen. Wenn Sie ein Programm schreiben, gibt es immer (je nach verwendeter Programmiersprache) eine Vorschrift, wie das Programm syntaktisch aussehen muss, damit es ausgeführt werden kann. Beispielsweise könnte in einer Programmiersprache festgelegt sein, dass jedes Programm mit dem Wort begin anfangen und mit dem Wort end aufhören muss. Dazwischen können verschiedene weitere Anweisungen stehen, die für dieses Beispiel nicht weiter von Bedeutung sind. Das Programm in (2) entspricht dieser Vorschrift (= Grammatikregel): (2) begin weitere Befehle und Anweisungen ... end Das Programm in (3) entspricht nicht dieser Vorschrift, denn am Anfang steht nicht begin , da die Autorin des Programms einige Tippfehler gemacht hat: (3) bbeginnn weitere Befehle und Anweisungen ... end Interessant ist, wodurch sich menschliche Sprachen von formalen Sprachen unterscheiden. In beiden Fällen existieren Regeln (d.h. Grammatiken). Sind diese Grammatiken für formale und menschliche Sprachen genau gleich oder gibt es Unterschiede zwischen den beiden? Eines der auffälligsten Merkmale, die menschliche Sprachen besitzen, ist die Kasusmarkierung: Im Deutschen werden vier morphologische Fälle unterschieden, im Russischen und Lateinischen sechs, und im Ungarischen noch viel mehr. Formale Sprachen besitzen diese Eigenschaft nicht: Es existiert keine Programmiersprache, die es verlangt, die Variablen mit Kasusendungen zu versehen. Im folgenden Abschnitt werden wir sehen, dass die Frage, ob menschliche und formale Grammatiken das Gleiche sind, nicht mit einem Wort zu beantworten ist, denn es gibt bei den formalen Sprachen bereits verschiedene Typen, denen auch verschiedene Arten von Regelsystemen zugrunde liegen. Formal and natural languages • Human languages are natural languages, while computer languages are formal languages. Both are governed by a rule system, a grammar. • The question is how these types of grammars differ from each other. 8.2 Turing-Maschinen und Chomsky-Hierarchie Wie in § 8.1 besprochen, gibt es einen fundamentalen Unterschied zwischen formalen und natürlichen Sprachen. Die Idee eines formalen Grammatiksys- 8.2 Turing-Maschinen und Chomsky-Hierarchie 167 tems geht auf den Mathematiker Axel Thue zurück (Thue (1914)). Der vor allem für die Begründung der generativen Grammatik bekannte Linguist Noam Chomsky hat in den 50er Jahren (Chomsky (1956), Chomsky (1959a)) bestimmte mathematische Eigenschaften verschiedener formaler Sprachen untersucht und publiziert. Dies wurde als die Chomsky-Hierarchie (Chomsky hierarchy) bekannt und ist ein Standardthema in der theoretischen Informatik. Es gibt verschiedene Arten von formalen Sprachen, die jeweils von unterschiedlichem Komplexitätsgrad sind. Das bedeutet, dass für die Verarbeitung der verschiedenen Sprachfamilien jeweils unterschiedliche Typen von Maschinen notwendig sind. Beispielsweise kann ein klassischer, herkömmlicher Fotoapparat nur Bilder aufnehmen, der Film kann nur Bilder darstellen. Ein klassisches, herkömmliches Tonbandgerät oder eine Vinylschallplatte kann nur Tondokumente speichern und wiedergeben. Der Fotoapparat kann keine Töne, die Platte keine Bilder speichern. Eine weitere Stufe wäre das Video: Mit ihm ist es möglich, sowohl Töne als auch Bilder sowie auch beides gemeinsam zu repräsentieren. Ähnlich wie bei diesen Aufnahmegeräten gibt es für jede Klasse der formalen Sprache einen eigenen Maschinentyp, ein mathematisches Computermodell wohlgemerkt. Die Chomsky-Hierarchie besteht aus folgenden Ebenen: reguläre / Typ-3- Sprachen (regular languages), kontextfreie / Typ-2-Sprachen (context-free languages), kontextsensitive / Typ-1-Sprachen (context-sensitive languages) und rekursiv aufzählbare / Typ-0-Sprachen (recursively enumerable languages). Die Chomsky-Hierarchie besagt, dass diese Sprachen hierarchisch geordnet sind, das bedeutet, dass die kontextfreien Sprachen die regulären Sprachen enthalten, die kontextsensitiven Sprachen wiederum die kontextfreien (und somit auch die regulären) und die rekursiv aufzählbaren wiederum die kontextsensitiven (und daher auch die kontextfreien und die regulären). Chomsky-Hierarchie For both grammars and languages, type 0 ◆ type 1 ◆ type 2 ◆ type 3. [Chomsky (1959a): 143, Theorem 1] Abbildung 8.1: Chomsky-Hierarchie 168 8. Sprache und Computer 8.2.1 Sprachen Die regulären Sprachen, der einfachste Typ von Sprachen, sind solche Sprachen, die auch mit Hilfe von regulären Ausdrücken (regular expressions) dargestellt werden können (Chomsky (1959a): 143). Reguläre Ausdrücke sind ein wichtiges Werkzeug in der Programmierung (Friedl (2002)). Sie dienen dazu, verschiedene Strings (Zeichenfolgen) zu beschreiben. Beispielsweise werden manchmal Skripte benötigt, die alle Dateien auflisten, deren Dateiname mit „aa“ beginnt. Oder es kann der Fall sein, dass in einer Textdatei systematisch etwas ersetzt werden soll. Wenn es sich nicht um ein fixes Wort handelt (wie z.B. ersetze „Mitarbeiter“ durch „MitarbeiterIn“), sondern nur um einen Wortteil oder ein bestimmtes Zeichenfolgemuster, so kann dies mittels regulärer Ausdrücke angegeben werden. Nicht nur in betriebssystemnahen Aufgaben sind reguläre Ausdrücke von Bedeutung, sondern in allen Bereichen der Datenverarbeitung, in denen Daten in textueller Form vorliegen. Dies ist einerseits in der Computerlinguistik und dem Text-Mining der Fall, wo es per definitionem um die Verarbeitung von Textdaten geht. Andererseits gibt es auch in der Bioinformatik zahlreiche Aufgaben, in denen die Zerlegung und Verarbeitung von textuellen Daten im Vordergrund steht, denn viele Gen- und Proteindatenbanken beinhalten Informationen in Form von Zeichenfolgen. Auf dem Betriebssystem Unix, zu dessen Familie auch Linux, Android und Mac OS gehören, existiert der Befehl grep, der es erlaubt, in einem angegebenen File nach regulären Ausdrücken zu suchen. Auch der weit verfügbare Editor vi besitzt eine Suchfunktion, die mit regulären Ausdrücken arbeitet. Ebenso ist die Programmiersprache Perl (erfunden von dem Linguisten Larry Wall) nicht zuletzt deswegen für die Verarbeitung von Strings besonders Larry Wall (*1954) gut geeignet, weil sie eine sehr starke Integration von regulären Ausdrücken besitzt (die Such-, Match-, Translate- und Ersetzungsfunktionen; Wall et al. (2000)). Was sind aber nun reguläre Ausdrücke? Sie beschreiben einen Textstring anhand von Regeln. Beispiel (4) enthält eine Liste von möglichen derartigen Regeln, es sind noch viele weitere denkbar. (4) Beispiele für reguläre Ausdrücke Der gesuchte String soll enthalten: a. ein Zeichen oder eine Zeichenfolge: A oder Ada b. ein Zeichen oder ein anderes bzw. eine Zeichenfolge oder eine andere: a|b a oder b Ada | Bertrand c. ein Zeichen einmal oder nullmal d. ein Zeichen einmal oder mehrmals (mindestens einmal) e. ein Zeichen nullmal oder mehrmals 8.2 Turing-Maschinen und Chomsky-Hierarchie 169 f. bestimmte Häufigkeit eines Zeichens (z.B. genau drei Mal, zwischen 2 und 10 Mal etc.) g. alle Zeichen außer ein bestimmtes Beispielsweise lassen sich mittels regulärer Ausdrücke die Telefonnummern aus einer Datei auslesen. Unter der Annahme, dass alle Telefonnummern aus genau 7 Ziffern bestehen, kann folgender regulärer Ausdruck angegeben werden: • \ d{7} • \ d bedeutet „Ziffer“ • {7} bedeutet „genau 7 mal wiederholen“ Obwohl reguläre Sprachen recht mächtig sind, haben sie dennoch Beschränkungen. Man kann nicht jeden beliebigen String mit ihnen erfassen. Beispielsweise ist es nicht möglich, Palindrome mit regulären Ausdrücken zu charakterisieren. Palindrome sind solche Wörter, die von vorwärts und rückwärts gelesen genau gleich sind. Beispiele für Palindrome • Anna • Otto • Lagertonnennotregal • Die Liebe ist Sieger, stets rege ist sie bei Leid. • Eins nutzt uns: Amore. Die Rederei da, die Rederei der Omas, nutzt uns nie. [alle aus http: / / de.wikipedia.org/ wiki/ Liste_deutscher_Palindrome 1 ] Palindrome können mit regulären Ausdrücken nicht erfasst werden, weil ein regulärer Ausdruck nicht zählen kann. Es ist nicht möglich, mittels regulärer Ausdrücke eine Regel zu bauen, die besagt: Nimm zuerst beliebig viele „a“ und anschließend nimm genauso viele „b“, wie vorher „a“ waren. Genausowenig kann man mit regulären Ausdrücken festlegen: Merke dir alle Zeichen bis zu einem bestimmten Punkt, und dann geh genau diese Zeichen wieder rückwärts (das wäre die Regel für das Palindrom). Dies ist nicht möglich, weil reguläre Ausdrücke keinen Speicher haben. Dafür gibt es die nächsthöhere Sprachfamilie. Die kontextfreien Sprachen (context-free languages) unterscheiden sich hinsichtlich der regulären Sprachen dahingehend, dass sie über einen einfachen Speicher verfügen (Linz (2001): Kapitel 7). Ihre Mächtigkeit erlaubt es, dass bestimmte Strings oder Teilstrings gespeichert werden können. Dies ermöglicht es, Palindrome zu erfassen: Die Grammatik „merkt“ sich den Verlauf der Zeichen bis zum Wendepunkt und „spuckt“ die bereits eingelesenen Zeichen in der umgekehrten Reihenfolge wieder aus. Somit sind die kontextfreien John Backus (1924-2007) Sprachen eine einfache Erweiterung der regulären Sprachen. Die kontextfreien Sprachen können mit der Backus-Naur-Form (Backus- Naur form) dargestellt werden (benannt nach ihren Erfindern John Backus 1 Abgerufen am 2.1.2016. 170 8. Sprache und Computer und Peter Naur, Naur et al. (1963)). Diese entspricht den Grammatikregeln, geläufig ist vor allem ihre grafische Darstellung mittels der Syntaxdiagramme (syntax diagram), mit der oft die Syntax von Programmiersprachen dargestellt wird. Das folgende Beispiel zeigt die Syntax der If-Anweisung in der Programmiersprache SQL auf dem Oracle-System. Daraus lässt sich erkennen, unter welchen Umständen die If-Bedingung wohlgeformt ist: Sie muss immer die Schlüsselwörter if und then enthalten (erste Zeile des Diagramms). Peter Naur (*1928) Abbildung 8.2: If-Anweisung Die nächste Stufe der Chomsky-Hierarchie sind die kontextsensitiven Sprachen (context-sensitive languages). Bei ihnen ist der Kontext für die Grammatikregeln von Bedeutung (Chomsky (1959a): 142). Wenn wir an das obige Beispiel der Telefonnummern (bei den regulären Sprachen) denken, dann ist dort der Kontext vollkommen egal. Unsere hypothetische Telefonnummer besteht immer aus genau sieben Ziffern. Denken wir nun aber an etwas kompliziertere Telefonnummern, zum Beispiel solche, die aus einer Vorwahl und einer Anschlussnummer bestehen. Dann könnte es die Regel sein, dass die Vorwahl immer, die Anschlussnummer aber niemals mit 0 beginnen darf, und dass die Anschlussnummer immer direkt auf die Vorwahl folgen muss. Das bedeutet, dass der Kontext der Anschlussnummer („folgt direkt nach der Vorwahl“) ihre Beschaffenheit bestimmt („kein Nuller am Anfang“). Die höchste Stufe der Chomskyhierarchie sind die rekursiv aufzählbaren Sprachen (recursively enumerable languages). Diese unterliegen keinen Beschränkungen mehr, sie erlauben auch Transformationen, also Umstellungen, wie sie oft in der Beschreibung von natürlichen Sprachen mittels Phrasenstrukturgrammatiken verwendet werden. Es handelt sich damit um die komplexeste Stufe aller Sprachen, die mit Hilfe von formalen Grammatiken beschrieben werden können (Chomsky (1959a): 143). Die rekursiv aufzählbaren Sprachen entsprechen den mathematisch berechenbaren Funktionen (computable functions). Für solche Funktionen gibt es immer einen Algorithmus (eine genau definierte Vorschrift), wie der Funktionswert berechnet werden kann. Weiters gilt, dass alle berechenbaren Funktionen nicht komplexer als die rekursiv aufzählbaren Sprachen sind. Natürlich 8.2 Turing-Maschinen und Chomsky-Hierarchie 171 gibt es in der Mathematik auch Funktionen, die man nicht berechnen kann (z.B. das Halteproblem (halting problem) oder das Entscheidungsproblem (decision problem) der Prädikatenlogik erster Stufe). Diese sind aber nicht mittels einer Grammatik formalisierbar. Formal languages • Regular languages are languages of strings that can be captured by regular expressions (such as one or multiple instances of a letter, zero or one letter, a substring repeated 4 times, etc.). • Context-free languages are like regular languages but have additional storage. They are able to count the ocurrences of a letter or a substring, so that palindromes can be represented. • Context-sensitive languages consider the context of their grammar rules. • Recursively enumerable languages are the most complex type of language that can be represented by a formal grammar. These languages correspond to computable functions (functions for which an algorithm exists). 8.2.2 Grammatiken Jede der formalen Sprachen kann auch mit Hilfe einer formalen Grammatik (formal grammar) erfasst werden (Chomsky (1959a)). Eine solche formale Grammatik ist ein Regelsystem, das festlegt, welche Elemente durch welche anderen ersetzt werden können; es handelt sich also um Ersetzungsregeln. Diese Regeln sind gleichzeitig ein Computerprogramm. (5) a. A ! Aa b. A ! b Beispiel (5) illustriert ein Regelsystem, das aus zwei Grammatikregeln besteht. Die erste Regel besagt, dass ein Symbol A durch zwei andere Symbole ersetzt werden kann, nämlich A und a. Die zweite Regel besagt, dass das Symbol A durch das Symbol b ersetzt werden kann. Dabei ist das Symbol A ein Nichtterminal (nonterminal symbol), das bedeutet, dass es auf der linken Seite einer Regel steht, also durch etwas anderes ersetzt werden kann. Die anderen beiden Symbole, a und b, sind hingegen Terminale (terminal symbol). Sie stehen ausschließlich auf der rechten Seite der Grammatikregeln und können somit nicht durch etwas anderes ersetzt werden; die Regeln terminieren bei ihnen, sie hören auf. Das Regelsystem in (5) kann die folgenden Wörter erzeugen: • b, ba, baa, baaa, ... 172 8. Sprache und Computer „Erzeugen“ bedeutet hier, dass es eine mögliche Folge von Regelanwendungen gibt, die genau zu diesem Wort führen. So wird etwa das Wort b durch die einmalige Anwendung der zweiten Regel erzeugt. Zum Wort ba gelangt man, indem einmal die erste und anschließend die zweite Regel verwendet wird. Dabei muss immer davon ausgegangen werden, dass man am Anfang das Startsymbol A besitzt. Beispielableitung des Wortes ba • Startsymbol: A • Ergebnis nach Anwendung der Regel 1: Aa • Ergebnis nach Anwendung der Regel 2: ba Derartige formale Grammatikregeln können sich nach ihrer Mächtigkeit unterscheiden. Dabei spielt es eine Rolle, ob auf der linken Seite der Regel nur Nichtterminale erlaubt sind (wie es etwa bei regulären Sprachen der Fall ist), oder ob auch Terminale erlaubt sind (wie z.B. bei kontextsensitiven Sprachen). Reguläre Grammatiken (regular grammar), die den regulären Sprachen entsprechen, sind dadurch gekennzeichnet, dass ihre Grammatikregeln den stärksten Einschränkungen unterliegen (Chomsky (1959a): 142 f.). Sie sind damit die am wenigsten mächtige Grammatikfamilie der Chomsky-Hierarchie. Es gelten folgende Beschränkungen: • Auf der linken Seite jeder Regel steht genau ein Nichtterminal. • Auf der rechten Seite steht ein Terminal oder ein Nichtterminal mit einem Terminal. • Die Reihenfolge von Terminal und Nichtterminal auf der rechten Seite muss für alle Regeln der Grammatik die gleiche sein. Kontextfreie Grammatiken (context-free grammar), die den kontextfreien Sprachen entsprechen, können komplizierter aufgebaute Regeln besitzen als reguläre Grammatiken. Zwar bleibt die Einschränkung bestehen, dass auf der linken Seite aller Regeln immer nur genau ein Nichtterminal stehen darf, doch gibt es keine Einschränkungen mehr bezüglich der rechten Seite (Chomsky (1959a): 142). Ein Nichtterminal kann also durch jede mögliche Abfolge und Anzahl von Terminal- und Nichtterminalsymbolen ersetzt werden. Kontextfrei bedeutet in diesem Zusammenhang, dass es keinen spezifischen Kontext für die Anwendung der Regel geben darf. Damit ist genau die Tatsache gemeint, dass auf der linken Seite keine Terminalsymbole stehen dürfen. Die Regel greift also immer, egal welche Terminalsymbole rechts und links von dem zu ersetzenden Nichtterminal auftreten. Beispiele für kontextfreie Regeln • A ! Abc • B ! abcBA Kontextsensitive Grammatiken (context-sensitive grammar) (für die kontextsensitiven Sprachen) sind eine weitere Generalisierung der kontextfreien Grammatiken. Bei ihnen ist es erlaubt, dass auch auf der linken Seite der 8.2 Turing-Maschinen und Chomsky-Hierarchie 173 Grammatikregeln Terminale auftreten. Dies bedeutet, dass ein und dasselbe Nichtterminalsymbol durch verschiedene Dinge ersetzt werden kann - abhängig vom jeweiligen Kontext (Chomsky (1959a): 142). Beispiel für kontextsensitive Regeln • aAa ! aba • bAb ! beb Das Beispiel illustriert, dass das Nichtterminalsymbol A entweder durch das Terminal b oder durch das Terminal e ersetzt wird, abhängig vom Kontext. Befindet sich das A im Kontext von zwei a (also zwischen zwei a eingeklemmt), dann wird es durch ein b ersetzt. Befindet sich das A jedoch im Kontext von zwei b, so wird es durch ein e ersetzt. Der Kontext ist somit entscheidend für die Anwendung der Regel. Allgemeine, d.h. Typ-0-Grammatiken (type-0 grammar) besitzen keine Einschränkungen mehr auf ihre Grammatikregeln (Chomsky (1959a): 143). Jede beliebige Regel, die aus einem rechten und einem linken Teil besteht, ist erlaubt. Es müssen nicht immer reine Ersetzungsregeln sein, auch Transformationsregeln (Umstellungsregeln) sind möglich. Die menschlichen Sprachen können nicht den regulären Sprachen entsprechen (Chomsky (1957)), ebensowenig fallen Sie in die Klasse der kontextfreien Sprachen (Huybregts (1984) und Shieber (1985): ein Argument beruhend auf Daten des Schweizerdeutschen). Natürliche Sprachen sind mild kontextsensitiv (mildly contextsensitive), ein Begriff, der auf Aravid Joshi zurückgeht (Joshi (1985)). Dies bedeutet, dass sich natürliche Sprachen zwischen den kontextfreien und den kontextsensitiven Sprachen befinden. Auch für den Minimalismus, das heißt für minimalistische Grammatiken, einer mathematischen Formulierung von Chomskys Minimalismus, konnte gezeigt werden, dass diese Familie von Sprachen mild kontextsensitiv ist (Michaelis (2001)). Formal grammars • Formal grammars are systems of rules that generate strings. The strings generated by a certain formal grammar are its language. • The rules of regular grammars must have only nonterminals on the left-hand side, may have at most one terminal and one nonterminal on the right-hand side, and the sequence of the elements on the right must be the same for all rules. • The rules of context-free languages must have exactly one nonterminal on the left-hand side. There are no restrictions on the right-hand side. • The rules of context-sensitive languages may have terminals as well as nonterminals on the left-hand side. • Type-0 grammars have no restrictions on the shape of their rules. 174 8. Sprache und Computer 8.2.3 Maschinen Neben den Sprachtypen und den Grammatiktypen existieren auch unterschiedliche Maschinentypen wie der endliche Automat (finite automaton), der Kellerautomat (pushdown automaton) und die Turing-Maschine (Turing machine), die nach dem Mathematiker und Erfinder des Computers Alan Turing benannt wurde. Der endliche Automat (finite automaton) ist ein Maschinentyp, der genau diejenigen Sprachen akzeptiert, die mit einer regulären Grammatik erzeugt werden können (Linz (2001): Kapitel 2). Wir wollen uns nun anschauen, was mit Automat im Kontext der Chomksy-Hierarchie und der Verarbeitung von formalen Sprachen gemeint ist. Unter Automat wird nicht so etwas wie ein Cola-Automat oder ein Spieleautomat verstanden, sondern es handelt sich um ein abstraktes, mathematisches Modell einer Maschine. Ein endlicher Automat im mathematischen Sinn besteht aus Zuständen und Zustandsübergängen. Nützlicherweise gibt es zumeist einen Startzustand und einen oder mehrere Endzustände. Am Anfang der Verarbeitung befindet sich der Automat im Anfangszustand, am Ende einer erfolgreichen Verarbeitung in einem der Endzustände. Nun wird das erste Zeichen des Inputs eingelesen. Wenn es vom Startzustand einen Übergang zu einem anderen Zustand (oder auch einen zum Startzustand selbst) gibt, dann wird dieser Folgezustand erreicht und das Eingabezeichen „konsumiert“. Auf diese Weise wird der gesamte Eingabestring abgearbeitet. Im Automat in Abbildung 8.3 Ist der Startzustand s0 . Beginnt Abbildung 8.3: Nichtdeterministischer endlicher Automat der String mit einem a , so wird der Folgezustand s1 erreicht. Es können nun beliebig viele a oder b folgen, mit ihnen bleiben wir im Zustand s1 . Endet der String mit einem b , so können wir dieses verwenden, um in den Endzustand s2 zu gelangen. Wenn sich der Automat nach Abarbeitung des gesamten Strings in einem Endzustand befindet, so sagt man, dass der String vom Automaten akzeptiert wurde. Wenn sich der Automat allerdings nicht in einem Endzustand befindet, sondern beispielsweise immer noch im Startzustand (z.B. weil der Eingabestring aus lauter ungültigen Zeichen besteht) oder irgendwo dazwischen hängengeblieben ist (weil z.B. nach einer gewissen Anzahl gültiger Zeichen nur 8.2 Turing-Maschinen und Chomsky-Hierarchie 175 noch ungültige im String vorkommen), so wurde das Eingabewort von dem Automaten nicht akzeptiert. So wie eine bestimmte reguläre Grammatik eine bestimmte Menge von Wörtern erzeugt, die nach ihren Regeln geformt sind, so akzeptiert der entsprechende endliche Automat auch nur diejenigen Wörter, mit denen man vom Startzustand in den Endzustand kommt. Die Frage, ob ein bestimmtes Wort von einer bestimmten Grammatik erzeugt werden kann bzw. ob es von einem bestimmten Automaten akzeptiert wird, bezeichnet man als Wortproblem (word problem). Dies ist ein bekanntes Problem in der theoretischen Informatik. Ein weiterer wichtiger Automatentyp ist der Kellerautomat (pushdown automaton). Er funktioniert ähnlich wie der endliche Automat, nur besitzt er zusätzlich einen Speicher in Form eines Stapels (Linz (2001): Kapitel 7). Auf diesem Stapel können Zeichen des Inputstrings abgelegt werden, genauso wie auch einzelne Zetteln oder Zeitungen auf einem Stapel abgelegt werden können: Das erste Zeichen kommt zuerst hinein, darauf das zweite, dann das dritte usw. Das Auslesen des Speichers funktioniert genauso wie die Abarbeitung eines Zettelhaufens: Man beginnt mit dem obersten, also mit demjenigen Zeichen, das zuletzt auf den Stapel gekommen ist, und arbeitet sich Schritt für Schritt nach unten, bis man schließlich zu demjenigen Zeichen kommt, das als Erstes gespeichert wurde. Abbildung 8.4: Kellerautomat Der Kellerautomat muss nicht alle Zeichen unbedingt in dem Stapel speichern, der Stapel dient lediglich als Erweiterung, so dass eine Speicherung prinzipiell möglich ist. Der Kellerautomat entspricht genau den kontextfreien Sprachen: Er ist so mächtig, dass er auch Wörter akzeptiert, die Palindrome sind. Ein einfacher, endlicher Automat ohne Speicher ist dazu nicht in der Lage. Die Turing-Maschine (Turing machine) ist der mächtigste aller Automaten, sie ist das mathematische Modell der heutigen Computer. Sie wurde von Alan Turing als mathematisches Modell konzipiert, lange bevor es echte Computer gab (Turing (1937)). Die Turing-Maschine diente dazu, herauszufinden, 176 8. Sprache und Computer welche mathematischen Funktionen man überhaupt berechnen kann (berechenbare Funktionen (computable functions)). Für diese existiert eine Vorschrift, das heißt, ein Algorithmus, um den jeweiligen Funktionswert zu berechnen. In § 8.2.1 haben wir gesehen, dass den berechenbaren Funktionen die rekursiv aufzählbaren Sprachen (recursively enumerable languages) entsprechen. Die Turing-Maschine ist genau diejenige Maschine, die alle mathematisch berechenbaren Funktionen berechnen kann (Lewis & Papadimitriou (1998): 180, ibid.: § 4.7). Sie besteht aus einem unendlich langen Band, auf dem Zeichen nebeneinander stehen können. Weiters besitzt sie einen Schreib-/ Lesekopf, der Zeichen vom Band einlesen, Zeichen auf das Band schreiben und sich dem Band entlang in beide Richtungen bewegen kann. Abbildung 8.5: Turing-Maschine Wie die bereits beschriebenen Automaten besitzt auch die Turing-Maschine einen Start- und einen Endzustand. Der Startzustand ist der Text, der vor dem Beginn der Verarbeitung auf dem Band steht gemeinsam mit der Position des Schreib-/ Lesekopfes auf dem Band. Der Endzustand ist die entsprechende Konfiguration von Bandinhalt und Kopf am Ende der Verarbeitung, die Zustände der Maschine zwischen dem Start- und dem Endzustand sind analog definiert. Es ist jedoch möglich, dass niemals ein Endzustand erreicht wird. In diesem Fall hält die Turing-Maschine nicht an. Die Turing-Maschine kann alle mathematisch berechenbaren Funktionen berechnen. Beispielsweise kann sie addieren: Man denkt sich die erste Zahl entsprechend kodiert am Band und die zweite Zahl ebenso, beispielsweise als Folge von so vielen Einsern, wie der Wert der Ziffer ist, dazwischen ein Feld mit einem Leerzeichen. Für die Berechnung der Addition läuft die Maschine bis zum Ende der zweiten Ziffer, löscht den Einser dort weg, und läuft dann wieder zurück bis zum Leerzeichen zwischen den Ziffern, um genau dort einen Einser hineinzuschreiben. Das Ergebnis ist diejenige Ziffer, die aus allen diesen Einsern besteht. Alle berechenbaren Funktionen, also alle Funktionen, für die eine Turing- Maschine konstruiert werden kann, können auch mit dem auf Alonzo Church (Church (1936)) zurückgehenden Lambda-Kalkül (lambda-calculus) darge- 8.2 Turing-Maschinen und Chomsky-Hierarchie 177 stellt werden. Der Lambda-Kalkül ist für die Handhabung der formalen Semantik von großer Bedeutung (siehe Kapitel 5.4.5). Ebenso können die Funktionswerte auch durch Rekursion berechnet werden. Die Church-Turing-Hypothese besagt, dass alle berechenbaren Funktionen, und zwar nur genau diese, mit einer Turing-Maschine berechenbar sind. Anders gesagt: Genau diejenigen Funktionen, deren Funktionswerte mit einem Algorithmus, das heißt, mit einer genau festgelegten Vorschrift, berechnet werden können, entsprechen denjenigen Funktionen, die mittels einer Turing-Maschine (bzw. dem Lambda-Kalkül) berechnet werden können. Church’sche These Die Klasse der Turing-berechenbaren Funktionen stimmt mit der Klasse der intuitiv berechenbaren Funktionen überein. [Hoffmann (2011): 263 Satz 5.1] Die Hypothese kann nicht bewiesen werden, da dafür die Definition der berechenbaren Funktion niemals präzise gegeben werden kann. Die Church-Turing- Hypothese wird jedoch weithin als gültig angenommen (Lewis & Papadimitriou (1998): 246, Hoffmann (2011): 243). Weiters werden in der Berechenbarkeitstheorie (computability theory) und in der Komplexitätstheorie (complexity theory) auch Überlegungen angestellt, wie lange die Turing-Maschine für eine bestimmte Berechnung braucht und wie viel Platz am Band sie dafür benötigt. Machines • Finite automata consist of a start state, an end state, and any number of states in between. Transitions exist from one state to another, labelled with letters of the alphabet (consuming the input string while transiting). These types of automata compute regular languages; they cannot process palindromes. • Pushdown automata are nite automata equipped with storage (a stack) where any number of letters from the input string may be saved and recalled. This type of automaton is able to compute palindromes. • A Turing machine is the most powerful of all automata. It consists of a tape and a read/ write head. It can calculate all computable functions. • The Church-Turing thesis assumes that computable functions are exactly those that are computable by a Turing machine. 178 8. Sprache und Computer 8.3 Lernbarkeitstheorie Die Lernbarkeitstheorie (learnability theory) untersucht die Frage, welche Typen von Grammatiken der Chomsky-Hierarchie überhaupt erlernbar sind. Dabei handelt es sich um eine mathematische Untersuchung der Eigenschaften von Grammatiktyp, Lernfunktion und Lernmodus. Zum Beispiel wird unterschieden, ob dem Lerner (= der Lernfunktion) alle Sätze einer Sprache präsentiert werden oder nur endlich viele; ob diese in einer zufälligen Reihenfolge präsentiert werden, ob gleiche Sätze im Input wiederholt vorkommen etc. Weiters wird unterschieden, ob es sich um endliche oder unendliche Grammatiken handelt, die gelernt werden sollen. Schließlich wird auch der Typus des Lerners variiert: zum Beispiel, ob er statistisch ist oder nicht. Die Lernbarkeitstheorie untersucht nicht die realen Gegebenheiten beim Menschen - dies fällt in die Domäne der Psycholinguistik. Sie fragt nach der prinzipiellen, mathematischen Möglichkeit des Erlernes von Grammatiken und gehört zur theoretischen Informatik. Viele Ergebnisse sind für die theoretische Analyse des maschinellen Lernens hoch relevant, da auch hier die verschiedenen Lernalgorithmen einer Überprüfung unterzogen werden. Im Folgenden betrachten wir drei Ansätze genauer: Die Lernbarkeitstheorie nach Gold, den Probably- Approximately-Correct-Ansatz sowie den Trigger-Algorithmus. 8.3.1 Das Paradigma von Gold Die ersten und wichtigsten Resultate zur Lernbarkeitstheorie wurden 1967 von E. Mark Gold (Gold (1967)) aufgestellt. Das nach ihm benannte Gold’sche Paradigma der Lernbarkeitstheorie geht davon aus, dass eine bestimmte Menge von Grammatiken gegeben ist, von der genau eine gelernt werden muss. Dem Lerner muss die richtige Grammatik aus der Menge der möglichen herausfinden. In diesem Kontext wird unter „Lerner“ eine mathematische Funktion verstanden, die einer bestimmten Menge von Inputsätzen eine Grammatik zuordnet, also lernt. Die Menge der Inputsätze ist gewöhnlich endlich, das bedeutet, dass nach einer bestimmten, endlichen Zeit der Lernvorgang beendet sein muss. Schließlich gibt es ein Kriterium, anhand dessen festgestellt werden kann, ob der Lernvorgang erfolgreich war, das heißt, ob die Grammatik, die der Lerner ausgewählt hat, auch der Zielgrammatik entspricht. Gold konnte mehrere Eigenschaften seiner Lerntheorie beweisen. Er konnte zeigen, dass keine der Sprachen aus der Chomsky-Hierarchie lernbar ist, also weder die regulären noch die kontextfreien noch die kontextsensitiven und schon gar nicht die rekursiv aufzählbaren. Somit sind keine dieser Sprachen lernbar, wenn sie unendlich sind. Dieses Resultat wurde als mathematischer Beweis für die Angeborenheitshypothese aufgefasst: Da Menschen Sprache erwerben, deren Komplexität in etwa der mild kontextsensitiven Klasse der Chomsky-Hierarchie entspricht, und da es mathematisch unmöglich ist, 8.3 Lernbarkeitstheorie 179 diese allein auf Grund der Inputdaten mit der beschriebenen Lernfunktion zu erlernen, muss es irgendetwas geben, das diesen Lernschritt ermöglicht. Für Chomsky ist dies das angeborene Wissen, die Sprachfähigkeit, das Language Acquistion Device. Weiters konnte Gold das Obermengentheorem (superset theorem) beweisen. Dieses besagt: Wenn eine Klasse von Grammatiken nicht lernbar ist, dann ist auch keine Obermenge von ihr lernbar. Mit anderen Worten: Eine einzige, unlernbare Klasse von Grammatiken verhindert ein für alle mal, dass sie gelernt werden kann. Man kann dazugeben, was man will, es nützt nichts. Schließlich konnte Gold zeigen, dass finite, also endliche Sprachen prinzipiell lernbar sind. Mit anderen Worten: Eine Sprache, die nur endlich viele Wörter hat, kann immer gelernt werden. Der Lerner muss dazu nur jedem Wort mindestens einmal begegnet sein. Gold’s paradigm • The learning function receives a set of input sentences and returns a grammar. Its aim is to nd the right grammar out of a set of possible grammars. • Gold’s theorem says that none of the languages of the Chomsky hierarchy are learnable if they are in nite. • The superset theorem says that if a class of grammars is not learnable, neither is its superset. • Finite languages are learnable. The learner needs to be exposed to all of the language’s words. 8.3.2 PAC-Lerner Neben der klassischen Herangehensweise nach Gold existiert ein zweites Paradigma, das der statistischen Methoden. Unter Probably-Approximately-Correct (PAC) werden diese Ansätze zusammengefasst. Der PAC-Ansatz, entwickelt von Leslie Valiant (Valiant (1984)), dient nicht ausschließlich der Untersuchung von Lernbarkeit von Grammatiken. Vielmehr ist die Probably Approximately Correct-Herangehensweise eine Methode des maschinellen Lernens, also des Lernens mittels Computern, die für verschiedenste Zwecke eingesetzt werden kann. Beim maschinellen Lernen geht es ganz allgemein um das Lernen von Konzepten: Dies kann einerseits eine Zielgrammatik sein, es kann aber auch diverse andere Dinge umfassen wie die korrekte Klassifizierung von Krankheiten anhand von Messwerten oder die korrekte Einordnung von Objekten wie etwa Musiktiteln zu ihrer Gattung auf Grund ihrer Merkmale wie etwa der Struktur der MP3-Datei. 180 8. Sprache und Computer Das Ziel beim PAC-Lernen ist nicht die vollständige und korrekte Erkennung der Zielgrammatik bzw. der Zielkategorie. Vielmehr geht es darum, eine Hypothese über die zu lernende Kategorie zu finden, die mit einer hohen Wahrscheinlichkeit korrekt ist. Dies bedeutet, dass der Lernalgorithmus nicht zu 100 % das richtige Ergebnis liefern soll, sondern dass er auch zufrieden ist, wenn eine bestimmte Wahrscheinlichkeitsgrenze überschritten wurde (etwa 95 % oder 98 %). Prinzipiell ist es mit dieser Methode möglich, beliebig nahe an die Zielfunktion, also an die zu lernende Kategorisierung, heranzukommen. Schließlich ist es wichtig, dass der Lernalgorithmus eine beschränkte Anzahl von Beispielen benötigt, um an ein akzeptables Ergebnis zu kommen Es wäre nicht sinnvoll, wenn eine beinahe unendliche Menge an Inputdaten notwendig wäre. Die Inputdaten müssen auch in einer akzeptablen Zeitspanne verarbeitet werden; die Anforderung ist, dass sie in polynomialer Zeit (polynomial time) verarbeitet werden sollen. Dies ist ein Begriff aus der Komplexitätstheorie, der besagt, dass die Rechenzeit maximal polynomial von den Inputdaten abhängt. Vereinfacht gesagt geht es darum, wie lange die Ausführung eines Programms abhängig von seinen Inputdaten dauert, das heißt, wie viele Schleifen und Rechenschritte benötigt werden. Im konstanten Fall werden zum Beispiel immer genau drei Durchläufe gebraucht (dies ist der schnellste Fall). Beispielsweise benötigen drei Inputdatensätze drei Durchläufe, sechstausend Inputdatensätze brauchen ebenfalls drei Durchläufe. Im linearen Fall ist die Zeitdauer linear von den Inputdaten abhängig (zum Beispiel eine Verarbeitungszeit von drei Sekunden pro Inputzeichen; das heißt, drei Datensätze brauchen 3 mal 3 Sekunden, sechstausend Datensätze brauchen 3 mal 6000 Sekunden). Der polynomiale Fall ist ebenfalls günstig, die Rechenzeit ist ein Polynom der Länge der Inputdaten. Besonders ungünstig hingegen ist eine exponentielle Rechenzeit, da diese exponentiell mit der Länge der Inputdaten steigt, also pro Länge der Inputdaten unverhältnismäßig schnell viel größer wird, die Ausführung des Programms also sehr schnell sehr lange dauert. Von PAC-Lernbarkeit (PAC-learnable) spricht man, wenn das vorliegende Lernproblem so beschaffen ist, dass die Zielkategorie hundertprozentig der erlernten Kategorie entsprechen kann. Dies ist natürlich nicht immer der Fall, aber von einer mathematischen Perspektive her ist es interessant zu wissen, welche Typen von Lernbarkeitsproblemen diese Eigenschaft besitzen. Weiters gilt: Wenn zwei Konzepte PAC-lernbar sind, so ist auch die Konjunktion dieser beiden Konzepte PAC-lernbar. Man kann also „Kategorie 1 und Kategorie 2“ auf einmal lernen. Allerdings gilt dies für die Disjunktion nicht! „Kategorie 1 oder Kategorie 2“ ist nicht PAC-lernbar. 8.3 Lernbarkeitstheorie 181 Probably approximately correct approach • PAC learning is a method of machine learning. It is suited for all kinds of learning problems, not only for grammars. • The goal is to nd a hypothesis that is correct to a large degree (not necessarily 100 %, 95 % may su ce). • The input must be processed in polynomial time. 8.3.3 Trigger Ein weiterer Lernalgorithmus wurde von Gibson & Wexler (1994) vorgeschlagen. Dieser orientiert sich am Prinzipien-und-Parameter-Modell von Chomsky (1981) und geht davon aus, dass die menschlichen Grammatiken gemeinsame Strukturen (Prinzipien) besitzen, die sich nur durch einige wenige Parameter unterscheiden (siehe auch § 2.3.1). Die Lernaufgabe besteht darin, die Werte für diese Parameter zu setzen. Diese Annahme verkleinert auf den ersten Blick den Suchraum des Lerners, da nur einige wenige Entscheidungen zu treffen sind, für die hoffentlich genügend Informationen in den Inputdaten vorhanden sind. Parameter im Sinne des Prinzipien-und-Parameter-Modells beziehen sich auf Ausformungen der Grammatik. Beispiele dafür sind der Pro-drop-Parameter und der Direktionalitätsparameter. Der Pro-drop-Parameter erlaubt folgende Optionen: Entweder eine Sprache muss immer ein Nomen oder Pronomen beim dazugehörigen Verb stehen haben oder nicht (Chomsky (1981): § 4.3 und § 4.5). Im Deutschen ist dies der Fall, man kann nur sagen es regnet, nicht aber regnet alleine ohne es. Der umgekehrte Fall sind Sprachen, wo genau dies möglich ist wie etwa im Italienischen oder Lateinischen. • Es regnet. • *Regnet. • Pluit. (Lateinisch) Der Direktionalitätsparameter regelt den Aufbau von syntaktischen Phrasen. In diesen gibt es zwei Möglichkeiten für die Position des Hauptes: links oder rechts. XP X 0 ... XP ... X 0 Es wird angenommen, dass sich Sprachen für eine der Richtungen entscheiden und dann alle ihre Phrasen gemäß diesem Bauplan ausrichten. Das Japanische zum Beispiel ist hauptfinal, d.h. es steht immer das Haupt am Ende der Phrase. Dies trifft für Nominalphrasen zu, aber auch für Verbalphrasen und für Kom- 182 8. Sprache und Computer plementiererphrasen. Das Deutsche ist größtenteils auch hauptfinal, allerdings nicht bei den Komplementiererphrasen: Die einleitenden Konjunktionen stehen am Satzanfang, nicht am Satzende. Im Englischen hingegen ist auch die Verbalphrase hauptinitial. Das bedeutet, dass immer zuerst das Verb und dann das direkte Objekt steht. Der Auslöser-Lernalgorithmus (Triggering Learning Algorithm (TLA)) von Gibson und Wexler funktioniert wie folgt: Es wird eine zufällige Belegung der Parameter ausgewählt. Mit dieser Grammatik wird versucht, einen Inputsatz aus der Menge der Lernsätze zu analysieren. Gelingt dies, wird der nächste Inputsatz verarbeitet. Gelingt dies nicht, so muss die Grammatik angepasst werden. Dies geschieht, indem ein Parameter zufällig ausgewählt und sein Wert verändert wird. Anschließend wird erneut versucht, den Inputsatz zu analysieren. Diese Vorgangsweise wird so lange wiederholt, bis alle Lernsätze erfolgreich verarbeitet werden können. Unter einem Auslöser (Trigger) versteht man in diesem Zusammenhang einen Satz, der mit der vorhandenen Grammatik nicht analysiert werden kann. Dieser Trigger zwingt den Lerner dazu, einen neuen Lernschritt zu machen und den Wert eines Parameters zu verändern, das heißt, die Grammatik zu ändern. Dieser Lernalgorithmus unterscheidet sich von den anderen Verfahren dahingehend, dass ihm ein explizites linguistisches Modell zugrunde liegt. Es fließen sowohl die Lernsätze als auch die möglichen Parameter und deren Ausprägungen in das Verfahren hinein. Somit ist es ein spezifisch linguistisches Modell und weniger ein allgemein gültiges statistisches Verfahren, mit dem etwa verschiedenste evolutionäre Verfahren in der Biologie und Wirtschaft untersucht werden (siehe dazu § 3.5.1 Spieltheorie). Niyogi & Berwick (1996) haben den TLA mittels Markov-Ketten (Markov chains) implementiert und untersuchen, wie sich das Modell hinsichtlich einer unterschiedlichen Anzahl von Inputsätzen verhält und wie lange es dauert, bis der Lerner zu einer stabilen Grammatik kommt. Die Autoren kommen zu dem Schluss, dass der TLA psycholinguistisch plausibel erscheint. Triggering Learning Algorithm • The TLA builds upon Noam Chomsky’s principles and parameters model of grammar. • The learning process starts with random values for each parameter. Whenever an input sentence cannot be analyzed by the current model, one random parameter is selected and changed. This process is repeated until all input sentences can be analyzed. • This algorithm is plausible from a psycholinguistic perspective. 8.4 Semantic Web und Ontologien 183 8.4 Semantic Web und Ontologien 8.4.1 Geschichte Die Sprachwissenschaft ist auch für ein relativ neues technisches Anwendungsgebiet von Interesse. Seit nicht einmal zehn Jahren ist das Semantic Web bzw. Web 3.0 überall im Gespräch. Dabei handelt es sich um eine Anreicherung der im Internet verfügbaren Daten. Während zu Beginn des Internetzeitalters die Bereitstellung von Informationen über wenig strukturierte Homepages und deren Verlinkung untereinander im Mittelpunkt stand, griff die erste Revolution des Internet (das Web 2.0) in Richtung sozialer Netzwerke und usergeneriertem Content. Auf Grund verschiedenster Technologien wurde das Internet zu einem interaktiven Medium par excellence. Zunächst entwickelten und verbreiteten sich die Blogs, die über ein einfaches Tagebuchschreiben hinaus den Austausch der NutzerInnen untereinander möglich machten. Mit Twitter und Facebook war das soziale Netz anschließend zur Vollendung gelangt. Das Internet war von einem relativ statischen, buchzentrierten Medium, das ähnlich wie das Fernsehen nur einen Kanal verwendete, zu einem mehrkanaligen, interaktiven Format geworden. Die sozialen Netzwerke sind mittlerweile aus unseren Leben nicht mehr wegzudenken. Das Web 3.0, wie es von Tim Berners-Lee ausgerufen wurde (Berners-Lee et al. (2001)), möchte nun durch eine weitere neue technologische Herangehensweise das Internet und seine Nutzung erneut revolutionieren. Dieses Mal geht es darum, wie die Informationen miteinander verknüpft werden. War es bislang nur möglich, Verbindungen händisch zu setzen bzw. über gigantische Datenbanken immer nur ein und dasselbe Wort in unterschiedlichen Dokumenten zu finden, so soll es nun möglich werden, mit Hilfe von semantischen Technologien (semantic technologies) die Inhalte gemäß ihrer Bedeutung zu verknüpfen. Dies ermöglicht eine weitaus breitere und inhaltlich ausgefeiltere Verknüpfung von Daten. Die semantische Anreicherung dient vor allem den Maschinen, die somit in die Lage gebracht werden, verschiedenste Daten auf unterschiedliche Art und Weise zu verknüpfen. Damit können auch neue Informationen und neues Wissen generiert werden. • In the beginning, the Internet was a static medium. Its content was like a book or a journal, a document which could be read but not interacted with (web 1.0). • The social revolution turned the web into a communicative platform. Users now can generate content and interact with other people via social networks (web 2.0). 184 8. Sprache und Computer • The semantic revolution aims at semantically enriched data, in order for machines to be able to combine content not only via bare words, but also via sophisticated semantic relationships (web 3.0). 8.4.2 De nition semantische Technologien Die semantische Technologie besteht darin, die Daten semantisch zu verknüpfen. Zum Beispiel könnte man sich die herkömmliche Speicherung von Metadaten von Musiktiteln wie folgt vorstellen: • Titel: blaue aung rode hoa • Interpret: Ernst Molden Band • Album: es lem • Komponist: Ernst Molden Über den Interpreten könnte es folgende Informationen geben: • Interpret: Ernst Molden Band • Mitglieder: Willi Resetarits, Walther Soyka, Hannes Wirth, Ingrid Lang, Nino Mandl, Marlene Lacherstorfer Eine semantische Suchanfrage könnte nun nicht einfach nur alle Titel des Interpreten liefern, sondern auch die von Bandmitgliedern, da die Entität Band die Eigenschaft hat, aus Mitgliedern zu bestehen, die wiederum Komponisten oder Interpreten sein können. Dieses Wissen über Bands ist das semantische Wissen, das mit Hilfe der semantischen Technologien nutzbar gemacht wird. Unter semantischen Technologien versteht man die Strukturierung und Verknüpfung von Daten anhand ihrer semantischen Beziehungen. Dazu müssen sowohl die Entitäten und ihre Eigenschaften als auch die semantischen Beziehungen der Entitäten und ihrer Eigenschaften repräsentiert werden. Dies muss auf eine Art geschehen, die für Maschinen les- und auswertbar ist. • Semantic technology is the structuring, representation, and linking of data so that their semantic relations can be processed by machines. 8.4.3 Ontologien Damit die semantische Verknüpfung von Daten gelingt, benötigt man eine gewisse Infrastruktur, nämlich die Repräsentation aller relevanten Dinge, deren 8.4 Semantic Web und Ontologien 185 Eigenschaften und deren Beziehungen untereinander. Dies sind sogenannte Ontologien (ontologies). Der Begriff der Ontologie stammt ursprünglich aus der Philosophie und bezeichnet die Lehre des Seins: Dabei wird untersucht, welche Entitäten (welche Dinge) es gibt, und wie diese zueinander in Beziehung stehen. Eine konkrete Frage wäre zum Beispiel „Gibt es einen Gott? “. Es können aber auch andere Fragen gestellt werden wie etwa „Was ist ein Loch? “ (Casati & Varzi (1994)). In der Informatik wird unter Ontologie etwas anderes verstanden, nämlich ein Datenbestand, der alle für eine bestimmte Domäne (wie etwa Musikdaten, Lagerverwaltung, Gesundheitsdaten, Daten der Genforschung etc.) relevanten Objekte, deren Eigenschaften und Beziehungen untereinander definiert (Berners-Lee et al. (2001)). Dieser Datenbestand liegt in einer bestimmten Repräsentationssprache vor, er ist somit vollständig formalisiert. Auch die Prädikate und Beziehungen sind formal definiert. Als Grundlage der formalen Repräsentation dient die Beschreibungslogik (description logic). Dies ist eine spezielle Logik, die explizit für die Wissensrepräsentation entwickelt wurde. Sie ist eine Teilmenge der Prädikatenlogik und besitzt im Unterschied zur klassischen Prädikatenlogik die Eigenschaft, entscheidbar zu sein. Dies bedeutet, dass für jeden Satz aus dieser Logik festgestellt werden kann, ob er wahr oder falsch ist (Baader et al. (2003)). Auf der Grundlage dieser Logik können verschiedene Programmiersprachen entwickelt werden. Damit ist der Datenbestand einer Ontologie maschinenlesbar und kann als Grundlage für semantische Programme herangezogen werden. Die Ontologie ist somit die Infrastruktur für semantische Anwendungen, sie „bestimmt“, was die Daten bedeuten sollen. Abbildung 8.6: Beispiel einer Ontologie (Informatik) Die Herstellung und Standardisierung von Ontologien ist zeitraubend und mühselig. Unter dem Begriff Linked Open Data versteht man eine Bewegung, solche Ontologien und die dazugehörigen Daten frei zur Verfügung zu stellen (Berners-Lee (2006)). Beispielsweise sind immer mehr Regierungen bereit, ih- 186 8. Sprache und Computer re Daten und auch ihre Infrastrukturdaten, soweit vorhanden, zu publizieren. Nicht zuletzt hat das Bibliothekswesen eine wichtige Aufgabe dabei, denn Bibliothekskataloge verfügen traditionellerweise über vielfältige Metadaten wie Autorenverzeichnisse, Schlagwortverzeichnisse, Länderverzeichnisse und Ähnliches. Da sich die Bibliothekskataloge mittlerweile vom Zettelkatalog zu hochkomplexen elektronischen Anwendungen gewandelt haben, stehen solche Infrastrukturdaten in diesem Bereich zur Verfügung. • Ontologies in computer science are data for speci c domains that represent entities and relations. Ontologies are crucial to interpreting and relating data automatically. 8.4.4 Repräsentations- und Abfragesprachen Für die semantischen Technologien haben sich vor allem zwei Repräsentationssprachen etabliert: RDF (Resource Description Framework) und OWL (Web Ontology Language). Diese beiden Sprachen dienen dazu, Ontologien und Datenbestände zu beschreiben, das heißt, die Daten werden mit Hilfe dieser Sprachen geschrieben und gespeichert. RDF ist die grundlegende Sprache, OWL baut darauf auf. RDF dient dazu, bestimmte vorhandene Informationen zu beschreiben. Ihre Statements bestehen aus Tripeln, die immer den gleichen Aufbau haben: • Subjekt - Prädikat - Objekt Damit können Aussagen getroffen werden wie z.B. Eine Frau ist ein Mensch oder Eine Frau hat einen Kopf usw. • Frau - ist - Mensch • Frau - hat - Kopf Diese Statements stehen untereinander in keinem Zusammenhang, sie sind lediglich eine Anhäufung von Fakten, die zusammen eine Wissensbasis bilden, die abgefragt werden kann. Zum Beispiel könnte man fragen, was eine Frau so alles hat, oder man könnte fragen, wer aller einen Kopf hat. OWL wurde aufbauend auf RDF (genauer: auf RDF-Schema) entwickelt, um es zu ermöglichen, auch strukturiertere Informationen über Klassen und Relationen abzubilden. Damit ist es möglich, Konzepte genauer zu definieren (Smith et al. (2004)). Alles in allem erfüllen OWL und RDF aber denselben Zweck. <owl: Ontology rdf: about=""/ > <owl: Class rdf: ID="Gender"/ > <owl: Class rdf: ID="Person"/ > <owl: Class rdf: ID="Woman"> 8.4 Semantic Web und Ontologien 187 <rdfs: subClassOf rdf: resource="#Person"/ > <owl: equivalentClass> <owl: Restriction> <owl: onProperty rdf: resource="#Gender"/ > <owl: hasValue rdf: resource="#female" rdf: type="#Gender"/ > </ owl: Restriction> </ owl: equivalentClass> </ owl: Class> [aus: http: / / de.wikipedia.org/ wiki/ Web_Ontology_Language, Teile des dortigen Beispiels 2 ] Die repräsentierten Daten einer Wissensbasis sollen natürlich auch verwendet werden. Damit dies möglich ist, müssen sie abgefragt werden. Für die Abfrage hat sich die Sprache SPARQL (SPARQL Protocol And RDF Query Language) etabliert, die ähnlich wie die Datenbankabfragesprache SQL funktioniert (Harris & Seaborne (2013)). SQL wird verwendet, um herkömmliche, sogenannte relationale Datenbanken (relational database) abzufragen. Diese bestehen aus Tabellen, die miteinander verknüpft werden können, falls sie ein gemeinsames Schlüsselfeld besitzen (Codd (1970)). Zum Beispiel könnte eine relationale Datenbank bestehend aus den zwei Tabellen Name und Stadt derart abgefragt werden, dass man sich alle Wohnorte einer bestimmten Person anzeigen lässt. Dies ist dann möglich, wenn jeder Eintrag in der Stadttabelle immer auch einen Verweis besitzt, zu welcher Person dieser gehört. Die Datenverknüpfungen müssen bei relationalen Datenbanken im Unterschied zu semantischen Technologien also direkt physisch in der Datenbank abgespeichert werden. Die Abfrage für den Namen Kurt Gödel ergibt in diesem Beispiel zwei Treffer (Wien und Princeton). Dies ist in der Stadttabelle über das Feld ID_Name festgelegt. ID_Name Name 1 Bertrand Russell 2 Kurt Gödel 3 David Hilbert ID_Name Stadt 1 London 2 Wien 2 Princeton 3 Göttingen Die Sprache SQL wird dazu benützt, bestimmte Spalten einer Tabelle auszuwählen, bestimmte Tabellen über gemeinsame Schlüsselfelder zu kombinieren und gegebenenfalls einfache Berechnungen wie Summen oder Mittelwerte auszuführen. SPARQL ist an diese Herangehensweise angelehnt, jedoch ist es möglich, nicht nur Tabellen direkt zu verknüpfen, sondern auch semantische Beziehungen in der Abfrage der Daten zu verwenden. 2 Abgerufen am 4.1.2016. 188 8. Sprache und Computer Beispielabfrage und Ergebnis in SPARQL • Data @prefix foaf: <http: / / xmlns.com/ foaf/ 0.1/ > . _: a foaf: name "Johnny Lee Outlaw" . _: a foaf: mbox <mailto: jlow@example.com> . _: b foaf: name "Peter Goodguy" . _: b foaf: mbox <mailto: peter@example.org> . _: c foaf: mbox <mailto: carol@example.org> . • Query PREFIX foaf: <http: / / xmlns.com/ foaf/ 0.1/ > SELECT ? name ? mbox WHERE { ? x foaf: name ? name . ? x foaf: mbox ? mbox } • Query Result name mbox "Johnny Lee Outlaw" mailto: jlow@example.com "Peter Goodguy" mailto: peter@example.org [gesamtes Beispiel aus Prud’hommeaux & Seaborne (2008): § 2.2] Semantic representation and query languages • Traditional data is stored in relational databases, which consist of tables containing rows and columns of data similar to a spread sheet. Data can linked via special elds (keys). • SQL is used to query relational databases. Data can be selected and keys can be matched. • Semantic technologies use special languages to represent their data: RDF and OWL. • Semantic data is queried with SPARQL, a special query language which makes it possible to include semantic relations. 8.5 Parsing In diesem Kapitel wird zunächst der Begriff Parsing erläutert. Im Weiteren werden die zwei grundlegenden Verfahren des maschinellen Parsings, das regelbasierte und das statistische Parsing, vorgestellt. Das Kapitel endet mit einem Ausblick auf das Tagging, der automatischen Zuordnung der lexikalischen Kategorie zu einem Wort. 8.5 Parsing 189 8.5.1 Allgemeines Unter Parsing (einen entsprechenden deutschen Terminus gibt es leider nicht) versteht man das Zuordnen einer syntaktischen Struktur zu einem Satz. Das heißt, ein Satz soll zerlegt und analysiert werden. Dabei ist der Begriff „Satz“ völlig allgemein gehalten: Es kann sich sowohl um einen Satz der natürlichen Sprache wie auch einen Satz einer formalen Sprache handeln. Hinsichtlich natürlichsprachlicher Sätze meint man mit Parsing, dass ein Inputsatz von einer SprecherIn oder von einem Computer gehört oder gelesen wird, und dass diesem Satz währenddessen eine bestimmte syntaktische Struktur zugewiesen wird. Das Parsing kann somit nicht nur von Menschen, sondern auch von Maschinen (Computerprogrammen) bewerkstelligt werden. Das Thema Parsing ist daher sowohl Teil der Psycholinguistik (wie Menschen natürliche Sprache verstehen) als auch Teil der Computerlinguistik (wie man Maschinen dazu bringen kann, natürliche Sprache zu verstehen), allerdings haben die beiden Auffassungen von Parsing nur wenig miteinander zu tun. Das Parsen von Sätzen formaler Sprachen ist ein zentrales Thema der Informatik. Es geht darum, die syntaktische Struktur von Ausdrücken zu finden, also die syntaktische Struktur von Computerprogrammen zu bestimmen - dies ist für die Übersetzung von höheren Programmiersprachen (wie z.B. C) in die Maschinensprache (z.B. Assembler) notwendig, denn Computerprogramme sind letzten Endes nur in der jeweiligen Maschinensprache ausführbar: Der Prozessor des Computers, der eigentliche Rechner, versteht nur Anweisungen, die sich Grace Hopper (1906-1992) direkt auf die einzelnen Nullen und Einsen in den Registern beziehen. Diese Übersetzung von höheren Programmiersprachen in maschinennahe Sprachen erfolgt mittels Übersetzern (compiler); der sogenannte Übersetzerbau (compiler construction) ist eine der grundlegenden Teildisziplinen der Informatik. Begründet wurde diese durch Grace Hopper, die den ersten Compiler überhaupt gebaut hat (Marx (2004)). Das folgende Beispiel illustriert, wie einem arithmetischen Ausdruck eine syntaktische Struktur zugeordnet werden kann. Wichtig hierbei ist, dass die Regel Punktvor Strichrechnung beachtet wird. Dies wird im zugeordneten Syntaxbaum deutlich: Abbildung 8.7: Parser 190 8. Sprache und Computer Auch beim Parsingvorgang von natürlicher Sprache wird dem Inputtext die syntaktische Struktur zugewiesen. Dabei wird zunächst eine Phrase konstruiert, dann die nächste, bis diese Phrasen zum ganzen Satz zusammengesetzt werden können. Am Ende des Vorganges entsteht so die syntaktische Struktur der Inputdaten. Ähnlich wie im Beispiel des arithmetischen Ausdrucks können auch hier, wenn man die Regeln nicht genau kennt, prinzipiell unterschiedliche Strukturen und somit auch Bedeutungen entstehen: • Ich möchte einen Hamburger ohne Gurkerln, bitte. • Ich möchte einen Hamburger und einen Brownie, bitte. Im ersten Satz gibt es nur ein direktes Objekt, das eine Präpositionalphrase (PP) enthält. Die PP bechreibt das Objekt näher, man bestellt also nur einen Hamburger, der die weitere Eigenschaft hat, keine Gurkerln zu beinhalten. Im zweiten Satz gibt es zwei koordinierte Objekte, das heißt, man bestellt zwei Dinge, nämlich einen Hamburger und einen Brownie. Insbesondere bestellt man hier nicht einen Hamburger mit Brownie. Die in diesem Beispiel vorhandene Eindeutigkeit der syntaktischen Struktur legt somit die Bedeutung des Satzes fest. Parsing • Parsing is the process of nding the syntactic structure of a given input string. • In formal languages, parsing translates a program written in a higher programming language into machine-readable code, such as Assembler. • In natural languages, people gure out the syntactic structure of a sentence when they hear or read it, making them able to interpret it correctly. 8.5.2 Regelbasiertes Parsing Im regelbasierten Parsing wird wie folgt vorgegangen: Es werden Computerprogramme mit Grammatikregeln geschrieben, die alle möglichen Fälle der Syntax der jeweiligen Sprache abdecken. Soll nun ein Inputsatz analysiert werden, so existiert eine (oder mehrere) Regel für die Struktur dieses Satzes. Diese Regel kann zur Anwendung kommen, der Satz kann analysiert werden. Das regelbasierte Parsing ist eng verwandt mit dem Parsing von Programmiersprachen. Es werden die gleichen Methoden verwendet, auf die wir an dieser Stelle nicht näher eingehen (Aho et al. (1986), Naumann & Langer (1994)). Folgendes Beispiel zeigt die Funktionsweise des regelbasierten Parsings. Zunächst werden die Grammatikregeln explizit festgelegt bzw. programmiert, anschließend werden die Sätze dann „streng nach Vorschrift“ analysiert. So kann 8.5 Parsing 191 etwa die Struktur des Satzes in Beispiel (6) mit den Regeln in (7) erzeugt werden: (6) S NP D Die N Katze VP V miaut Die Grammatikregeln sind jeweils für einen Teil der Baumstruktur in (6) verantwortlich. Zum Beispiel besteht der oberste Teilbaum aus einem S, das in eine NP und eine VP verzweigt (das heißt, ein Satz besteht aus einer Nominalphrase und einer Verbalphrase). Dies ist in der ersten Regel beschrieben: (7) Grammatikregeln: • S ! NP VP • NP ! D N • VP ! V Um den ganzen Satz zu erzeugen, benötigt man noch Wörter und deren Kategorien: • Kategorienzuordnungen: „die“ = D; „Katze“ = N; „miaut“ = V; „der“ = D; „Hund“ = N; „bellt“ = V; Mit dieser Beispielgrammatik kann auch der Satz „Der Hund bellt“ analysiert werden. Es kann darüber hinaus festgestellt werden, dass „Der Hund Katze“ ungrammatisch ist, weil dieser Satz nicht mit den beschriebenen Regeln erzeugt werden kann. Für die praktische Umsetzung auf Computern spielen Formalismen wie HPSG (head driven phrase structure grammar) und GPSG (generalized phrase structure grammar) eine Rolle (Pollard & Sag (1994)). Das sind Formalismen, die auf den Ideen der generativen Grammatik nach Chomsky basieren und genauer ausformuliert sind, so dass sie direkt programmiert werden können. Dabei spielt die Einbettung in ein psychologisches Modell der Sprachfähigkeit bestenfalls eine untergeordnete Rolle, vielmehr steht eine detaillierte Spezifikation der Grammatikregeln im Mittelpunkt. HPSG ist besonders für das Japanische weit entwickelt worden. Ein Problem, das allgemein beim maschinellen Parsing auftritt, ist die Analyse von referenziellen Ausdrücken (referential expression). Beispielsweise könnte ein Nachrichtenartikel vom 10. Jänner 2008 folgenden Satz enthalten: „Die gestrige Katastrophe war perfekt.“ Der Parser soll nun den Zeitpunkt der Katastrophe berechnen: Die Katastrophe fand am 9.1.2008 statt. Auch der weitere Textablauf soll auf diese Weise analysiert werden: Welche Ereignisse haben vor der Katastrophe stattgefunden? Welche nachher? Eine mögliche gewünschte Antwort wäre: „Das Flugzeug hob um 13: 12 ab und erreichte sein Ziel nicht mehr. Die Rettungsfahrzeuge waren bereit als die Notlandung einsetzte.“ 192 8. Sprache und Computer Der Vorteil regelbasierter Parser ist, dass spezifische linguistisch-grammatische Theorien über einzelne Sprachen überprüft werden können: Indem man alle Regeln, die die LinguistInnen gefunden haben, formal als Computerprogramm schreibt, kann man kontrollieren, wie viel von den Inputdaten damit abgedeckt werden. Man findet damit die Löcher in der Theorie, die Fälle, die noch nicht berücksichtigt wurden, und kann sich für diese neue Regeln ausdenken. Allerdings birgt das regelbasierte Verfahren einige gravierende Nachteile: Zunächst ist es praktisch unmöglich, alle notwendigen Regeln zu finden. Dies ist eine Aufgabe, an denen sich LinguistInnen seit Jahrhunderten die Zähne ausbeißen. Dementsprechend tritt das Problem auf, dass der Parser kein Ergebnis liefert, wenn für einen Inputsatz keine entsprechenden Regeln vorliegen. Außerdem ist es oft der Fall, vor allem in der gesprochenen Sprache, dass die Inputsätze nicht der Grammatik entsprechen. Häufig werden halbe, unvollständige Sätze geäußert, oder die SprecherIn ändert mitten im Satz ihre Meinung und führt die ursprünglich beabsichtigte Äußerung mit ganz anderen Worten und Inhalten fort. Solche Situationen überfordern regelbasierte Parser. Rule-based parsing • A rule-based parser consists of explicit grammar rules and an annotated lexicon. • Input can be processed as long as it ts the rules. If the input does not t exactly, the parser crashes and does not produce a result. • Rule-based parsers are close to linguistic theorizing. 8.5.3 Statistisches Parsing Im Unterschied zum regelbasierten Parsing verfolgt das statistische Parsing (statistical parsing) eine andere Strategie: Es arbeitet nicht mit absoluten Grammatikregeln, vielmehr wird nur die Häufigkeit bestimmter Muster beachtet (Manning & Schütze (1999): § 12). In statistischen Modellen geht nicht immer alles „streng nach Vorschrift“, sondern es besteht jeweils eine bestimmte Wahrscheinlichkeit, ob etwas zutrifft oder nicht. So gibt es beim statistischen Parsing für jede Regel eine eigene Wahrscheinlichkeit. Einerseits ist es möglich, die Grammatikregeln so zu formulieren, dass sie nur mit einer bestimmten Wahrscheinlichkeit auftreten. Beispielsweise können einer Folge von syntaktischen Kategorien zwei verschiedene Strukturen zugeordnet werden, die erste mit 75 % Wahrscheinlichkeit, die andere mit 25 %. Diese Vorgehensweise erlaubt es, dass eventuelle Mehrdeutigkeiten anhand ihrer Wahrscheinlichkeiten aufgelöst werden können. Andererseits ist es 8.5 Parsing 193 möglich, Strukturen zu Sätzen zu finden, denen eigentlich keine Grammatikregel entspricht. Es wird einfach diejenige Regel genommen, die die höchste Wahrscheinlichkeit hat, auch wenn diese Wahrscheinlichkeit äußerst gering sein sollte. Zum Beispiel kann die englische Wortgruppe fruit flies im Deutschen entweder „Fruchtfliegen“ oder „Früchte fliegen“ bedeuten, je nachdem, welche der folgenden Grammatikregeln zum Tragen kommt. • Satzregel S NP N fruit VP V flies • Kompositaregel N N fruit N flies Die Auswahl der Regel erfolgt durch die Bestimmung der lexikalischen Kategorie von flies. Diese kann mit einer bestimmten Wahrscheinlichkeit gewichtet sein (z.B. 70 % Verb, 30 % Nomen). Statistical parsing • Grammar rules are applied with a certain probability, increasing the exibility of the parser. A rule can be picked out among a set of candidates, and sentences can be parsed even if none of the rules t perfectly. 8.5.4 Tagging Unter Tagging (ein entsprechender deutscher Terminus existiert nicht) bzw. Part-of-Speech-Tagging (PoS-Tagging) versteht man die Identifizierung einzelner Wörter und ihre Zuordnung zur syntaktischen Kategorie (Manning & Schütze (1999): § 10). So wird beispielsweise das Wort schlief als Verb gekennzeichnet. Das Tagging kann von Menschen durchgeführt werden. Allerdings ist es für die automatische Verarbeitung von Sprache günstiger, wenn dieser Schritt der Analyse von Computern bewerkstelligt wird. Für diese Aufgabe haben sich statistische Verfahren als besonders geeignet erwiesen: Beim maschinellen PoS- Tagging wird zunächst ein bereits annotierter Datenbestand, das heißt, ein Text, bei dem zu jedem Wort die Wortart hinzugefügt worden ist, verwendet. 194 8. Sprache und Computer Dieser Text dient dazu, dass der Computer die Übergangswahrscheinlichkeit von einer Wortart auf die nächste berechnen kann: Wie hoch ist die Wahrscheinlichkeit, dass nach einem Determinator ein Nomen kommt? Wie hoch ist die Wahrscheinlichkeit, dass nach einem Determinator ein Verb folgt? Jedoch wird zumeist nicht die Wahrscheinlichkeit von einem Wort auf das nächste benützt, sondern die Folge von zwei, drei, vier oder mehr Kategorien, um dann die Wahrscheinlichkeit für die Kategorie des nächsten Wortes anzugeben. Bei der Bestimmung kommt es daher auf n aufeinanderfolgende Wörter an, aus denen die Wahrscheinlichkeit von der Kategorie des nachfolgenden Wortes bestimmt wird. Derartige zwei- oder dreiteilige Tupel bezeichnet man als Bigramme (bigrams) bzw. Trigramme (trigrams) oder auch allgemeiner als n- Gramme (n-gram). Sind diese Übergangswahrscheinlichkeiten der n-Gramme anhand des vorgegebenen, annotierten Übungstextes berechnet, kann in einem nächsten Schritt ein neuer, das heißt, ein ungetaggter Text automatisch annotiert werden. Das folgende Beispiel illustriert die Zuweisung der syntaktischen Kategorie anhand von fiktiven Übergangswahrscheinlichkeiten: • 1. Wort ist ein D, 2. Wort ist ein Adj - Wahrscheinlichkeit ist 80 %, dass das 3. Wort ein N ist - Wahrscheinlichkeit ist 15 %, dass das 3. Wort ein Adj ist - Wahrscheinlichkeit ist 5 %, dass das 3. Wort ein V ist. Nach dem erfolgreichen Tagging kann der zu analysierende Text weiter an den Parser gegeben werden, der nun, wie oben beschrieben, den einzelnen Sätzen die syntaktische Struktur zuordnet. Das Verfahren, die Übergangswahrscheinlichkeit auf Grund von zwei, drei oder mehreren bekannten vorhergehenden Entitäten zu benützen, nennt man Hidden-Markov-Modell (es gibt keinen standardisierten deutschen Terminus). Es wurde von vielen ForscherInnen als Erklärungsmodell für den kindlichen Spracherwerb herangezogen. Demgemäß genügt allein die Berechnung der Auftrittshäufigkeiten verschiedener Strukturen, um den Grammatikerwerb zu erklären. Allerdings wies Noam Chomsky diese Argumente zurück (Chomsky (1965)): Der Satz Colorless green ideas sleep furiously ist sicher noch nie zuvor aufgetreten und kann daher keine signifikanten Auftrittshäufigkeiten besitzen. Dennoch kann jede englischsprechende Person diesem Satz eine syntaktische Struktur zuordnen. Neben den Markov-Modellen können auch neuronale Netze (neural networks) zur Sprachverarbeitung eingesetzt werden; es handelt sich dabei ebenfalls um eine statistische Methode. Hierbei werden keine Grammatikregeln programmiert und auch keine n-Gramme verwendet, vielmehr wird ein allgemeiner Lernmechanismus implementiert, der je nach Architektur des neuronalen Netzes unterschiedlich ausfällt. Allerdings ist die Technik des neuronalen Netzes keineswegs auf die Analyse von Sprachdaten beschränkt, die Netze kön- 8.5 Parsing 195 nen auf alle möglichen Fragestellungen angewendet werden, wie etwa für die Vorhersage von Aktienkursen, für die Bestimmung von Krankheiten aus z.B. Blutdaten usw. Tagging • The tagger associates the lexical category with its input words. As soon as this is done, the material can be processed further by the parser. • Computer programs calculate the probability of the category of an input word, given the last n categories (n-grams). They are trained rst with input data that have already been annotated. Subsequently, they can analyze new data. • The transition probability can be calculated with hidden Markov models, a type of statistical modelling. Several scholars argue that this is the way rst language acquisition works, but Chomsky refuted this argument. • Neural networks are an additional type of statistical processing. They have many applications and can be used for tagging as well. 8.5.5 Korpora Für die Durchführung von verschiedensten Analysen wurden in den vergangenen Jahren und Jahrzehnten eigene Korpora (corpus) (das sind Sammlungen von Sprachdaten, vor allem von schriftlichen, also Zeitungstexte, Literatur und andere, es gibt aber auch Korpora der gesprochenen Sprache) angelegt und annotiert. Dies bedeutet, dass zu jedem Wort die syntaktische Kategorie hinzugefügt wurde. Dieser Vorgang kann händisch (also von bestimmten menschlichen Personen) oder automatisiert bzw. semi-automatisiert durchgeführt werden (siehe Tagging). Einige wichtige anntotierte Korpora des Deutschen 3 sind die folgenden: • COSMAS-II http: / / www.ids-mannheim.de/ cosmas2 • TIGER http: / / www.ims.uni-stuttgart.de/ forschung/ ressourcen/ korpora/ tiger.html • CLARIN - Korpora des Bayerischen Archivs für Sprachsignale http: / / www.bas.uni-muenchen.de/ forschung/ Bas/ BasKorporadeu.html • Tübinger Baumbanken http: / / www.sfs.uni-tuebingen.de/ ascl/ ressourcen/ corpora.html • Deutsches Textarchiv http: / / www.deutschestextarchiv.de 3 Diese fünf Seiten wurden am 14.1.2016 abgerufen. 196 8. Sprache und Computer Solche Korpora können dazu verwendet werden, unterschiedlichste statistische Sprachanalyseverfahren zu trainieren. Beispielsweise kann man aus einem Korpus, der PoS-Annotationen aufweist, beliebig Bi- oder Trigramme bilden und damit die Übergangswahrscheinlichkeiten in seinem eigenen PoS-Tagger berechnen. Auch die sogenannten Baumdatenbanken (treebanks) dienen einem ähnlichen Zweck. Hier sind die Texte mit ganzen syntaktischen Phrasen (Bäumen) annotiert, so dass man diese dazu verwenden kann, die Häufigkeiten der Regeln für den eigenen statistischen Parser zu berechnen. Corpora • Corpora are large datasets of annotated linguistic material (usually written text, sometimes speech). They can be used to train statistical procedures and to perform statistical analysis on the data. 8.6 Anwendungen Die Computerlinguistik ermöglicht zahlreiche Anwendungen. Im Folgenden werden einige kurz vorgestellt, ohne jedoch genauer auf einzelne Technologien einzugehen. Eine ausführlichere Darstellung findet sich etwa in Karstensen et al. (2010). Die automatische Spracherkennung (automatic speech recognition) besteht darin, dass sowohl geschriebene als auch gesprochene Sprache vom Computer „verstanden“ wird. Dies bedeutet, dass natürliche Sprache als Benutzerschnittstelle fungieren soll. Die Steuerung eines Gerätes findet also nicht über Mausklicks und Menüführung, sondern über gesprochenen bzw. geschriebenen Text statt. Die Erkennung gesprochener Sprache findet sich zum Beispiel in automatischen Auskunftssystemen von Callcentern wie etwa Zugsauskünften, Ämtern und Ähnlichem. Ebenso wird sie in letzter Zeit häufiger bei mobilen Geräten wie Smartphones verwendet. Die gesprochene Sprache wird phonetisch, phonologisch, syntaktisch und semantisch analysiert und anschließend direkt in eine Programmsteuerung wie etwa in eine Datenbankabfrage umgewandelt. So kommen computerlinguistische Methoden bei der Analyse der Sprache zum Einsatz. In Bestellsystemen zum Beispiel könnte der Satz Wann wurde meine Bestellung verschickt, und wann wird sie bei mir ankommen? in eine Datenbankabfrage umgewandelt werden: Die Kundendaten der Anruferin und die Bestellnummer werden an die Datenbank geschickt, diese liefert eine Antwortmenge der versendeten Waren und des Versendedatums, so dass daraus eine Antwort an die Benutzerin generiert werden kann. Die Sprachsynthese (speech synthesis) erzeugt natürliche Sprache, so soll der Computer in unserem Beispiel antworten: Die Salamipizza wurde um 20: 05 8.6 Anwendungen 197 Uhr an sie verschickt und wird sie etwa um 20: 30 Uhr erreichen. Dazu muss die Antwort der Datenbank in einen Satz umgewandelt werden: Die passenden Wörter müssen ausgewählt und gemäß der Grammatik der Zielsprache angeordnet werden. Anschließend muss eine phonologische Repräsentation erzeugt und akustisch dargestellt werden. Weitere Beispiele, in denen die Sprachsynthese zum Einsatz kommt, sind Vorlesesysteme, Ansagen der Uhrzeit, die Sprachausgabe der Navigationsgeräte etc. Mittlerweile existieren im deutschsprachigen Raum nicht mehr nur Systeme, die das bundesdeutsche Deutsch sprechen; es wurden auch verschiedene Dialekte wie etwa das Wienerische implementiert (siehe dazu das VSDS Projekt 4 ). Das maschinelle Übersetzen (machine translation) ist die automatische Übertragung eines quellsprachlichen Textes in einen zielsprachlichen Text. Dazu wird der Text der Ausgangssprache (z.B. Russisch) syntaktisch analysiert. Anschließend wird auf einer Zwischenstufe daraus eine sprachunabhängige Darstellung erzeugt, die in einen Satz der Zielsprache (z.B. Englisch) übersetzt wird. Ein Beispiel für einen maschinellen Übersetzer ist die Übersetzungsfunktion in Google (http: / / translate.google.com 5 ). Bei der Textklassifizierung (document classification) geht es darum, vorhandene Texte auf Grund ihrer Inhalte in bestimmte Kategorien einzuteilen. Beispielsweise sollen Zeitungstexte in die Kategorien „Sport“, „Kultur“, „Auslandsnachrichten“, „Prominews“ usw. eingeordnet werden. Diese Aufgabe lässt sich gut statistisch lösen: Beispielsweise kann man nach bestimmten Wörtern im Text suchen und je nach deren Häufigkeit den Text klassifizieren. Findet man etwa Schi, Sieg, Rennen, Kurve, angasen, Bestzeit, Zwischenzeit, so gehört der Text vermutlich in die Kategorie „Sport“. Schließlich werden computerlinguistische Verfahren auch dazu genützt, um Informationen aus textlichen Datenquellen zu gewinnen. Einerseits bemüht sich die Informationsextraktion (information extraction) darum, wenig strukturierte Information in eine systematische Form zu bringen, damit diese in Datenbanken gespeichert und maschinell ausgewertet werden kann. Solche wenig strukturierten oder auch semistrukturierten Daten sind etwa Webseiten, die in HTML geschrieben sind. Aus diesen ist zwar ersichtlich, was eine Überschrift und was ein Link ist, der Rest des Inhaltes liegt aber nicht in einer annotierten Form wie XML vor. Neben der Informationsextraktion existiert die Informationsrückgewinnung (information retrieval), die damit beschäftigt ist, Informationen aus großen Datenmengen wie Bild- oder Textdatenbanken zu holen. Das Data-Mining beschäftigt sich allgemein mit der Datenanalyse und ist nicht auf Sprachdaten beschränkt. Es geht darum, in Datenmengen Muster zu finden oder spezielle Datensätze ausfindig zu machen. Beispielsweise analysieren Telefongesellschaften die Verbindungsdaten ihrer Kunden dahingehend, 4 https: / / portal.ftw.at/ projects/ vsds, abgerufen am 6.1.2016 5 Abgerufen am 17.1.2016. 198 8. Sprache und Computer um herauszufinden, ob der Kunde bald den Vertrag kündigen wird. Den so gefundenen Kunden wird zwecks Bindung ein attraktives Angebot geschickt wie beispielsweise ein neuer Tarif oder ein neues Gerät zu einem günstigen Preis. Text-Mining ist Data-Mining, allerdings sind die zu analysierenden Daten in Textform. So können beispielsweise die in der Vorratsdatenspeicherung gesammelten E-Mails von Bürgern automatisch durchsucht werden, um bestimmte Personen ausfindig zu machen, die Terroristen oder Drogenhändler sind. Genauso können die gespeicherten gesprochenen Daten, die bei der Kommunikation mit Mobiltelefonen entstehen, durchforstet werden. Applications of computational linguistics • Automatic speech recognition seeks to analyze written or spoken language and transform it into a machine-readable command, like a database query. • Speech synthesis generates written or spoken text out of some data (e.g. out of the result set of a database query). • Machine translation is the automatic translation from one language into another via an intermediate representation language. • Document classi cation takes documents, such as newspaper articles, and classi es them into groups (e.g. sports, politics, society, etc.). • Information extraction and information retrieval try to gain information out of unstructured sources (text, pictures, web pages) and transform them into a structured format which can be further processed by machines. • Data mining is a bundle of techniques that try to detect patterns in large amounts of data. Kapitel 9 Musik Im Folgenden betrachten wir den Zusammenhang zwischen Sprache und Musik. Nicht nur die Verarbeitung syntaktischer Strukturen, sondern auch die musikalischer Strukturen erfolgt im Broca-Areal (§ 9.1). In § 9.2 wird versucht die Frage zu beantworten, was es mit der musikalischen Bedeutung auf sich hat: Haben musikalische Zeichen eine Bedeutung? In welchen Zusammenhang steht sie zur sprachlichen Bedeutung? Welche musikalischen Zeichen gibt es überhaupt? Daran anschließend betrachten wir, wie verschiedene Emotionen durch Musik erzeugt werden können und welche Bereiche des Gehirns jeweils involviert sind (§ 9.3). Weiters gehen wir der Frage von Tecumseh Fitch nach, warum Hunde nicht tanzen können. Die Verarbeitung von rhythmischen Strukturen und die dazugehörigen Bewegungsimpulse scheinen spezifisch menschlich zu sein (§ 9.4). Abschnitt 9.5 stellt die generative Theorie der tonalen Musik vor, ein Versuch, die generative Grammatiktheorie von Noam Chomsky auf musikalische Strukturen anzuwenden. Schließlich werden die Unterschiede von Sprache und Musik erläutert sowie ein Blick auf die Modularität geworfen (§ 9.6). 9.1 Verarbeitung musikalischer Syntax im Broca-Areal Die Neurowissenschaft ermöglicht es, die an der Kognition beteiligten Hirnareale zu untersuchen. Dadurch wurden in den letzten Jahren neue Zusammenhänge zwischen der Verarbeitung von sprachlicher Syntax und der Verarbeitung von musikalischen Strukturen gefunden. Die sprachliche und die musikalische Syntax haben auf den ersten Blick nicht viel gemeinsam. Jedoch gibt es einige Eigenschaften, die darauf schließen lassen, dass es sich um ähnliche Verarbeitungsmechanismen handelt. Beide Systeme verarbeiten rhythmische und harmonische Strukturen. Der Rhythmus (rhythm) ist sowohl für die Sprache als auch für die Musik wichtig: manche Silben bzw. Noten sind betont, andere nicht. Außerdem finden sich Harmoniebzw. Tonhöhenverläufe ebenso in der 200 9. Musik Sprache wie in der Musik. Ein genauerer Vergleich der beiden Strukturen erfolgt in § 9.6.1. Es wird daher derzeit angenommen, dass Sprache und Musik von einem gemeinsamen oder von zwei eng miteinander verwobenen kognitiven Systemen im Gehirn verarbeitet werden. Jedoch werden unterschiedliche Hemisphären des Gehirns bevorzugt: Sprachliche Daten werden vorwiegend in der linken Hemisphäre verarbeitet, musikalische Reize in der rechten. Das Broca-Areal (Broca’s region) (siehe dazu § 4.1.1) ist weder, wie vor über 150 Jahren angenommen, für die Sprachproduktion noch für die Verarbeitung der sprachlichen Syntax alleine verantwortlich. Vielmehr scheint es so zu sein, dass das Broca-Areal Detektoren für die Wohlgeformtheit „rhythmischer“ Information besitzt. Es analysiert, ob zeitlich geordnete Informationen bestimmten Wohlgeformtheitsbedingungen entsprechen (Koelsch et al. (2005) und Koelsch (2011a)). Sowohl Phoneme in der Sprache als auch einzelne Töne bzw. Schläge in der Musik treten zeitlich geordnet nacheinander auf. Sowohl für die Sprache als auch für die Musik wird überprüft, ob die entstehende hierarchische Struktur den unterliegenden Regeln genügt. In beiden Fällen wird aus einer linearen Information eine hierarchische Struktur, das heißt eine Baumstruktur, erzeugt. Die Verarbeitung der musikalischen Syntax wird mit dem Akkordfolgeparadigma (chord sequence paradigm) untersucht. Bei derartigen Experimenten bekommen die Versuchspersonen mehrere aufeinanderfolgende Akkorde vorgespielt, wobei der letzte Akkord entweder harmonisch dazupasst oder nicht. Ein unpassender Akkord am Ende des Stimulus führt zu erhöhter Aktivität im Broca-Areal. Das Gehirn „bemerkt“, dass etwas nicht stimmt, es reagiert auf den unvorhergesehenen Reiz. Derartige unvorhergesehene bzw. irreguläre Akkorde verursachen eine erhöhte Aktivität nach 150-350 ms (Koelsch (2011a): § 5.2) im Brodmann-Areal 44 vorwiegend der rechten Hemisphäre. Die Aktivierung nach dem Hören von unpassenden Akkorden wird als ERAN (early right anterior negativity) bezeichnet - ein früh beginnender, negativer Ausschlag. Die musikbedingte ERAN interagiert mit der sprachbedingten LAN (left anterior negativity) (Koelsch (2011a): § 5.3). Die Aktivität des LAN tritt bei morphosyntaktischen Fehlern auf, einem sehr frühen Stadium der Verarbeitung, bei dem rein syntaktische Inkongruenzen wie etwa falsche Tempusendungen, falsche Numeruskongruenzen, falsche Artikel oder falsche Kasus erkannt werden. Derartige Fehler beeinflussen die Verarbeitung von unpassenden Akkorden. Zwischen der semantischen Verarbeitung von Sprache in Form des N400-Ausschlags und dem ERAN besteht hingegen kein Zusammenhang. Ebenso gibt es keine Interaktion zwischen der ERAN und der rein akustischen Verarbeitung (Koelsch (2011a): § 5.3). Um dies zu zeigen, wurde die MMN (mismatch negativity) betrachtet, die bei akustischen Fehlern auftritt (zur zeitlichen Abfolge der sprachlichen syntaktischen Verarbeitung siehe § 4.3). Das Broca-Areal, zumindest Teile von ihm, ist auch beim Erkennen und Verarbeiten von mathematischen Formeln aktiv (Friedrich & Friederici (2009)). 9.1 Verarbeitung musikalischer Syntax im Broca-Areal 201 Hierbei geht es wiederum darum, die syntaktische Wohlgeformtheit eines Ausdrucks zu bestimmen. Entspricht die vorliegende Formel den mathematischen Regeln? Auch der Aufbau von mathematischen Ausdrücken kann mit Hilfe von regulären Sprachen beschrieben werden. Auch neurologische Beeinträchtigungen liefern einen Hinweis darauf, dass das Broca-Areal an der Verarbeitung von Musik beteiligt ist. So können Patient- Innen, die an einer Broca-Aphasie leiden, musikalische Strukturen signifikant schlechter verarbeiten als gesunde Vergleichspersonen (Patel (2008)). Somit zeigt sich, dass die Aktivierung des rechtsseitigen Broca-Areals während der musikalisch-syntaktischen Verarbeitung spezifisch ist und weder etwas mit der semantischen noch mit der akustischen Verarbeitung zu tun hat. Das Broca-Areal ist kein Sprachzentrum im klassischen Sinn, sondern erfüllt eine spezifische Aufgabe, die verschiedene Teile der Kognition unterstützt - die Verarbeitung von hierarchischer Information. Diese Fähigkeit besitzen nur Menschen, allen anderen Tieren fehlt sie. Deshalb können Tiere keine Musik verstehen und haben auch keine Freude daran, wie es etwa Tecumseh Fitch (Fitch (2012)) ausdrückt „Why dogs can’t dance“ (siehe dazu auch § 9.4.1). Weiters ist der ventrale prämotorische Kortex (ventral premotor cortex) an der Verarbeitung von sprachlichen und musikalischen Reizen beteiligt. Er sorgt für die Verarbeitung von regulären Grammatiken (regular languages), da sind die einfachsten formalen Sprachen, die es gibt. Sie können mit Hilfe von endlichen Automaten (finite state grammars) erfasst werden (Koelsch (2011a): 7). Siehe dazu auch § 8.2. Music and language • Both music and language process rhythmic and harmonic information. • Linguistic processing occurs mostly in the left hemisphere, musical processing mostly in the right one. Broca’s area • Broca’s area and its equivalent in the right hemisphere check the well-formedness of temporal structure (either phonemes in language or beats in music). • Within the chord sequence paradigm, participants listen to sequences of chords. Researchers investigate how they react to unexpected chords. • Unexpected chords trigger ERAN, an early activity within the right hemisphere. • ERAN does not interact with semantic processing (N400), nor with purely acoustic processing (MMN). 202 9. Musik • ERAN interacts with LAN (a reaction to morphosyntactic mismatches). • When processing mathematical formulae, Broca’s area is active. • Patients with Broca’s aphasia perform poorly when processing musical structure. • The ability to process hierarchical information within Broca’s area is only present in humans, not in animals. 9.2 Musikalische Bedeutung Eine weitere Frage zu den Parallelen zwischen Musik und Sprache ist, inwieweit die beiden Bedeutungen übermitteln können. Die menschliche Sprache kann verwendet werden, um Propositionen auszudrücken. Verschiedene Musikstücke können unterschiedliche emotionale Stimmungen ausdrücken, die von der HörerIn nachvollzogen und empfunden werden können. Handelt es sich bei diesen Phänomenen um ein und dasselbe, oder haben die beiden nichts miteinander zu tun? Um diese Frage zu beantworten, muss zunächst geklärt werden, was musikalische Bedeutung ist. Wir werden uns im Folgenden an die von Stefan Koelsch verwendete Trennung in extra-musikalische und intramusikalische Bedeutung halten. Des Weiteren werden wir einen Blick auf die emotionale Bedeutung von Musik werfen. In diesem Zusammenhang ist auch die Wirkung von Musik auf den Körper interessant. Erst in § 9.4.1 treffen wir auf eine weitere Art der musikalischen Bedeutung, die geteilte Aufmerksamkeit beim Musikmachen. 9.2.1 Arten musikalischer Zeichen Stefan Koelsch (Koelsch (2011a) und Koelsch (2011b)) spricht anhand der klassischen semiotischen Lehre von drei Bedeutungsformen, die Musik haben kann: ikonisch, indexikalisch und symbolisch. Mit diesen drei Begriffen klassifizierte Charles Sanders Peirce die möglichen Typen von Zeichen. Das Ikon (icon) bezeichnet eine Form des Zeichens, in der das Bezeichnende selbst Eigenschaften des Bezeichneten aufweist. Im Sprachlichen wären das etwa Onomatopoetika (onomatopoeia) wie kikeriki, in denen der Tierlaut nach- Stefan Koelsch (*1968) geahmt wird. Onomatopoetika unterscheiden sich in den einzelnen Sprachen, so heißt die englische Übersetzung des Hahnenrufes cock-a-doodle-doo. Daran sieht man, dass es sich nicht um eine direkte Nachahmung des Lautes handelt, vielmehr findet eine gewisse Abstraktion und eine Einbettung in das phonologische System der jeweiligen Sprache statt. Bereits Ferdinand de Saussure hat festgehalten, dass die wesentliche Eigenschaft des Zeichens die Abstraktion ist 9.2 Musikalische Bedeutung 203 (Saussure (1916)). In der Musik, so Koelsch, bezieht sich das ikonische Zeichen direkt auf Äußerungen oder Eigenschaften eines Objekts. So können in einem Musikstück ebenfalls Tierlaute, Zugsignale, das Posthorn und vieles weitere direkt verwendet und von verschiedenen Instrumenten nachgespielt werden. Auch abstraktere Qualitäten wie Enge oder Weite können ausgedrückt werden. Das indexikalische Zeichen birgt immer einen Hinweis auf das Bezeichnete. Im Sprachlichen sind es etwa die Pronomen, die auf etwas hinweisen. Ihre einzige Funktion ist es, sich auf etwas zu beziehen, das sich innerhalb der Sprechsituation eruieren lässt. So weist das Pronomen ich immer auf die SprecherIn selbst hin. Gemäß Koelsch weist das indexikalische Zeichen in der Musik genauso wie in der Sprache immer direkt auf etwas hin. Insbesondere sind es handlungsorientierte Muster, die bei der HörerIn aktiviert werden. Ein Musikstück klingt beispielsweise wie Stampfen, wie Hüpfen, wie Schreien usw. Diese motorischen Impulse werden während des Hörens aktiviert, so dass die Bewegung und die damit einhergehende Emotion nachempfunden werden kann. Koelsch (2011a) gibt an, dass etwa eine bestimmte Passage eines Saxophonstückes wie Lachen klingt. Steinbeis & Koelsch (2009) argumentieren weiters, dass beim Musikhören immer auch die soziale Kognition in der HörerIn aktiv wird: Die RezipientIn versucht, die Absicht der KomponistIn bzw. der InterpretIn zu eruieren. Das symbolische Zeichen ist das in der Sprache geläufigste. Bei diesem Zeichentyp gibt es keinerlei Zusammenhang zwischen Zeichenform und Bezeichnetem: Die meisten Wörter sind völlig abstrakt, da ihre Lautform nichts mit dem bezeichneten Objekt zu tun hat - die Verbindung ist rein konventionell (Saussure (1916)). Koelsch ordnet im Bereich der Musik dem Symbol solche Musikstücke zu, die eine konventionelle Bedeutung haben, das heißt, die zu bestimmten sozialen Zwecken verwendet werden. Koelsch nennt hier vor allem Hymnen, doch sind sicher auch Kirchengesänge, Hochzeitsmärsche und bestimmte Tänze wie etwa der Donauwalzer dazuzuzählen. Signs in music • Examples of icons are onomatopoeia in language and the imitation of sounds (animal sounds, train signals, etc.) in music. With icons, the sign always contains features of the object it refers to. • The index always establishes a reference relation. Pronouns are an example of an indexical in language; in music, indexical signs activate action-oriented patterns, such as jumping or screaming, and the corresponding emotions. • With symbols, the relation between sign and object is purely arbitrary. In music, certain pieces such as national anthems have a conventional meaning. 204 9. Musik 9.2.2 Extramusikalische Bedeutung und N400 Die extramusikalische Bedeutung, also diejenige Form der Bedeutung, die eine Beziehung zwischen Musik und externer Welt beinhaltet, wurde von Koelsch und KollegInnen auch neuropsychologisch untersucht. Zentral ist hierbei der N400-Ausschlag. Bevor wir nun die Ergebnisse der neuropsychologischen Untersuchung der extramusikalischen Bedeutung betrachten, wollen wir zuvor noch Allgemeines über den N400-Ausschlag festhalten. Die Neurowissenschaftlerinnen Marta Kutas und Kara D. Federmeier beschreiben den N400-Ausschlag (Kutas & Federmeier (2009)). Hierbei handelt es sich um eine messbare, elektrophysiologische Aktivität, die etwa 250 ms nach Beginn des Stimulus auftritt und ihren Höhepunkt nach ca. 400 ms erreicht. Der Aussschlag ist negativ. Die Autorinnen gehen davon aus, dass der N400 eine allgemeine semantische Verarbeitung widerspiegelt. Dies bedeutet, dass bei jeglicher Informationsverarbeitung unabhängig von der Beschaffen- Marta Kutas (*1949) heit des Stimulus ein negativer Ausschlag nach 400 ms zu beobachten ist. Laut Kutas und Federmeier und den von ihnen zitierten Arbeiten lösen sowohl sprachliche Daten (einzelne Wörter, Sätze) als auch Gesichter, Zeichnungen, Gesten, Filme usw. den N400-Ausschlag aus. Kutas und Federmeier halten ganz deutlich fest, dass der N400-Ausschlag nicht nur bei semantischen Anomalien auftritt, sondern immer. Er kann jedoch durch verschiedene Umstände vergrößert oder verkleinert werden. Diese Eigenschaft wiederum kann man ausnützen, um experimentell die Einflüsse verschiedener Stimuli aufeinander (wie beim Priming) zu untersuchen. Die Autorinnen nennen die folgenden begünstigenden Einflüsse: absichtliche Aufmerksamkeit, Seltenheit des Wortes und orthographische Nachbarschaft vergrößern den N400-Effekt. Der N400-Ausschlag wird kleiner, wenn derselbe Stimulus wiederholt wird. Ebenso wird er kleiner, wenn eine semantische Erwartung erfüllt wird. Dies tritt einerseits in Priming-Studien auf, wenn der Stimulus und das Target semantisch kompatibel sind, andererseits auch beim Satzverstehen, wenn das (letzte) Wort bereits durch den Kontext des vorausgegangenen Sprachmaterials erwartet wird. Allerdings haben Verletzungen der thematischen Rolle keinen Einfluss auf den N400 (Kuperberg et al. (2003), siehe auch § 4.3.1). Kutas und Federmeier wiederholen, dass diese Effekte nicht nur bei sprachlichen, sondern bei allen möglichen Arten von Stimuli auftritt. Stefan Koelsch führte verschiedene Experimente durch, um zu untersuchen, inwieweit musikalische Stimuli einen Einfluss auf den N400-Ausschlag haben. Dadurch erwartete er sich Aufschlüsse darüber, ob und wie Musik Bedeutung haben kann und wie diese neuropsychologisch verarbeitet wird. In einer Primingstudie wurden musikalische Stimuli und Wörter als Targets verwendet (Koelsch et al. (2004)). Es konnte in diesem Experiment erstmals nachgewiesen werden, dass der N400-Ausschlag bei der Verarbeitung des Targets gleich ausfiel, egal ob der Stimulus musikalisch oder sprachlich ist. Ein mu- 9.2 Musikalische Bedeutung 205 sikalischer Prime, der mit dem sprachlichen Target semantisch nicht zusammenpasst, vergrößert den N400-Ausschlag. Der N400-Ausschlag tritt in den Brodmann-Arealen 21 und 31 auf, die sich im posterioren medialen Temporalgyrus befinden. Schließlich untersuchten Daltrozzo & Schön (2009) die Wirkung von einzelnen Akkorden, sowohl als Prime als auch als Target. Der Effekt trat bei semantischer Unstimmigkeit in beiden Richtungen auf: musikalischer Prime mit Wort als Target sowie sprachlicher Prime mit Akkord als Target elizitierten jeweils einen N400-Ausschlag. Insgesamt konnten Stefan Koelsch und KollegInnen zeigen, dass die semantische Verarbeitung musikalischer Stimuli ähnlich wie die semantische Verarbeitung sprachlicher und anderer Stimuli abläuft. Anhand der N400-Werte wird der Aufwand der semantischen Integration gemessen: je schwieriger, desto höher die Amplitude. Diese semantische Integration ist unabhängig von der Modalität und Beschaffenheit des Stimulus, sie findet sowohl für musikalische Daten als auch für sprachliche Stimuli statt. N400 semantic processing • The N400 represents semantic processing. It is not dependent on the stimulus type (words, sentences, pictures, faces, etc.), and it occurs with both semantic regularity and semantic anomaly. • N400 increases when subjects pay attention and stimuli (words) are rare. It decreases if the stimulus is repeated or semantically expected. • The semantic processing of musical stimuli is similar to the processing of linguistic stimuli. Semantic priming (N400) occurs across stimuli types (musical and linguistic in both directions). 9.2.3 Intramusikalische Bedeutung Neben der extramusikalischen Bedeutung, die die Beziehung zwischen musikalischem Zeichen und Konzepten von Objekten der externen Welt umfasst, gibt es noch die intramusikalische Bedeutung. Die Unterscheidung zwischen extra- und intramusikalischer Bedeutung geht laut Koelsch auf Malcolm Budd und Leonard Meyer (Meyer (1956)) zurück. Die intramusikalische Bedeutung ergibt sich aus dem harmonischen Aufbau einzelner musikalischer Phrasen. Diese erzeugen den N500bzw. N5-Ausschlag, eine späte Negativität. Diese Aktivierung baut sich während des Hörens einer harmonischen Phrase auf und nimmt gegen Ende dieser Phrase ab. Beispielsweise können mehrere Töne hintereinander präsentiert werden wie etwa ein auf- und absteigender Dreiklang (z.B. C-E-G-c-G-E-C). Ein solches Muster ist als einfache harmonische Phrase zu verstehen. Der letzte Ton bildet den Ab- 206 9. Musik schluss, man hört das Ende der Phrase. Der N5-Effekt begleitet einen solchen Phrasenaufbau. Koelsch (Koelsch (2011b)) beschreibt Experimente, in denen der letzte Ton bzw. Akkord einer solchen Phrase manipuliert wurde. Passt der Akkord nicht zum harmonischen Kontext, so entsteht ein besonders großer N5-Ausschlag. Die semantische Inkongruenz hat damit ihr neuropsychologisches Korrelat. Ein solcher unpassender Akkord erzeugt zuvor auch noch eine deutliche ERAN (early right anterior negativity), wie sie bei syntaktischen Fehlern von sprachlichen Stimuli auch auftritt. Koelsch (Koelsch (2011a) und Koelsch (2011b)) geht davon aus, dass sich syntaktische Fehler im ERAN, semantische Fehler im N5 widerspiegeln. Die syntaktische und die semantische Verarbeitung erfolgen in diesem Sinne getrennt, denn sie lösen Aktivitäten zu unterschiedlichen Zeitpunkten aus. Sie erfolgen insofern gekoppelt, da semantische Fehler immer auch einen Ausschlag im ERAN besitzen. Solche harmonischen Fehler lösen auch ohne explizite Aufmerksamkeit der HörerIn die neuropsychologischen Reaktionen aus. Koelsch und sein Team konnten einen Zusammenhang zwischen ERAN bei sprachlich-syntaktischen Anomalien und dem N5 von musikalischen Unpassungen nachweisen. Der N5 steht nicht mit LAN in Zusammenhang (Koelsch (2011a)). Intramusical meaning • The processing of harmonic musical phrases causes an N500 or N5 activity. • If the last note does not t into the harmonic structure, the N5 increases. • Syntactic anomalies within linguistic stimuli trigger an ERAN; with intramusical semantic anomalies both an ERAN and a N5 occur. 9.3 Musik, Körper und Emotion Neben der extra- und der intramusikalischen Bedeutung gibt es noch eine weitere Spielart der musikalischen Bedeutung: die Wirkung von Musik auf den Körper und das damit einhergehende Auslösen von Emotionen - die emotionale Bedeutung von Musik. Musikalische Bedeutung ist daher auch die körperliche Reaktion auf Musikstücke, die als Emotionen wahrgenommen werden. So hat das Hören von Musik eine direkte Wirkung auf das vegetative Nervensystem, was wiederum das Empfinden von Emotionen auslöst. Anregende, schnelle Musik kann das sympathische Nervensystem aktivieren, ruhige Musik hingegen das parasympathische. Dies geht so weit, dass der physiologische Zustand der HörerIn wie bei einer Meditation sein kann. 9.3 Musik, Körper und Emotion 207 Das Hören von Musik erzeugt bei der HörerIn Bewegungsimpulse wie etwa Wippen oder Tanzen. Diese Bewegungsimpulse können je nach Musikstück verschiedenartig sein (kleine oder große, langsame oder schnelle Bewegungen), wodurch sich bereits eine erste Bedeutung für die HörerIn ergibt, die direkt über die Motorik erlebt wird (Koelsch (2011b)). Leonard Meyer (Meyer (1956)) geht davon aus, dass Emotionen durch einen Wechsel von Anspannung und Entspannung entstehen. Werden musikalische Erwartungen wie etwa der Verlauf oder der Abschluss einer harmonischen Phrase erfüllt, so erfolgt körperliche Entspannung. Werden sie hingegen nicht erfüllt, so entsteht körperliche Anspannung. Die Wirkung von unerwarteten Akkorden auf den Körper wurde experimentell untersucht: Unerwartete Akkorde lösen einen größeren Hautwiderstand und vermehrte Schweißproduktion aus, die Amygdala wird beidseitig aktiviert (Steinbeis et al. (2006)). Koelsch (2011b) vermutet, dass jeder Phrasenaufbau Emotionen auslöst, egal ob er vorhergesehen, verletzt, verlängert oder verkürzt ist. Es ist die Verarbeitung der strukturellen Beziehungen in der Musik an sich, die über die körperlichen Reaktionen die Emotionen auslöst. Dies ist die körperlich-emotionale Komponente, die mit der Verarbeitung der extramusikalischen Bedeutung und dem damit einhergehenden N400-Ausschlag in Zusammenhang steht (siehe dazu auch § 9.2.2). Im Folgenden wird zunächst das limbische System (limbic system) vorgestellt. Es ist dasjenige neuronale Subsystem, das für die Verarbeitung von Emotionen zuständig ist, und umfasst die Amygdala und den Hippokampus sowie den Gyrus cinguli, den Mamillarkörper (mammillary body), Teile des Thalamus und weitere Strukturen. Es ist primär für die Regulierung von Emotionen, insbesondere für das Auslösen von lebensrettenden Emotionen wie dem Fluchtreflex zuständig. Wir betrachten drei spezifische Komponenten des limbischen Systems und die dazugehörigen Emotionen: die Amygdala (Furcht bzw. negativer Stress), das ventrale Striatum (Spaß (fun), Glück) und der Hippokampus (Freude (joy bzw. happiness)). Die Diskussion orientiert sich dabei an Koelsch (2010). 9.3.1 Amygdala Die Amygdala (amygdala) bzw. der Mandelkern ist in beiden Gehirnhälften vorhanden. Sie besteht aus mehreren Einzelkernen, die unterschiedliche Funktionen besitzen. Von der Amygdala werden Emotionen wie Angst und Furcht ausgelöst, so dass der Organismus entsprechend auf gefährliche Situationen reagieren kann. Ebenso spielt die Amygdala für das Ess- und Sexualverhalten eine Rolle. Die Amygdala zeigt beim Musikhören spezifische Aktivierungsmuster abhängig davon, ob das Hörerlebnis angenehm oder unangenehm ist. Wenn beim Musikhören starke positive Emotionen entstehen und sich die HörerIn im Flow 208 9. Musik Abbildung 9.1: Das limbische System befindet, so nimmt die Blutversorgung in der Amygdala ab. Sie weist in diesem Fall eine geringere Aktivität auf. Dies kann so interpretiert werden, dass die Angst-, Flucht- und Stressgefühle ausgeschaltet werden, denn diese bedingen eine höhere Aktivität der Amygdala. Wenn beim Musikhören allerdings negative Emotionen entstehen, beispielsweise bei sehr lauten und dissonanten Klängen, so steigt die Aktivität in der Amygdala an, außerdem auch im Hippokampus und den Temporalpolen. Unangenehme Musik aktiviert somit die gleichen Hirnregionen wie Angst und Fluchtreaktionen. Koelsch (2010) weist auf Studien hin, die belegen, dass die von der Musik evozierten Emotionen noch verstärkt werden, wenn ein passender visueller Input hinzukommt: Die Aktivitätsmuster im limbischen und paralimbischen System fallen noch deutlicher aus als beim Musikhören alleine. Dies gilt aber nur, wenn die ausgelösten Emotionen übereinstimmen, beispielsweise langsame, romantische Musik und romantische Darstellungen bzw. furchteinflößende Musik kombiniert mit Gewaltdarstellungen. Diese Tatsache gibt einen Hinweis darauf, warum Filmmusik so mächtig ist: Sie verstärkt nachweislich die evozierten Emotionen. In diesem Zusammenhang weist Koelsch darauf hin, dass das Hören von angsterzeugender Musik mit geschlossenen Augen ebenfalls eine Steigerung der Aktivität in der Amygdala bewirkt. • The amygdala regulates eating and mating behavior. It is responsible for unpleasant emotions such as fear, triggering ight. • When listening to pleasurable music, the amygdala’s activity decreases. Its activity increases when listening to frightening, unpleasant music. 9.3 Musik, Körper und Emotion 209 9.3.2 Spaß und Glücksrausch: ventrales Striatum Das ventrale Striatum (ventral striatum) ist laut Koelsch (2010) ebenfalls an der Entstehung von musikalisch evozierten Emotionen beteiligt. Es besteht aus Nucleus caudatus, Putamen und Nucleus accumbens und bildet einen Teil des Striatums. Dieses ist wiederum Teil der Basalganglien, welche wesentlich am Lernen und Ausführen, aber auch beim Planen und Unterdrücken von Handlungen beteiligt sind. Das ventrale Striatum ist dopaminerg (dopaminergic), das bedeutet, das seine Neuronen Dopamin enthalten. Dopamin ist ein bekannter Neurotransmitter und wird oft als Glücksbotenstoff bezeichnet. Dopaminhaltige Systeme sind Glückszentren, sie erzeugen positive Emotionen wie Spaß und Glück. Ebenso werden sie als Belohnungszentren verstanden, die positive Emotionen nach der Zufuhr von Sex, Schokolade, nach dem Erreichen eines Ziels usw. erzeugen (Koelsch (2010): 143). Weiters ist das ventrale Striatum die Schnittstelle zum motorischen System: Die Amygdala und der Hippokampus, also das limbische System, schicken Signale an das ventrale Striatum. Dieses wiederum löst bei Vorhandensein von Dopamin Bewegung aus. Koelsch leitet daraus ab, dass das Musikhören, das positive Emotionen auslöst, über die Aktivierung des ventralen Striatums und die Ausschüttung von Dopamin die Ausführung von motorischen Handlungen anregt bzw. begünstigt. Deshalb tanzen die Menschen so gerne zur Musik. Das Tanzen kann mit exzessiven positiven Emotionen der Freude einhergehen. Derartige Emotionen bewirken Aktivitäten in den gleichen Zentren des Gehirns, die auch bei den verschiedenen Suchtkrankheiten beteiligt sind. Die Rauscherlebnisse von TrancetänzerInnen (ohne Drogenkonsum) sind auch in den beteiligten neuronalen Strukturen mit denen von drogeninduzierten Rauscherlebnissen vergleichbar. Musik kann daher eine Verbindung zu den Emotionen bewirken, die auch musiktherapeutisch genutzt werden kann. • The ventral striatum is a part of the basal ganglia. The basal ganglia are responsible for learning, planning, executing, and suppressing actions. • The ventral striatum contains dopamine, which induces positive emotions, such as fun. • The ventral striatum is the interface between the amygdala (and the hippocampus) and the motor system. Dopamine triggers movement. • It is likely that listening to pleasurable music causes dopamine levels to rise, which in turn triggers motor behavior that leads to dancing. 210 9. Musik 9.3.3 Freude: Hippokampus Der Hippokampus (hippocampus) ist eine besonders alte Struktur und befindet sich in beiden Hemisphären jeweils im Temporallappen. Er ist Teil des limbischen Systems und wichtig für die räumliche Repräsentation, für Lernen und Gedächtnis, da an dieser Stelle die Informationen in das Langzeitgedächtnis gelangen und gespeichert werden. Er dient auch zur Integration von Wissen beispielsweise in eine innere Landkarte. Eine Störung des Hippokampus hat massive Beeinträchtigungen des Gedächtnisses zur Folge. Der Hippokampus steuert überlebenswichtiges Verhalten wie Verdauung, defensives Verhalten und Reproduktion. Er interagiert mit dem hormonellen und dem autonomen Nervensystem sowie mit dem Immunsystem. Als Teil des limbischen Systems ist er ebenfalls für Emotionen verantwortlich, er löst die sanften, zarten, positiven Gefühle aus. Koelsch (2010) bezeichnet diese als joy und happiness, die beim Musikhören entstehen können. Positive Emotionen stehen in direkter Wechselwirkung mit den gesundheitserhaltenden Systemen, da das autonome Nervensystem und das Immunsystem auf die Aktivität des Hippokampus reagieren. Positive Musikhörerlebnisse wirken nicht nur positiv auf die Psyche, sondern beeinflussen auch direkt den Körper. Der Hippokampus reagiert sehr sensibel auf Stress und negative Reize. In diesem Fall kann er sogar physiologisch schrumpfen. Koelsch (2010): 135 verweist auf Studien, in denen gezeigt wurde, dass der Hippokampus nach Mißbrauchserfahrungen und Traumatisierungen sowie bei Vorliegen einer posttraumatischen Belastungsreaktion deutlich verkleinert ist. Menschen mit geschädigtem Hippokampus empfinden auch deutlich geringere positive Emotionen beim Hören von angenehmer Musik. • The hippocampus is an old structure. It is part of the limbic system. • The hippocampus is responsible for memory and learning. It is active when experiencing soft, positive emotions like joy and happiness. • The hippocampus interacts with the autonomic nervous system and the endocrine system. • The hippocampus shrinks when people are exposed to stress and negative experiences. • The hippocampus is active when listening to music that triggers soft emotions. 9.4 Rhythmus 211 9.4 Rhythmus 9.4.1 Rhythmus und Gruppenkoordination Fitch (2012) stellt die Frage, warum Hunde nicht tanzen können. Die Tatsache, dass es keine motorische Aktion zu auditivem rhythmischem Input bei Tieren gibt (der Bienentanz hat ja nichts mit Musik zu tun), scheint interessant, zugleich aber auch eigenartig, denn periodische Schwingungen sind in der Physik und Biologie sehr weit verbreitet. Man denke nur an den hormonellen Zyklus der Frau, den Zyklus der Jahreszeiten, die Schwingungen in den Bestandteilen des Atoms usw. (Fitch (2012)). Anhand der Tatsache, dass Tiere nicht tanzen können, möchte Fitch den Unterschied zwischen Mensch und Tier festmachen: Welche Fähigkeit ist es, die den Tieren den Musikgenuss verunmöglicht? Sichtlich handelt es sich um eine nicht sprachliche Fähigkeit, die dennoch die kognitive Differenz zwischen Mensch und Tier widerspiegelt. Fitch führt die Unmöglichkeit des Tiertanzes auf die unterschiedliche Fähigkeit von Mensch und Tier, Rhythmus zu verarbeiten, zurück. Menschen besitzen die Fähigkeit, periodische Muster aus akustischen Quellen herauszufiltern. Allerdings ist es derzeit unklar, ob diese Fähigkeit auf akustische Stimuli beschränkt ist oder ob auch aus visuellen oder anderen Arten von Stimuli periodische Muster extrahiert werden können. Das heißt, es bleibt unklar, ob diese spezifische Art der Mustererkennung (pattern recognition) nur für das Hören gilt oder auch beim Sehen, Riechen oder Tasten angewendet werden kann. Fitch spekuliert jedoch, dass diese spezifische Art der Mustererkennung auf auditive Reize beschränkt ist. Die Rhythmusanalysefähigkeit des Menschen besteht gemäß Fitch (2012) aus drei Teilen: Im ersten Schritt wird während des Hörens eine motorische Aktivität generiert, die periodisch ist (Extraktion des Grundschlags). Dies trifft nur auf auditive Reize zu. Im zweiten Schritt erfolgt die Extraktion des Pulses aus komplexen Mustern (Erzeugen des kognitiven Pulses). Dies kann man sich in etwa so vorstellen, dass man die Grundschläge eines Musikstückes spürt, beispielsweise „eins-zwei-drei eins-zwei-drei“ beim Dreivierteltakt. Dabei ist es keinesfalls notwendig, dass diese Grundschläge wirklich im auditiven Signal vorhanden sind, so ist auch bei Synkopen oder anderen rhythmischen Mustern der Grundpuls spürbar. In diesem zweiten Schritt ist die auditive Wahrnehmung wie im ersten Schritt an motorische Impulse gekoppelt. Im dritten Schritt erfolgt die tatsächliche motorische Ausführung von Bewegungen, die zu dem extrahierten Puls passen (Erzeugen komplexer motorischer Muster). Dies tritt als Mitwippen, Mitschaukeln oder auch Klatschen bis hin zu Tanzen und Ensemblespiel auf. Fitch bezeichnet dies als sensorisch gesteuerte motorische Verarbeitung. • Stufen der Rhythmusextraktion beim Menschen 1. Extraktion des Grundschlags 212 9. Musik 2. Erzeugen des kognitiven Pulses 3. Erzeugung tatsächlicher komplexer motorischer Muster Der erste Schritt, das Heraushören der Periode, ist für Musik und Sprache gemeinsam, die Schritte zwei und drei gelten nur für die Musikperzeption. Somit ist nicht die Isochronie an sich für das Musikverständnis wesentlich, sondern die Pulsextraktion aus komplexen Mustern. Denn hierbei handelt es sich nicht um die reine Wiederholung des akustischen Signals, sondern um eine kognitive Leistung in Form von Mustererkennung (Fitch (2012)). Das Besondere am menschlichen Musikverständnis ist somit laut Fitch die Integration über verschiedene Modalitäten hinweg. Zwar scheint es diese auch bei bestimmten Affen zu geben, doch ist die Fähigkeit bei dieser Spezies bei Weitem nicht so flexibel und generell wie beim Menschen. Bei den Primaten scheint es sich eher um spezifische Automatismen zu handeln, die ganz bestimmte Inputs aus ganz bestimmten Modalitäten verknüpfen. Die generelle Fähigkeit zur Integration, die es braucht, um beispielsweise an einem Streichquartett mitzuwirken, besitzen sie nicht. Auch aus der Roboterforschung ist bekannt, so Fitch, dass die Integration von Sensorik und Motorik eine der schwierigsten Aufgaben überhaupt ist. Die Steuerung der Motorik allein durch einen sensorischen Input ist auch für das menschliche Gehirn und Nervensystem eine gewaltige Herausforderung. Auch beim Tanz (dance) mit Musik kommt es zur Interaktion verschiedener Modalitäten. Tanz alleine ist noch nicht extrem komplex, da es sich um eine Interaktion der Motorik handelt: Es beziehen sich zwei sich bewegende Körper aufeinander - Input und Output sind motorisch. Das wirklich Komplexe beim Tanz entsteht erst dann, wenn Musik ins Spiel kommt, da sich einerseits die Motorik der Tanzenden aufeinander bezieht, diese sich aber andererseits auch an den akustischen Reizen orientieren müssen. Es kommt somit zu einer Beteiligung verschiedener Modalitäten, denen eine gemeinsame kognitive Grundlage zugrunde liegen muss (Fitch (2012)). Schließlich gibt Fitch einen Ausblick auf die Entstehung der Isochronie (isochrony). Das gemeinsame Singen, Musizieren und Tanzen hat laut Fitch möglicherweise einen sozialen Ursprung: Der gemeinsame Puls dient dazu, die teilnehmenden Individuen zu koordinieren. Fitch nennt als Ursache dafür den kooperativen Drang des Menschen. So findet sich in allen Musikstücken irgendeine Art von Rhythmus. Interessant ist, dass Stücke mit freien Rhythmen in erster Linie Solostücke sind: Die Koordination von Individuen ist nicht notwendig. Interessant ist auch, dass derartige koordinierte Aktivitäten von mehreren Individuen nur bei Menschen vorkommen, nicht aber bei Schimpansen. Auch Stefan Koelsch (Koelsch (2011b)), bezugnehmend auf Ian Cross (Cross (2009)), bemerkt, dass Musikhören und Musikmachen in einer Gruppe die einzelnen Mitglieder koordiniert und synchronisiert. Cross meint dazu, dass musikalische Bedeutung durch dieses gemeinsame und koordinierte Handeln entsteht, denn jedes Mitglied versucht, die Absichten der anderen wahrzuneh- 9.4 Rhythmus 213 men und vorauszusehen. Dadurch entsteht eine gemeinsame, geteilte Intentionalität. Die Aufmerksamkeit der Beteiligten richtet sich auf die Interaktion untereinander. Cross bezeichnet dies als sozio-intentionale Theorie (sociointentional theory) der musikalischen Bedeutung. Rhythm processing • Humans can extract periodic patterns out of acoustic signals, animals cannot. This is the reason why only humans dance. • Humans analyze rhythms in three steps: - extraction of the basic beat from the auditory signal - creation of a cognitive pulse - creation of complex motor patterns • Human music perception is special, as it requires the listener to integrate information which comes from different modalities. • Isochrony probably emerged in singing, music making, and dancing to coordinate several individuals. 9.4.2 Bewegung bestimmt, was wir hören Die körperliche Wahrnehmung spielt eine entscheidende Rolle bei der Verarbeitung von rhythmischen Strukturen. Das Muster der Bewegung beeinflusst, welche Struktur wir dem rhythmischen, auditiven Material zuordnen. Dies konnte Jessica Phillips-Silver in mehreren Experimenten nachweisen (Phillips-Silver & Trainor (2005)). Zunächst untersuchte sie sieben Monate alte Säuglinge, die einen nicht eindeutigen akustischen Reiz hörten und dazu geschaukelt wurden. Die erste Gruppe wurde im Zweivierteltakt gewogen, die zweite Gruppe im Dreivierteltakt. Dadurch ordneten die Kinder dem rhythmischen Input jeweils eine andere Struktur zu. Phillips-Silver konnte zeigen, dass die Säuglinge sich jeweils an diejenige Struktur gewöhnten, die sie auf Grund der Schaukelbewegung zugeordnet hatten. Dazu verglich sie die Reaktion der Kinder auf veränderten musikalischen Inputs. Hatte der Stimulus in der Trainingsphase keinerlei Akzentuierung, so wurde der Stimulus in der zweiten Phase des Experiments entweder gemäß des Zweiviertel- oder des Dreivierteltakts akzentuiert. Es genügte nicht, wenn die Kinder eine VersuchsleiterIn betrachteten, die sich entsprechend der einen oder anderen Struktur bewegte. Um den Effekt zu erzielen, mussten die Säuglinge selbst geschaukelt werden. Es gibt daher einen engen Zusammenhang zwischen der Zurodnung einer Struktur zum Rhythmus und der Wahrnehmung der eigenen Körperbewegung. In einer Folgestudie konnte Philipps-Silver zeigen (Phillips-Silver & Trainor (2007)), dass nicht nur Säuglinge, sondern auch Erwachsene sensibel auf die körperlichen Bewegungen reagieren, die sie beim Hören eines Rhythmus ma- 214 9. Musik Abbildung 9.2: Stimuli des Rhythmus-Experiments chen. Die gleichen auditiven Stimuli, die im Experiment mit den Säuglingen verwendet wurden, kamen auch bei den erwachsenen Versuchspersonen zum Einsatz. Diese Erkenntnisse weisen ebenso darauf hin, wie eng Bewegung und Musik miteinander verknüpft sind. Es ist daher nicht verwunderlich, dass der Tanz einen so zentralen Stellenwert in der Geschichte der Menschheit eingenommen hat: Seit jeher haben sich Menschen zur Musik bewegt. Die Ergebnisse von Phillips-Silver verdeutlichen, wie essenziell die Bewegung für die Musikwahrnehmung ist. Auch die Analyse polyrhythmischer Strukturen durch Tanz scheint durch diese Ergebnisse verständlicher. • Experiments show that the body’s own movement determines how humans structure a rhythmic pattern (babies and adults). 9.5 Generative Theorie der tonalen Musik Angeregt durch die vielen Parallelen zwischen Sprache und Musik versuchten Ray Jackendoff und Fred Lerdahl ab den 1980er Jahren, die generative Syntaxtheorie, wie sie Noam Chomsky vorangetrieben hatte, auf musikalische Strukturen anzuwenden (Lerdahl & Jackendoff (1983)). Die beiden entwickelten einen theoretischen Rahmen, um musikalische Strukturen formal zu untersuchen: die generative Theorie der tonalen Musik (Generative Theory of Tonal Music (GTTM)). Ziel war es, ein formales Regelwerk zu entwickeln, wie dies auch andere generativ ausgerichtete WissenschaftlerInnen für die sprachliche Grammatik gemacht hatten. Bereits Anfang des 20. Jahrhunderts wurden ähnliche Ideen von dem österreichischen Musiktheoretiker Heinrich Schenker formuliert (Schenker (1906- 35)): Der Rhythmus, die Melodie und die Harmonie können auf die grundlegendste Struktur eines Musikstückes, den Ursatz, reduziert werden. Dies geschieht mit Hilfe der Reduktionsanalyse (Schenkerian analysis), welche 9.5 Generative Theorie der tonalen Musik 215 die hierarchischen Verhältnisse der einzelnen Töne zueinander bestimmt. Diese Idee der hierarchischen Struktur ist direkt mit der hierarchischen Struktur Heinrich Schenker (1868-1935) in der syntaktischen Analyse der generativen Grammatik kompatibel. Die generative Theorie der tonalen Musik analysiert Musikstücke anhand der rhythmischen und der tonalen Ebene. Die rhythmische Ebene betrifft die Gruppierung und die Metrik, die tonale Ebene die Zeitspannen und die Fortsetzungsstruktur. • rhythmische Ebene - Gruppierung - Metrik • tonale Ebene - Zeitspannen - Fortsetzungsstruktur Alle vier Analyseebenen besitzen Wohlgeformtheitsregeln, wie sie aus der Grammatik bekannt sind. Für jede Ebene wird mit Hilfe dieser Regeln eine hierarchische Struktur erzeugt, so dass jede Note des Musikstücks ihren Platz erhält. Wie auch in der Grammatik für die Sprache geht es in der generativen Theorie der tonalen Musik darum, Konstituenten zu finden. Die kleinsten derartigen Einheiten in der Musik sind die Motive, kleine Gruppierungen von Noten. Diese Gruppierungen werden zu den nächstgrößeren Einheiten, den Phrasen, zusammengefügt. Der Neurowissenschaftler Manfred Spitzer geht davon aus, dass die Phrasen genau so viel Material umfassen, wie im Kurzzeitgedächtnis gehalten werden kann (Spitzer (2002): 130). Mehrere Phrasen werden zu einer Periode bzw. zu einem Satz zusammengefügt. Mehrere Sätze können zu einem ganzen Werk wie einer Sonate oder einem Konzert zusammengesetzt werden. • Einheiten in der generativen Theorie der tonalen Musik - Motiv - Phrase - Periode / Satz - Werk Die rhythmische Ebene wird anhand von zwei Strukturen analysiert. Die Regeln für die Struktur der Gruppierung (grouping-structure) strukturieren das Notenmaterial in Motive, Phrasen und Sätze, die hierarchisch geordnet sind. Die metrische Struktur (metrical structure) betrifft den Grundpuls bzw. die Taktart. Diese Struktur wird anhand des metrischen Rasters (metrical grid) dargestellt, genauso wie es auch in der Phonologie üblich ist. Die Struktur der Gruppierung und die der metrischen Struktur bilden gemeinsam das rhythmische Grundraster eines Musikstückes. Auf dieser Ebene der Analyse wird das tonale Material noch nicht berücksichtigt. Die Analysemechanismen für die beiden tonalen Ebenen sind bis auf wenige Unterschiede direkt auf die Arbeiten von Heinrich Schenker zurückzu- 216 9. Musik führen (Lerdahl & Jackendoff (1983)). In Anlehnung an Schenker stellen Jackendoff und Lehrdahl die Reduktionshypothese (reduction hypothesis) auf, die besagt, dass die einzelnen musikalischen Ereignisse gewichtet und hierarchisch geordnet werden. Dabei werden manche Ereignisse als zentral, andere als Verzierung perzipiert. Dies geschieht im Unterschied zu Schenker mit Hilfe zweier Mechanismen: der Zeitspannenreduktion und der Fortsetzungsreduktion. Die Zeitspannenreduktion (time-span reduction) besitzt Regeln, die das vorhandene tonale Material in diejenige Struktur einordnen, die sich aus den Strukturen der beiden rhythmischen Ebenen ergeben hat. Die einzelnen Noten erhalten also je nach ihrer rhythmischen Gewichtung einen anderen Platz in der Hierarchie. Betrachtet man den Zeitspannenanalysebaum, so sind auf der untersten Ebene dieses Baumes noch alle Noten vorhanden. Auf der nächsthöheren Ebene sind nur noch diejenigen Noten vorhanden, die hierarchisch wichtiger sind. Es fallen also die ersten Verzierungen weg. Dieses Verfahren kann man so lange fortführen, bis nur noch eine (dies wäre dann die wichtigste) bzw. überhaupt keine Note mehr vorhanden ist. Die Regeln der Fortsetzungsreduktion (prolongational reduction) erfassen den musikalischen Flow. Dieser ergibt sich aus dem Aufbau und dem Lösen von Spannung und erstreckt sich über mehrere Phrasen. Die Entwicklung von Spannung und Entspannung ergibt sich aus der Progression, der Antizipation, der Wiederholung, der Auflösung und anderen Verlaufsformen. Diese sind immer als Abfolgen von tonalem Material zu verstehen, also gleiche Noten, unterschiedliche Noten, harmonisch passende, unpassende usw.. Dieser Teil der generativen Theorie der tonalen Musik steht den Ideen von Schenker am nächsten. Generative theory of tonal music • The generative theory of tonal music builds on the work of Heinrich Schenker, with the goal of nding formal grammar rules that underlie pieces of (Western) music. • At the rhythmical level, there is grouping into phrases (motives, phrases, sentences) and metrical structure (similar to the metrical grid in phonology). • At the tonal level, the reduction hypothesis assumes that musical events can be hierarchically structured. This is done with time-span reduction and prolongational reduction. The result is a syntactic tree for a musical piece. 9.6 Biologie der Musik Musik wurde lange Zeit als rein kulturelles Phänomen untersucht. Die Erforschung fiel damit in die reine Kunstbetrachtung und Kunstanalyse sowie in 9.6 Biologie der Musik 217 die Musikgeschichte. Daneben wurde in der Musiktheorie wie etwa in der Harmonie- und in der Formenlehre einiges an formaler Analyse durchgeführt, nicht zuletzt, um neue Kompositionsformen zu finden. Man denke hierbei an die Zwölftonmusik von Arnold Schönberg, Anton von Webern und Alban Berg und der Zweiten Wiener Schule. Mit dem Erstarken der Kognitionswissenschaft und der Zusammenarbeit verschiedenster Disziplinen wird die Musik bzw. die Musikfähigkeit des Menschen (human faculty of music) zunehmend auch aus einer biologischen Perspektive untersucht. Musikalisches Verhalten wird als eine Eigenschaft von biologischen Systemen verstanden. Daher wird die Musikfähigkeit als kognitive Fähigkeit aufgefasst und mit den entsprechenden Mitteln untersucht. Laut Peretz (2006) befasst sich die Untersuchung der Musik aus diesem Blickwinkel weniger mit den Fähigkeiten von ProfimusikerInnen, sondern mehr mit allgemeinen musikalischen Fähigkeiten, über die alle Menschen verfügen. Diese allgemeinen Fähigkeiten sind (Peretz verweist hier auf die ethnomusikologische Arbeit von Nettl (2000)) vor allem Vokalmusik, das Vorliegen eines Grundrhythmus sowie ein Inventar von drei bis vier Tönen. Weiters existieren in den unterschiedlichen Musiken diskrete Tonhöhen, Oktaven und 5 bis 7 Töne innerhalb der Oktave (Dowling & Harwood (1986)). • allgemeine musikalische Fähigkeiten - Vokalmusik - Grundrhythmus - 3-4 Töne - diskrete Tonhöhen - Oktaven mit 5-7 Tönen Die Diskussion über die Musikfähigkeit des Menschen wird entlang der generelleren Debatte der Biologie geführt: Ist diese kognitive Fähigkeit, wie alle anderen kognitiven Fähigkeiten auch, genetisch gesteuert oder erlernt? Zum Tiergesang (animal song) geben Hauser & McDermott (2003) an, dass der Tiergesang sehr restringiert ist, er ist also ein Verhalten, das nicht variiert werden kann und nur zu bestimmten Zwecken eingesetzt wird. Hingegen wird das menschliche Musizieren und Singen in verschiedensten Kontexten verwendet. Während das tierische Singen ausschließlich der Kommunikation dient, ist der einzige Zweck des menschlichen Gesangs das Vergnügen. Zwar können auch beim Menschen Inhalte transportiert werden, doch wird dafür doch eher die Sprache verwendet. Schließlich singen nur männliche Tiere. Diese Einschränkung ist beim Menschen nicht vorhanden. 218 9. Musik • The human faculty of language as a biological trait includes vocal music, a basic rhythm, 3 to 4 tones, discrete intervals, and octaves. • Animal song is very limited and it is only used for special purposes. • Human song is used in a variety of contexts, mainly for pleasure. 9.6.1 Der Unterschied von Sprache und Musik Die Unterschiede zwischen Sprache und Musik betreffen die verschiedenen Arten der vermittelten Bedeutung, die Tonhöhen, den Rhythmus sowie die sozialen Kontexte. Alle diese werden in den folgenden Abschnitten näher beschrieben. Bedeutungsunterschied Die Bedeutung von Musik ist anders als die Bedeutung von Sprache (Fitch (2006) und Jackendoff (2009), siehe auch § 9.2 und § 9.3), da die Musik keine Propositionen vermitteln kann. Gemäß der Theorie der formalen Semantik besteht die Bedeutung von sprachlichen Äußerungen aus Konzepten, die durch logische Operatoren miteinander verknüpft sind. Die musikalische Bedeutung ist fundamental anders aufgebaut: Sie kann nicht auf Konzepte verweisen, da die Musik weder Wörter noch andere, vergleichbare Gegenstücke besitzt (Jackendoff (2009)). Die Musik kann daher nicht auf konkrete Konzepte verweisen und auch keine präpositionale Bedeutung vermitteln. Lautmaterial und Tonhöhen Das verwendete Tonmaterial unterscheidet sich von Sprache zu Musik. In der Musik werden fixe Tonhöhen im Sinne der Töne der Tonleiter verwendet, es gibt also ein definiertes Inventar an Tönen (Fitch (2006), Jackendoff (2009)). Die Töne der Musik sind diskret. Das bedeutet, dass es keinen fließenden Übergang zwischen zwei Tönen gibt. In der westlichen Musik spielt man beispielsweise entweder ein C oder ein Cis, aber nichts dazwischen. Natürlich kann diese Regel wiederum gebrochen werden, so setzen einige KomponistInnen der Neuen Musik auch Vierteltöne ein. Ein „ungesteuertes“ Herumrutschen zwischen den einzelnen Tönen ist aber nicht vorgesehen. Anders ist dies bei der Sprache. Gesprochene Äußerungen weisen eine Vielzahl von Tonhöhenunterschieden auf. Die Verwendung dieser Tonhöhen ist, wie alle Teile der Grammatik, regelgesteuert. Die Tonhöhen werden nicht zufällig eingesetzt, sondern folgen einem ganz bestimmten Muster. Zum Beispiel 9.6 Biologie der Musik 219 sind Fragesätze des Deutschen nicht nur durch die Wortstellung gekennzeichnet, sondern auch durch ihren charakteristischen Tonhöhenverlauf: Das Ende der Frage trägt einen hohen Ton: • Möchtest Du ein Stück Kuchen haben H ? Dieser Teil der Grammatik wird von der Intonationsphonologie (intonational phonology) erforscht (Ladd (2008), siehe auch § 4.5). In der Intonationsphonologie werden zwei Töne angenommen: Hoch (H) und Tief (T). Diese Töne haben keine bestimmte Frequenz, man kann also nicht sagen, dass dem T eine bestimmte Frequenz zugeordnet werden kann, so wie der Musikton A mit 440 Hz festgelegt ist. Vielmehr setzen Kinder, Frauen und Männer diese Höhen und Tiefen jeweils relativ zu ihrer eigenen Basisfrequenz. Es ist daher nicht notwendig, dass alle SprecherInnen einer Sprachgemeinschaft genau die gleichen Tonhöhen (in Hertz) benützen. In der Musik wäre dies undenkbar: Wenn in einem Chor jeder gemäß seiner eigenen Basisfrequenz singen würde, käme kein zusammenpassender, harmonischer Melodieverlauf heraus. Daß T und H immer relativ sind, sieht man auch daran, dass die absoluten Tonhöhen im Verlauf eines Aussagesatzes immer niedriger werden, die Stimme der SprecherIn wird immer tiefer, je näher sie zum Satzende kommt. Dennoch werden im gesamten Verlauf Hs und Ts verwendet. Allerdings kann ein H am Satzende durchaus akustisch tiefer klingen als ein T am Satzanfang. Die Intonationsphonologie untersucht, an welchen Stellen eines Satzes bzw. einer Phrase ein Ton auftritt (meistens auf starken Silben einer syntaktisch prominenten Position) und welche Abfolgen die Töne haben. Denn nicht nur T und H alleine, auch Kombinationen wie HT oder TH sind möglich. Die Töne der Sprache verhalten sich daher kontinuierlich, das bedeutet, es gibt immer fließende Übergänge von einem Ton zum nächsten. Dies unterscheidet sie fundamental vom Toninventar der Musik (Jackendoff (2009)). Das Erlernen der Tonhöhenverarbeitung ist laut Peretz (2006) bei Erwachsenen ähnlich wie das Lesen. Beide Fähigkeiten müssen erlernt werden, sie sind also nicht angeboren. Für das Lesenlernen ist allerdings phonologisches Wissen notwendig: Zumindest in Schriftsystemen wie dem lateinischen oder dem kyrillischen Alphabet muss eine Zuordnung von Laut zu Buchstabenzeichen getroffen werden. Ist das Lesen erst erlernt, so erfolgt es automatisch und domänenspezifisch. Peretz vertritt die Meinung, dass es sich bei der Musik ähnlich verhält. Rhythmus und Isochronie Ein weiterer wesentlicher Unterschied zwischen Sprache und Musik betrifft den Rhythmus. Wie unschwer zu erkennen ist, besitzen alle Musikstücke einen gewissen Grundrhythmus bzw. Puls. Dies ist auch in nicht-westlichen Musiken der Fall (Nettl (2000)). In der westlichen Musik kennen wir das als Takt: den Dreiviertel-, den Vierviertel-, den Sechsachteltakt usw. Die Dauer und die Be- 220 9. Musik tonung der Noten richtet sich an diesem Grundrhythmus aus. Natürlich muss dieser nicht immer 1: 1 durch die Melodienoten realisiert werden, auch Synkopen, die gerade nicht dem Grundrhythmus entsprechen, sind an dem Puls des jeweiligen Musikstückes ausgerichtet. In der Phonologie wurden mehrere Vorschläge gemacht, dass auch die einzelnen Silben bzw. Füße an einem Grundrhythmus ausgerichtet sind, am metrischen Raster (metrical grid). Die Isochroniehypothese besagt, dass je nach Sprachtyp die Silben bzw. die Füße jeweils gleich lange dauern (Pike (1945), Abercrombie (1967)). Dadurch könnten phonologisch unterschiedlich organisierte Sprachtypen wie die silbenzählenden (syllable-timed) und die akzentzählenden (stress-timed) Sprachen theoretisch unterschieden werden. Allerdings wurde die Isochroniehypothese von Rebecca Dauer (Dauer (1983)) widerlegt: Sie konnte mit Hilfe von empirischen Messungen nachweisen, dass es keinen zeitlich meßbaren Puls in der gesprochenen Sprache gibt. Es handelt sich bei der sprachlichen Isochronie daher um ein kognitives Organisationsmuster: Die Grammatik ist so beschaffen, dass sie Betonungsmuster entweder an der Silbe oder an Füßen ausrichtet (Dauer (1983), Auer (2001)). Dies muss nicht zwingend empirisch messbar sein. Der Unterschied zwischen Sprache und Musik hinsichtlich des Rhythmus ist daher wie folgt: Beide verfügen über ein metrisches Raster. Dieses ist in der Musik strikt, so dass es körperlich als Puls wahrnehmbar ist. Auch kann der Grundrhythmus eines Musikstückes aus dem akustischen Signal extrahiert werden. Es ist mit einer empirischen Messung möglich, den Rhythmus eines Musikstückes zu bestimmen. Im Pop oder HipHop wird dieser auch oft in beats per minute (bpm) angegeben. Der Grundrhythmus der Sprache ist nicht so strikt, er lässt sich auch nicht messen. Vielmehr dient er als kognitiver Mechanismus dazu, die einzelnen prosodischen Bausteine (die Silben bzw. die Füße) anzuordnen und die prosodischen Konstituenten zu strukturieren. Allein in der Lyrik werden der musikalische und der sprachliche Grundrhythmus angeglichen. Soziale Kontexte Schließlich tritt Musik in performativen Kontexten auf, die Musikstücke werden zu besonderen, auch ritualisierten Anlässen vorgetragen und immer wieder wiederholt. Sprachliche Äußerungen hingegen werden, obwohl es viel wiederholtes Material gibt, doch jedes Mal neu zusammengesetzt (Fitch (2006)). Gemeinsamkeiten von Sprache und Musik Neben den Unterschieden existieren auch einige Gemeinsamkeiten von Sprache und Musik (Jackendoff (2009)): Beide Fähigkeiten benötigen Gedächtnisleistungen, beide sind nach Regeln organisiert und bei beiden geht es um die 9.6 Biologie der Musik 221 Produktion von Lauten. Weiters geht Jackendoff davon aus, dass sowohl für den sprachlichen als auch den musikalischen Ausdruck die Imitation von anderen und die Kooperation mit anderen wesentlich sind. Difference between language and music • Meaning - Linguistic meaning is compositional. Linguistic expressions refer to concepts. - Musical meaning does not refer to concepts. Music does not have a propositional meaning. • Tones - Musical tones come from a prede ned inventory (usually a scale). They are discrete. - Tones in language are always relative to the speaker. Intonational phonology tries to nd the underlying patterns and grammar rules of their distribution. • Rhythm - Both music and language distribute their beats relatively to a metrical grid. - Music always uses a basic rhythm which can be detected from the auditory signal, even by measurement. - Language organizes its syllables or feet relative to a cognitive beat which cannot be detected by measurement. 9.6.2 Der Wissensinstinkt Entwicklung von Sprache und Musik Eine weitere Hypothese zur Entstehung der menschlichen Musikfähigkeit stammt von Leonid Perlovsky: Die Musikfähigkeit entstand gemeinsam mit der Entstehung des konzeptuellen Wissens (Perlovsky (2012)), ja sie folgte sogar zwingend daraus. Das konzeptuelle Wissen entstand in erster Linie durch die Entwicklung der Sprache, so dass die Entwicklung der Musik eng an die der Sprache gekoppelt ist. Perlovskys Hauptaussage betrifft dabei die Rolle der Instinkte: Das konzeptuelle Wissen ist abstrakt und vom Körper getrennt, es hat Leonid Perlovsky (*1948) keine Verbindung zu den grundlegenden, biologischen Instinkten. Die Musik dient dazu, die Diskrepanz zwischen abstraktem, konzeptuellem Wissen und den Instinkten zu überbrücken. Die Protosprache (protolanguage), die Musik und Sprache zugrunde liegt (Darwin (1871), siehe auch § 3.6.2), hat sich im Lauf der Evolution in zwei Teile geteilt: einerseits in die Sprache, wie wir sie heute kennen, andererseits in 222 9. Musik die Musikfähigkeit. Sprache ist nicht primär zur Verarbeitung von Emotionen geeignet, besitzt aber eine hohe semantische Ausdrucksfähigkeit im Sinne von Propositionen. Musik hingegen ist derjenige Zweig, der primär dem Ausdruck von Emotionen dient, dafür aber semantisch weniger präzise ist. Konzeptuelles Wissen basiert auf Systemen von perzeptuellen Symbolen (systems of perceptual symbols) gemäß dem Vorschlag von Lawrence Barsalou (§ 10.2). Konzepte sind letzten Endes im Neuronensystem und im Körper verankert und zur leichteren Befriedigung elementarer Bedürfnisse wie Hunger, Durst, Sicherheit, Schlaf und Fortpflanzung entstanden. Perlovsky weist darauf hin, dass Sprache und höhere kognitive Mechanismen zwei getrennte Phänomene sind. Die Sprache ist für die Entstehung der höheren kognitiven Fähigkeiten und Konzepte Voraussetzung (Perlovsky (2012)). Die elementaren Bedürfnisse, die Instinktbedürfnisse, werden dem Organismus über seine Emotionen bewusst. Diese melden die biologischen Grundbedürfnisse an das konzeptuelle System, damit der Organismus darauf reagieren kann. Dem Organismus stehen zumeist mehrere Möglichkeiten zur Verfügung, wie er seine Bedürfnisse befriedigen kann. Die Emotionen erlauben es, die verschiedenen Optionen zu beurteilen und eine Entscheidung zu treffen. In diesem Sinne werden die verschiedenen Konzepte, die als Lösungsmöglichkeit für das Problem der Bedürfnisbefriedigung auftauchen, bewertet. Eine ähnliche Sichtweise vertritt auch Antonio Damasio (§ 10.4). Diese Ansicht wird von Stuart Kauffman geteilt (Kauffman (2010)). Dieser geht davon aus, das das Leben an sich, wie es bereits bei einfachsten Lebewesen wie Einzellern auftritt, inhärent intentional ist. Selbst diese wenig strukturierten Lebewesen reagieren absichtlich auf Nahrung (wie etwa Zuckerwasser) und Licht, da sie die Zufuhr an lebensnotwendigen Stoffen optimieren möchten. Diese Intentionalität ist nach Kauffmans Meinung der Ursprung der teleologischen, das heißt zielgerichteten Sprache. In diesem Sinne unterscheidet sich Leben von Nicht-Leben fundamental und ist nicht auf die reine Physik und Chemie reduzierbar. Perlovsky und Kauffman wenden sich mit diesen Aussagen gegen den Reduktionismus (reductionism). Sie widersprechen der Aussage, dass die Biologie auf die Physik reduziert werden kann. Die Biologie muss ein eigenes, nicht auf andere Disziplinen zurückführbares Forschungsgebiet sein. Music integrates emotions, music as a counterpart of language • A protolanguage evolved into two seperate systems: language and music. Language is a prerequisite for conceptual knowledge; it is particularly suitable for propositional reasoning. Music is primarily suitable for emotional expression. • Concepts are perceptual symbol systems; they emerged so that humans could satisfy basic needs (hunger, safety, reproduction) more easily. 9.6 Biologie der Musik 223 • Living organisms are inherently intentional, creating intentional language, in order to satisfy their biological needs. Wissensinstinkt Der Mensch besitzt eine inhärente Tendenz, sein Wissen immer auf dem aktuellen Stand der Dinge zu halten. Das Problem dabei ist, dass sich die Umwelt andauernd ändert, so dass der Wissensstand jeweils an die neuen Gegebenheiten angepasst werden muss. Es bedarf daher einer laufenden Aktualisierung und Anpassung, die gemäß Perlovsky durch einen angeborenen Instinkt gesteuert wird. Er spricht von einem Wissensinstinkt (knowledge instinct) (Perlovsky (2001): § 4.8, Perlovsky (2007)), der genauso biologisch verankert ist wie der Sprachinstinkt, der Instinkt nach Nahrung oder der nach Fortpflanzung. Perlovsky beruft sich dabei auf Arbeiten der Psychologen Harry Harlow und Clara Mears (Harlow & Mears (1979)), die davon ausgehen, dass Affen und Menschen ein angeborenes Bedürfnis nach positiver geistiger Anregung haben. Man denke auch hier an den Spieltrieb von Tieren und Kindern, der wahrscheinlich auch dem Lernen und der kognitiven Stimulation dient. John Cacioppo und Richard Petty (Cacioppo & Petty (1982)) sprechen in diesem Zusammenhang von einem Kognitionsbedürfnis. Wissen und Lernen erzeugen ebenfalls Emotionen, sogenannte ästhetische Emotionen, wie sie auch beim Betrachten von Kunstwerken auftreten. Sie dienen der Wahrnehmung von Harmonie und Dissonanz, das heißt, der Wahrnehmung, ob die betreffenden Konzepte miteinander im Widerspruch stehen oder nicht. Dabei können nicht nur künstlerisch ausgedrückte Konzepte evaluiert werden. Vielmehr handelt es sich um einen generellen Mechanismus, der feststellt, ob etwas zusammenpasst oder nicht. Diese Frage können Menschen einerseits mit Hilfe von rationalem Denken, mittels klassischer Schlussfolgerung (reasoning) (Vergleich, Abstimmung und Integration von Konzepten wie es auch in der künstlichen Intelligenz erfolgt, siehe dazu § 5.4, § 6.1.2 und § 7.3.3), andererseits auch emotional beantworten. Perlovsky geht davon aus, dass einige Konzepte hoch emotional aufgeladen sind, da sie für das Individuum und sein Wohlergehen eine große Bedeutung haben. Dazu gehören etwa „Familie“, „Religion“, „Krankheit“ und Ähnliches. Der Gehalt dieser Konzepte kann auch auf andere, weniger bedeutende Konzepte übertragen werden, so dass es immer gewisse Inkongruenzen zwischen den Konzepten gibt. Musik dient nun laut Perlovsky dazu, diese Unstimmigkeiten auf einer rein emotionalen Ebene aufzulösen. Ihre Aufgabe ist eine Hilfe zur Integration verschiedener Konzepte durch die Emotionen (Perlovsky (2012)). 224 9. Musik Die Integration von Konzepten ist wichtig, da es im Laufe der Evolution durch die Entstehung der Sprache zu einer Differenzierung, Vielfalt und Spezialisierung von Konzepten kam. Dies findet sich auch in der kulturellen Evolution, wo es ebenfalls laufend zu einer immer stärkeren Differenzierung kommt. Allerdings ist eine ausschließliche Differenzierung und Spezialisierung für biologische Systeme nicht nur von Vorteil, denn diese müssen auch als Ganzes erhalten bleiben. Ein Organismus ist immer ein integriertes System, das als Ganzes der Umwelt gegenüber tritt und sich selbst reguliert. Daher ist es wichtig, ein ausgewogenes Verhältnis zwischen Differenzierung und Synthese aufrechtzuerhalten. Perlovsky argumentiert, dass Musik dazu dient, diese Synthese zu verstärken. Widersprüche zwischen Konzepten können während des Musikhörens und -machens überwunden werden, indem verschiedene, ineinanderfließende Emotionen erfahren und am Ende des Musikstücks abgeschlossen und aufgelöst werden. Während die Sprache die Differenzierung vorantreibt, dient die Musik dazu, die unterschiedlichen Emotionen, die von den Konzepten ausgelöst werden, zu erfahren und zu integrieren. Da eine derartige Synthese unabdingbar ist, ist auch die Musik für die Menschen essentiell. • Humans have a knowledge instinct which drives them to learn and adapt to new situations. Knowledge and learning create aesthetic emotions, indicating harmony and dissonance. This can be experienced with many kinds of concepts, not only art forms. • Music can help people integrate concepts on a purely emotional level. • Music is conducive to concept synthesis. Language increases the differentiation of concepts. Organisms are always integrated systems; therefore, differentiation alone leads to an unstable state. 9.6.3 Ressourcenteilung und Modularität Die Arbeiten von Aniruddh Patel stellen den klassischen Modularitätsbegriff, wie er von Fodor (1983) formuliert wurde, in Frage (Patel (2008), Patel (2012), Patel (2013)). Die klassische Theorie sieht Module als abgekapselte Verarbeitungsmechanismen, die sowohl domänenspezifisch arbeiten als auch domänenspezifische Repräsentationen benützen. Die Module sind spezifisch auf eine Fähigkeit ausgerichtet (z.B. das Sprachverstehen, Gesichtererkennen, Theory of Mind etc.), sie arbeiten automatisch und besitzen einen typischen Entwick- Aniruddh Patel (*1965) lungsverlauf beim Kind (siehe § 2.2.5). Über lange Zeit war es unter ForscherInnen der generativen Ausrichtung unbestritten, dass die Sprachfähigkeit des Menschen einem Modul entspricht. Die Diskussion umfasste nur, ob die Sprachfähigkeit aus mehreren verschie- 9.6 Biologie der Musik 225 denen Modulen bestünde (z.B. ein Kasusmodul und ein Bindungsmodul) oder nicht; die Tatsache, dass die Sprachfähigkeit prinzipiell einem Modul entspricht, wurde aus der generativen Perspektive niemals angezweifelt. Die Sprachfähigkeit im Sinne der Grammatikfähigkeit wurde immer als unabhängige Komponente begriffen: Sie hat nichts mit der allgemeinen Kognition, dem Problemlösen, der räumlichen Wahrnehmung, der Theory of Mind oder dem Gesichtererkennen zu tun. Aus diesem Standpunkt folgt, dass die Sprache eigentlich auch unabhängig von der Musikfähigkeit sein sollte. Die Hypothese der Ressourcenteilung (resource-sharing hypothesis) von Patel besagt, dass die Trennung in ein Musikmodul und ein Sprachmodul nicht so einfach festgelegt werden kann. Vielmehr scheinen beide Fähigkeiten dieselben neuronalen Strukturen zu verwenden (vgl. dazu die Aktivität im Broca- Areal § 9.1). Die Daten aus den bildgebenden Verfahren (siehe Referenzen in Patel (2012)) zeigen, dass bei sprachlicher und musikalischer Betätigung die gleichen neuronalen Strukturen beteiligt sind. Andererseits zeigen die Daten von PatientInnen, die eine Schädigung des Gehirns aufweisen, dass die Musikfähigkeit und die Sprachfähigkeit voneinander unabhängig sind. So haben PatientInnen mit Amusie (amusia) (eine Störung der Musikverarbeitung, das heißt, die Wahrnehmung der Tonhöhen, von Melodien oder Rhythmen ist beeinträchtigt) keine Probleme, sich sprachlich zu äußern oder Sprache zu verstehen (Peretz & Coltheart (2003)). Ebenso können PatientInnen, die an verschiedenen Formen der Aphasie leiden, musikalische Stimuli gut verarbeiten. Obwohl sie nicht oder nur schwer sprechen bzw. gesprochene Sprache nicht verstehen können, haben sie wenig Schwierigkeiten damit, ein Lied mitzusingen. Die Amusie und die Aphasie scheinen für eine doppelte Dissoziation von Sprach- und Musikfähigkeit, also für ihre Unabhängigkeit, zu sprechen. Mit der Hypothese der Ressourcenteilung versucht Patel dieses Paradoxon zu lösen. Die Hypothese besagt, dass zwar die Repräsentationen des betreffenden Wissens domänenspezifisch sind, dass aber die Operationen, die auf die Repräsentationen angewendet werden, allgemein und unspezifisch sind. Patel geht davon aus, dass musikalische und sprachliche Repräsentationen voneinander getrennt und unabhängig sind. Die Verarbeitungsmechanismen sind jedoch für beide die gleichen, es handelt sich um gemeinsame Ressourcen. Das Broca-Areal, wie in § 9.1 beschrieben, scheint nicht nur für die Verarbeitung von Sprache wichtig zu sein, sondern auch für die Verarbeitung von Rhythmen. Diese generellen Verarbeitungsmechanismen für zeitliche Muster können als Hinweis für das Zutreffen von Patels Hypothese der Ressourcenteilung verstanden werden. 226 9. Musik Resource-sharing hypothesis • The separation of a language module and a music module is not straightforward. • Both abilities use the same neuronal structures within Broca’s area. • Presumably, representations are domain-speci c (separate for each language and music), but the operations are generic and can be applied to both language and music. Kapitel 10 Sprache und Körper Dieses Kapitel befasst sich mit der Theorie der Verkörperung. Aus der Sicht der klassischen Kognitionswissenschaft, insbesondere aus der Perspektive der generativen Grammatik, ist eine solche Herangehensweise problematisch bis unmöglich und wird zumeist ohne weitere Diskussion abgelehnt. Ziel dieses Kapitels und dieses Buches ist es, ein vertieftes Verständnis der Positionen und Forschungsfragen zu erreichen, um genauere Argumente für und gegen die Verkörperung im Zusammenhang mit der generativen Grammatiktheorie zu finden. In § 10.1 werden die klassische Herangehensweise der Kognitionswissenschaft sowie die verschiedenen Spielarten der Verkörperungstheorie erläutert. Anschließend wird die Theorie der perzeptuellen Symbole vorgestellt, ein Ansatz, der erklären möchte, wie Repräsentationen für Konzepte entstehen und im Körper begründet werden (10.2). § 10.3 stellt einige neue Forschungsergebnisse vor, die versuchen, den Körper als Erklärungsgrundlage miteinzubeziehen. Dabei geht es unter anderem um die Rolle des Körpers bei der Wahrnehmung sowie um eine neurologische Implementierung von Kellerautomaten. Abschließend widmen wir uns in § 10.4 der Verbindung zwischen Körper und Geist. Im Laufe der Evolution haben sich immer komplexere Schichten des Nervensystems entwickelt, die einerseits verschiedene Stufen des Bewusstseins ermöglichen, andererseits unterschiedliche Methoden der Stressverarbeitung erlauben. Diese Verbindung tritt als Gefühl bzw. Emotion in Erscheinung. 10.1 Verkörperung Das Verkörperung (embodiment) ist eine neue, alternative wissenschaftstheoretische Herangehensweise an die Fragen der Kognitionswissenschaft, die sich vor allem im Kontrast zur „klassischen Theorie“ entwickelt hat und noch immer 228 10. Sprache und Körper mit dieser in Konflikt steht. Andy Clark (Clark (1999)) fasst die wesentlichen Merkmale wie folgt zusammen. 10.1.1 Die klassische Theorie Die klassische Theorie (classical theory) der Kognitionswissenschaft geht davon aus, dass Kognition prinzipiell nicht an eine bestimmte Materie gebunden ist. Das bedeutet, es ist nicht wichtig, ob die kognitiven Prozesse in einem menschlichen Gehirn, in einem tierischen Nervensystem, mittels eines Computers oder einer sonstigen Maschinerie ausgeführt werden. Die klassische Kognitionswissenschaft möchte ganz allgemein „Denkvorgänge“ erklären, ohne dass diese in einem strengen Bezug zu der ausführenden physischen Grundlage stehen. Gemäß dieser Auffassung ist es also möglich, menschliche kognitive Prozesse auf einem Computer nachzubilden (diese Auffassung wird von Clark (2008a) auch als Maschinenfunktionalismus bezeichnet). Die klassische Theorie verfolgt eine dekompositionelle Herangehensweise. Das bedeutet, dass für eine Erklärung das zu erklärende System „zerstückelt“, d.h. dekomponiert (to decompose) wird. Ein komplexes Problem wird in kleinere, nach Möglichkeit einfachere Komponenten zerlegt. Diese können funktional sein, also eine bestimmte Funktion im Gesamtsystem erfüllen. Beispielsweise wurde in der kognitiven Psychologie die visuelle Wahrnehmung lange Zeit nach folgendem Muster erklärt: Es gelangen Lichtwellen auf die Netzhaut, die dortigen Nervenzellen feuern genau dann, wenn der für sie ideale Reiz einlangt, die Aktivität wird weiter zum visuellen Areal der Großhirnrinde geleitet usw. Die visuelle Wahrnehmung wurde weiters in funktionale Komponenten gegliedert, wie etwa die Wahrnehmung von hell/ dunkel, Kanten, Farben, Bewegung etc. Jedes dieser funktionalen Module ist eine eigene Komponente im visuellen System. Damit sind wir bei einem weiteren Kennzeichen der klassischen Theorie angelangt: dem linearen Verarbeitungszyklus (linear processing cycle) (Clark (1999): 364). Demgemäß erfolgt die kognitive Verarbeitung linear, d.h. die einzelnen Schritte folgen nacheinander. Clark spricht in diesem Zusammenhang auch von der Reihenfolge „perceive ! compute ! act“. Schließlich ist die klassische Theorie vor allem auch in Zusammenhang mit der symbolischen Kognition (symbolic cognition) zu sehen. Diese besagt, dass die kognitive Verarbeitung mittels einer eigenen, relativ abstrakten Repräsentationssprache geschieht (beispielsweise die language of thought von Jerry Fodor (Fodor (1975))). Hierbei haben die verwendeten Repräsentationen weder etwas mit dem zu lösenden Problem noch der Problemdomäne und auch nichts mit der ausführenden Maschine (z.B. dem menschlichen Körper) zu tun. Prinzipiell ist es aber möglich, auch nicht-symbolische Kognition (z.B. neuronale Netze) innerhalb der klassischen Theorie zu betrachten. 10.1 Verkörperung 229 Classical theory of cognition • Cognitive processes are not tied to a special object such as a brain or a computer. • A cognitive function is decomposed into its parts. • Cognitive processing is linear. • Cognition is symbolic. An abstract representation language is used for a variety of tasks. 10.1.2 Die neue Theorie der Verkörperung Die Herangehensweise des Embodiments geht davon aus, dass für eine adäquate Erklärung von kognitiven Prozessen auch der Körper, die Umwelt sowie die möglichen Aktionen des Individuums berücksichtigt werden müssen (Clark (1999)). Dies bedeutet, dass ein kognitives Problem dahingehend betrachtet werden muss, welche Möglichkeiten der ausführende Körper (capabilities of the body) hat (z.B. welche Art von Augen bzw. lichtsensitiven Nervenzellen oder Kameras er besitzt). Weiters sind die möglichen Aktionen wichtig. Das bedeutet, es ist immer die Frage, was das Individuum tun kann. Beispielsweise kann es nach etwas greifen oder etwas ausweichen, das es sieht. In diesem Sinne wäre die visuelle Verarbeitung immer auch in Zusammenhang mit den möglichen Aktionen zu betrachten. Im Gegensatz zur linearen Verarbeitung der klassischen Theorie geht das Embodiment davon aus, dass Probleme nicht im Vorhinein gelöst werden, sondern immer im Laufe der Verarbeitung bzw. der Aktion. Beispielsweise wird während der visuellen Wahrnehmung auch laufend die motorische Steuerung der Augenmuskeln ausgewertet. Außerdem wird die Schärfe des Bildes während des Betrachtens angepasst. So stellt sich die Pupille darauf ein, ob wir gerade in der Nähe des Gesichtes einen Text lesen oder ob wir in der Ferne eine Baumkrone betrachten. Bewegt sich etwas in den Blättern, so wird automatisch der Blick angepasst. Clark (2008a) sieht mehrere Vorteile einer verkörperten Theorie der Kognition. Zunächst erlaubt sie eine bessere Lastenaufteilung. Das bedeutet, dass nicht mehr die gesamte Lösung einer kognitiven Aufgabe im Gehirn bzw. an einem bestimmten Ort des Gehirns erfolgen muss. Teile der für die benötigte Lösung erforderlichen Rechenschritte können in anderen Arealen erfolgen, z.B. im Motorcortex oder vielleicht sogar im Zentralnervensystem. Damit einhergehend sieht Clark den Vorteil der besseren Informationsstrukturierung: Die Verarbeitung kann parallel und in unterschiedlichen Modalitäten erfolgen. Schließlich sieht Clark die Möglichkeit einer „erweiterten Kognition“ ebenfalls als Vorteil. Diese erlaubt die Kombination von biologischen Ressourcen, Um- 230 10. Sprache und Körper welteinflüssen und Artefakten zu einem größeren kognitiven System, das komplexere Aufgaben lösen kann. Vorteile der Verkörperung • bessere Lastenaufteilung (verschiedene Hirnareale, ZNS) • bessere Informationsstrukturierung (Parallelisierung) • Kombination von verschiedenen Ressourcen und Artefakten Die Kognition gemäß einer Verkörperungstheorie benötigt aktionsorientierte Repräsentationen (action-oriented representations) (Clark (1999)). Mit anderen Worten, es ist nicht sinnvoll, von abstrakten Repräsentationen auszugehen, sondern es ist lohnenswerter, die Repräsentationsmechanismen derart anzulegen, dass immer auch gleich mögliche Aktionen mitkodiert werden. Die motorischen, perzeptuellen und introspektiven Repräsentationen sind gleichberechtigt, auch die Operationsmechanismen dieser drei Ebenen stehen gleichwertig nebeneinander (Clark (2008a)). Dies bedeutet, dass im Gegensatz zur klassischen Theorie die Informationen über die motorische Befindlichkeit, die perzeptuellen Inputs sowie die internen Informationen über den Zustand des Körpers (Introspektion) gleich wichtig sind. Das klassische Modell, das die Daten der Sinnesorgane als untergeordneten Input für die „höhere“ Kognition annimmt, wird somit nicht mehr unterstützt. Embodied theory of cognition • The body’s capabilities and its possible actions must be taken into consideration when analyzing a cognitive ability. • Problems are solved while the body acts and processes stimuli. • Advantages are better load balancing, better structuring of information (parallelization), and the possibility of combining various biological and non-biological ressources. • Representation is action-oriented. 10.1.3 Simples und radikales Embodiment Innerhalb der Verkörperungstheorie können zwei Strömungen unterschieden werden: das simple und das radikale Embodiment (Clark (1999): 348 f.). Das simple Embodiment (simple embodiment) besagt, dass sich die Berücksichtigung von Körper, Umwelt und möglichen Handlungen auf die innere Organisation des kognitiven Systems auswirkt. Ein kognitives System ist demnach anders, je nachdem, ob die Umgebung und der Körper in seiner Analyse berücksichtigt werden oder nicht. Ebenso ist das Verständnis der kognitiven Verarbeitung betroffen: Es ist anders je nachdem, ob es unter der klassischen Theorie oder unter dem Embodiment betrachtet wird. Das simple Embodiment 10.1 Verkörperung 231 kann als die Frage nach den richtigen Datenstrukturen verstanden werden (Clark (1999)). Genügt also eine abstrakte Repräsentationssprache oder müssen weitere Fakten berücksichtigt werden? Von dieser Auffassung unterscheidet sich das radikale Embodiment (radikal embodiment). Dieses geht davon aus, dass eine weitreichende Änderung der Kognitionswissenschaft als Ganzes notwendig ist, sobald der Körper und die Umwelt in die Erklärung von kognitiven Prozessen miteinbezogen werden. Insbesondere sind die vorhandenen wissenschaftlichem Methoden nicht ausreichend, es müssen daher neue entwickelt werden. Clark denkt hier an die Theorie der dynamischen Systeme, für die sogar eine eigene mathematische Subdisziplin entwickelt wurde. Gemäß dem radikalen Embodiment sind viele Begriffe aus der klassischen Kognitionswissenschaft inadäquat und irreführend. Ihre Verwendung verhindert die Formulierung der richtigen Fragestellungen, da die Beschaffenheit von kognitiven Prozessen nicht mit ihnen beantwortet werden kann. Kurzum: Die Fragestellungen, die mit den Begriffen der klassischen Theorie entstehen, sind schlichtweg falsch. Als besonders ungünstig scheinen Clark die Repräsentation (representation) an sich, die Verarbeitung (computation) sowie die funktionale Dekomposition (decomposition). Wie weiter oben ausgeführt, wird eine symbolische Repräsentation, die nicht auf die Beschaffenheit ihres Verarbeitungsmediums eingeht, seitens der Verkörperungstheorie angezweifelt. Ebenso sollte eine funktionale Dekomposition durch eine dynamische, handlungsorientierte Sicht ersetzt werden. Wird der klassische Repräsentationsbegriff abgelehnt, kommt es zwangsläufig zu einem Konflikt mit denjenigen Wissenschaftsdisziplinen, die explizit auf einer derartigen Repräsentation aufbauen. Beispielsweise arbeitet die Syntaxtheorie innerhalb der Sprachwissenschaft mit solchen Repräsentationen. Gewisse Erkenntnisse über die Regelhaftigkeit des Sprachaufbaus sind nur mit derartigen Repräsentationen möglich, genau wie wohl einiges der Mathematik nur mit Hilfe ihrer Symbolsprache möglich ist. Es ist unklar, wie derartige Errungenschaften ohne symbolische Repräsentation zu erfassen sind. Vielleicht muss ein grundlegendes, auf dem Körper basierendes Repräsentationsformat gefunden werden, welches dann in ein symbolisches Format übersetzt wird, wann immer auf dieser Abstraktionsebene Aussagen gemacht werden sollen. Shapiro (2011) stellt drei grundlegende Strömungen der Verkörperungstheorie vor: die Konzeptualisierungshypothese, die Ersetzungshypothese und die Konstitutionshypothese. Die Konzeptualisierungshypothese (conceptualization hypothesis) besagt, dass die möglichen Konzepte, die ein Individuum haben kann, durch die Eigenschaften seines Körpers festgelegt werden (Shapiro (2011) Kapitel 4). Shapiro diskutiert unter anderem das Problem der Farbkategorien, das auf Varela et al. (1991) zurückgeht. Es können beim Menschen nicht alle möglichen, extern existierenden Farben als Konzepte repräsentiert werden, da das 232 10. Sprache und Körper menschliche Auge nicht auf alle Lichtwellen empfindlich reagiert. Farben, die auf Lichtwellen basieren, die außerhalb des Spektrums liegen, das das Auge verarbeiten kann, existieren für den Menschen nicht. Andere Tiere hingegen wie zum Beispiel Bienen sind für andere Bereiche des Lichtwellenspektrums sensibel. Neuere Studien untersuchen, ob die in einer Sprache vorhandenen Farbbegriffe einen Einfluss auf die Einteilung der wahrgenommenen Farben ausübt. Wird ein türkises Kärtchen als blau oder als grün klassifiziert, je nachdem, welche Muttersprache die untersuchte Person hat? Die Ergebnisse legen nahe, dass dies der Fall ist (Regier & Kay (2009)). Die Ersetzungshypothese (substitution hypothesis) lehnt den Repräsentationsbegriff ab und geht von der Theorie dynamischer Systeme (dynamical systems) aus. Kognitive Vorgänge sind demnach dynamisch, es erfolgt eine andauernde Interaktion des Individuums bzw. des Agenten mit der Umwelt (Shapiro (2011) Kapitel 5, van Gelder (1998), Beer (2000)). Beispielsweise erfolgt die Fortbewegung immer dynamisch: Der Körper muss in seiner Position gehalten werden, er muss sich ein Stück in die gewünschte Richtung bewegen, die Stabilisierung muss überprüft und angepasst werden (z.B. könnte man auf einen Stein treten), die eingeschlagene Richtung muss überprüft und gegebenenfalls adjustiert werden (z.B. wenn sich der Zielort ebenfalls bewegt). Kognitive Tätigkeiten laufen nach einem ähnlichen Muster ab. Diese Hypothese stammt aus dem Bereich der autonomen Roboter, deren Steuerung ohne explizit formalen Repräsentationsmechanismus erfolgt. Bewegungen von Fahrzeugen wie zum Beispiel das Einparken können ohne explizite Wissensrepräsentation erfolgen: Es wird laufend die Position des Fahrzeugs und der Abstand zu den Nachbarfahrzeugen und der Parklücke gemessen, das Fahrzeug etwas umpositioniert und dann wieder gemessen, bis die erwünschte Parkposition erreicht ist. Die Konstitutionshypothese (constitution hypothesis) besagt, dass die kognitive Verarbeitung nicht nur mit dem Gehirn allein erfolgt, sondern auch durch den Körper (Shapiro (2011) Kapitel 6). Ein Beispiel dafür ist die Annahme, dass die Wahrnehmung nicht nur passiv erfolgt, sondern auch motorische Prozesse involviert (Noë (2004)). Noch weiter geht die Annahme der erweiterten Kognition (extended cognition), die davon ausgeht, dass auch Dinge außerhalb des Körpers wie etwa Werkzeuge für die Kognition eine Rolle spielen (Clark (2008b)). Diese Richtung des radikalen Embodiments geht von erweiterten kognitiven Systemen aus und betrachtet die biologische Verarbeitung immer in Kombination mit externen Faktoren. Kognition besteht demnach aus Vernunft, Artefakten und Kultur. Als Beispiel nennt Clark die Verwendung von Papier und Bleistift zur Ausführung von komplizierteren mathematischen Berechnungen wie etwa der Division von langen Zahlen. Diese wäre allein im Kopf nicht möglich. Die Bewältigung dieser kognitiven Aufgabe ist also nur möglich, wenn ein biologisches Gehirn mit einem externen Artefakt zusammenwirkt. In diesem Sinne könnte man die Verwendung von Computern zur 10.2 Perzeptuelle Symbole 233 Führung von mathematischen Beweisen betrachten. Dennoch werden derartige Beweise nicht von allen Mitgliedern der mathematischen Forschungsgemeinschaft akzeptiert. • Simple embodiment argues that the analysis of a cognitive system depends on the environment and how it reacts with the body. • Radical embodiment argues that the whole enterprise of cognitive science must be changed, including its methods, notions, and questions. • Notions such as representation, decomposition, and computation must be dropped in favor of an action-oriented view. This raises a con ict with other disciplines that explicitly work with abstract representations such as linguistics or mathematics. • The conceptualization hypothesis assumes that the properties of the body determine the concepts that can be known. • The substitution hypothesis replaces the traditional notion of representation with a dynamical systems approach. • The constitution hypothesis assumes that cognitive tasks are not solved by the brain alone but also by the body. Extended cognition suggest that cognition also involves tools, artifacts, and culture. 10.2 Perzeptuelle Symbole Barsalou (1999) entwirft ein Modell, wie die symbolische Wissensverarbeitung der menschlichen Kognition funktionieren könnte, wenn diese auf einer Verkörperungstheorie basiert: die Systeme der perzeptuellen Symbole (perceptual symbol systems). Diese Theorie stellt eine Gegenbewegung zur klassischen Theorie der Wissensrepräsentation dar, die von der Annahme ausgeht, dass das Wissen amodal (amodal) und symbolisch (symbolic) gespeichert ist. Gemäß diesem klassischen Ansatz wurde in Anlehnung an die Entwicklungen in der Informatik (Logik und Programmiersprachen) versucht, die menschliche Kognition mit Hilfe von Computerprogrammen nachzubilden. Es entstand die symbolische künstliche Intelligenz (symbolic artificial intelligence) (im Gegensatz zur subsymbolischen künstlichen Intelligenz (subsymbolic artificial intelligence), die sich etwa mit neuronalen Netzwerken befasst). In allen diesen klassischen Ansätzen werden Symbole als amodal verstanden: Sie haben nichts mit einer bestimmten Modalität wie der visuellen, auditiven oder taktilen Wahrnehmung zu tun. Diese Symbole haben auch nichts damit zu tun, auf welcher „Hardwa- 234 10. Sprache und Körper re“ sie ausgeführt werden - dies kann ein Computer genauso sein wie das menschliche Gehirn. Entsprechend dem klassischen Ansatz geht auch das Modularitätsmodell von Jerry Fodor (Fodor (1983), siehe auch § 2.2.5) davon aus, dass die Perzeption in Modulen erfolgt, und erst die Ausgabe der Module in ein übergreifendes, amodales kognitives System einfliesst. Dieses zentrale System kann die Outputs der einzelnen Module miteinander verknüpfen und verwendet dazu eine amodale Sprache des Geistes (language of thought) (Fodor (1975)). De nition Perzeptuelle Symbole Perzeptuelle Symbole sind neuronale Aktivierungsmuster, die während der Wahrnehmung gespeichert werden. Während der Perzeption eines Reizes sind verschiedene sensorische (und auch motorische) Rindenfelder des Gehirns aktiv. Ein derartiges Aktivierungsmuster, beispielsweise das Muster beim Anblick eines roten Punktes, kann gespeichert und dementsprechend auch wieder aufgerufen werden, selbst wenn das Objekt in der Außenwelt nicht mehr vorhanden ist. Der Symbolerzeugungsprozess besteht darin, dass ein Teil des Aktivierungsmusters der aktiven Neuronen gespeichert wird (Barsalou (1999)). Damit bezieht sich Barsalou auf die Arbeiten von Donald Hebb (Hebb (1949)); dieses Paradigma wird auch in den Arbeiten von Friedemann Pulvermüller fortgeführt (siehe dazu § 10.3.2). Perzeptuelle Symbole beinhalten neuronale Repräsentationen, die prinzipiell unbewusst (unconscious) sind. Allerdings ist es möglich, dass diese manchmal bewusst werden, beispielsweise, wenn man innere Bilder betrachtet. Perzeptuelle Symbole sind daher nicht amodal, sondern direkt und modalitätsspezifisch an bestimmte Wahrnehmungen gekoppelt: Sie können in allen Modalitäten vorliegen (visuell, auditiv, taktil, olfaktorisch etc.) und unterschiedlichste Qualitäten besitzen (z.B. rauh, warm, schleimig, federnd etc.). Sie sind auch nicht unabhängig von der Materie, auf der sie repräsentiert sind, sondern sie sind direkt und eng an den (menschlichen) Körper mitsamt seinen Wahrnehmungsorganen gekoppelt. In diesem Sinne gehört Barsalous Vorschlag zu den Vertretern der Embodiment-Theorie. Perzeptuelle Symbole besitzen folgende Eigenschaften (Barsalou (1999)): Sie repräsentieren niemals ein ganzes Objekt oder eine ganze Szene, sondern immer nur einen bestimmten Teilaspekt. Das bedeutet, dass nicht zwangsläufig das eine, tatsächlich wahrgenommene Objekt repräsentiert wird, sondern einzelne Eigenschaften des Objekts wieder abgerufen und gegebenenfalls neu kombiniert werden können. In diesem Sinne können perzeptuelle Symbole unbestimmt sein. Die Repräsentation eines Tigers dient hierfür als Beispiel (Barsalou (1999)): Von diesem wird nicht die genaue Anzahl der Streifen gespeichert, sondern nur die Eigenschaft gestreift an sich. Perzeptuelle Systeme sind keine diskreten Einheiten, sondern sie besitzen eine dynamische Natur, da sie 10.2 Perzeptuelle Symbole 235 als „Attraktoren in einem konnektionistischen Netzwerk“ fungieren (Barsalou (1999): 584, Übersetzung A.R.). Dies ist so zu verstehen: Die Aktivierungsmuster der Neuronen sind niemals exakt gleich. Es genügt, wenn sie eine hinreichend große Ähnlichkeit zum initialen Muster während der Wahrnehmung aufweisen, damit sie das Symbol aktivieren bzw. repräsentieren. Perzeptuelle Symbole (Barsalou (1999)) • repräsentieren immer nur einen Teilaspekt (Teileigenschaften von Objekten) • sind unbestimmt • sind keine diskreten Einheiten, sondern dynamisch (ähnliches Aktivierungsmuster von Neuronen) • Perceptual symbols are patterns of neural activity that are stored during an event of perception. These patterns can be recalled. • Perceptual symbols are mostly unconscious. They are not amodal, and they are tied to the body. • Perceptual symbols only represent aspects and properties, not whole individuals, objects, or scenes. They are underdetermined. They are not discrete but dynamic entities. Wissensrepräsentation mit perzeptuellen Symbolen Die einzelnen perzeptuellen Symbole können zu einem Simulator (simulator) verknüpft werden. Solche Verknüpfungen ergeben Rahmen (frames), wie sie zur Wissensrepräsentation verwendet werden (siehe § 6.1.2). Perzeptuelle Symbole, Simulatoren und Frames sind somit die Bausteine für die Wissensrepräsentation im Langzeitgedächtnis. Die Kategorisierung (categorization), eines der zentralen Probleme der Kognitionswissenschaft, lässt sich ebenfalls mit diesem Modell erklären. Bei der Überprüfung einer Kategorie werden zwei ähnliche Repräsentationen verglichen: das neuronale Aktivierungsmuster des Simulators und dasjenige Muster, das die konkret wahrgenommene, zu kategorisierende Entität erzeugt. Stimmen diese weitgehend überein, so gehört die Entität zu der Kategorie. Weiters ist es möglich, Inferenzen (inferences) zu ziehen, die weit über die rein perzeptuelle Information hinausgehen, denn der Simulator besteht aus mehreren perzeptuellen Symbolen. Je nach Bedarf können weitere dazugeholt werden, so dass beispielsweise nicht sichtbare Details wie etwa innere Bestandteile kognitiv verarbeitet werden können (Barsalou (1999): § 2.4.4). 236 10. Sprache und Körper Die Entstehung und Entwicklung von perzeptuellen Symbolen erfolgt gemeinsam mit linguistischen Symbolen (linguistic symbols) (gemäß Barsalou gesprochene oder geschriebene Wörter). Diese sind daher nicht amodal, sondern immer mit einer wahrnehmbaren Form verknüpft und werden mit Simulatoren im Langzeitgedächtnis gespeichert. Die Simulatoren für Wörter werden mit den Simulatoren der einzelnen Konzepte verknüpft und erhalten so ihre Bedeutung. Demgemäß ist Bedeutung nur möglich, wenn sich der Körper bzw. das Material, worin die Bedeutung repräsentiert wird, in einer Umwelt befindet. Dies ist eine wesentliche Aussage des Embodiment-Ansatzes: Bedeutung ist direkt abhängig von dem Körper und der Umwelt, eine amodale Repräsentation gibt es nicht. • Simulators are combinations of perceptual symbols into frames that can be used for conceptual representation. • Categorization is possible by comparing the actual activity pattern with the symbol’s pattern. • Inferences are possible because new perceptual symbols may be added to a simulator at any time. • Linguistic symbols emerge together with perceptual symbols and are therefore tied to speci c modalities. Meaning is only possible if the body which hosts the interpretation is in an environment. 10.3 Embodiment und Sprache Im folgenden Kapitel sollen neuere Erkenntnisse vorgestellt werden, die sich mit der Frage befassen, welche Rolle der Körper für die sprachlichen - insbesondere die grammatischen - Fähigkeiten des Menschen spielt. Dazu betrachten wir zunächst neuere Erkenntnisse zur Perzeption, die davon ausgehen, dass bei der Wahrnehmung immer auch eine Aktivierung des motorischen Kortex erfolgt. Anschließend betrachten wir ein Modell, wie die Verarbeitung von syntaktischen Strukturen im Gehirn erfolgen kann. 10.3.1 Aktive Perzeption Gemäß der traditionell vorherrschenden Forschungsmeinung ist das perzeptuelle System vom motorischen System vollständig getrennt. Das perzeptuelle System ist für die Verarbeitung von Reizen zuständig, die durch die Sinnesorgane aufgenommen werden, und ist im Wesentlichen im hinteren Teil des Kortex angesiedelt. Das motorische System hingegen übernimmt die Steuerung und Koordination der Muskeln; es ist im vorderen Teil des Kortex beheimatet. Die 10.3 Embodiment und Sprache 237 beiden grenzen praktisch aneinander und werden nur von der Zentralfurche ([sulcus centralis] central sulcus) zwischen dem Parietal- und dem Frontallappen getrennt. Im Gegensatz dazu beschreibt Pulvermüller (2010a) die Aufhebung der Arbeitsteilung zwischen Perzeption und Motorik. Diese neue Perspektive, von Pulvermüller als Integrationsperspektive bezeichnet, geht von einem engen Zusammenspiel des motorischen und des perzeptiven Systems aus. Insbesondere die Spiegelneuronen (mirror neurons), die bei der Beobachtung einer Handlung aktiviert werden, weisen auf die enge Verknüpfung von Handlung und Wahrnehmung hin. Das F5-Areal der Makaken, das zytoarchitektonisch mit dem Broca-Areal des Menschen übereinzustimmen scheint (Pulvermüller (2010a)), beinhaltet Spiegelneuronen. Daraus ergibt sich die Vermutung, dass möglicherweise die Spiegelneuronen für die Herausbildung des Broca-Areals und somit für die Sprachfähigkeit des Menschen eine entscheidende Rolle spielen könnten. Das Broca-Areal ist für die Verarbeitung komplexer Strukturen innerhalb von Sequenzen zuständig - sei es Syntax, Musik oder körperliche Aktivitäten. Spracherwerb Pulvermüller (2010a) zieht den Zusammenhang von Perzeption und Motorik zur Erklärung der menschlichen Sprachfähigkeit heran: Während des Erstspracherwerbs werden Laute mit motorischen Anweisungen verknüpft. In der Lallphase (babbling phase), die bis ca. zum 10. oder 12. Lebensmonat dauert, werden vom Kind verschiedene Laute produziert, die es - wenn es nicht taub ist - auch hören kann. Dadurch erfolgt eine Verknüpfung von Handlung und Wahrnehmung: Das Kind hört die selbstproduzierten Geräusche und assoziiert diese mit den dazugehörigen motorischen Aktivierungsmustern. Dadurch werden die Aktion-Perzeptions-Verbindungen zu neurologischen Korrelaten von Phonemen und Wörtern. Perzeption Gemäß Pulvermüller (2010a) hat das motorische System für die Perzeption (perception) von Sprache folgende Bedeutung. Erstens wird der superiore Temporalkortex (superior temporal cortex) aktiviert, wenn eigene Sprachlaute erzeugt werden. Interessanterweise ist dies nicht davon abhängig, ob diese auch tatsächlich gehört werden, denn auch bei den Sprachlaut übertönenden Nebengeräuschen findet diese Aktivierung statt. Zweitens rufen Sprachlaute sowohl bei der Artikulation als auch bei der Perzeption somatotopische Aktivierungsmuster (somatotopic activation patterns) hervor. Beim Produzieren und auch nur beim Hören allein werden diejenigen motorischen Rindenfelder aktiviert, die für die entsprechende Zungen- 238 10. Sprache und Körper und Lippenstellung verantwortlich sind. Da dies auch bei der reinen Perzeption der Fall ist, zeigt dies den engen Zusammenhang zwischen motorischem und perzeptuellem System. Hört man etwa ein „o“, so wird derjenige Bereich des motorischen Kortex aktiviert, der für die Rundung der Lippen zuständig ist. Genauso verhält es sich mit „r“ (eine bestimmte Aktivität der Zunge ist erforderlich) und allen anderen Lauten. Ein Laut wird unter anderem dadurch erkannt, welche motorischen Aktivitäten dabei simuliert werden. Es sind auch die Muskeln und die Nervenzellen, die diese Muskeln steuern, die sagen: „ich bin ein o“ bzw. „meine Muskeln erzeugen ein o“. Ein Laut wird daher nicht nur abstrakt und ohne jeglichen Bezug zum Körper repräsentiert. Drittens werden detaillierte phonologische Eigenschaften (phonological properties) bei der Perzeption vom motorischen System analysiert, z.B. der Unterschied zwischen den recht ähnlichen Verschlusslauten / p/ und / t/ . Semantische Verarbeitung Auch für die semantische Verarbeitung (semantic processing) ist das motorische System wichtig. Dabei werden perzeptuelle Areale sowie benachbarte Bereiche, wo die Informationen der unterschiedlichen Sinnesmodalitäten zusammenfließen, aktiviert (Pulvermüller (2010a), Pulvermüller (2010b)). Es erfolgt auch eine somatotopische Abbildung. Bisher wurde nur die semantische Verarbeitung von solchen Wörtern untersucht, die über die zu ihnen gehörigen Handlungen identifiziert werden können (also, was man „tut“ im Falle eines Aktionsverbs bzw. was man „damit machen kann“ im Falle eines konkreten Nomens). Bei ihrer Verarbeitung erfolgt eine Aktivierung der motorischen Bereiche, wie sie auch bei der tatsächlichen Durchführung der dazugehörigen Handlung erfolgt. Hört man beispielsweise das Wort laufen, so werden die für die Beine zuständigen motorischen Areale entsprechend aktiviert, wie es bei der Lauftätigkeit selbst der Fall ist. Die semantische Aktivierung der motorischen und prämotorischen Areale erfolgt innerhalb von ca. 100 bis 250 ms. Dies ist so schnell, dass eine langwierige Verarbeitung ausgeschlossen werden kann. Die semantische Aktivierung erfolgt daher nicht nach der syntaktischen Verarbeitung, sondern sofort. Somit zeigt sich auch in der Betrachtung der semantischen Verarbeitung das enge Zusammenspiel zwischen Aktions- und Perzeptionsschaltungen im Gehirn. Abstraktes konzeptuelles Wissen Auch die Repräsentation und die Verarbeitung von abstraktem konzeptuellem Wissen kann mittels einer Verkörperungstheorie erklärt werden: Dieses Wissen besteht ebenfalls aus einem Informationsaustausch zwischen Perzeption und Aktion - eine Auffassung, die der klassischen Herangehensweise einer amodalen Repräsentation widerspricht (Paivio (1986)). Interessant und wichtig ist 10.3 Embodiment und Sprache 239 hierbei, dass die Handlung und die Handlungsmöglichkeiten mit Objekten die Bedeutung tragen. Die Verarbeitung von konkreten und abstrakten Begriffen erfolgt auf unterschiedliche Weise (Kiefer & Pulvermüller (2012)). Die bisherigen Studien zeigen, dass konkrete Begriffe schneller verarbeitet werden als abstrakte. Dies gilt allerdings nur, wenn die Stimuli aus einzelnen Wörtern ohne weiteren Kontext bestehen. Werden die gleichen Wörter in einem Kontext, z.B. in einem ganzen Satz, untersucht, so verschwindet dieser Unterschied. Kiefer und Pulvermüller gehen davon aus, dass der Unterschied zwischen abstrakten und konkreten Begriffen in ihrer Kontextabhängigkeit besteht: Konkrete Wörter brauchen für ihre Interpretation weniger Kontext, daher können sie auch ohne in einem Satz eingebettet zu sein sehr schnell verarbeitet werden. Abstrakte Wörter hingegen verlangen nach mehr konzeptueller Information. Kiefer und Pulvermüller argumentieren, dass auch abstrakte Begriffe in körperlichen Repräsentationen verankert sind. Sie schlagen vor, dass abstrakte und konkrete Begriffe mit den gleichen Mechanismen repräsentiert und verarbeitet werden. Allerdings benötigen abstrakte Begriffe einen höheren Grad an emotionaler Bewertung, mehr lexikalische Assoziationen sowie mehr Introspektion als konkrete Begriffe, da diese ja nicht direkt über die Wahrnehmung der Außenwelt repräsentiert werden können. Dadurch muss eine Innenwelt bestehend aus Emotionen und Verknüpfungen mit anderen Konzepten geschaffen werden. Allerdings sind abstrakte Begriffe genauso von konkreten Erfahrungen abhängig. So wird laut Kiefer und Pulvermüller ein Konzept wie schön aus der Menge von einzelnen Erfahrungen erzeugt. Active perception • Motor and perceptual systems, as well as mirror neurons, work together when input is processed. • During rst language acquisition, babies associate sounds with their own motor activity. • Perception of linguistic sounds causes somatotopic activation patterns. This perception activates the same areas as production, allowing detailed phonological discrimination. • Semantic processing activates motor regions that correspond to the activity expressed or an activity that can be done with the object which is referred to. This happens very fast (100-250 ms). 10.3.2 Verkörperung der Grammatik Pulvermüller (2010b) unterbreitet einen Vorschlag, wie die syntaktische Verarbeitung auf neuronaler Ebene vor sich gehen könnte. Die bisherigen Erkennt- 240 10. Sprache und Körper nisse zu Verkörperung und Sprache befassen sich in erster Linie mit der phonologischen und der semantischen Verarbeitung. Auf die syntaktische Verarbeitung wurde weniger eingegangen, da diese abstrakt ist und gemäß ihrer theoretischen Grundlage ein bestimmtes Repräsentationsformat erfordert (z.B. Baumstrukturen), die nur schwer mit körperlichen Eigenschaften in Zusammenhang zu bringen sind. Kellerautomaten Pulvermüller konzentriert sich darauf, ein neurophysiologisches Modell für den Kellerautomaten (pushdown automaton) zu finden (Pulvermüller (2010b): § 5). Damit wäre es möglich, Zentraleinbettungen (center embeddings) zu verarbeiten (siehe § 8.2 für eine genauere Erläuterung der verschiedenen Automaten und der Chomsky-Hierarchie). Bisher war es ungeklärt, wie ein Kellerautomat mit einem neuronalen Netz simuliert werden kann, beziehungsweise wie ein solcher überhaupt auf einem Nervensystem funktionieren kann. Dies kann jedoch wie folgt möglich sein: Nervenzellen, die Gedächtnisinhalte speichern, können einen Input speichern und diesen so lange behalten, bis dieser erneut auftaucht. Dann wird diese Aktivierung gestoppt und der Gedächtnisinhalt vergessen. Die Speicherung erfolgt mittels eines Nachhalls (reverberation), das heißt, die Nervenzelle wird aktiviert und „schwingt“ dann nach, während ihre Aktivität langsam nachlässt. Dadurch ist es möglich, eine zeitliche Einordnung zu treffen: Erfolgte die Aktivierung dieser Gedächtniszelle vor oder nach einer anderen? Das Speichern bzw. Nachhallen erfolgt in Gedächtnisschaltkreisen, die nacheinander aktiviert werden können. Dieses Modell wurde bereits mittels Computersimulationen erprobt: Ein einziger Gedächtnisschaltkreis kann mehrere Aktivierungen gleichzeitig beinhalten, da mehrere Wellen nacheinander durch diesen Kreis fließen nachhallende Feuerketten (reverebatory synfire chains). Dies funktioniert jedoch nur, wenn diese Wellen einer präzisen zeitlichen Abstimmung gehorchen (Pulvermüller (2010b): 172). In einem derartigen Modell wird es möglich, Zentraleinbettungen zu verarbeiten, da die Gedächtnisschaltkreise wie ein Kellerautomat fungieren: Zunächst wird ein Item gespeichert (sei es eine offene Klammer, die auf eine dazugehörige geschlossene „wartet; “ sei es ein Substantiv im Nominativ, das auf die dazugehörige, kongruierende Verbendung „wartet“). Dieses löst eine Aktivierungswelle aus, die einen spitzen Anstieg hat und dann ganz langsam schwächer wird, während sie im Schaltkreis gehalten wird. Es folgen weitere Wörter, die ebenfalls Aktivierungen im Schaltkreis erzeugen. Diese sind jedoch immer stärker als die Aktivierung des ersten Elements, da sie „jünger“ sind, also zeitlich kürzer zurückliegen. Diese werden abgearbeitet, sie verschwinden dadurch aus dem Speicher. Nun kommt das zum ersten Item dazugehörige zweite 10.3 Embodiment und Sprache 241 Element. Die Aktivierung des ersten ist noch vorhanden, die beiden werden als zusammengehörig erkannt und aus dem Speicher entfernt. DCNAs Die neben den neuronalen Kellerautomaten zweite Komponente der syntaktischen Verarbeitung sind gemäß Pulvermüller (2010b): § 7 die DCNAs, die diskreten kombinatorischen neuronalen Gruppen (discrete combinatorial neuronal assemblies). Diese neuronalen Mechanismen sind bei allen Säugetieren und sogar bei manchen Wirbellosen vorhanden. Sie dienen dazu, Sequenzen zu erkennen: Diese Neuronengruppen feuern, wenn eine spezifische Abfolge erst A dann B erkannt wird. Bei den niedrigeren Lebewesen handelt es sich bei A und B vor allem um Sequenzen von Bewegungen, der Mechanismus ist jedoch nicht abhängig von der Beschaffenheit von A und B. Angewandt auf sprachliche Fähigkeiten, können die Sequenzdetektoren Reihenfolgen von spezifischen Morphemen erkennen. Zunächst bezieht sich die erkannte Reihenfolge auf spezifisch lexikalisches Material, es werden ganz bestimmte Folgen von Morphemen identifiziert. Eine derartige Sequenz kann an einen DCNA weitergeleitet werden, der auf einer höheren Repräsentationsebene nicht mehr die spezifischen Morpheme, sondern die Sequenz von syntaktischen Kategorien und Konstituenten erkennt. Diese DCNAs dienen dazu, Konstituentenpaare zu repräsentieren. Sie können kontinuierliche und diskontinuierliche zusammengehörende Morpheme erfassen und bilden somit eine Repräsentation von syntaktischen Strukturen. Pulvermüller (2010b) beschreibt eine Simulationsstudie, die dieses Modell verifiziert. Linguistische Theorie Pulvermüllers Modell verlangt nach einer ganz bestimmten linguistischen Theorie. Es geht davon aus, dass Syntax und Semantik eng miteinander verknüpft sind. Daher ist es mit einem Ansatz wie dem von Chomsky, der eine strikte Trennung der Syntax verlangt, nur bedingt kompatibel. Chomsky geht im minimalistischen Modell davon aus, dass die Syntax ein eigener, selbständiger Verarbeitungsmechanismus ist, der nichts mit der Semantik zu tun hat. Die einzige Beziehung zur Bedeutung erschließt sich über die Schnittstellenbedingungen zur logischen Form (siehe § 2.3.2). Kompatibel mit Pulvermüllers Ideen sind vielmehr Grammatikmodelle, die von einer engen Verschränkung der Syntax und der Semantik ausgehen (Pulvermüller (2010b): § 8) wie etwa die Construction Grammar von Adele Goldberg (Goldberg (1995)) oder die Lexical-Functional Grammar (LGF) von Joan Bresnan (Bresnan (2001)). 242 10. Sprache und Körper Embodiment of syntactic processing • Neural pushdown automata are realized via reverbatory syn re chains in the brain. A neural activity stays within a circuit, its amplitude slowly decreasing, until a corresponding stimulus occurs. Then the activity stops. In this way, central embedding can be processed. • Discrete combinatorial neuronal assemblies are sequence detectors. They can detect sequences of speci c morphemes. On a higher level, they are able to detect sequences of lexical categories and syntactic constituents. • This approach is not compatible with generative grammar, which requires a strict separation between syntax and semantics. Grammatical theories, like construction grammar, that combine syntax and semantics are more suitable. 10.3.3 Topik/ Fokus und bimanuelle Koordination Manfred Krifka (Krifka (2007)) skizziert einen möglichen Zusammenhang zwischen der Entstehung der Sprache und der Händigkeit (handedness) des Menschen. Unter Händigkeit versteht man, dass die meisten Menschen eine dominante Hand besitzen, mit der sie die meisten fein- und grobmotorischen Tätigkeiten durchführen. Für den überwiegenden Teil der Leute ist dies die rechte Hand, Linkshänder sind in der Minderheit. Krifka betrachtet die Koordinationsleistung der beiden Hände. Bei den meisten Tieren bis hin zu den Affen ist die Ausprägung der Händigkeit nicht vorhanden. Bei den Primaten tritt sie auch nicht, oder wenn, dann nur sehr gering auf. Im Laufe der Evolution tritt die Händigkeit gleichzeitig mit der Lateralisierung des Gehirns auf - die beiden Gehirnhälften spezialisieren sich, die Aufgaben der beiden Hände unterscheiden sich. Die Lateralisierung der beiden Hemisphären steht auch in engem Zusammenhang mit der Entstehung der Sprache, daher ist es interessant, nach einem möglichen Zusammenhang zwischen der Händigkeit und der Sprachfähigkeit zu fragen. Die Aufgabenteilung der beiden Hände erfolgt nach strikten Regeln: Die weniger dominante Hand eröffnet einen Handlungshintergrund, indem sie etwa das zu manipulierende Objekt festhält oder den Körper im Gleichgewicht hält. Die dominante Hand hingegen tritt in diese Szene bzw. in diesen Hintergrund ein und führt die feinmotorische Handlung aus. Diese Struktur entspricht der Topik-Kommentar-Struktur in der menschlichen Kommunikation, in der vor einem gegebenen Hintergrund eine neue Aussage getroffen wird. 10.4 Bewusstsein als Verbindung zwischen Körper und Kognition 243 Bimanual coordination • Handedness, as well as language, evolved together with the lateralization of the brain. • Similar to the topic-comment structure in language, the less dominant hand provides the background (e.g. by holding the object) and the more dominant hand provides the focus (by executing ne-grained tasks). 10.4 Bewusstsein als Verbindung zwischen Körper und Kognition Der Neurologe Antonio Damasio stellt in verschiedenen Büchern (Damasio (1994), Damasio (1999), Damasio (2010)) sein Modell des Bewusstseins vor. Seine Auffassung ist, dass die Emotionen und der Körper eine zentrale Rolle spielen. Er beschreibt einerseits die Rolle des Körpers für die Kognition, andererseits bestimmt er die Funktion der Emotionen. Damit lehnt er das klassische Bild der symbolischen Kognition, die ausschließlich im Neokortex stattfindet, ab. Vielmehr argumentiert er für eine eng verzahnte Informationsverarbeitung Antonio Damasio (*1944) von Gehirn und Körper. 10.4.1 Ebenen des Bewusstseins Beginnend mit Damasio (1994) entwickelt Damasio ein geschichtetes Modell des Bewusstseins. Bereits einfachere Lebewesen besitzen ein simples Bewusstsein. Je komplexer das Gehirn wird, desto mehr und desto komplexere Stufen des Bewusstseins können erreicht werden. In Damasio (2010) unterscheidet Damasio drei Typen des Bewusstseins, die zu immer komplexeren Formen des Selbst führen: • das Protoselbst • das Kernselbst • und das autobiographische Selbst Das Protoselbst (proto self ) ermöglicht die Erfahrung des bloßen Existierens. Es ist im oberen Hirnstamm verankert und arbeitet eng mit dem Körper zusammen, eine Trennung von Hirn und Körper ist überhaupt nicht möglich. Die Funktion des Protoselbst ist eine Beschreibung des aktuellen Zustandes des Körpers sowie eine Abbildung des Körpers in mentale Bilder. Dabei geht es noch nicht um den Zustand einzelner Gliedmaßen oder die Information über deren Positionierung, sondern der Zustand des viszeralen Systems und die glatte Muskulatur, sowie auch Informationen über die Körpertemperatur oder den 244 10. Sprache und Körper Säuregehalt des Blutes werden ausgewertet. Die Auswertung des Tonuszustandes der glatten Muskulatur steht in direktem Zusammenhang mit dem vegetativen Nervensystem: Es entsteht Information darüber, ob sich der Körper gerade in Entspannung befindet oder nicht (Damasio (2010) Kapitel 8). Funktionen des Protoselbst • im Hirnstamm • Erfahrung des Existierens • Information über den Zustand des viszeralen Systems und der glatten Muskulatur • Information über den Zustand des vegetativen Nervensystems Damasio geht davon aus, dass eine Resonanzschleife, also eine unmittelbare gegenseitige Beeinflussung, zwischen Hirnstamm und Körper entsteht. Im Hirnstamm laufen die einzelnen Informationen aus den verschiedenen Bereichen des Körpers zusammen. Daraus entstehen ursprüngliche Gefühle (primordial feelings), welche den Zustand des Körpers beschreiben. Diese Gefühle sind nicht-sprachlich und nicht mit den Bildern des visuellen bzw. auditiven Systems vergleichbar. Sie haben einen privilegierten Status innerhalb des kognitiven Systems (Damasio (2010): 101). Das Kernselbst (core self ) ermöglicht die Verarbeitung von Informationen über externe Objekte und Ereignisse. Auf dieser Ebene wird der Zustand der quergestreiften Muskulatur verarbeitet, so dass die Information über die Positionierung des Körpers möglich wird. Diese Informationen kommen aus dem motorischen Kortex. Es wird möglich, Informationen über Handlungen zu haben (Damasio (2010) Kapitel 8). Funktionen des Kernselbst • Information über den Zustand der quergestreiften Muskulatur, Position des Körpers • Information über Objekte, Ereignisse und Handlungen Das autobiographische Selbst (authobiographical self ) erlaubt es, das Wissen über den Körper und das Selbst und das Wissen über die Objekte und Ereignisse der externen Welt zu kombinieren und in die eigene Lebensgeschichte einzuordnen. Damit wird es auch möglich, die eigene Vergangenheit zu betrachten und Hypothesen über die eigene Zukunft aufzustellen (Damasio (2010) Kapitel 9). Das Kernselbst gemeinsam mit dem Protoselbst werden von Damasio zum materiellen Ich zusammengefasst, das autobiographische Selbst hingegen wird dem sozialen und spirituellen Ich zugeordnet. 10.4 Bewusstsein als Verbindung zwischen Körper und Kognition 245 Layers of the self • The protoself has information about the status of the autonomic nervous system and non-striated muscles. It is aware of its existence. • The core self has information about striated muscles and the position of the body. It knows about objects, events, and actions. • The autobiographical self integrates knowledge about the body and the external world. It knows about its biography. Der biologische Wert (biological value) wird von Damasio (Damasio (2010): 46 f.) als zentrale Maßeinheit für Emotionen und Bewusstsein angenommen. Er ergibt sich aus der Lebensregulation: Damit ein Organismus lebt, muss immer ein Gleichgewicht, eine Homeostasis, hergestellt werden. Zum biologischen Wert gehören all jene Dinge, die das Überleben, Gedeihen und die Vermehrung begünstigen. Er ist somit evolutionär begründet: Lebewesen streben nach Dingen und Umständen von hohem biologischen Wert, da es evolutionär notwendig ist, dass sie leben und sich fortpflanzen. Günstige Dinge beinhalten einen unversehrten Körper, genügend Nahrung, Partner, ein Sozialleben etc. Die einfacheren Lebewesen trachten wohl nur nach einem unversehrten Körper und Nahrung, menschliche Lebewesen, die auch über ein autobiographisches Selbst verfügen, trachten darüber hinaus genauso nach sozialer Anerkennung und einer für sie günstigen Position in der Gruppe und Gesellschaft (siehe auch § 9.6.2). Damasio definiert die Begriffe Emotion (emotion) und Gefühl (feeling) wie folgt (Damasio (2010): 109 ff.). Die reine Wahrnehmung des körperlichen Zustandes bzw. dessen Veränderung sowie die Wahrnehmung des damit einhergehenden Gemütszustandes ist das Gefühl. Es sind Bilder von Handlungen, die sich in den Repräsentationen des Körpers im Gehirn abspielen. Emotionen hingegen, so Damasio, sind Handlungsabfolgen, die mit bestimmten Gedanken einhergehen. Diese Handlungen sind etwa bestimmte Gesichtsausdrücke und Körperhaltungen oder auch bestimmte Zustände des viszeralen Systems. Beispielsweise wird bei der Emotion „Angst“ die Muskulatur angespannt, die Verdauung reduziert und ein Fluchtreflex eingeleitet. Freilich können die Körper- und Gemütszustände der Emotionen wiederum durch Gefühle wahrgenommen werden. • Everything that is necessary for life is of high biological value for any organism (food, sleep, reproduction, etc.). These trigger emotions. 246 10. Sprache und Körper • Feelings are perceptions of bodily states. Emotions are sequences of actions combined with thoughts. 10.4.2 Hypothese der somatischen Marker Die Hypothese der somatischen Marker (somatic marker hypothesis) besagt, dass zur Entscheidungsfindung auch körperliche Empfindungen herangezogen werden und nicht nur alle logisch möglichen Verläufe durchprobiert und dann die beste Möglichkeit ausgewählt werden. Damit kann eine Entscheidung in wesentlich kürzerer Zeit getroffen werden, denn im Normalfall gibt es sehr viele theoretische Möglichkeiten, die berücksichtigt und abgewogen werden müssen (Damasio (1994), Damasio (1996)). Das Schlussfolgern, die Entscheidungsfindung und das Problemlösen sind zentrale Aufgaben, die von der kognitiven Psychologie untersucht werden. Beispiele dafür sind etwa die Planung von Handlungen („Welchen Weg nehme ich am besten durch den Supermarkt? “) aber auch Entscheidungen („Welches Auto soll ich kaufen? “ oder „Wohin soll ich auf Urlaub fahren? “). Damit so eine Frage beantwortet werden kann, müssen alle verfügbaren Informationen gesammelt und gegeneinander abgewogen werden. Es kann der Fall sein, dass alle vorhandenen Informationen eindeutig auf eine Entscheidung weisen, es ist jedoch auch möglich, dass die vorhandenen Informationen widersprüchlich sind und es keine eindeutige Lösung gibt. Beispielsweise kann die Frage nach dem Urlaubsort verschiedene Parameter beinhalten wie etwa das zur Verfügung stehende Budget (ich habe 600 Euro), die mögliche Zeit (maximal zwei Wochen), die Entfernung (will ich nach Portugal, so ist das 4.000 Kilometer entfernt), persönliche Temperaturpräferenzen (bei mehr als 25 Grad wird mir schlecht) usw. usf. Damasio geht davon aus, dass all dieses Wissen dispositionell gespeichert ist und erst explizit gemacht werden muss (Damasio (1996): 1414 (3.)). Dies hieße etwa, dass ich mir erst in Erinnerung bringen muss, was die letzten drei Male am Strand passiert ist (es war so heiß, dass die Luft beim Atmen in der Nase gebrannt hatte, der Kreislauf ist zusammengebrochen und man hat sich tagelang im gekühlten Hotelzimmer hinlegen müssen), damit explizit die Tatsache klar wird: „Ich will keinen Strandurlaub im Süden.“ Damit eine Entscheidung getroffen oder eine Schlussfolgerung durchgeführt werden kann, ist es notwendig, Informationen aus verschiedenen Arten von Wissen heranzuziehen und miteinander zu verknüpfen. Damasio nennt hier folgende unterschiedliche Typen: Zunächst das Wissen über die Zustände des eigenen Körpers, die über Emotionen direkt erfahrbar werden; weiters das Wissen über die externe Welt, insbesondere das Wissen über Objekte und Ereignisse sowie Handlungen und Geschichten. Diese beiden Wissensarten werden durch die eigene Erfahrung miteinander kombiniert (Damasio (1996): 1414 10.4 Bewusstsein als Verbindung zwischen Körper und Kognition 247 (4.)): Jeder Mensch interagiert mit der Umwelt und deren Objekten, so dass eigene Erfahrungen im Körper entstehen (z.B. wie sich ein Stück Samt anfühlt, wie es sicht anfühlt, bei 40 Grad über einen Sandstrand zu gehen, wie sich ein Sprung ins kalte Wasser anfühlt und welche emotionalen Empfindungen man dabei hat), die wiederum über Emotionen erkennbar werden. Schließlich können in einem abschließenden Schritt alle vorhergehenden Wissenstypen kategorisert werden. Es entsteht das klassische, in Kategorien geordnete Wissen, das dann auch durch Wörter benannt werden kann. Damasio geht davon aus, dass das kategorisierte Wissen aus Wissen über den eigenen Körper, Wissen über externe Objekte und Wissen über die individuellen Erfahrungen, die über den eigenen Körper wahrgenommen werden, besteht. Dieses Bild ist weit von einer rein symbolischen (und mit einer Programmiersprache nachbildbaren) Repräsentation entfernt. Kategorisiertes Wissen ist eine Kombination aus • Wissen über den eigenen Körper • Wissen über Objekte • Wissen über eigene Erfahrungen Damasio geht davon aus, dass auf Grund der Beschaffenheit des Wissens bei jeder Erinnerung immer auch somatische Marker aktiviert werden. Dies ist darin begründet, dass immer körperliche (und somit auch emotionale) Erfahrungen entstehen, wenn der Mensch mit der Umwelt interagiert. Erinnert man sich an etwas, so werden automatisch diese Körperempfindungen abgerufen, so dass die Erinnerung eine bestimmte emotionale Färbung erhält. Diese somatischen Marker erlauben es, die Informationsmenge, die zur Entscheidungsfindung durchforstet werden muss, sofort emotional zu bewerten. Damit erfolgt automatisch eine Gewichtung der vorhandenen Optionen, so dass nur noch eine geringe Auswahl wirklich explizit durchüberlegt werden muss. Die somatischen Marker werden also beim Erinnern aktiviert und sind gleichzeitig Teil der Erinnerung. Damasio verortet die Verarbeitung der somatischen Marker im ventromedialen präfrontalen Kortex (Damasio (1996): 1414 (b.1)). Dort erfolgt die Verknüpfung von Faktenwissen über die externe Welt mit den dazugehörigen körperlichen bzw. bioregulatorischen Zuständen. Somatic marker hypothesis • Bodily experiences are used in decision making and problem solving. • The set of information is usually enormous. Somatic markers restrict the search space. • When remembering something, somatic markers will always be activated as well. Therefore, the information that is retrieved is in uenced by emotions. 248 10. Sprache und Körper 10.4.3 Die polyvagale Theorie Stephen Porges (Porges (2001)) schlägt eine Theorie der emotionalen Verarbeitung vor, die auf der Funktion des Nervus vagus beruht. Im Mittelpunkt des Interesses stehen die Verarbeitung von Stress und traumatischen Situationen (siehe dazu auch Levine (2010)). Der Nervus vagus ist ein Nerv des parasympathischen Nervensystems (parasympathetic nervous system), das üblicherweise als der Gegenspieler des sympathischen Nervensystems betrachtet wird. Während das sympathische System (sympathetic nervous system) für die Steuerung der willkürlichen, quergestreiften Muskulatur zuständig ist und meist als Aktivierungsleitung betrachtet wird, ist das parasympathische System für die Entspannung, die vegetativen Funktionen und die Steuerung der glatten Muskulatur verant- Stephen Porges (*1945) wortlich. Der Nervus vagus dient vorwiegend dazu, das viszerale Gleichgewicht herzustellen, also die Versorgung und das Funktionieren der inneren Organe, des Herzes und der Atmung. Diese Steuerung erfolgt unwillkürlich. Der Nervus vagus ist als Ruhenerv bekannt und für die vegetative Funktion verantwortlich. Darüber hinaus steuert er den Kehlkopf, den Rachen und die obere Speiseröhre, womit er für das Schlucken und Sprechen relevant ist. Die emotionale Stimmung, mit der jede mündliche Äußerung gefärbt ist, wird auch unbewusst über den Vagus moduliert. Im Laufe der Evolution hat sich der Vagus von den einfachen Wirbeltieren über die Säugetiere bis hin zum Menschen immer weiterentwickelt und angepasst. Je höher die Lebewesen entwickelt sind, desto mehr Aufgaben fallen für den Vagus an. Geht es bei den einfachen Wirbeltieren zunächst nur um die reine Lebenserhaltung, so gipfelt das System beim Menschen in der Herstellung von positiven sozialen Beziehungen. Porges nennt drei zentrale Entwicklungsstufen dieses Nerves und bringt sie mit den unterschiedlichen Strategien zur Stressbewältigung und zum emotionalen Erleben in Verbindung. Zunächst ist bei einfachen Wirbeltieren wie etwa Fischen der dorsale Vagalkomplex entwickelt. Es handelt sich dabei um den markscheidenlosen Nervus vagus, der als einzig mögliche Reaktion auf Gefahr den Totstellreflex auslöst. Damit wird der Organismus geschont, der Stoffwechsel und Energieverbrauch auf ein Minimum reduziert. Durch die vollständige Immobilisierung wird versucht, gefährliche Situationen zu überleben. Die nächste Stufe des Vagus tritt mit den Reptilien auf. Diese verfügen bereits über ein sympathisches Nervensystem. Diese Stufe des Vagus kann somit die Fluchtreaktion auslösen, für die über das Rückenmark die Mobilisierung aller Energiereserven eingeleitet wird, so dass der Organismus so viel Kraft wie möglich für die Flucht aus der Gefahrenzone hat. Der Vagus bei Primaten und beim Menschen schließlich ist markscheidenhaltig, es tritt erstmals der ventrale Vagalkomplex auf. Mit ihm gewinnt das soziale System an Bedeutung. Die Selbstberuhigung und die Hemmung des sympathischen Nervensystems wird möglich. Die Leitungen des Vagus ge- 10.4 Bewusstsein als Verbindung zwischen Körper und Kognition 249 hen ab diesem Zeitpunkt auch über den Nucleus ambiguus, einem Kern der Medulla oblongata im Hirnstamm. Beim Menschen sind alle drei Systeme erhalten, da während der Evolution immer neue Schichten hinzukommen, die die jeweils vorhergehenden überlagern. Lebewesen Typ des Vagus Stressreaktion einfache Wirbeltiere dorsaler markscheidelos Totstellreflex Fische Vagalkomplex Reptilien sympathisches Fluchtreaktion Nervensystem Primaten und ventraler markscheidesoziales Menschen Vagalkomplex haltig System Tabelle 10.1: Entwicklungsstufen des Nervus vagus nach Porges (2001) Die emotionale Reaktion auf Stress (stress) verläuft entlang dieser evolutionären Linie. Zunächst antwortet das evolutionär jüngste System. Ist dies aus irgendeinem Grund nicht mehr möglich (z.B. Überlastung, da der auslösende Reiz zu stark ist), gibt diese Schicht auf und es wird auf das nächstältere System zurückgegriffen. Daher kann es auch beim Menschen mit schweren Schockzuständen zu einem Totstellreflex kommen, der dann anschließend mit einer Persönlichkeitsspaltung einhergehen kann (vgl. dazu auch Levine (2010)). Diese Auffassung steht im Gegensatz zu gängigen Theorien der Evolution, die davon ausgehen, dass das sympathische Nervensystem die Emotionen determiniert (Porges (2001)). Die vagale Bremse (vagal brake) (Porges (2001) § 7) ist eine Funktion des Nervus vagus. Sie kann bei Säugetieren den Herzmuskel direkt beeinflussen, also entwender anregen oder hemmen, das heißt, den Puls und den Blutdruck heben oder senken. Diese viszerale Bremse kann den Zustand des Gesamtorganismus schnell und effektiv beeinflussen, was in Gefahrensituationen von großem Vorteil ist. Funktioniert diese Bremse aus irgendwelchen Gründen nicht, so greift der Körper auf evolutionär ältere Mechanismen zurück, die eine ähnliche Wirkung haben, dafür aber mehr Kräfte verbrauchen. Porges nennt in diesem Fall eine höhere sympathische Exzitation und eine leichtere Irritation im Verhalten. Das System des sozialen Engagements (social engagement system) basiert laut Porges darauf, dass Primaten und Menschen den viszeralen Status des Körpers regulieren, um das Sozialverhalten zu unterstützen. Das viszerale System steuert direkt die gestreifte Muskulatur des Gesichts, den markscheidenhaltigen Vagus und das kraniale System. Die betroffenen Kerne im Hirnstamm beeinflussen viszeral efferente Bahnen, die wiederum die Augenlider, Gesichtsmuskeln, Mittelohrmuskeln, die Kaumuskulatur sowie laryngale und pharyngale Muskeln steuern. All dies sind Komponenten des emotionalen Aus- 250 10. Sprache und Körper drucks, der nicht nur über die Körperhaltung allgemein, sondern ganz besonders über die Gesichtsmimik und Stimmfärbung stattfindet. Weiters wird der Nucleus ambiguus direkt angesprochen. Das soziale System hat über verschiedene Botenstoffe (u.a. Oxytocin und Vasopressin) eine direkte Verbindung zu den Reaktionen auf Stresssituationen. vom Nervus vagus beeinflusste, sozial wichtige Komponenten • gestreifte Muskulatur im Gesicht • Augenlider • laryngale und pharyngale Muskeln (Stimme) Gemäß der polyvagalen Theorie ist das Sozialsystem bei Primaten und Menschen von so großer Bedeutung, da es als evolutionär jüngstes System zur Herstellung des viszeralen Gleichgewichts und der Steuerung der inneren Organe über das vegetative Nervensystem dient. Es kann dabei auch in Gefahren- und Stresssituationen auf die notwendige Reaktion zur Überlebenssicherung umschalten. Über den Nervus vagus erfolgt eine direkte und unmittelbare Verbindung vom Stresserleben und Steuerung der Gesichts- und Stimmmuskulatur, so dass die gefühlte Emotion kommuniziert und das soziale System zur Beruhigung aktiviert wird. Damit erklärt Porges (2001) soziale, emotionale und kommunikative Verhaltensweisen. Levine (2010) führt aufbauend auf die Theorie von Porges aus, wie eine psychologische bzw. psychotherapeutische Traumabehandlung vor sich geht. Gemäß der polyvagalen Theorie bricht nach und nach das System des Vagus zusammen. Erst wenn die PatientIn aus der untersten Schicht herausgeholt wurde (aus dem Totstellreflex) kann die nächste Stufe durchlebt werden die Fluchtreaktion. Schließlich kann über das höchste System, das Sozialsystem, wieder Kontakt zur Umwelt aufgebaut werden. Da das Sozialsystem ein direkter Bestandteil des emotionalen Verarbeitungssystem ist, ist es möglich, dass beim Menschen Stresssituationen durch soziale Interaktion gelindert werden können. Polyvagal theory • The nervus vagus is part of the parasympathetic nervous system. It controls the inner organs as well as facial and laryngal muscles. Being part of the autonomic nervous system, it is responsible for calmness. • The evolution of the nervus vagus took place in three steps. When under shock, sh and simple vertebrates can only freeze. Higher animals such as reptiles are able to ght. Apes and humans can also activate their social system. 10.4 Bewusstsein als Verbindung zwischen Körper und Kognition 251 • The vagal system reacts to stress. It uses the vagal brake to shut down the organism. If it is not possible, the next older system is activated, giving rise to the following sequence: social system - ght - freeze. • The social engagement system is based on the fact that the visceral system regulates the social system. Since the nervus vagus controls facial and laryngal muscles, emotions are communicated through facial expressions and the voice. As a result, emotions are communicated to the social environment. Literatur Abe, Kentaro, & Watanabe, Dai. 2011. Songbirds possess the spontaneous ability to discriminate syntactic rules. Nature Neuroscience, 14, 1067-1074. Abercrombie, David. 1967. Elements of General Phonetics. Edinburgh: Edinburgh University Press. Aho, Alfred V., Sethi, Ravi, & Ullman, Jeffrey D. 1986. Compilers. Principles, Techniques, and Tools. Reading, Mass.: Addison-Wesley. Alama, Jesse. 2014. The Lambda Calculus. In: Zalta, Edward N. (Hrsg.), The Stanford Encyclopedia of Philosophy. Summer-2015. http: / / plato.stanford.edu/ archives/ sum2014/ entries/ lambda-calculus, abgerufen am 7.1.2016. Antoniou, Grigoris. 1997. Nonmonotonic Reasoning. Cambridge, Mass.: MIT Press. Archangeli, Diana, & Langendoen, D. Terrence. 1997. Optimality Theory. An Overview. Malden and Oxford: Blackwell. Asher, Nicholas, & Lascarides, Alex. 2001. Metaphor in Discourse. In: Bouillon, Pierre, & Busa, Federica (Hrsgg.), The Language of Word Meaning. Cambridge: Cambridge University Press, 262-289. Auer, Peter. 2001. Silben- und akzentzählende Sprachen. In: Haspelmath, Martin, & König, Ekkehard (Hrsgg.), Sprachtypologie und sprachliche Universalien. Ein internationales Handbuch. Berlin, New York, Amsterdam: de Gruyter, 1391-1399. Austin, John Langshaw. 1962. How to Do Things With Words. Cambridge, Mass.: Harvard University Press. Baader, Franz, Calvanese, Diego, McGuinness, Deborah, Nardi, Daniele, & Patel-Schneider, Peter. 2003. The Description Logic Handbook. Theory, Implementation and Applications. Cambridge: Cambridge University Press. Baker, Mark. 1996. The Polysynthesis Parameter. Oxford: Oxford University Press. Baker, Mark. 2001. The Atoms of Language. The Minds Hidden Rules of Grammar. New York: Basic Books. Baker, Mark. 2003a. Lexical Cateogories. Verbs, Nouns and Adjectives. Cambridge: Cambridge University Press. Literatur 253 Baker, Mark. 2003b. Linguistic differences and language design. Trends in Cognitive Sciences, 7, 349-353. Baker, Mark, Johnson, Kyle, & Roberts, Ian. 1989. Passive arguments raised. Linguistic Inquiry, 20, 219-251. Barbieri, Marcello. 2003. The Organic Codes. An Introduction to Semantic Biology. Cambridge: Cambridge University Press. Barbosa, Pilar, Fox, Danny, Hagstrom, Peter, McGinnis, Martha, & Pesetsky, David. 1998. Is The Best Good Enough? Optimality and Competition in Syntax. Cambridge, Massachusetts: MIT Press. Barsalou, Lawrence. 1999. Perceptual Symbol Systems. Behavioral and Brain Sciences, 22, 577-660. Barsalou, Lawrence W., & Hale, Christopher R. 1993. Components of Conceptual Represenation: From Feature Lists to Recursive Frames. In: Van Mechelen, I., Hapton, J., Michalski, R., & Theuns, P. (Hrsgg.), Categories and concepts: Theoretical views and inductive data analysis. San Diego: Academic Press, 97-144. Barwise, Jon, & Cooper, Robin. 1981. Generalized quantifiers and natural language. Linguistics and Philosophy, 4, 159-219. Baum, Shari R., & Pell, Marc D. 1999. The neural bases of prosody: Insights from lesion studies and neuroimaging. Aphasiology, 13, 581-608. Beeman, M. 1993. Semantic processing in the right hemisphere may contribute to drawing inferences from discourse. Brain and Language, 44, 80-120. Beeman, Mark. 1998. Corse Semantic Coding and Discourse Comprehension. In: Beeman, Mark, & Chiarello, Christine (Hrsgg.), Right Hemisphere Language Comprehension: Perspectives From Cognitive Neuroscience. Mahwah, NJ: Lawrence Erlbaum, 255-284. Beeman, Mark, & Chiarello, Christine. 1998. Right Hemisphere Language Comprehension: Perspectives from Cognitive Neuroscience. Mahwah: Erlbaum. Beer, Randall D. 2000. Dynamical approaches to cognitive science. Trends in Cognitive Sciences, 4(3), 91-99. Bellugi, Ursula, Marks, S, Bihrle, A, & Sabo, H. 1988. Dissociation Between Language and Cognitive Functions in Williams Syndrome. In: Bishop, Dorothy, & Mogford, Kay (Hrsgg.), Language Development in Exceptional Circumstances. Edinburgh: Churchill Livingstone, 177-189. Berger, Hans. 1929. Über das Elektrenkephalogramm des Menschen. Archiv für Psychiatrie, 87, 527-570. Berners-Lee, Tim. 2006. Design Issues: Linked Data. http: / / www.w3.org/ DesignIssues/ LinkedData.html, abgerufen am 4.1.2016. Berners-Lee, Tim, Hendler, James, & Lassila, Ora. 2001. The Semantic Web. Scientific American, 284, 34-43. 254 Literatur Berwick, Robert C., & Chomsky, Noam. 2011. The Biolinguistic Program: The Current State of Its Development. In: Di Sciullo, Anna Maria, & Boeckx, Cedric (Hrsgg.), The Biolinguistic Enterprise. New Perspectives on the Evolution and Nature of the Human Language Faculty. Oxford: Oxford University Press, 19-41. Berwick, Robert C., Okanoya, Kazuo, Beckers, Gabriel J.L., & Bolhuis, Johan J. 2011. Songs to syntax: the linguistics of birdsong. Trends in Cognitive Sciences, 15, 113-121. Bickerton, Derek. 1990. Language and Species. Chicago: University of Chicago Press. Bickerton, Derek. 1998. Catastrophic evolution: the case for a single step from protolanguage to full human language. In: Hurford, Jim (Hrsg.), Approaches to the Evolution of Language: Social and Cognitive Bases. Cambridge: Cambridge University Press, 341-358. Bickerton, Derek. 2007. Language evolution: A brief guide for linguists. Lingua, 117, 510-526. Bierwisch, Manfred. 1982. Formal and lexical semantics. Linguistische Berichte, 80, 3-17. Bierwisch, Manfred, & Lang, Ewald. 1987. Grammatische und konzeptuelle Aspekte von Dimensionsadjektiven. Berlin: Akademie-Verlag. Binder, Jeffrey R., & Desai, Rutvik H. 2011. The neurobiology of semantic memory. Trends in Cognitive Sciences, 15, 527-536. Blackburn, Patrick, van Benthem, Johan, & Wolter, Frank. 2007. Handbook of Modal Logic. Amsterdam: Elsevier. Bloom, Paul. 2000. How Children Learn the Meanings of Words. Cambridge, Mass.: MIT Press. Bloom, Paul. 2001. Précis of How Children Learn the Meanings of Words. Behavioral and Brain Sciences, 24, 1095-1103. Bloomfield, Leonard. 1933. Language. New York: Holt. Blutner, Reinhard. 1998. Lexical pragmatics. Journal of Semantics, 15, 115- 162. Blutner, Reinhard. 1999. Some Aspects of Optimality in Natural Language Interpretation. In: de Hoop, Helen, & de Swart, Henriette (Hrsgg.), Papers on Optimality Theoretic Semantics. University of Utrecht, 1-21. Blutner, Reinhard. 2004. Pragmatics and the Lexicon. In: Horn, L., & Ward, G. (Hrsgg.), The Handbook of Pragmatics. Oxford: Blackwell, 488-514. Boemio, Anthony, Fromm, Stephen, Braun, Allen, & Poeppel, David. 2005. Hierarchical and asymmetric temporal sensitivity in human auditory cortices. Nature Neuroscience, 8, 389-395. Boole, George. 1847. The Mathematical Analysis of Logic, Being an Essay Toward a Calculus of Deductive Reasoning. Cambridge: Macmillan. Literatur 255 Bopp, Franz. 1816. Über das Conjugationssystem der Sanskritsprache in Vergleichung mit jenen der griechischen, lateinischen, persischen und germanischen Sprache. Frankfurt am Main: Andreäische Buchh. Borer, Hagit. 1984. Parametric Syntax: Case Studies in Semitic and Romance Languages. Dordrecht: Foris. Boyd, Robert, & Richerson, Peter J. 1988. Culture and the Evolutionary Process. Chicago: University of Chicago Press. Bresnan, Joan. 1982. The Passive in Lexical Theory. In: Bresnan, Joan (Hrsg.), The Mental Representation of Grammatical Relations. Cambridge, Mass.: MIT Press, 3-86. Bresnan, Joan. 2001. Lexical-Functional Grammar. Blackwell Textbooks in Linguistics. Oxford: Blackwell. Broca, Paul. 1861. Remarque sur le siege de la faculté du language articulé, suivie d’une observation d’aphémie (perte de la parole). Bulletin de la société anatomique de Paris, 36, 330-356. Broca, Paul. 1865. Sur le siège de la faculté du langage articulé. Bulletins de la Société d’Anthropologie de Paris, 6, 377-393. Cacioppo, John T., & Petty, Richard E. 1982. The need for cognition. Journal of personality and social psychology, 42, 116-131. Carey, Susan. 2009. The Origin of Concepts. Oxford: Oxford University Press. Carey, Susan. 2011. Précis of The Origin of Concepts. Behavioral and Brain Sciences, 34, 113-167. Carruthers, Peter. 1996. Language, Thought, and Consciousness. Cambridge: Cambridge University Press. Carruthers, Peter. 2002. The cognitive functions of language. Behavioral and Brain Sciences, 25, 657-726. Carston, Robyn. 2002. Thoughts and Utterances: The Pragmatics of Explicit Communication. Oxford: Blackwell. Carstairs-McCarthy, Andrew. 1998. Synonymy Avoidance, Phonology and the Origin of Syntax. In: Hurford, Jim (Hrsg.), Approaches to the Evolution of Language: Social and Sognitive Bases. Cambridge: Cambridge University Press, 279-296. Carstairs-McCarthy, Andrew. 1999. The Origins of Complex Language: An Inquiry into the Evolutionary Beginnings of Sentences, Syllables and Truth. Oxford: Oxford University Press. Carston, Robyn. 2003. Metaphor, ad hoc concepts and word meaning - more questions than answers. UCL Working Papers, 83-105. Casati, Roberto, & Varzi, Achille C. 1994. Holes and Other Superficialities. Cambridge, Mass.: MIT Press. Cavalli-Sforza, Luigi L., & Feldman, Marcus W. 1981. Cultural Transmission and Evolution: A Quantitative Approach. Princeton: Princeton University Press. 256 Literatur Chomsky, Noam. 1956. Three models for the description of language. Information Theory, IRE Transactions on, 2(3), 113-124. Chomsky, Noam. 1957. Syntactic Structures. ’s-Gravenhage: Mouton. Chomsky, Noam. 1959a. On certain formal properties of grammars. Information and control, 2(2), 137-167. Chomsky, Noam. 1959b. A review of B. F. Skinner’s Verbal Behavior. Language, 35(1), 26-58. Chomsky, Noam. 1965. Aspects of the Theory of Syntax. Cambridge, Mass.: MIT Press. Chomsky, Noam. 1970. Remarks on Nominalization. In: Jacobs, R., & Rosenbaum, P. (Hrsgg.), Readings in English transformational grammar. Waltham, Mass.: Ginn, 184-221. Chomsky, Noam. 1980. Rules and Representations. Oxford: Blackwell. Chomsky, Noam. 1981. Lectures on Government and Binding: The Pisa Lectures. Dordrecht: Foris. Chomsky, Noam. 1986. Knowledge of Language. New York: Praeger. Chomsky, Noam. 1995. The Minimalist Program. Cambridge, Mass.: MIT Press. Chomsky, Noam. 2001. Derivation by Phase. In: Kenstowicz, Michael (Hrsg.), Ken Hale. A Life in Language. Cambridge, Mass.: MIT Press, 1-52. Chomsky, Noam. 2004. Beyond Explanatory Adequacy. In: Belletti, Adriana (Hrsg.), The Cartography of Syntactic Structures. Structures and Beyond. Oxford: Oxford University Press, 104-131. Chomsky, Noam. 2006. Approaching UG from below. In: Gärtner, Hans-Martin, & Sauerland, Uli (Hrsgg.), Interfaces + Recursion = Language? Chomsky’s Minimalism and the View from Syntax-Semantics. Berlin: de Gruyter, 1-30. Chomsky, Noam, & Halle, Morris. 1968. The Sound Pattern of English. New York: Harper & Row. Church, Alonzo. 1932. A set of postulates for the foundation of logic. Annals of Mathematics, 346-366. Church, Alonzo. 1936. An unsolvable problem of elementary number theory. American Journal of Mathematics, 345-363. Clark, Andy. 1999. An embodied cognitive science? Trends in Cognitive Sciences, 3, 345-351. Clark, Andy. 2008a. Embodiment and Explanation. In: Calvo, Paco, & Gomila, Antoni (Hrsgg.), Handbook of Cognitive Science. An Embodied Approach. Amsterdam: Elsevier, 41-58. Clark, Andy. 2008b. Supersizing the Mind: Embodiment, Action, and Cognitive Extension: Embodiment, Action, and Cognitive Extension. Oxford: Oxford University Press. Codd, Edgar F. 1970. A relational model of data for large shared data banks. Communications of the ACM, 13, 377-387. Literatur 257 Copeland, B. Jack. 2015. The Church-Turing Thesis. In: Zalta, Edward N. (Hrsg.), The Stanford Encyclopedia of Philosophy. Summer- 2015. http: / / plato.stanford.edu/ archives/ sum2015/ entries/ church-turing, abgerufen am 7.1.2016. Cross, Ian. 2009. The evolutionary nature of musical meaning. Musicae scientiae, 12, 179-200. Daltrozzo, Jérôme, & Schön, Daniele. 2009. Conceptual processing in music as revealed by N400 effects on words and musical targets. Journal of Cognitive Neuroscience, 21, 1882-1892. Damasio, Antonio. 1989. Time-locked multiregional retroactivation: a systemslevel proposal for the neural substrates of recall and recognition. Cognition, 33, 25-62. Damasio, Antonio. 1994. Descartes’ Error: Emotion, Reason and the Human Brain. New York: Putnam. Damasio, Antonio. 1996. The somatic marker hypothesis and the possible functions of the prefrontal cortex. Philosophical Transactions of the Royal Society B, 351, 1413-1420. Damasio, Antonio. 1999. The Feeling of What Happens. New York: Harcourt Brace. Damasio, Antonio. 2010. Self Comes To Mind. Constructing The Conscoius Brain. New York: Pantheon. Darwin, Charles. 1859. The Origin of Species by Means of Natural Selection, or the Preservation of Favoured Races in the Struggle for Life. London: John Murray. Darwin, Charles. 1871. The Descent of Man and Selection in Relation to Sex. London: John Murray. Dauer, R.M. 1983. Stress-timing and syllable-timing reanalyzed. Journal of Phonetics, 11, 51-62. Davidson, Donald. 1975. Thought and Talk. In: Guttenplan, Samuel (Hrsg.), Mind and Language. Oxford: Claredon Press, 7-23. Dawkins, Richard. 1976. The Selfish Gene. Oxford: Oxford University Press. Deacon, Terrence W. 1997. The Symbolic Species. The Co-evolution of Language and the Brain. New York: Norton. Dembski, William A, & Colson, Charles W. 2004. The Design Revolution: Answering the Toughest Questions About Intelligent Design. Downers Grove, Ill.: InterVarsity Press. Dogil, Grzegorz, Grodd, Hermann Ackermann Wolfgang, Haider, Hubert, Kamp, Hans, Mayer, Jörg, Riecker, Axel, & Wildgruber, Dirk. 2002. The speaking brain: a tutorial introduction to fMRI experiments in the production of speech, prosody and syntax. Journal of Neurolinguistics, 15(1), 59-90. 258 Literatur Dowling, W. Jay, & Harwood, Dane L. 1986. Music Cognition. New York: Academic Press. Dowty, David R. 1979. Word Meaning and Montague Grammar. The Semantics of Verbs and Times in Generative Semantics and in Montague’s PTQ. Synthese Language Library. Dordrecht: D. Reidel. Dressler, Wolfgang U. 1990. The cognitive perspective of “naturalist” linguistic models. Cognitive Linguistics, 1, 75-98. Dressler, Wolfgang U., Mayerthaler, Willi, Panagl, Oswald, & Wurzel, Wolfgang Ullrich. 1987. Leitmotifs in Natural Morphology. Amsterdam: John Benjamins. Dudenredaktion. 2006. Duden Die Grammatik. 7. Auflage. Mannheim: Dudenverlag. Dunbar, Robin. 1996. Grooming, Gossip, and the Evolution of Language. Cambridge, Mass.: Harvard University Press. Dunbar, Robin. 1998. Theory of Mind and the Evolution of Language. In: Hurford, Jim (Hrsg.), Approaches to the Evolution of Language: Social and Cognitive Bases. Cambridge: Cambridge University Press, 92-110. Eckardt, Regine. 2000. Causation, Contexts, and Event Indivituation. In: Higginbotham, James, Pianesi, Fabio, & Varzi, Achille C. (Hrsgg.), Speaking of Events. Oxford: Oxford University Press, 105-123. Eisenberg, Peter. 1994. Grundriß der deutschen Grammatik. Stuttgart: J. B. Metzler. 3. Auflage. Fauconnier, Gilles, & Turner, Mark. 2002. The Way We Think: Conceptual Blending and The Mind’s Hidden Complexities. New York: Basic Books. Fehr, Elfriede. 1989. Semantik von Programmiersprachen. Berlin, Heidelberg, New York, London, Paris, Tokyo: Springer. Feldman, Gerald. 2006. From Molecules to Metaphor: A Neural Theory of Language. Cambridge, Massachusetts: MIT Press. Fitch, W. Tecumseh. 2006. The biology and evolution of music: A comparative perspective. Cognition, 100, 173-215. Fitch, W. Tecumseh. 2009. Prolegomena to a future science of biolinguistics. Biolinguistics, 3, 283-320. Fitch, W. Tecumseh. 2012. The Biology and Evolution of Rhythm: Unravelling a Paradox. In: Rebuschat, Patrick, Rohrmeier, Martin, Hawkins, John A., & Cross, Ian (Hrsgg.), Language and Music as Cognitive Systems. Oxford: Oxford University Press, 73-95. Fitch, W. Tecumseh, & Reby, David. 2001. The descended larynx is not uniquely human. Proceedings of the Royal Society of London B, 268, 1669-1675. Fitch, W. Tecumseh, Hauser, Marc, & Chomsky, Noam. 2005. The evolution of the language faculty: Clarifications and implications. Cognition, 97, 179- 210. Literatur 259 Fodor, Jerry. 1975. The Language of Thought. Cambridge, Mass.: Harvard University Press. Fodor, Jerry. 1983. The Modularity of Mind. Cambridge, Mass.: MIT Press. Fodor, Jerry. 1998. Concepts: Where Cognitive Science Went Wrong. Oxford: Claredon Press. Fodor, Jerry. 2000. The Mind Doesn’t Work That Way. Cambridge, Mass.: MIT Press. Fodor, Jerry, & Piattelli-Palmarini, Massimo. 2010. What Darwin Got Wrong. London: Profile. Frege, Gottlob. 1879. Begriffsschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens. Halle: Louis Nebert. Frege, Gottlob. 1892. Ueber Sinn und Bedeutung. Zeitschrift für Philosophie und philosophische Kritik, 100, 25-50. Frege, Gottlob. 1893. Grundgesetze der Arithmetik. Jena: Hermann Pohle. Friederici, Angela D. 2002. Towards a neural basis of auditory sentence processing. Trends in Cognitive Sciences, 6, 78-84. Friedl, Jeffrey E. F. 2002. Mastering Regular Expressions. Sebastopol, Calif.: O’Reilly. 2. Auflage. Friedman, Naama, Taranto, Gina, Shapiro, Lewis P., & Swinney, David. 2008. The leaf fell (the leaf): The online processing of unaccusatives. Linguistic Inquiry, 39, 355-377. Friedrich, Roland, & Friederici, Angela D. 2009. Mathematical logic in the human brain: syntax. PloS one, 4, e5599. Gavins, Joanna, & Steen, Gerard. 2003. Cognitive Poetics in Practice. London, New York: Routledge. Gentner, Dedre. 1988. Metaphor as structure mapping. The relational shift. Child Development, 59, 47-59. Gentner, Dedre. 2003. Why We’re So Smart. In: Gentner, Dedre, & Goldin- Meadow, Susan (Hrsgg.), Language in Mind: Advances in the Study of Language and Thought. Cambridge, Mass.: MIT Press, 195-235. Gentner, Timothy Q., Fenn, Kimberly M., Margoliash, Daniel, & Nusbaum, Howard C. 2006. Recursive syntactic pattern learning by songbirds. Nature, 440, 1204-1207. Gibbs, Raymond. 2006. Embodiment and Cognitive Science. New York: Cambridge University Press. Gibson, Edward, & Wexler, Kenneth. 1994. Triggers. Linguistic Inquiry, 25, 407-454. Giora, Rachel. 1997. Understanding figurative and literal language: The Graded Salience Hypothesis. Cognitive Linguistics, 7, 183-206. Giora, Rachel. 2002. Literal vs. figurative language: different or equal? Journal of Pragmatics, 34, 487-506. 260 Literatur Giora, Rachel. 2003. On Our Mind: Salience, Context, and Figurative Language. New York: Oxford University Press. Giora, Rachel, Zaidel, E., Soroker, N., Batori, G., & Kasher, A. 2000. Differential effects of rightand left-hemisphere damage on understanding sarcasm and metaphor. Metaphor and Symbol, 15, 63-83. Gold, E. Mark. 1967. Language identification in the limit. Information and Control, 10, 447-474. Goldberg, Adele. 1995. Constructions: A Construction Grammar Approach to Argument Structure. Chicago: University of Chicago Press. Goldberg, Adele. 2003. Constructions: a new theoretical approach to language. Trends in Cognitive Sciences, 7, 219-224. Goldberg, Adele. 2006. Constructions at Work: The Nature of Generalization in Language. Oxford: Oxford University Press. Goldenberg, Georg. 1997. Neuropsychologie. Grundlagen, Klinik, Rehabilitation. Stuttgart, Jena, Lübeck, Ulm: Gustav Fischer Verlag. Gopnik, Allison, & Meltzoff, Andrew. 1997. Words, Thoughts and Theories. Cambridge, Mass.: MIT Press. Gopnik, Myrna. 1990. Feature-blind grammar and dysphasia. Nature, 344, 715. Gopnik, Myrna, & Crago, Martha B. 1991. Familial aggregation of a developmental language Disorder. Cognition, 39, 1-50. Greenberg, Joseph H. 1963. Some Universals of Grammar with Particular Reference to the Order of Meaningful Elements. In: Greenberg, Joseph H. (Hrsg.), Universals of Language. Cambridge, Mass.: MIT Press, 73-113. Greenberg, Joseph H. 1966. Language Universals: With Special Reference to Feature Hierarchies. The Hague: Mouton. Grice, Paul. 1975. Logic and Conversation. In: Cole, Peter, & Morgan, Jerry L. (Hrsgg.), Speech Acts. New York: Academic Press, 41-58. Grimshaw, Jane. 1997. Projection, heads, and optimality. Linguistic Inquiry, 28, 373-422. Grodzinsky, Yosef. 2000. The neurology of syntax: Language use without Broca’s area. Behavioral and Brain Sciences, 23, 1-71. Grodzinsky, Yosef, & Friederici, Angela D. 2006. Neuroimaging of syntax and syntactic processing. Current Opinion in Neurobiology, 16, 240-246. Grodzinsky, Yosef, Pierce, Amy, & Marakovits, Susan. 1991. Neuropsychological evidence for a transformational analysis of the verbal passive. Natural Language and Linguistic Theory, 9, 431-453. Gärdenfors, Peter. 1996. Conceptual Spaces as a Basis for Cognitive Semantics. In: Clark, Andy, Ezquerro, Jesus, & Larrazabal, Jesus M. (Hrsgg.), Philosophy and Cognitive Science: Categories, Consciousness, and Reasoning. Dordrecht: Kluwer, 159-180. Literatur 261 Gärdenfors, Peter. 2000. Conceptual Spaces: The Geometry of Thought. Cambridge, Mass.: MIT Press. Hale, Ken, & Keyser, Samuel Jay. 1993. On Argument Structure and the Lexical Expression of Syntacitc Relations. In: Hale, Ken, & Keyser, Sam Jay (Hrsgg.), The view from building 20. Cambridge, Mass.: MIT Press, 53-109. Harlow, Harry F., & Mears, Clara. 1979. The Human Model: Primate Perspectives. New York: Wiley. Harris, Steve, & Seaborne, Andy. 2013. SPARQL 1.1 Query Language. W3C Recommendation. http: / / www.w3.org/ TR/ 2013/ REC-sparql11-query- 20130321, abgerufen am 4.1.2016. Hauser, Marc, Chomsky, Noam, & Fitch, W. Tecumseh. 2002. The faculty of language: what is it, who has it, and how did it evolve? Science, 298, 1569- 1579. Hauser, Marc D, & McDermott, Josh. 2003. The evolution of the music faculty: A comparative perspective. Nature neuroscience, 6(7), 663-668. Hebb, Donald O. 1949. The Organization of Behavior: A Neurophysiological Approach. New York: Wiley. Heim, Irene. 1982. The Semantics Of Definite and Indefinite Noun Phrases. Dissertation University of Massachusetts at Amherst. Helbig, Gerhard. 1991. Deutsche Grammatik. Grundfragen und Abriß. München: iudicium verlag. Henzinger, Monika. 2010. Algorithmic Game Theory or How Web Search Engines Make Money. Antrittsvorlesung Universität Wien. Hilbert, David, & Ackermann, Wilhelm. 1928. Grundzüge der theoretischen Logik. Berlin, Heidelberg: Springer. Hodges, Wilfrid. 1997. A Shorter Model Theory. Cambridge: Cambridge University Press. Hofbauer, Josef, & Sigmund, Karl. 1984. Evolutionstheorie und dynamische Systeme. Mathematische Aspekte der Selektion. Berlin, Hamburg: Parey. Hofbauer, Josef, & Sigmund, Karl. 1998. Evolutionary Games and Population Dynamics. Cambridge: Cambridge University Press. Hoffmann, Dirk. 2011. Grenzen der Mathematik. Eine Reise durch die Kerngebiete der mathematischen Logik. Heidelberg: Spektrum Akademischer Verlag. Horn, Lawrence R. 1984. Toward a New Taxonomy for Pragmatic Inference: Q-based and R-based Implicatures. In: Schiffrin, D. (Hrsg.), Meaning, Form, and Use in Context. Washington: Georgetown University Press, 11-42. Hurford, James R. 2003. The neural basis of predicate argument structure. Behavioral and Brain Sciences, 26, 261-316. Huybregts, Riny. 1984. The Weak Inadequacy of Context-free Phrase Structure Grammars. In: Trommelen, M., de Haan, G. J., & Zonneveld, W. (Hrsgg.), Van Periferie Naar Kern. Dordrecht: Foris, 81-99. 262 Literatur Jackendoff, Ray. 1977. ¯ X Syntax. A Study of Phrase Structure. Cambridge, Mass.: MIT Press. Jackendoff, Ray. 1983. Semantics and Cognition. Cambridge, Mass.: MIT Press. Jackendoff, Ray. 1989. What is a concept that a person may grasp it? Mind and Language, 4, 68-102. Jackendoff, Ray. 1990. Semantic Structures. Cambridge, Mass.: MIT Press. Jackendoff, Ray. 2009. Parallels and nonparallels between language and music. Music Perception: An Interdisciplinary Journal, 26(3), 195-204. James, William. 1907. Pragmatism’s conception of truth. The Journal of Philosophy, Psychology and Scientific Methods, 4, 141-155. Jenkins, Lyle. 2000. Biolinguistics. Cambridge: Cambridge University Press. Joshi, Aravind K. 1985. Tree Adjoining Grammars: How Much Contextsensitivity is Required to Provide Reasonable Structural Descriptions? In: Dowty, David, Karttunen, Lauri, & Zwicky, Arnold (Hrsgg.), Natural Language Parsing. Cambridge: Cambridge University Press, 206-250. Jäger, Gerhard. 2007. Evolutionary game theory and typology: a case study. Language, 83, 74-109. Jäger, Gerhard. 2008a. Applications of game theory in linguistics. Language and Linguistics Compass, 2/ 3, 406-421. Jäger, Gerhard. 2008b. Game Theory in Semantics and Pragmatics. Unveröffentlichte Vorversion. Universität Bielefeld. Jäger, Gerhard. 2011. Game-Theoretical Pragmatics. In: van Benthem, Johan, & ter Meulen, Alice (Hrsgg.), Handbook of Logic and Language. Amsterdam: Elsevier, 467-491. 2. Auflage. Jäger, Gerhard. 2012. Game Theory in Semantics and Pragmatics. In: Maienborn, Claudia, Portner, Paul, & von Heusinger, Klaus (Hrsgg.), Semantics. An International Handbook of Natural Language Meaning. Berlin: de Gruyter, 2487-2516. Jäger, Gerhard, Metzger, Lars P., & Riedel, Frank. 2011. Voronoi Languages: Equilibria in Cheap-Talk Games With High-Dimensional Types and Few Signals. Games and Economic Behavior, 73, 517-573. Kamp, Hans. 1968. Tense Logic and the Theory of Linear Order. Dissertation University of California Los Angeles. Kamp, Hans. 1981. A Theory of Truth and Semantic Representation. In: Groenendijk, J.A.G., Janssen, T.M.V., & Stokhof, M.B.J. (Hrsgg.), Formal Methods in the Study of Language. Amsterdam: Mathematisch Centrum, 277-322. Karstensen, Kai-Uwe, Ebert, Christian, Ebert, Cornelia, Jekat, Susanne, Langer, Hagen, & Klabunde, Ralf. 2010. Computerlinguistik und Sprachtechnologie. Eine Einführung. Heidelberg: Spektrum. 3. Auflage. Kauffman, Stuart. 1993. The Origins of Order: Self-Organization and Selection in Evolution. Oxford: Oxford University Press. Literatur 263 Kauffman, Stuart. 1995. At Home in the Universe. Oxford: Oxford University Press. Kauffman, Stuart. 2010. Reinventing the Sacred: A New View of Science, Reason, and Religion. Basic Books. Kayne, Richard. 1994. The Antisymmetry of Syntax. Cambridge, Mass.: MIT Press. Kayne, Richard. 2009. Antisymmetry and the Lexicon. Linguistic Variation Yearbook, 8, 1-31. Keil, Frank C. 1979. Semantics and Conceptual Development. Cambridge, Mass.: Harvard University Press. Kemmerer, David, & Gonzalez-Castillo, Javier. 2010. The two-level theory of verb meaning: an approach to integrating the semantics of action with the mirror neuron system. Brain and Language, 112, 54-76. Kiefer, Markus, & Pulvermüller, Friedemann. 2012. Conceptual representations in mind and brain: theoretical developments, current evidence and future directions. Cortex, 48, 805-825. Kintsch, Walter. 2000. Metaphor comprehension. A computational theory. Psychonomic Bulletin and Review, 7, 257-266. Kintsch, Walter. 2001. Predication. Cognitive Science, 25, 173-202. Koelsch, Stefan. 2010. Towards a neural basis of music-evoked emotions. Trends in Cognitive Sciences, 14, 131-137. Koelsch, Stefan. 2011a. Toward a neural basis of music perception - a review and updated model. Frontiers in Psychology, 2. Koelsch, Stefan. 2011b. Towards a neural basis of processing musical semantics. Physics of life reviews, 8, 89-105. Koelsch, Stefan, Kasper, Elisabeth, Sammler, Daniela, Schulze, Katrin, Gunter, Thomas, & Friederici, Angela D. 2004. Music, language and meaning: brain signatures of semantic processing. Nature neuroscience, 7, 302-307. Koelsch, Stefan, Siebel, Walter A., et al. 2005. Towards a neural basis of music perception. Trends in Cognitive Sciences, 9, 578-584. Koring, Loes, Mak, Pim, & Reuland, Eric. 2012. The time course of argument reactivation revealed: Using the visual world paradigm. Cognition, 123, 361- 379. Kowalski, Robert. 2011. Computational Logic and Human Thinking: How to be Artificially Intelligent. Cambridge: Cambridge University Press. Kratzer, Angelika. 1977. What “must” and “can” must and can mean. Linguistics and Philosophy, 1, 337-355. Kratzer, Angelika. 1986. Conditionals. Chicago Linguistics Society, 22, 1-15. 264 Literatur Krifka, Manfred. 2007. Functional Similarities between Bimanual Coordination and Topic/ Comment Structure. In: Ishihara, S., Jannedy, S., & Schwarz, A. (Hrsgg.), Interdisciplinary Studies on Information Structure 08. Universitätsverlag Potsdam, 61-96. Kripke, Saul A. 1963. Semantical analysis of modal logic I. Normal modal propositional calculi. Zeitschrift für mathematische Logik und Grundlagen der Mathematik, 9, 67-96. Kuperberg, Gina R., Sitnikova, Tatiana, Caplan, David, & Holcomb, Phillip J. 2003. Electrophysiological distinctions in processing conceptual relationships within simple sentences. Cognitive Brain Research, 17, 117-129. Kutas, Marta, & Federmeier, Kara D. 2009. N400. Scholarpedia, 4, 7790. http: / / www.scholarpedia.org/ article/ N400, abgerufen am 16.1.2016. Ladd, Robert. 2008. Intonational Phonology. Cambridge: Cambridge University Press. 2. Auflage. Lakoff, George. 1987. Women, Fire, and Dangerous Things: What Categories Reveal About The Mind. Chicago: Chicago University Press. Lakoff, George. 2008. The Neural Theory of Metaphor. In: Gibbs, Raymond (Hrsg.), Cambridge Handbook of Metaphor and Thought. Cambridge: Cambridge University Press, 17-38. Lakoff, George, & Johnson, Mark. 1980. Metaphors We Live By. Chicago: Chicago University Press. Lakoff, George, & Johnson, Mark. 1999. Philosophy in the Flesh: The Embodied Mind and its Challenge to Western Thought. New York: Basic Books. Lakoff, George, & Turner, Mark. 1989. More Than Cool Reason: A Field Guide to Poetic Metaphor. Chicago: University of Chicago Press. Landauer, Thomas K., & Dumais, Susan. 1997. A solution to Plato’s problem: The Latent Semantic Analysis theory of acquisition, induction, and representation of knowledge. Psychological Review, 104, 211-240. Landauer, Thomas K., Foltz, Peter, & Laham, Darrell. 1998. An introduction to Latent Semantic Analysis. Discourse Processes, 25, 259-284. Leinfellner, Elisabeth. 1992. Fritz Mauthner (1849-1923). In: Dascal, Marcello (Hrsg.), Sprachphilosophie: Ein internationales Handbuch zeitgenössischer Forschung. Berlin: de Gruyter, 495-509. Lenneberg, Eric H. 1967. Biological Foundations of Language. New York: Wiley. Lerdahl, Fred, & Jackendoff, Ray S. 1983. A Generative Theory of Tonal Music. Cambridge, Mass.: MIT Press. Levine, Peter A. 2010. In An Unspoken Voice. How the Body Releases Trauma and Restores Goodness. Berkeley: North Atlantic. Levinson, Stephen. 2000. Presumptive Meanings: The Theory of Generalized Conversational Implicature. Cambridge, Mass.: MIT Press. Literatur 265 Lewens, Tim. 2013. Cultural Evolution. In: Zalta, Edward N. (Hrsg.), The Stanford Encyclopedia of Philosophy. Spring-2013. http: / / plato.stanford.edu/ archives/ spr2013/ entries/ evolution-cultural, abgerufen am 7.1.2016. Lewis, Clarence Irving, & Langford, Cooper Harold. 1932. Symbolic Logic. New York: The Century. Lewis, David. 1969. Convention: A Philosophical Study. Cambridge, Mass.: Harvard University Press. Lewis, David. 1973a. Causation. The Journal of Philosophy, 556-567. Lewis, David. 1973b. Counterfactuals. Cambridge, Mass.: Harvard University Press. Lewis, Harry R., & Papadimitriou, Christos H. 1998. Elements of the Theory of Computation. Second Edition. Upper Saddle River, New Jersey: Prentice-Hall. Lichtheim, Ludwig. 1885. Ueber Aphasie. Deutsches Archiv für klinische Medizin, 36, 204-268. Linz, Peter. 2001. An Introduction to Formal Languages and Automata. Sudbury, Mass.: Jones and Bartlett. 3. Auflage. Lipp, Hans Martin, & Becker, Jürgen. 2008. Grundlagen der Digitaltechnik. München, Wien: Oldenbourg Verlag. 6. Auflage. Luck, Steven J. 2014. An Introduction to the Event-Related Potential Technique. Cambridge, Mass.: MIT Press. 2. Auflage. Łukasiewicz, Jan. 1920. O logice trojwartosciowej. Ruch Filozoficny, 5, 170- 171. Manning, Christopher D, & Schütze, Hinrich. 1999. Foundations of Statistical Natural Language Processing. Cambridge, Mass.: MIT Press. Margolis, Eric, & Laurence, Stephen. 2014. Concepts. In: Zalta, Edward N. (Hrsg.), The Stanford Encyclopedia of Philosophy. Spring- 2014. http: / / plato.stanford.edu/ archives/ spr2014/ entries/ concepts, abgerufen am 7.1.2016. Markman, Ellen M. 1991. The Whole-Object, Taxonomic, and Mutual Exclusivity Assumptions as Initial Constraints on Word Meanings. In: Gelman, Susan A., & Byrnes, James P. (Hrsgg.), Perspectives on Language and Thought. Interrelations in Development. Cambridge: Cambridge University Press, 72- 106. Marx, Christy. 2004. Grace Hopper. The First Woman to Program the First Computer in the United States. New York: The Rosen Publishing Group. Mauthner, Fritz. 1910. Wörterbuch der Philosophie. Neue Beiträge zu einer Kritik der Sprache. Leipzig: Meiner. Mauthner, Fritz. 1920/ 23. Der Atheismus und seine Geschichte im Abendlande. Stuttgart, Berlin: Deutsche Verlags-Anstalt. Mauthner, Fritz. 1923. Beiträge zu einer Kritik der Sprache. Leipzig: Meiner. 3. Auflage. 266 Literatur Mauthner, Fritz. 1925. Die drei Bilder der Welt. Ein sprachkritischer Versuch. Erlangen: Verlag der philosophischen Akademie. Aus dem Nachlass herausgegeben von Monty Jacobs. Mayer, Jörg, & Dogil, Grzegorz. 2014. Sprache und Gehirn. Ein neurolinguistisches Tutorial. Universität Stuttgart. http: / / www2.ims.unistuttgart.de/ sgtutorial, abgerufen am 22.12.2015. Maynard Smith, John. 1982. Evolution and the Theory of Games. Cambridge: Cambridge University Press. Maynard Smith, John. 2002. Equations of Life. The Mathematics of Evolution. In: Farmelo, Graham (Hrsg.), It Must Be Beautiful. Great Equations of Modern Science. London, New York: Granta, 161-179. McClintock, Barbara. 1951. Chromosome organization and genic expression. Cold Spring Harbor Symposia on Quantitative Biology, 16, 13-47. McClintock, Barbara. 1956. Controlling elements and the gene. Cold Spring Harbor Symposia on Quantitative Biology, 21, 197-216. Medin, Douglas L, & Schaffer, Marguerite M. 1978. Context theory of classification learning. Psychological review, 85(3), 207. Meyer, Leonard B. 1956. Emotion and Meaning in Music. University of Chicago Press. Michaelis, Jens. 2001. Derivational Minimalism is Mildly Context-Sensitive. In: Moortgart, M. (Hrsg.), Logical Aspects of Computational Linguistics (LACL), Lecture Notes in Artificial Intelligence Vol. 2014. Springer: Heidelberg, 179- 198. Minsky, Marvin Lee. 1977. A Framework for Representing Knowledge. In: Winston, P. H. (Hrsg.), The Psychology of Computer Vision. New York: McGraw- Hill, 211-277. Montague, Richard. 1957. Contributions to the Axiomatic Foundations of Set Theory. Dissertation University of California at Berkeley. Montague, Richard. 1973. On the Proper Treatment of Quantification in Ordinary English. In: Hintikka, K. J. J., Moravcsik, J. M. E., & Suppes, P. (Hrsgg.), Approaches to Natural Language. Dordrecht: Reidel, 221-242. Moore, George E. 1953. Some Main Problems of Philosophy. London: George Allen and Unwin. Morris, Charles W. 1938. Foundations of the Theory of Signs. Chicago: University of Chicago Press. Murphy, Gregory L. 2002. The Big Book of Concepts. Cambridge, Mass.: MIT Press. Naumann, Sven, & Langer, Hagen. 1994. Parsing. Eine Einführung in die maschinelle Analyse natürlicher Sprache. Stuttgart: B. G. Teubner. Literatur 267 Naur, Peter, Backus, John W., Bauer, Friedrich L., Green, Julien, Katz, Charles, McCarthy, John, & Perlis, Alan J. 1963. Revised report on the algorithmic language Algol 60. Communications of the ACM, 6, 1-17. Nespor, Marina, & Vogel, Irene. 1986. Prosodic Phonology. Dordrecht: Foris. Nettl, Bruno. 2000. An Ethnomusicologist Contemplates Universals in Musical Sound and Musical Culture. In: Nils, Wallin, Merker, Björn, & Brown, Steven (Hrsgg.), The Origins of Music. Cambridge, Mass.: MIT Press, 463-472. Newmeyer, Frederick J. 1998. Language Form and Language Function. Cambridge, Mass.: MIT Press. Nielson Riis, Hanne, & Nielson, Flemming. 2007. Semantics with Applications: An Appetizer. London: Springer. Niyogi, Partha, & Berwick, Robert C. 1996. A language learning model for finite parameter spaces. Cognition, 61, 161-193. Noë, Alva. 2004. Action in Perception. Cambridge, Mass.: MIT Press. Nowak, Martin. 2006. Evolutionary Dynamics. Exploring the Equations of Life. Cambridge, Mass.: Belknap Press. Osbourne, Martin J., & Rubinstein, Ariel. 1994. A Course in Game Theory. Cambridge, Mass.: MIT Press. Osthoff, Hermann, & Brugman, Karl. 1878. Vorwort. In: Osthoff, Hermann, & Brugman, Karl (Hrsgg.), Morphologische Untersuchungen auf dem Gebiete der indogermanischen Sprachen. Leipzig: Hirzel, III-XV. Paivio, Allan. 1986. Mental Representation: A Dual Coding Approach. New York: Oxford University Press. Patel, Aniruddh D. 2008. Music, Language, and the Brain. New York: Oxford University Press. Patel, Aniruddh D. 2012. Language, Music, and the Brain: a Resource-Sharing Framework. In: Rebuschat, Patrick, Rohrmeier, Martin, Hawkins, John A., & Cross, Ian (Hrsgg.), Language and Music as Cognitive Systems. Oxford: Oxford University Press, 204-223. Patel, Aniruddh D. 2013. Sharing and Nonsharing of Brain Resources for Language and Music. In: Arbib, Michael (Hrsg.), Language, Music, and the Brain. Cambridge, Mass.: MIT Press, 329-355. Paul, Hermann. 1880. Principien der Sprachgeschichte. Halle (Saale): Niemeyer. Paul, Hermann. 1881. Mittelhochdeutsche Grammatik. Sammlung kurzer Grammatiken germanischer Dialekte. Halle (Saale): Niemeyer. Pawlowitsch, Christina. 2007. Finite populations choose an optimal language. Journal of Theoretical Biology, 249, 606-616. Pawlowitsch, Christina. 2008. Why evolution does not always lead to an optimal signaling system. Games and Economic Behavior, 63, 203-226. Peirce, Charles S. 1878. How to make our ideas clear. Popular Science Monthly, 12, 286-302. 268 Literatur Peirce, Charles Sanders. 1880. On the algebra of logic. American Journal of Mathematics, 3, 15-57. Peirce, Charles Sanders. 1931-1935. Collected Papers of Charles Sanders Peirce. Cambridge, Mass.: Harvard University Press. Pennock, Robert T. 2001. Intelligent Design Creationism and its Critics: Philosophical, Theological, and Scientific Perspectives. Cambridge, Mass.: MIT Press. Peretz, Isabelle. 2006. The nature of music from a biological perspective. Cognition, 100, 1-32. Peretz, Isabelle, & Coltheart, Max. 2003. Modularity of music processing. Nature neuroscience, 6, 688-691. Perlmutter, David. 1978. Impersonal passives and the unaccusative hypothesis. Berkeley Linguistics Society, 4, 157-189. Perlovsky, Leonid. 2001. Neural Networks and Intellect: Using Model-based Concepts. New York: Oxford University Press. Perlovsky, Leonid. 2007. Neural Dynamic Logic of Consciousness: the Knowledge Instinct. In: Perlovsky, Leonid, & Kozma, Robert (Hrsgg.), Neurodynamics of Cognition and Consciousness. Berlin and Heidelberg: Springer, 73-108. Perlovsky, Leonid. 2012. Cognitive function, origin, and evolution of musical emotions. Musicae Scientiae, 16, 185-199. Phillips-Silver, Jessica, & Trainor, Laurel J. 2005. Feeling the beat: Movement influences infant rhythm perception. Science, 308, 1430-1430. Phillips-Silver, Jessica, & Trainor, Laurel J. 2007. Hearing what the body feels: Auditory encoding of rhythmic movement. Cognition, 105, 533-546. Piattelli-Palmarini, Massimo, & Uriagereka, Juan. 2011. A Geneticist’s Dream, a Linguist’s Nightmare: The Case of FOXP2. In: di Sciullo, Anna Maria, & Boeckx, Cedric (Hrsgg.), The Biolinguistic Enterprise. New Perspectives on the Evolution and Nature of the Human Language Faculty. Oxford: Oxford University Press, 100-125. Pike, Kenneth L. 1945. The Intonation of American English. University of Michigan Publications in Linguistics 1. Ann Arbor: University of Michigan Press. Pinker, Stephen. 1994. The Language Instinct: The New Science of Language and Mind. London: Penguin. Pinker, Steven, & Jackendoff, Ray. 2005. The faculty of language: what’s special about it? Cognition, 95, 201-236. Pollard, C., & Sag, Ivan A. 1994. Head-Driven Phrase Structure Grammar. University of Chicago Press. Porges, Stephen. 2001. The polyvagal theory: phylogenetic substrates of a social nervous system. International Journal of Psychophysiology, 42, 123- 146. Portner, Paul. 2009. Modality. Oxford: Oxford University Press. Literatur 269 Prince, Alan, & Smolensky, Paul. 1993. Optimality Theory. Constraint Interaction in Generative Grammar. Rutgers Center for Cognitive Science (RuCCs). Technical Report 2. Prior, Arthur N. 1957. Time and Modality. Oxford: Claredon Press. Prud’hommeaux, Eric, & Seaborne, Andy. 2008. SPARQL Query Language for RDF. W3C Recommendation. http: / / www.w3.org/ TR/ rdf-sparql-query, abgerufen am 4. 1. 2016. P “ an ˙ ini, & von Böhtlingk, Otto. 1887. P “ an ˙ ini’s Grammatik. Leipzig: Haessel. Pulvermüller, Friedemann. 1999. Words in the brain’s language. Behavioral and Brain Sciences, 22, 253-336. Pulvermüller, Friedemann. 2010a. Active perception: sensorimotor circuits as a cortical basis for language. Nature Reviews Neuroscience, 11, 351-360. Pulvermüller, Friedemann. 2010b. Brain embodiment of syntax and grammar. Brain and Language, 112, 167-179. Pustejovsky, James. 1995. The Generative Lexicon. Cambridge, Mass.: MIT Press. Pustejovsky, James. 2001. Type Construction and the Logic of Concepts. In: Bouillon, Pierre, & Busa, Federica (Hrsgg.), The Language of Word Meaning. Cambridge: Cambridge University Press, 91-123. Quine, Willard van Orman. 1960. Word and Object. Cambridge, Mass.: MIT Press. Rabin, Matthew. 1990. Communication between rational agents. Journal of Economic Theory, 51, 144-170. Recanati, Francois. 1993. Direct Reference: From Language to Thought. Oxford: Blackwell. Regier, Terry, & Kay, Paul. 2009. Language, thought, and color: Whorf was half right. Trends in Cognitive Sciences, 13, 439-446. Reis, Marga. 2001. Bilden Modalverben im Deutschen eine syntaktische Klasse. Modalität und Modalverben im Deutschen, 287-318. Reiter, Raymond. 1980. A logic for default reasoning. Artifical Intelligence, 13, 81-132. Rescher, Nicholas. 1973. The Coherence Theory of Truth. Oxford: Claredon Press. Rosch, Eleanor, & Mervis, Carolyn B. 1975. Family resemblances: Studies in the internal structure of categories. Cognitive Psychology, 8, 382-439. Ross, Don. 2010. Game Theory. In: Zalta, Edward N. (Hrsg.), The Stanford Encyclopedia of Philosophy. Fall-2010. http: / / plato.stanford.edu/ archives/ fall2010/ entries/ game-theory, abgerufen am 7.1.2016. Ross, Elliott D., & Monnot, Marilee. 2008. Neurology of affective prosody and its functional-anatomic organization in right hemisphere. Brain and Language, 104, 51-74. 270 Literatur Roy, Deb, Patel, Rupal, DeCamp, Philip, Kubat, Rony, Fleischman, Michael, Roy, Brandon, Mavridis, Nikolaos, Tellex, Stefanie, Salata, Alexia, Guinness, Jethran, et al. 2006. The Human Speechome Project. In: Vogt, Paul, Sugita, Yuuya, Tuci, Elio, & Nehaniv, Chrystopher (Hrsgg.), Symbol Grounding and Beyond. Berlin, Heidelberg: Springer, 192-196. Russell, Bertrand. 1905. The Nature of Truth. In: Urquhaut, A. (Hrsg.), The Collected Works of Bertrand Russell, vol. 4. London and New York: Routledge, 1994, 492-506. Saussure, Ferdinand de. 1916. Cours de linguistique générale. Lausanne und Paris: Payot. Schenker, Heinrich. 1906-35. Neue musikalische Theorien und Phantasien. Stuttgart: Cotta. Schirmer, Annett, & Kotz, Sonja A. 2006. Beyond the right hemisphere: Brain. Trends in Cognitive Sciences, 10, 24-30. Schleicher, August. 1850. Linguistische Untersuchungen. Die Sprachen Europas in systematischer Übersicht. Bonn: H. B. König. Schleicher, August. 1863. Die Darwin’sche Theorie und die Sprachwissenschaft. Weimar: Böhlau. Schmidt, Johannes. 1872. Die Verwandtschaftsverhältnisse der indogermanischen Sprachen. Weimar: Böhlau. Schneider, Barbara, Wehmeyer, Meike, & Grötzbach, Holger. 2012. Aphasie. Wege aus dem Sprachdschungel. Berlin, Heidelberg: Springer. 5. Auflage. Searle, John R. 1969. Speech Acts: An Essay in the Philosophy of Language. Cambridge: Cambridge University Press. Selkirk, Elisabeth. 1984. Phonology and Syntax: The Relation between Sound and Structure. Cambridge, Mass.: MIT Press. Shapiro, Lawrence A. 2011. Embodied Cognition. London: Routledge. Shetreet, Einat, Friedman, Naama, & Hadar, Uri. 2009. The neural correlates of linguistic distinctions: unaccusative and unergative verbs. Journal of Cognitive Neuroscience, 22, 2306-2315. Shieber, Stuart M. 1985. Evidence against the context-freeness of natural language. Linguistics and Philosophy, 8, 333-343. Skinner, Burrhus Frederick. 1957. Verbal Behavior. New York: Appleton- Century-Crofts. Smith, Michael K., Welty, Chris, & McGuinness, Deborah L. 2004. OWL Web Ontology Language Guide. W3C Recommendation. http: / / www.w3.org/ TR/ owl-guide, abgerufen am 4.1.2016. Spelke, Elizabeth. 2003. What Makes Us Smart? Core Knowledge and Natural Language. In: Gentner, D., & Goldin-Meadow, S. (Hrsgg.), Language in Mind. Cambridge, Mass.: MIT Press, 277-311. Literatur 271 Sperber, Dan, & Wilson, Deirdre. 1986. Relevance: Communication and Cognition. Oxford: Blackwell. Spitzer, Manfred. 2002. Musik im Kopf: Hören, musizieren, verstehen und erleben im neuronalen Netzwerk. Stuttgart: Schattauer. Stalnaker, Robert. 1968. A Theory of Conditionals. In: Harper, William L., Stalnaker, Robert, & Pearce, Glenn (Hrsgg.), Ifs: Conditionals, Belief, Decision, Change, and Time. Dordrecht: Reidel, 98-112. Stalnaker, Robert. 1970. Probability and conditionals. Philosophy of Science, 37, 64-80. Stechow, Arnim von. 2004. Modale und Konditionale. Vorlesungsskriptum Universität Wien. Steels, Luc. 2003. Evolving grounded communication for robots. Trends in Cognitive Sciences, 7, 308-312. Steinbeis, Nikolaus, & Koelsch, Stefan. 2009. Understanding the intentions behind man-made products elicits neural activity in areas dedicated to mental state attribution. Cerebral Cortex, 19(3), 619-623. Steinbeis, Nikolaus, Koelsch, Stefan, & Sloboda, John A. 2006. The role of harmonic expectancy violations in musical emotions: Evidence from subjective, physiological, and neural responses. Journal of Cognitive Neuroscience, 18(8), 1380-1393. Stenning, Keith, & Van Lambalgen, Michiel. 2008. Human Reasoning and Cognitive Science. Cambridge, Mass.: MIT Press. Stockwell, Peter. 2002. Cognitive Poetics. An Introduction. London, New York: Routledge. Szabó, Zoltán Gendler. 2013. Compositionality. In: Zalta, Edward N. (Hrsg.), The Stanford Encyclopedia of Philosophy. Fall-2013. http: / / plato.stanford.edu/ archives/ fall2013/ entries/ compositionality, abgerufen am 17.1.2016. Talmy, Leonard. 2000. Toward a cognitive semantics: Concept structuring systems. Cambridge, Mass.: MIT Press. Tarski, Alfred. 1936. Über den Wahrheitsbegriff in den formalisierten Sprachen. Studia Philosophica, 1, 261-405. Tendahl, Markus, & Gibbs, Raymond. 2008. Complementary perspectives on metaphor: Cognitive linguistics and relevance theory. Journal of Pragmatics, 40, 1823-1864. Thompson, D’Arcy Wentworth. 2000. On Growth and Form. New York: Dover. vollständig durchgesehene Auflage. Thue, Axel. 1914. Probleme über Veränderungen von Zeichenreihen nach gegebenen Regeln. Videnskabsselskabets skrifter., I., Mathematisknaturwidenskabelig klasse, 10. 272 Literatur Tomasello, Michael. 1992. The social bases of language acquisition. Social development, 1, 67-87. Tomasello, Michael. 2000a. First steps toward a usage-based theory of language acquisition. Cognitive linguistics, 11, 61-82. Tomasello, Michael. 2000b. The social-pragmatic theory of word learning. Pragmatics, 10(4), 401-413. Tomasello, Michael. 2009. Constructing a language: A usage-based theory of language acquisition. Cambridge, Mass.: Harvard University Press. Tooby, John, & Cosmides, Leda. 1992. The Psychological Foundations of Culture. In: Barkow, Jerome H., Cosmides, Leda, & Tooby, John (Hrsgg.), The Adapted Mind. Evolutionary Psychology and the Generation of Culture. New York, Oxford: Oxford University Press, 19-136. Trubetzkoy, Nikolaj. 1939. Grundzüge der Phonologie. Prag: Travaux du Cercle Linguistique de Prague 7. Tsur, Reuven. 2008. Toward a Theory of Cognitive Poetics. Brighton: Sussex Academic Press. 2. Auflage. Turing, Alan. 1937. On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, s2-42, 230-265. Turing, Alan. 1952. The chemical basis of morphogenesis. Philosophical Transactions of the Royal Society B, 237, 37-72. Valiant, Leslie G. 1984. A theory of the learnable. Communications of the ACM, 27, 1134-1142. van Gelder, Tim. 1998. The dynamical hypothesis in cognitive science. Behavioral and Brain Sciences, 21, 615-628. van Rooij, Robert. 2004. Signalling games select Horn strategies. Linguistics and Philosophy, 27, 493-546. Varela, Francisco J., Thompson, Evan, & Rosch, Eleanor. 1991. The Embodied Mind. Cognitive Science and Human Experience. Cambridge, Mass.: MIT Press. Vargha-Khadem, Faraneh, Gadian, David G., Copp, Andrew, & Mishkin, Mortimer. 2005. FOXP2 and the neuroanatomy of speech and language. Nature Reviews in Neuroscience, 6, 131-138. von Fintel, Kai. 2006. Modality and Language. In: Borchert, Donald M. (Hrsg.), Encyclopedia of Philosophy. Second Edition. Detroit: MacMillan, http: / / web.mit.edu/ fintel/ fintel-2006-modality.pdf, abgerufen am 22.1.2016. von Neumann, John, & Morgenstern, Oskar. 1944. Theory of Games and Economic Behavior. New York: Wiley and Sons. Walker, Ralph C. 1989. The Coherence Theory of Truth. Realism, anti-realism, idealism. London: Routledge. Literatur 273 Wall, Larry, Christiansen, Tom, & Orwant, Jon. 2000. Programming Perl, Third Edition. Sebastopol, Calif.: O’Reilly. Weiskrantz, Lawrence. 1986. Blindsight: A Case Study and Its Implications. Oxford: Claredon Press. Wernicke, Carl. 1874. Der aphasische Symptomencomplex: eine psychologische Studie auf anatomischer Basis. Breslau: Cohn & Weigert. Wilson, Deirdre, & Carston, Robyn. 2007. A unitary approach to lexical pragmatics: relevance, inference and ad hoc concepts. In: Burton-Roberts (Hrsg.), Pragmatics. Palgrave, 230-260. Wunderlich, Dieter. 1997. Cause and the structure of verbs. Linguistic Inquiry, 28(1), 27-68. Wurmbrand, Susi. 2001. Infinitives: Restructuring and Clause Structure. Berlin: Mouton de Gruyter. Zadeh, Lotfi A. 1975. Fuzzy logic and approximate reasoning. Synthese, 30, 407-428. Personenregister Austin, John, 49 Backus, John, 169 Baker, Mark, 37, 86, 141 Barsalou, Lawrence, 72, 130, 222 Barwise, Jon, 114 Beeman, Mark, 159 Berg, Alban, 217 Berger, Hans, 67 Berwick, Robert, 28 Bickerton, Derek, 53 Bierwisch, Manfred, 136 Bloom, Paul, 134, 138 Bloomfield, Leonard, 4 Blutner, Reinhard, 52, 156 Boas, Franz, 4 Boole, George, 103 Bopp, Franz, 3 Bresnan, Joan, 241 Broca, Paul, 59 Budd, Malcolm, 205 Cacioppo, John, 223 Carey, Susan, 142 Carruthers, Peter, 137 Carstairs-McCarthy, Andrew, 56 Chomsky, Noam, 4, 6, 7, 17, 19, 21, 39, 53, 86, 88, 140, 167, 194, 214 Church, Alonzo, 108, 110, 176 Clark, Andy, 228-232 Cooper, Robin, 114 Cosmides, Leda, 39 Cross, Ian, 212 Damasio, Antonio, 72, 222, 243, 245, 247 Darwin, Charles, 20, 31, 33, 53, 221 Davidson, Donald, 134 Dawkins, Richard, 40 Deacon, Terrence, 55 Dewey, John, 100 Dressler, Wolfgang U., 14 Dunbar, Robin, 54 Federmeier, Kara, 204 Fitch, Tecumseh, 20, 21, 30 Fodor, Jerry, 33, 39, 88, 129, 228, 234 Frege, Gottlob, 104, 107 Friederici, Angela, 68 Gärdenfors, Peter, 132 Giora, Rachel, 158 Gold, Mark E., 178 Goldberg, Adele, 9, 241 Gopnik, Myrna, 24 Greenberg, Joseph, 37 Grice, Paul, 47, 50 Grodzinsky, Yosef, 60, 68 Harlow, Harry, 223 Hauser, Marc, 21 Hebb, Donald, 234 Heim, Irene, 125 Hofbauer, Josef, 44 Humboldt, Wilhelm von, 35 Hume, David, 140 Hurford, James, 87 Jackendoff, Ray, 21, 53, 127, 214 Jakobson, Roman, 4 James, William, 100 Jenkins, Lyle, 19 Jones, William, 3 Joshi, Aravid, 173 Kamp, Hans, 106, 125 Kauffman, Stuart, 34, 222 Kayne, Richard, 86 Kemmerer, David, 83 Koelsch, Stefan, 200, 202, 204, 212 Personenregister 275 Kratzer, Angelika, 115 Krifka, Manfred, 242 Kripke, Saul, 105 Kutas, Marta, 204 Lakoff, George, 146 Landauer, Thomas, 159 Lerdahl, Fred, 214 Lewis, Clarence Irving, 105 Lewis, David, 45, 115, 120, 122 Lorenz, Konrad, 19 Mauthner, Fritz, 140 Mayerthaler, Willi, 14 Maynard Smith, John, 44 McClintock, Barbara, 32 Mears, Clara, 223 Mendel, Gregor, 32 Meyer, Leonard, 205, 207 Minsky, Marvin, 130 Montague, Richard, 114 Morgenstern, Oskar, 41 Morris, Charles, 48 Nash, John, 41, 43 Naur, Peter, 170 Nowak, Martin, 44 P “ an ˙ ini, 2 Panagl, Oswald, 14 Patel, Aniruddh, 224 Paul, Hermann, 3 Pawlowitsch, Christina, 45 Peirce, Charles Sanders, 55, 90, 100, 104, 157, 202 Perlovsky, Leonid, 221 Phillips-Silver, Jessica, 213 Piattelli-Palmarini, Massimo, 25 Pinker, Steven, 21, 53 Porges, Stephen, 248 Portner, Paul, 118 Prior, Arthur, 106 Pulvermüller, Friedemann, 83, 234 Pustejovsky, James, 153 Roy, Deb, 9 Saussure, Ferdinand de, 3, 202 Schönberg, Arnold, 217 Schenker, Heinrich, 214 Schlegel, August, 35 Schleicher, August, 3, 35 Schmidt, Johannes, 35 Searle, John, 49 Sigmund, Karl, 44 Skinner, Burrhus, 4, 6 Spitzer, Manfred, 215 Stalnaker, Robert, 122 Steels, Luc, 48 Thompson, D’Arcy, 34 Thue, Axel, 167 Tomasello, Michael, 10 Tooby, John, 39 Trubetzkoy, Nikolai, 4 Turing, Alan, 34, 110, 174, 175 Valiant, Leslie, 179 Vargha-Khadem, Faraneh, 25 von Neumann, John, 41 von Webern, Anton, 217 Wernicke, Carl, 63 Wurzel, Wolfgang Ullrich, 14 Sachregister Abstammung der Arten, 35 Ad-hoc-Konzept, 150, 152 Adäquatheitskriterium, 5 affektive Prosodie, 77 Agens, 61 agglutinierende Sprache, 35 Agrammatismus, 59, 60 Akkordfolgeparadigma, 200 akustisches Signal, 79 akzentzählende Sprache, 220 allozentrische Repräsentation, 88 Altruismus, 44, 47 Amnestische Aphasie, 65 amodal, 233 Amusie, 225 Amygdala, 207 Angeborenheitshypothese, 7, 8, 10 Anthropoligie, 39 Antisymmetrie, 86 Aphasie, 58, 78, 225 aprosodisches Syndrom, 78 Arbitrarität, 4 Argument, 88 Argumentstruktur, 9, 83, 86, 153 Attribut-Wert-Paar, 130 attributive Metapher, 161 Aussagenlogik, 101, 106 autobiographisches Selbst, 244 automatisch, 13 automatische Spracherkennung, 196 Autonomiehypothese, 10 Backus-Naur-Form, 169 Balkansprachbund, 35 Bedeutung, 49 Bedingung, 51 Behaviourismus, 6 Beobachtungsadäquatheit, 5 berechenbare Funktion, 170 Beschreibungsadäquatheit, 5 Beschreibungslogik, 185 Betonung, 76 Bewegungsverb, 83 Bigramm, 194 bildgebendes Verfahren, 67 Bindungstheorie, 68 Bioinformatik, 168 Biolinguistik, 19, 20, 24 biologischer Wert, 245 Biomathematik, 41 Boole’sche Algebra, 103 Borer-Chomsky-Vermutung, 36 Broca Aphasie, 59, 60, 69 Broca-Areal, 26, 69, 84, 200, 237 catastrophic syntax, 54 Cerebellum, 25 Chomsky-Hierarchie, 28, 167 Church-Turing-Hypothese, 110 Compiler, 189 Computerlinguistik, 160, 168 Construction Grammar, 241 Constructions, 9 Damhirsch, 30 Darwinismus, 33 Data-Mining, 197 DCNA, 241 Defaultlogik, 156 Dekomposition, 228, 231 Diachronie, 3 Direktionalitätsparameter, 16, 181 diskrete Einheit, 85 Diskursmodell, 124 Diskursrepräsentationstheorie, DRT, 125 Dislozierung, 19 DNA, 26 DNA slippage, 32 domänenspezifisch, 13 Sachregister 277 Dopamin, 209 doppelte Metapher, 161 dorsal, 72, 88, 248 dynamisches System, 231, 232 Dysarthrie, 59 Dyspraxie, 25 EEG, 67, 68 ELAN, 70 Embodiment, 227, 229 Embodiment, radikales, 231 Embodiment, simples, 230 Emotion, 245 Empty Category Principle, 17 endlicher Automat, 28, 174 Entscheidungsproblem, 171 ERAN, 200 ereigniskorreliertes Potential, 68 Ereignisstruktur, 83, 153 Erfolgsfunktion, 42 Erkenntnistheorie, 141 Erklärungsadäquatheit, 6 Ersatzinfinitiv, 117 Ersetzungshypothese, 232 erweiterte Kognition, 232 Evolution, 20, 21, 34, 224 evolutionär stabile Strategie, 44 evolutionäre Psychologie, 22, 38 evolutionäre Spieltheorie, 41, 43 exponentielles Wachstum, 31 Falke-Taube-Spiel, 42, 44 Fasciculus arcuatus, 64 Fein-Grob-Kodierung, 159 Fellpflege, 55 FLB, 21 flektierende Sprache, 35 Flexionsendung, 76 Flexionsmorphologie, 25, 59, 64 FLN, 21 fMRI, 67 Fodor, Jerry, 12 Fokus, 76 formal syntax map, 68 formale Grammatik, 171 formale Sprache, 165 Fortsetzungsreduktion, 216 FOXP2, 25, 26 Fragesatz, 19 Frame, rekursiver, 131 Frame-Theorie, 130 Frames, 235 frontales Operculum, 69 Frontallappen, 81 funktionale Kategorie, 85 funktionale Programmierung, 108 funktionale Typen, 154 funktionalistische Theorie, 14 Fuzzy-Logic, 107 Garden-Path-Satz, 70 Gefühl, 245 Gefangenendilemma, 42 gemeinsame Abstammung, 31 Generative Theorie der tonalen Musik, 214 generatives Lexikon, 156 Gesangsperiode, 28 geschlossenes Lexikon, 85 glaubwürdige Nachricht, 46 Gleichgewicht, 46, 47 Globalaphasie, 65 GPSG, 191 Graded-Salience-Hypothese, 158 Grammatik, 165 Greenberg’sche Universalien, 37 Grundrhythmus, 220 Gruppenbildung, 14 Gyrus Angularis, 72 Gyrus cinguli, 207 Händigkeit, 242 Halteproblem, 171 Hebb’scher Neuronenkreis, 81 Hermeneutik, 2 Hidden-Markov-Modell, 194 278 Sachregister Hippokampus, 207, 210 Hirnstamm, 243 Homonym, 82 HPSG, 155, 191 Hypothese der Ressourceneinteilung, 225 Hypothese der somatischen Marker, 246 I-Prinzip, 52 ikonisch, 144 Ikonizität, 14 Implikatur, 49 Individuenprädikat, 88 Individuenvariable, 88, 89 Indogermanistik, 3 Inferenz, 235 inferiorer Frontalgyrus, 69 inferiorer Parietallappen, 72 Information Retrieval, 197 informationell gekapselt, 13 Informationsextraktion, 197 inkorporierende Sprache, 35, 37 innere Beschränkung, 33 Insula, 25 Intelligent Design, 32 intensionale Logik, 107 Intonation, 219 Intonationsphonologie, 76 Isochronie, 212 Isochroniehypothese, 220 isolierende Sprache, 35 japanisches Mövchen, 29 Junggrammatiker, 3, 35 künstliche Intelligenz, subsymbolisch, 233 künstliche Intelligenz, symbolisch, 233 Kasus, 18 Kasustheorie, 16, 69 Kategorisierung, 235 Kausalität, 119 KE-Familie, 24 Kellerautomat, 175 Kernselbst, 244 klassische Konditionierung, 7 Kognitionswissenschaft, 5 kognitive Fähigkeit, 5, 8, 10, 12 kognitive Linguistik, 147 kognitive Literaturtheorie, 147 kognitive Metapherntheorie, 146 kognitive Wende, 2, 4 Kohärenztheorie der Wahrheit, 99 Kommunikation, 14 kommunikative Funktion, 11, 14 Kompetenz, 4, 5 Komplexität, 34 Komplexitätstheorie, 180 Kompositionalitätsprinzip, 156 Kompositum, 76 Konditional, 121 Konditionalsatz, 121 Kongruenzsystem, 25 Konnektiv, 130 Konnotation, 79 Konstitutionshypothese, 232 kontextfrei, 29 kontextfreie Grammatik, 28, 172 kontextfreie Sprache, 169 kontextsensitive Grammatik, 172 kontextsensitive Sprache, 29, 170 kontrafaktische Verursachung, 120 Konversationsmaxime, 47, 50 Konzept, 65, 223 Konzeptualisierungshypothese, 231 konzeptueller Atomismus, 129 konzeptuelles System, 54, 222 konzeptuelles Wissen, 72 Korpus, 195 Kreationismus, 32 Kreolsprache, 8 Kultur, 39, 40 kulturelle Evolution, 40, 47, 224 kulturelles Erbgut, 41 Kulturwissenschaft, 3 Sachregister 279 Läsionsstudie, 67 Lallphase, 237 Lambda-Kalkül, 108, 110, 176 LAN, 70, 200 Language Acquisition Device, 7 Language of thought, 88, 234 language processing map, 69 langue, 4 Langzeitgedächtnis, 210, 235 latente semantische Analyse, 152, 159 lateraler Temporallappen, 72 Laut und Bedeutung, 19 Lautgesetz, 3 Lautgesetze, Ausnahmslosigkeit der, 3 Lautwandel, 3 Leitungsaphasie, 64 Lernmechanismus, 39 Lexical Decision Task, 81 lexikalische Ambiguität, 74 lexikalische Blockierung, 158 lexikalische Entscheidungsaufgabe, 25 lexikalische Kategorie, 85, 86 lexikalische Vererbungsstruktur, 153 lexikalisches Merkmal, 37 LFG, 241 limbisches System, 207, 210 linguistische Prosodie, 77 Linked Open Data, 185 Lisp, 111 Logical Form, 88 logisches Problem des Spracherwerbs, 6, 7 Lokalität, 16 mögliche Welt, 105 Makroparameter, 37 Mamillarkörper, 207 Markov-Kette, 182 Markov-Modell, 28 maschinelles Übersetzen, 197 MEG, 67 mehrwertige Logik, 107 Meme, 40 Merge, 17 Merkmal, 18 Merkmalsblindheit, 25 Merkmalsliste, 130 Metapher, 79 Metapher, grundlegende, 147 metrische Phonologie, 75 metrische Struktur, 215 metrisches Raster, 220 minimalistisches Programm, 15, 17, 19-21 MMN, 200 Modallogik, 105 Modalverb, 115 moderne Synthese, 32 Modul, 39 Modularität, 39, 224, 234 Modularitätstheorie, 12 Modus ponens, 101, 157 morphosemantische Transparenz, 15 morphosyntaktische Integration, 70 Motiv, 28 Motorkortex, 81 Move, 17, 18 Musik, 63 musikalische Bedeutung, 212 Musikfähigkeit, 217 Mustererkennung, 211 n-Gramm, 194 N400, 70, 200, 204 N500, 205 Nachhall, 240 Nash-Gleichgewicht, 42 natürliche Morphologie, 14 natürliche Phonologie, 14 natürliche Selektion, 31-33, 38, 53 natürliche Sprache, 165 natürliche Typen, 154 Natürlichkeitstheorie, 14 280 Sachregister Neostriatum, 25 Nervensystem, parasympathisches, 248 Nervensystem, sympathisches, 248 Nervus vagus, 248 neurologisches Korrelat, 13 neuronales Netz, 152, 194, 228, 240 nichtklassische Logiken, 107 Nichtterminal, 171 nonverbales Lexikon, 78 Note, 28 Nucleus accumbens, 209 Nucleus caudatus, 25, 209 offenes Lexikon, 85, 86 Okzipitallappen, 82 Ontogenese, 13 Ontologie, 185 optimale Lösung, 33, 47 Optimalitätstheorie, 51 Ordnungsquelle, 116 Output, einfacher, 13 OWL, 186 P600, 70 Paragrammatismus, 64 Parameter, 16 parole, 4 Parsing, 189 Passiv, 60 Patiens, 61 Pawlow’scher Hund, 6 Payoff-Funktion, 42, 45 Performanz, 4, 5 perisylvischer Kortex, 81 Perzeption, 237 perzeptuelles Symbol, 222, 233 perzeptuelles Symbolsystem, 72 Phänotyp, 33 Phonem, 4 phonematische Paraphrasie, 59 phonologische Phrase, 76 phonologisches Wort, 76 Pidginsprache, 8, 53 Polysynthesis-Parameter, 37 Populationsdynamik, 43 Populationsgenetik, 32 PoS-Tagging, 193 posterior-inferiore Frontalregion, 78 posteriore-superiore Temporalregion, 78 posteriorer Temporalgyrus, 25 Poverty-of-the-Stimulus-Argument, 6, 9 Prädikat, 88 Prädikatenlogik, 104 Prädikation, 86, 87 präfrontaler inferiorer Gyrus, 74 präfrontaler Kortex, 73 Präsupposition, 49 Prager Schule, 4 Pragmatik, 47, 48, 52 pragmatische Anomalie, 157, 158 pragmatische Straffung, 52 pragmatische Wahrheitstheorie, 100, 140 Prinzipien-und-Parameter-Modell, 15, 36 Pro-drop-Parameter, 37, 181 Projektion, 16 Prosodie, 75 prosodische Einheit, 76 prosodische Phonologie, 76 prosodische Verarbeitung, 77, 79 Prosopagnosie, 13 Protoselbst, 243 Protosprache, 53, 221 prozedurales Gedächtnis, 25 prozedurales Lernen, 25 Psychologie, 12 Putamen, 25, 209 Q-Prinzip, 52 Qualiastruktur, 153 Quantor, 49, 112 räumliche Kognition, 72 Sachregister 281 radikale Unterspezifizierung, 156 RDF, 186 rechte Hemisphäre, 78 Redehintergrund, 116 Reduktionismus, 222 Reduktionsanalyse, 214 Reduktionshypothese, 216 referenzieller Ausdruck, 191 reguläre Grammatik, 172, 201 reguläre Sprache, 28 reine Erweiterung, 151 Rektions-und-Bindungstheorie, 15 Rektions-und-Bindungstheorie, 17 Rekursion, 21, 22 Rekursionsfähigkeit, 27 rekursiv aufzählbare Sprache, 170 relationale Datenbank, 187 relationale Metapher, 161 Relevanztheorie, 50 Replikation, 41, 47 Repräsentation, 231 Rhythmus, 63, 199 Rhythmusanalysefähigkeit, 211 Rindenblindheit, 13 RNA, 26 romanische Sprache, 35 Rothirsch, 30 Salienz, 159 Sanskrit, 3 Schablonenbedeutung, 83 Schaltalgebra, 103 Schläfenlappenpol, 74 Schlussfolgern, 123, 223 schnell, 13 Schnittstelle, 18, 19 Schnittstellenbedingung, 17, 18 Selbstorganisation, 34 selbstorganisierender Prozeß, 33 Semantik, 48 semantische Information, 74 semantische Integration, 70 semantische Paraphrasie, 64, 66 semantische Technologie, 183 semantische Verarbeitung, 238 semantisches Gedächtnis, 72 Semiotik, 48, 55 semiotisches Dreieck, 90 sensomotorischer Kortex, 72 serielles Verb, 37 Signalübertragung, 30 Signalspiel, 45-47 Signifikans, 4 Signifikat, 4 Silbe, 28, 76 Silbenstruktur, 56 silbenzählende Sprache, 220 Simulator, 235 Singvogel, 27 skalare Implikatur, 49 slawische Sprache, 35 Small Clause, 86 soziale Funktion, 11 soziale Interaktion, 10 soziale Kognition, 73 Sozialwissenschaft, 39 SPARQL, 187 spezifische Sprachentwicklungsstörung, 25 Spiegelneuron, 27, 84, 237 Spiel mit imperfekter Information, 42 Spiel mit perfekter Information, 42 Spieltheorie, 41, 45 Sprachentwicklungsstörung, 11 Sprachentwicklungsverzögerung, 11 Spracherwerb, 6-8, 10 Spracherwerb, verzögerter, 11 Sprachfähigkeit, 6-8, 10, 11, 18, 20, 21, 225 Sprachgen, 24 Sprachinstinkt, 223 Sprachkontakt, 35 Sprachorgan, 7 Sprachperzeption, 64 Sprachsynthese, 196 282 Sachregister Sprachtypologie, 35 Sprachwissenschaft, historisch-vergleichende, 3 Sprechakttheorie, 49 SPS, 70 SQL, 187 Stadienprädikat, 88 Stammbaumtheorie, 3, 35 Standardmodell der Sozialwissenschaft, 39 statistisches Parsing, 192 Strategie, 41-43, 47 strategisches Spiel, 42 Stress, 249 Striatum, 82 Struktur der Gruppierung, 215 Strukturalismus, 4 strukturelle Invariante, 130 Sulcus temporalis, 79 Sulcus zentralis, 237 superiorer Frontalgyrus, 74 superiorer Temporalgyrus, 69 supramodale Konvergenzzone, 72 Synchronie, 3 System des sozialen Engagements, 249 systematische Polysemie, 158 tabula rasa, 6 Tagging, 193 Talking-Heads-Experiment, 48 Tanz, 212 Taxonomie, 32, 35, 37 Telegrammstil, 59 Temporalgyrus, 69, 205 Temporallappen, 210 Temporallappen, inferiorer, 82 temporoparietale Region, 66 Terminal, 171 Text-Mining, 168, 198 Textklassifizierung, 197 Thalamus, 207 thematische Rolle, 61, 70 Theorie der Kognition, klassische, 228 Theory-Theory, 129 Thetatheorie, 16 Tiergesang, 217 Trace-deletion hypothesis, 61 Transkortikale Aphasie, 65 Transkriptionsfaktor, 26 Treebank, 196 Trigger, 182 Triggering Learning Algorithm, 182 Trigramm, 194 Turing-Maschine, 110, 175 Übergeneralisierung, 8 Übersetzerbau, 189 Universalgrammatik, 15 Unvollkommenheit, 19 Ursatz, 214 ursprüngliche Gefühle, 244 Variation, 20 ventral, 73, 88 ventrales Striatum, 209 Verarbeitungszyklus, linearer, 228 Verbbedeutung, 84 Verursachung, 119 Verwandtschaftsbegriff, 162 visueller Kortex, 81, 88 Vogelgesang, 27, 28 vokale Fellpflege, 55 Vokaltrakt, 20, 30, 56 Wahrheitsbedingung, 49 Wahrheitstafel, 102 Wahrheitswert, 107 Wahrscheinlichkeit, 192 Wellentheorie, 35 Wernicke Aphasie, 63 Wernicke Areal, 63 Wernicke-Lichtheim-Schema, 66 Williams-Syndrom, 11 Wissensinstinkt, 223 Wortart, 84, 87 Sachregister 283 Wortproblem, 175 X-bar-Schema, 16 Zeichen, 4, 14, 48, 52 Zeitspannenreduktion, 216 Zentraleinbettung, 29 Zwei-Faktoren-Theorie, 142 Nachweise Backus, John. (c) Louis Fabian Bachrach, mit freundlicher Genehmigung von L. Bachrach. Baker, Mark. Fotograf: Michael Yoshitaka Erlewine. Creative Commons Attribution 3.0 Unported (CC BY 3.0). https: / / upload.wikimedia.org/ wikipedia/ en/ 5/ 5f/ Mark_Baker.jpg [02.12.2015]. Barsalou, Lawrence. (c) Lawrence Barsalou, mit freundlicher Genehmigung von L. Barsalou. http: / / www.gla.ac.uk/ schools/ psychology/ staff/ lawrence barsalou/ [11.01.2016]. Bickerton, Derek. (c) Uwe Dettmar/ Ernst Struengmann Forum (FIAS), mit freundlicher Genehmigung von Julia Lupp (FIAS). http: / / www.esforum.de/ photos/ esf03/ p7lsm mg / fullsize/ 02 i ckerton G 5222 s.jpg [20.01.2016]. Bierwisch, Manfred. (c) Manfred Bierwisch, mit freundlicher Genehmigung von M. Bierwisch. http: / / www.zas.gwz-berlin.de/ uploads/ pics/ bierwisch _2.jpg [12.01.2016]. Bloom, Paul. (c) Greg Martin, mit freundlicher Genehmigung von P. Bloom. Bloomfield, Leonard. (c) Yale University, mit freundlicher Genehmigung von Christopher McDaniel (Yale University). http: / / ling.yale.edu/ sites/ default/ files/ images/ Leonard-Bloomfield-1.jpg [19.01.2016]. Blutner, Reinhard. (c) Reinhard Blutner, mit freundlicher Genehmigung von R. Blutner. https: / / 0.academia-photos.com/ 3708574/ 1327591/ 1644626/ s200_reinhard.blutner.jpg [12.01.2016]. Broca, Paul. Gemeinfrei. http: / / upload.wikimedia.org/ wikipedia/ commons/ e/ e7/ Paul_Broca_2.jpg (Ausschnitt) [02.12.2015]. Carey, Susan. (c) Susan Carey, mit freundlicher Genehmigung von S. Carey. https: / / software.rc.fas.harvard.edu/ lds/ wp-content/ uploads/ 2010/ 07/ susan_carey.jpg [12.01.2016]. Carstairs-McCarthy, Andrew. (c) Andrew Carstairs-McCarthy, mit freundlicher Genehmigung von A. Carstairs-McCarthy. http: / / www.arts.canterbury.ac.nz / linguistics/ graphics/ people/ carstairs_carstairs_mccarthy.jpg [13.01.2016]. Carston, Robyn. (c) Robyn Carston, mit freundlicher Genehmigung von R. Carston. Chomsky, Noam. Fotografiert von John Soares, hochgeladen von Stevertigo [Wikimedia-Autor]. The copyright holder of this work allows anyone to use it for any purpose including unrestricted redistribution, commercial use, and modification. https: / / upload.wikimedia.org/ wikipedia/ commons/ 8/ 86/ Noam_chomsky.jpg [03.12.2015]. Damasio, Antonio (Ausschnitt). Fotografiert von Dan Lurie. Attribution-Share Alike 2.0 Generic (CC BY-SA 2.0). https: / / upload.wikimedia.org/ wikipedia/ commons/ 6/ 6b/ Antonio_Damasio.jpg [03.12.2015]. _ _1 Bi f M _ _ _ _ Nachweise 285 Deacon, Terrence. (c) Terrence Deacon, mit freundlicher Genehmigung von T. Deacon. Dressler, Wolfgang U. (c) Wolfgang Dressler, mit freundlicher Genehmigung von W. Dressler. https: / / www.univie.ac.at/ linguistics/ publications/ natural ly/ images/ dressler.jpg [12.01.2016]. Dunbar, Robin. Foto von Cirone-Musi, hochgeladen von Duncan Hull. Attribution-Share Alike 2.0 Generic (CC BY-SA 2.0). https: / / upload.wikimedia.org/ wikipedia/ commons/ a/ a0/ Robin_Dunbar_%286293027302%29.jpg [12.01.2016]. Fodor, Jerry. Fotografiert und hochgeladen von Pedro Alcocer. GNU Free Documentation License. https: / / upload.wikimedia.org/ wikipedia/ commons/ 1/ 1e/ Jerry_Fodor_in_2007.jpg [02.12.2015]. Gärdenfors, Peter. (c) Peter Gärdenfors/ Lund University, mit freundlicher Genehmigung von P. Gärdenfors. http: / / www.fil.lu.se/ fileadmin/ media/ per soner/ bilder/ lucs-pga.jpg [12.01.2016]. Gentner, Dedre. (c) Dedre Gentner, mit freundlicher Genehmigung von D. Gentner. http: / / groups.psych.northwestern.edu/ gentner/ images/ DG-Gd-DSC08 699-1.JPG [11.01.16]. Giora, Rachel. (c) Rachel Giora, mit freundlicher Genehmigung von R. Giora. http: / / www.tau.ac.il/ giorar/ images/ rachelg-n3.jpg [12.01.2016]. Greenberg, Joseph H. (c) Ed Souza / Stanford News Service, mit freundlicher Genehmigung der Stanford News Library. Hopper, Grace. Urheber: James S. Davis, U.S. Naval Historical Center Online Library. Gemeinfrei. https: / / upload.wikimedia.org/ wikipedia/ commons/ 5/ 55/ Grace_Hopper.jpg [02.12.2015]. Kauffman, Stuart. Fotografiert und hochgeladen von Teemu Rajala. Creative Commons Attribution 3.0 Unported (CC BY 3.0). https: / / upload.wikimedia. org/ wikipedia/ commons/ b/ b9/ Stuart_Kauffman.jpg (Ausschnitt) [03.12.2015]. Koelsch, Stefan. (c) Stefan Koelsch, mit freundlicher Genehmigung von S. Koelsch. http: / / immun-coaching.de/ images/ SK_bg_man.png [12.01.2016]. Kutas, Marta. (c) Marta Kutas, mit freundlicher Genehmigung von M. Kutas. http: / / kutaslab.ucsd.edu/ people/ kutas/ images/ marta_255x350.jpg [11.01.2016]. Lakoff, George. Foto von Bart Nagel. Mit freundlicher Genehmigung von G. Lakoff. https: / / georgelakoff.files.wordpress.com/ 2013/ 07/ george-lakoff-260. jpg? w=260h=260 [11.01.2016]. Mauthner, Fritz. Aus: Spemanns goldenes Buch des Theaters (1902), hochgeladen von Ulrich Goerdten. Gemeinfrei. https: / / upload.wikimedia.org/ wiki pedia/ de/ c/ ce/ Fritz_Mauthner.jpg (Ausschnitt) [02.12.2015]. McClintock, Barbara. (c) akg / Science Photo Library. 286 Nachweise Minsky, Marvin. Aufgenommen von Bcjordan, hochgeladen von Sethwoodworth. Attribution-Share Alike 3.0 Unported (CC BY-SA 3.0). https: / / upload.wiki media.org/ wikipedia/ commons/ 2/ 28/ Marvin_Minsky_at_OLPCb.jpg [11.01.2016]. Montague, Richard. Gemeinfrei. https: / / upload.wikimedia.org/ wikipedia/ en/ 2/ 25/ Richardmontague.jpg [03.12.2015]. Morgenstern, Oskar. (c) M. Papp, mit freundlicher Genehmigung von M. Papp. http: / / www.univie.ac.at/ virtuallabs/ Introduction/ images/ morgenstern.jpg [14.01.2016]. Nash, John Forbes. Foto von Elke Wetzig. Attribution-Share Alike 3.0 Unported (CC BY-SA 3.0). https: / / de.wikipedia.org/ wiki/ John_Forbes_Nash_Jr.#/ media/ File: John_f_nash_20061102_3.jpg [12.01.2016]. Naur, Peter. Hochgeladen von Eriktj. GNU Free Documentation License. https: / / upload.wikimedia.org/ wikipedia/ commons/ 5/ 55/ Peternaur.JPG [03.12.2015]. Neumann, John von. Zur Verfügung gestellt von Los Alamos National Laboratory. Gemeinfrei. http: / / commons.wikimedia.org/ wiki/ File: JohnvonNeu mann-LosAlamos.gif [02.12.2015]. Nowak, Martin. (c) NBeale. GNU Free Documentation License. https: / / upload. wikimedia.org/ wikipedia/ commons/ f/ f3/ Martin_A._Nowak.jpg [03.12.2015]. Patel, Aniruddh. (c) Aniruddh Patel, mit freundlicher Genehmigung von A. Patel. http: / / ase.tufts.edu/ psychology/ images/ peoplePatel.jpg [03.12.2015]. Peirce, Charles S. Gemeinfrei. https: / / upload.wikimedia.org/ wikipedia/ com mons/ 5/ 58/ Charles_Sanders_Peirce.jpg [12.01.2016]. Perlovsky, Leonid. Fotografiert von Semen Rogozin, hochgeladen von Romanilin [Wikimedia-Autor] . Creative Commons Attribution 3.0 Unported (CC BY 3.0). https: / / upload.wikimedia.org/ wikipedia/ en/ 3/ 34/ LeonidPerlov sky_2003_Picture.JPG [03.12.2015]. Porges, Stephen. Hochgeladen von Jean Decety. Creative Commons Attribution- Share Alike 3.0 Unported (CC BY-SA 3.0). https: / / upload.wikimedia.org/ wikipedia/ en/ 6/ 6b/ Steve_Porges.jpg [02.12.2015]. Pustejovsky, James. (c) James Pustejovsky, mit freundlicher Genehmigung von J. Pustejovsky. http: / / jamespusto.com/ wp-content/ uploads/ 2014/ 09/ jam esp-photo2-281x300.jpg [11.01.2016]. Rosch, Eleanor. (c) Eleanor Rosch, mit freundlicher Genehmigung von E. Rosch. Saussure, Ferdinand de. Gemeinfrei. http: / / upload.wikimedia.org/ wikipedia/ commons/ 8/ 8f/ Ferdinand [02.12.2015]. Schenker, Heinrich. (c) Hans Schneider, mit freundlicher Genehmigung von H. Schneider. http: / / www.mdw.ac.at/ schenkerlehrgang/ schenker_portraits/ schenker_halbprofil.jpg [12.01.2016]. Nachweise 287 Schleicher, August. Gemeinfrei. http: / / upload.wikimedia.org/ wikipedia/ com mons/ 9/ 91/ August_Schleicher [02.12.2015]. Sigmund, Karl. (c) Karl Sigmund, mit freundlicher Genehmigung von K. Sigmund. http: / / homepage.univie.ac.at/ Karl.Sigmund/ karl.sigmund.jpg [02.12.2015]. Smith, John Maynard. (c) Web of Stories. GNU Free Documentation License. https: / / upload.wikimedia.org/ wikipedia/ commons/ e/ e2/ John_Maynard_ Smith.jpg [11.01.16]. Tarski, Alfred. (c) George M. Bergman, Berkeley. GNU Free Documentation License. https: / / upload.wikimedia.org/ wikipedia/ commons/ 7/ 71/ AlfredTar ski1968.jpeg [02.12.2015]. Tomasello, Michael. (c) Jussi Puikkonen, mit freundlicher Genehmigung von J. Puikkonen. http: / / www.beeldbank.leidenuniv.nl/ index/ parseimage/ id/ FT102727/ thumbed/ 5 [03.12.2015]. Trubetzkoy, Nikolai. Gemeinfrei. https: / / upload.wikimedia.org/ wikipedia/ com mons/ 4/ 47/ Nikolai_Trubetzkoy.jpg [02.12.2015]. Turner, Mar . Hochgeladen von Mark Turner. Attribution-Share Alike 3.0 Unported (CC BY-SA 3.0). https: / / upload.wikimedia.org/ wikipedia/ commons/ 9/ 97/ MarkTurnerWikipedia.jpg [03.12.2015]. Wall, Larry. Fotografiert von Randal Schwartz. Attribution-Share Alike 2.0 Generic (CC BY-SA 2.0). https: / / upload.wikimedia.org/ wikipedia/ commons/ b/ b3/ Larry_Wall_YAPC_2007.jpg [03.12.2015]. Wernicke, Carl (Ausschnitt). Gemeinfrei. https: / / upload.wikimedia.org/ wiki pedia/ commons/ f/ fe/ C._Wernicke.jpg [02.12.2015]. k Abbildungsnachweise Abb. 3.1: Structure of the FOXP2 protein. Urheber: Emw. Creative Commons Attribution-Share Alike 3.0 Unported (CC BY-SA 3.0). https: / / upload.wiki media.org/ wikipedia/ commons/ 3/ 37/ Protein_FOXP2_PDB_2a07.png [02.12.2015]. Abb. 3.2: Polysynthesis Parameter Hierarchie. Aus: Mark Baker (2003). Linguistic differences and language design. Trends in Cognitive Sciences, 7, 352. Abb. 4.1: Gray’s figure 726 (Broca-Areal ergänzt). Aus: Henry Gray, Anatomy of the Human Body 1918. Urheber: Henry Vandyke Carter. Gemeinfrei. https: / / upload.wikimedia.org/ wikipedia/ commons/ 7/ 70/ Gray726.svg [02.12.2015]. Abb. 4.2: Gray’s figure 726 (Wernicke-Areal ergänzt). Aus: Henry Gray, Anatomy of the Human Body 1918. Urheber: Henry Vandyke Carter. Gemeinfrei. https: / / upload.wikimedia.org/ wikipedia/ commons/ 7/ 70/ Gray726.svg [02.12.2015]. Abb. 4.3: Wernicke-Lichtheim-Schema. Eigene Darstellung nach Mayer & Dogil (2014): § Historischer Überblick und Läsion-Defizit-Ansatz Abb. 4.4: Gray’s figure 726 (Inferiorer Parietallappen ergänzt). Aus: Henry Gray, Anatomy of the Human Body 1918. Urheber: Henry Vandyke Carter. Gemeinfrei. https: / / upload.wikimedia.org/ wikipedia/ commons/ 7/ 70/ Gray726.svg [02.12.2015]. Abb. 4.5: Gray’s figure 726 (Gyrus Angularis ergänzt). Aus: Henry Gray, Anatomy of the Human Body 1918. Urheber: Henry Vandyke Carter. Gemeinfrei. https: / / upload.wikimedia.org/ wikipedia/ commons/ 7/ 70/ Gray726.svg [02.12.2015]. Abb. 4.6: Gray’s figure 726 (präfrontaler inferiorer Gyrus und superiorer Frontalgyrus ergänzt). Aus: Henry Gray, Anatomy of the Human Body 1918. Urheber: Henry Vandyke Carter. Gemeinfrei. https: / / upload.wikimedia.org/ wikipedia/ commons/ 7/ 70/ Gray 726.svg [02.12.2015]. Abb. 4.7: Gray’s figure 726 (Schläfenlappenpol ergänzt). Aus: Henry Gray, Anatomy of the Human Body 1918. Urheber: Henry Vandyke Carter. Gemeinfrei. https: / / upload.wikimedia.org/ wikipedia/ commons/ 7/ 70/ Gray726.svg [02.12.2015]. Abb. 4.8: Gray’s figure 726 (Sulcus temporalis ergänzt). Aus: Henry Gray, Anatomy of the Human Body 1918. Urheber: Henry Vandyke Carter. Gemeinfrei. https: / / upload.wikimedia.org/ wikipedia/ commons/ 7/ 70/ Gray726.svg [02.12.2015]. Abb. 5.1: AND-Gatter. Erstellt von Mikm. Gemeinfrei. https: / / upload.wikimedia. org/ wikipedia/ commons/ 8/ 8c/ Logic-gate-and-us.svg [03.12.2015]. . Abbildungsnachweise 289 Abb. 6.1: Voronoi-Kachelung. Erstellt von Gottie. Gemeinfrei. http: / / upload.wiki media.org/ wikipedia/ commons/ 0/ 05/ Voronoi.jpg [02.12.2015]. Abb. 8.1: Chomsky-Hierarchie. Urheber: J. Finkelstein. Attribution-Share Alike 3.0 Unported (CC BY-SA 3.0). http: / / upload.wikimedia.org/ wikipedia/ com mons/ a/ a6/ Chomsky-Hierarchie.svg [02.12.2015]. Abb. 8.2: If-Statement. (c) Oracle Trademark Copyright Legal Group, mit freundlicher Genehmigung von Oracle. https: / / docs.oracle.com/ cd/ B19306 _01/ appdev.102/ b14261/ if_statement.gif [12.01.2016] Abb. 8.3: Nichtdeterministischer endlicher Automat. Erstellt von Muggabatscher. Gemeinfrei. http: / / upload.wikimedia.org/ wikipedia/ commons/ f/ f1/ Nea02.svg [03.12.2015]. Abb. 8.4: Kellerautomat. Erstellt von Martin Hampl. Gemeinfrei. http: / / upload. wikimedia.org/ wikipedia/ commons/ 1/ 14/ Kellerautomat.svg [02.12.2015]. Abb. 8.5: Turing-Maschine. Urheber: TripleWhy/ Denniss. Creative Commons Attribution-Share Alike 3.0 Unported (CC BY-SA 3.0). https: / / upload.wiki media.org/ wikipedia/ commons/ c/ c4/ Turingmaschine.svg [02.12.2015]. Abb. 8.6: Ontologie eines Museums (Ausschnitt). Erstellt von Häger. Gemeinfrei. http: / / upload.wikimedia.org/ wikipedia/ commons/ e/ e3/ Ontschichten.gif [02.12.2015]. Abb. 8.7: Parser. Erstellt von Jx [Wikimedia-Autor]. Gemeinfrei. http: / / upload. wikimedia.org/ wikipedia/ commons/ c/ c4/ Parser.png [02.12.2015]. Abb. 9.1: Das limbische System. Hochgeladen von Nathanael Bar-Aur L. Gemeinfrei. http: / / upload.wikimedia.org/ wikipedia/ commons/ 5/ 5c/ Brain_ limbicsystem.jpg [02.12.2015]. Abb. 9.2: Stimuli des Rhythmus-Experiments. Jessica Phillips-Silver Laurel J. Trainor (2005), Feeling the Beat: Movement Influences Infant Rhythm Perception (2005). Fig. 1 (Ausschnitt). http: / / www.jessicaphillips-silver.com/ wp-content/ uploads/ 2013/ 01/ Phillips-SIlver_Trainor_Science_2005.pdf [02.12.2015]. Hilke Elsen Linguistische Theorien narr STUDIENBÜCHER 2013, 264 Seiten €[D] 22,99 ISBN 978-3-8233-6847-2 Dieser Band präsentiert einen Überblick über die unterschiedlichen Richtungen in der Theoriebildung der Linguistik, ihre zentralen Vertreter/ innen sowie über Anwendungsmöglichkeiten und Umsetzungen. Er beschreibt die geschichtliche Entwicklung und Einbettung sowie die Wechselbeziehungen zwischen den Schulen bis hin zu aktuellen Strömungen wie der Konstruktionsgrammatik, um Einsichten in grundlegende Konzepte, Kernannahmen und Arbeitsweisen in ihrem Entstehungszusammenhang zu vermitteln. Dabei finden neben Grammatikmodellen auch Sprachwandelkonzepte und zeichentheoretische Ansätze Berücksichtigung. Der Schwerpunkt liegt auf Theorien, die für die germanistische Linguistik von Bedeutung sind. Unterstützt wird die Darstellung durch Übungen, die in die jeweilige Denk- und Arbeitsweise einführen. Literaturhinweise im Anschluss an die Kapitel bieten die Möglichkeit zur Vertiefung. Der Band versteht sich als Lehrwerk bzw. Begleitlektüre zu Seminaren im Hauptstudium und ist daher in 14 Kapitel gegliedert, die sich jeweils als Grundlage für eine Unterrichtseinheit eignen. Narr Francke Attempto Verlag GmbH+Co. KG \ Dischingerweg 5 \ 72070 Tübingen \ Germany Tel. +49 (07071) 97 97-0 \ Fax +49 (07071) 97 97-11 \ info@narr.de \ www.narr.de JETZT BESTELLEN! Narr Francke Attempto Verlag GmbH+Co. KG • Dischingerweg 5 • D-72070 Tübingen Tel. +49 (07071) 9797-0 • Fax +49 (07071) 97 97-11 • info@narr.de • www.narr.de JETZT BES TELLEN! JETZT BES TELLEN! Monika Schwarz-Friesel / Jeannette Chur Semantik Ein Arbeitsbuch narr studienbücher 6., grundlegend überarbeitete und erweiterte Auflage 2014, 238 Seiten €[D] 19,99 / SFR 28,00 ISBN 978-3-8233-6885-5 Dieses Standardwerk führt in leserfreundlicher Weise in die moderne Semantikforschung ein. Zahlreiche Übungsaufgaben mit Lösungen sowie ein Glossar machen das Buch zu einer idealen Grundlage für das Selbststudium sowie für das Seminargespräch. Die 6. Auflage wurde grundlegend überarbeitet, aktualisiert und mit neuen Kapiteln versehen. „Eine hervorragende Einführung in die Semantik.“ (Deutsche Bücher) „Ein gutes Beispiel dafür, daß anspruchsvolle Wissenschaft Spaß machen kann.“ (Freiburger Universitätsblätter 121, 3) „Das Buch ist sehr gut gegliedert, kommt stets schnell und ver ständ lich bleibend auf den Punkt und bietet einen hervorragenden Fragen- und Übungsteil.“ (ekz-Informationsdienst) Narr Francke Attempto Verlag GmbH+Co. KG • Dischingerweg 5 • D-72070 Tübingen Tel. +49 (07071) 9797-0 • Fax +49 (07071) 97 97-11 • info@narr.de • www.narr.de JETZT BES TELLEN! JETZT BES TELLEN! Konstanze Marx / Georg Weidacher Internetlinguistik Ein Lehr- und Arbeitsbuch narr studienbücher 2014, 240 Seiten, €[D] 24,99 / SFr 34,70 ISBN 978-3-8233-6809-0 Rasante technologische Entwicklungen, die Zunahme online geführter Kommunikation und deren Auswirkungen auf Sprache kreieren einen dynamischen Datenpool für eines der spannendsten Teilgebiete der modernen Sprachwissenschaft: die Internetlinguistik. Ziel dieses Lehr- und Arbeitsbuches ist es, umfassend über diesen lebendigen Forschungsbereich zu informieren und zu zeigen, wie sprach- und kommunikationswissenschaftliche Methoden sinnvoll kombiniert werden können, um die Eigenheiten sprachlich-kommunikativen Handelns im Internet zu analysieren. Auf leserfreundliche Weise werden aktuelle Forschungsergebnisse mit zahlreichen Anwendungsbeispielen und Übungen didaktisch aufbereitet. Das Buch ist als Einführung konzipiert und eignet sich gleichermaßen für die Seminargestaltung und das Selbststudium. Wie funkti oniert die Sprache im Gehirn? Was haben natürliche Sprachen mit Computern zu tun? Wie können Wörter unser Wissen und Denken strukturieren? Welchen Zusammenhang gibt es zwischen Sprache und Musik? Kommunizieren Tiere anders als Menschen? Brauchen wir einen Körper, um sprechen zu können? Das vorliegende Studienbuch erläutert Schritt für Schritt und auf verständliche Weise, wie aktuelle Forschungsergebnisse der Sprachwissenschaft helfen können, derarti ge Fragestellungen der Kogniti onswissenschaft zu beantworten. Verschiedene Herangehensweisen werden systemati sch verglichen, um ein Verständnis über die Zusammenhänge der vielfälti gen Forschungsthemen und -traditi onen zu ermöglichen. Das Studienbuch ist sowohl für StudienanfängerInnen als auch für Fortgeschritt ene geeignet. ISBN 978-3-8233-8000-9