Die lexikalische Struktur der Deutschen Gebärdensprache im Spiegel empirischer Fachgebärdenlexikographie
Zur Integration der Ikonizität in ein korpusbasiertes Lexikonmodell
0420
2011
978-3-8233-7626-2
978-3-8233-6626-3
Gunter Narr Verlag
Reiner Konrad
Diese Arbeit zieht die Lehren aus sechs Lexikonprojekten zur Deutschen Gebärdensprache (DGS). Sie ist gleichzeitig eine Einführung in grundlegende Aspekte der Lexikologie und Lexikographie sowie in die Korpuslinguistik von Gebärdensprachen. Dabei stehen die für jede Erforschung gesprochener Sprachen zentralen Arbeitsschritte der Transkription und Annotation im Vordergrund. Um Gebärden segmentieren und sprachlichen Einheiten zuordnen zu können, bedarf es Kriterien, die konsistent auf alle Daten angewendet werden. Diese Kriterien sind Elemente eines Lexikonmodells, das wiederum die Entwicklung geeigneter Annotationswerkzeuge bestimmt.Die Bedeutung des hier dargestellten Lexikonmodells liegt darin, dass zum ersten Mal das zentrale Merkmal von Gebärden, ihre Bildhaftigkeit (Ikonizität), in der lexikalischen Analyse umfassend berücksichtigt wird. Damit wird eine Brücke geschlagen von Forschungarbeiten zur Funktion von Ablesewörtern in der DGS (Ebbinghaus & Heßmann) zum Ansatz der französischen Gebärdensprachforschung (Cuxac), der die Ikonizität in den Mittelpunkt seiner Analyse stellt, Fragen zu lexikalischen Struktur bisher jedoch vernachlässigte. Gleichzeitig werden aktuelle korpuslinguistische Arbeiten der internationalen Gebärdensprachforschung mit einbezogen.
<?page no="0"?> Die lexikalische Struktur der Deutschen Gebärdensprache im Spiegel empirischer Fachgebärdenlexikographie Zur Integration der Ikonizität in ein korpusbasiertes Lexikonmodell Reiner Konrad <?page no="1"?> Die lexikalische Struktur der Deutschen Gebärdensprache im Spiegel empirischer Fachgebärdenlexikographie <?page no="3"?> Reiner Konrad Die lexikalische Struktur der Deutschen Gebärdensprache im Spiegel empirischer Fachgebärdenlexikographie Zur Integration der Ikonizität in ein korpusbasiertes Lexikonmodell <?page no="4"?> Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http: / / dnb.d-nb.de> abrufbar. © 2011 Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Gedruckt auf chlorfrei gebleichtem und säurefreiem Werkdruckpapier. Internet: www.narr.de E-Mail: info@narr.de Druck und Bindung: Ilmprint, Langewiesen Printed in Germany ISBN 978-3-8233-6626-3 <?page no="5"?> 5 Inhalt Danksagung ........................................................................ 8 1 Einleitung........................................................................ 10 2 Lexikologische und lexikographische Aspekte ......... 16 2.1 Lexikon, Lexikologie und Lexikographie........................ 16 2.2 Lexikon und Grammatik..................................................... 20 2.3 Sind Gebärden Wörter? ....................................................... 24 2.4 Fachsprachen in der Gebärdensprachlexikographie .... 30 2.4.1 Was sind Fachgebärden? ....................................................... 30 2.4.2 Zur Schriftsprachkompetenz Gehörloser............................ 41 2.5 Zusammenfassung ............................................................... 45 3 Korpuslinguistik und Language Resources ............... 48 3.1 Korpuslinguistik als Methode oder eigenständige linguistische Teildisziplin? ................................................. 49 3.2 Korpusgestützt, korpusgebunden, korpusvalidiert oder korpusgesteuert? ......................................................... 56 3.3 Bedeutung der Korpuslinguistik für die Gebärdensprachforschung und -lexikographie ............. 59 3.4 Gibt es Korpora in der Gebärdensprachforschung? ..... 65 3.5 Korpus und sprachliche Daten .......................................... 70 3.6 Transkribieren, annotieren, taggen und parsen............. 79 3.6.1 Transkription .......................................................................... 79 3.6.1.1 Transkription als Verschriftlichung der Form ........... 79 3.6.1.2 Transkription als Theorie.............................................. 81 3.6.1.3 Transkription als Modellierung ................................... 82 3.6.2 Segmentierung von Textwörtern: Tokenisierung .............. 83 3.6.3 Identifikation lexikalischer Einheiten: Lemmatisierung ... 90 3.6.4 Zur Praxis der Glossentranskription ................................... 95 3.6.5 Annotation, Tagging und Parsing ....................................... 100 3.7 Language Resources............................................................. 102 <?page no="6"?> 6 3.8 Annotationswerkzeuge ....................................................... 105 3.8.1 Funktionalität ......................................................................... 106 3.8.2 Qualitätssicherung ................................................................. 106 3.8.3 Flexibilität................................................................................ 109 3.8.4 iLex: Integration von Interlinear-Transkription und lexikalischer Datenbank ........................................................ 109 3.9 Zusammenfassung ............................................................... 121 4 Die Auswirkungen von Ablesewörtern und Ikonizität auf die lexikalische Struktur von Gebärdensprachen .. 124 4.1 Zur Rolle der Ablesewörter bei der Identifikation lexikalischer Einheiten......................................................... 128 4.1.1 Nonmanuelle Elemente und Ablesewörter ........................ 128 4.1.2 Ablesewörter als beobachtbares Phänomen oder als Störfaktor ........................................................................... 131 4.1.3 Positionen zum Status von Ablesewörtern in der Gebärdensprachforschung.................................................... 133 4.1.3.1 Ablesewörter als Performanzphänomen .................... 133 4.1.3.2 Ablesewörter als Bestandteil der Gebärdenform ...... 133 4.1.3.3 Ablesewörter als in die Gebärdensprache integrierte Zeichen der Lautsprache ........................... 135 4.1.4 Wechselseitige Kontextualisierung von Wort und Gebärde ................................................................................... 138 4.1.5 Konsequenzen für die Identifikation lexikalischer Einheiten.................................................................................. 141 4.1.5.1 Theoretische und terminologische Konsequenzen.... 141 4.1.5.2 Auswirkungen auf die Modellierung: doppelte Glossierung .................................................... 145 4.1.5.3 Arten der Verweisfunktion des Ablesewortes ........... 155 4.1.6 Zusammenfassung ................................................................. 161 4.2 Zur Rolle der Ikonizität bei der Identifikation lexikalischer Einheiten......................................................... 162 4.2.1 Analyse ikonischer Gebärden: Bilderzeugungstechniken 163 4.2.1.1 Substitutive Technik ...................................................... 164 4.2.1.2 Manipulative Technik ................................................... 165 4.2.1.3 Skizzierende Technik .................................................... 166 4.2.1.4 Stempelnde Technik ...................................................... 167 4.2.1.5 Maßanzeigende Technik ............................................... 167 4.2.1.6 Indizierende Technik..................................................... 168 4.2.1.7 Kombinationen, Misch- und Sonderformen............... 169 <?page no="7"?> 7 4.2.2 Konsequenzen für die Identifikation lexikalischer Einheiten........................................................... 172 4.2.2.1 Verschiedene Formen, verschiedene Bilder: verschiedene Gebärden oder Synonyme .................... 173 4.2.2.2 Verschiedene Formen, gleiches Bild, verschiedene Bilderzeugungstechniken: Synonyme......................... 175 4.2.2.3 Ähnliche Form, gleiches Bild, gleiche Bilderzeugungstechnik: phonologische Varianten.... 175 4.2.2.4 Gleiche Form, verschiedene Bilder: Homonyme ....... 176 4.2.2.5 Bedeutungsrelevante Veränderung des zugrunde liegenden Bildes: Modifikation .................................... 177 4.2.2.6 Verweise auf formgleiche und formähnliche Gebärden: ikonisches Netzwerk .................................. 178 4.2.3 Zusammenfassung ................................................................. 182 4.3 Ikonizität: vom Störfaktor zum strukturierenden Prinzip .................................................... 184 4.3.1 Motiviertheit und Arbitrarität von Wörtern....................... 186 4.3.2 Ikonizität und Konventionalität von Gebärden ................. 191 4.3.3 Cuxac: Strukturen der Ikonizität.......................................... 196 4.3.3.1 Strukturen der großen Ikonizität (SGI) ....................... 200 4.3.3.2 Ikonizität der Standardgebärden ................................. 206 4.3.3.3 Lexikographische Konsequenzen: ein morphemisches Wörterbuch der LSF ................... 218 4.3.4 Zusammenfassung ................................................................. 219 5 Zur Frage der Angemessenheit lexikologischer und lexikographischer Beschreibungen von Gebärdensprachen ......................................................... 223 5.1 Lexikologische Aspekte....................................................... 223 5.2 Lexikographische Aspekte.................................................. 231 6 Zusammenfassung ......................................................... 236 7 Literatur ........................................................................... 244 Anhang................................................................................. 268 Anhang 1: DGS-Korpus-Projekt ............................................... 268 Anhang 2: Abbildungsverzeichnis ........................................... 275 Anhang 3: Tabellenverzeichnis ................................................. 276 Anhang 4: Abkürzungen ............................................................ 277 <?page no="8"?> 8 Danksagung Als ich 1993 die Aufgabe übernahm, ein Fachgebärdenlexikon Psychologie zu erstellen, war nicht absehbar, dass daraus eine langfristige Unternehmung werden würde, die zu etlichen Projekten, Produkten und auch zum Abschluss dieser Arbeit führen könnte. Am Anfang stand das Vertrauen von Siegmund Prillwitz, gemischt mit seinem Mut zum Risiko, der mir stets freie Hand ließ in der Planung und Durchführung der Projekte, für die materielle Absicherung nicht nur meiner Arbeit sorgte und darüber hinaus mir immer den nötigen Zuspruch gab, auch zum Abschluss dieser Arbeit. Die gehörlosen Mitarbeiter am Institut für Deutsche Gebärdensprache (IDGS) der Universität Hamburg ließen sich geduldig auf meine ersten Versuche ein, mit ihnen in Deutscher Gebärdensprache (DGS) zu kommunizieren und vermittelten mir die Kenntnisse, die ich heute habe. Arvid Schwarz begleitete mich vom ersten Gebärdenkurs an und zeigte mir nicht nur seine Sprache, sondern nahm stets mit Neugier auf, was ich ihm vermitteln konnte. Die weiteren gehörlosen Projektmitarbeiter schufen durch ihre jahrelange Mitarbeit in der Erhebung und Transkription die Grundlage für diese Arbeit. Ihre Ausdauer und ihre Bereitschaft, sich auf immer kompliziertere Anforderungen an die Transkription einzulassen, kann nicht hoch genug eingeschätzt werden. Besonders erwähnen möchte ich Dolly Blanck, Ilona Hofmann und Lutz König. Susanne König hatte zu Beginn unserer langjährigen Zusammenarbeit zunächst nur an ihre Kenntnisse in HamNoSys gedacht, die sie in die Lexikonarbeit einbringen könnte. Sie wurde jedoch schnell eine wichtige Mitdenkerin beim Aufbau des Lexikonmodells der DGS, das in dieser Arbeit vorgestellt wird. Für ihre uneingeschränkte Loyalität und ihre Bereitschaft, die Höhen und Tiefen der Projektarbeit zu durchleben, bin ich ihr sehr dankbar. Die Dritte im Bunde, die wie Susanne König schon während ihrer Studienzeit in den Fachgebärdenlexikon-Projekten mitarbeitete und bis heute wesentlich an der Entwicklung von Konzepten und ihrer Umsetzung in die Praxis beteiligt ist, ist Gabriele Langer. Ohne ihre Ausdauer und ihre akribische Genauigkeit, die sie auch beim Lesen dieser Arbeit walten ließ, hätte die von uns entwickelte Vorgehensweise nicht diesen Weg eingeschlagen. Für die vielen Diskussionen und ihre ebenso loyale Haltung bin ich ihr ebenfalls sehr dankbar. Thomas Hanke schuf die technischen Möglichkeiten, ohne die eine zuverlässige Auswertung der Datenmengen nicht leistbar gewesen wäre. Horst Ebbinghaus und Jens Heßmann sind langjährige Wegbegleiter und legten mit ihren Forschungsarbeiten zu Ablesewörtern in der DGS wichtige Grundlagen, die die Vorgehensweise und das Lexikonmodell wesentlich beeinflussten. Horst Ebbinghaus stand darüber hinaus immer mit Rat und Tat zur Seite und gab beim Lesen der Arbeit wichtige Hinweise. Penny <?page no="9"?> 9 Boyes Braem verfolgte die Entwicklung der lexikographischen Arbeiten am IDGS von Beginn an mit Interesse und gab in zahlreichen Diskussionen wichtige Anregungen. Martje Hansen las ebenfalls eine vorläufige Fassung dieser Arbeit und wies mich auf einige Unstimmigkeiten. Frau Theres Höch ermöglichte es mir, durch die großzügige Übernahme der Druckkosten die Arbeit beim narr Verlag zu veröffentlichen. Tomas Vollhaber war stets ansprechbar, insbesondere in schwierigen Zeiten. Für sein Interesse an meiner Person und seine Offenheit möchte ich mich an dieser Stelle ebenso wie bei allen, die mich unterstützten und in meinem Vorhaben bestärkten, ganz herzlich bedanken. Annette Marchand hat die Projektarbeit sowie den Abschluss dieser Arbeit stets mitgetragen. Ohne ihren Rückhalt und ihre Anteilnahme, ihre Geduld und das Aufzeigen von Grenzen wäre diese Arbeit nicht möglich gewesen. Geduldig, verständnisvoll und hilfsbereit waren auch Clara und Kaspar. Ihnen bin ich zutiefst dankbar. <?page no="10"?> 10 1 Einleitung Lexikographie wird traditionell als praktische und handwerkliche Unternehmung angesehen, die ein konkretes Ziel verfolgt: das Erstellen von Wörterbüchern. Wörterbücher genießen ein hohes Ansehen, nicht nur, weil sie einen Standard festschreiben, an den man sich halten kann oder auch muss, sondern weil in den Wörtern, die sie beschreiben, das Wissen einer Sprachgemeinschaft konserviert ist. Stirbt eine Sprache, so geht auch dieses Wissen verloren, wenn es nicht zuvor festgehalten worden ist. Die Konservierung und Dokumentation des Wortschatzes einer Sprache trägt auch zu ihrem Status bei. Das Lexikon einer Sprache ist damit nicht nur ein Vehikel der Kommunikation, von dem jeder Gebrauch machen kann, sondern wird durch seine Aufbereitung und Vergegenständlichung in Wörterbüchern objektiviert und dadurch für Forscher wie Laien handhabbar: Ein Lexikon ist eben auch ein Gegenstand, den man zur Hand nehmen kann, um darin etwas nachzuschlagen. Der Stolz auf die eigene Sprache mag sich auch darin ausdrücken, dass man auf einen dicken Wälzer im Bücherregal zeigen kann. Dies mag vielleicht erklären, warum sich einige Gehörlose ein Wörterbuch ihrer Sprache in Buchform wünschen, obwohl Gebärden am besten als Filme präsentiert werden, da die Darstellung von Bewegung in Raum und Zeit in gedruckter Form immer problematisch bleibt. Die lexikographische Beschreibung von Gebärdensprachen stößt auf etliche Schwierigkeiten. Einige Eigenschaften, wie z.B. das Fehlen einer Schriftform, haben Gebärdensprachen mit vielen gesprochenen Sprachen gemeinsam, andere jedoch unterscheiden sie grundlegend von diesen. Dazu gehört vor allem ihre Modalität. Gebärdensprachen erfüllen dieselben Funktionen wie gesprochene Sprachen, werden jedoch als gestische Bewegungen des Körpers in Raum und Zeit realisiert und visuell wahrgenommen. Die Verschriftlichung dieser Bewegungen des Körpers und insbesondere der Hände lässt sich nicht durch die Einführung einer Alphabetschrift bewerkstelligen. Die Form der Gebärden zu zeichnen, ist recht aufwendig und hilft nicht viel beim Vergleich der verschiedenen Formen, denn nach welchem Prinzip sollten diese geordnet und sortiert werden? Zweidimensionale Zeichnungen haben einen weiteren, schwerwiegenden Nachteil: Die Bewegung im dreidimensionalen Raum ist schwer darzustellen bzw. den Zeichnungen zu entnehmen. Erst die filmische Aufzeichnung und Archivierung der Gebärden, wie sie in der natürlichen Kommunikation vorkommen, schaffen die Voraussetzung für ihre lexikographische Erfassung. Dieses Rohmaterial kann weiter beschrieben und analysiert werden. Dazu bedarf es jedoch geeigneter Beschreibungskriterien und Kategorien, die uns in die Lage versetzen, die vielfältigen und vielschichtigen Möglichkeiten des körpersprachlichen Ausdrucks auf vergleichbare Einheiten zu reduzieren sowie die strukturellen und funktionalen Zusammenhänge zwischen diesen Ein- <?page no="11"?> 11 heiten darzustellen. Diese Kategorien liegen jedoch nicht griffbereit im Rohmaterial vor. Sie aus den sprachlichen Daten abzuleiten, sie diesen zu entnehmen, birgt jedoch immer die Gefahr, Kategorien in die Sprache hineinzulegen. Denn die Interpretation der Daten bedarf immer auch eines theoretischen Ansatzes, eines Modells. Es kommt darauf an, wie zuverlässig wiederkehrende Muster, Gemeinsamkeiten und Unterschiede mithilfe dieses Modells beschrieben werden können. Nach gängiger Auffassung setzen sich Sprachen aus lexikalischen Einheiten und Regeln, wie diese Einheiten miteinander kombiniert werden, zusammen, d.h. Sprachen besitzen eine Grammatik und ein Lexikon. Die Einheiten des Lexikons sind die Wörter. Überträgt man dieses Modell auf die Gebärdensprachen, dann scheinen den Wörtern die manuellen Zeichen zu entsprechen. Ihnen kommt eine jeweils bestimmte Bedeutung zu und sie setzen sich aus kleineren Formbestandteilen zusammen, die seit Stokoe (1960) als phonologische Parameter beschrieben werden. Gebärden entsprechen somit der strukturalistischen Definition des sprachlichen Zeichens mit einer Form- und einer Inhaltsseite. Der Nachweis, dass Gebärden aus sublexikalischen Einheiten bestehen, durch die sie sich voneinander unterscheiden, bekräftigt diese Gleichsetzung von Wort und Gebärde. Mit bestimmten formähnlichen Gebärden lassen sich Minimalpaare bilden, bei denen Bedeutungsunterschiede durch einen einzigen Formparameter hervorgerufen werden. Wird z.B. die Gebärde S CHÜTTEN 1A 1 ( ) nicht mit der Becherhand, sondern mit der Flachhand, Handinnenfläche schräg zum Körper hin, ausgeführt 2 , dann kann dies als Gebärde mit der Bedeutung „hacken (mit einer Klinge zerteilen oder schneiden)“ verstanden werden. Diese Interpretation wird jedoch entscheidend gestützt von der Art der Bewegung. Wird diese Gebärde nicht mit einer wiederholten kurzen und stoppenden Bewegung, sondern ganz langsam, gewissermaßen in Zeitlupe, ausgeführt, dann wird niemand diese Gebärde mit der Bedeutung „hacken“ assoziieren. Mit solch einer langsamen Bewegung kann man visualisieren, wie z.B. eine Klinge sich dem Gegenstand nähert, der zerteilt werden soll. Dies ist jedoch eine spezifische, in der Alltagskommunikation selten vorkommende Verwendung, die weit über die hier gemeinte konventionalisierte begriffliche Bedeutung hinausgeht und ein semantisches Merkmal, die schnelle, abrupt stoppende und wiederholte Bewegung, in 1 Gebärden werden in dieser Arbeit durchgehend mit dem Glossennamen angegeben, den sie in der lexikalischen Datenbank des IDGS (iLex; s. Kap. 3.8.4) haben. Die Gebärdenfilme können über die Glossen auf folgender Webseite gefunden und abgespielt werden: URL: http: / / www.sign-lang.uni-hamburg.de/ projekte/ mfl/ gebaerden_filme.html. Durch die fortlaufende Transkription sind Änderungen des Glossennamens unvermeidbar. Über die Auflistung der Glossen mit der zugehörigen Datenbank-ID können die Gebärdeneinträge in iLex gefunden bzw. direkt als Hyperlink geöffnet werden. Diese Auflistung ist Bestandteil der eingereichten Dissertation. 2 Diese Änderung der Handkonfiguration beruht streng genommen auf der Veränderung von zwei Parametern, der Handform und der Orientierung der Hand. <?page no="12"?> 12 sein Gegenteil verkehrt. An diesem Punkt gerät nämlich das gebärdenphonologische Modell ins Wanken. Denn während bei den meisten Wörtern die Beziehung zwischen der Lautgestalt und dem begrifflichen Konzept, das durch sie ausgedrückt wird, arbiträr, d.h. unmotiviert ist, trifft dies bei Gebärden nur selten zu: Die meisten Gebärden sind motiviert, d.h. es lässt sich eine Beziehung zwischen Form und Bedeutung herstellen. Der ikonische Charakter der Gebärden ermöglicht es, sie in vielfältiger Weise mit anderen Mitteln des Körperausdrucks zu kombinieren, um kommunikative Inhalte gewissermaßen vor Augen zu führen. Hält man an der Analogie zur Lautsprache fest und setzt die manuellen Zeichen mit Wörtern gleich, dann bleibt die Ikonizität von Gebärden trotz ihrer Allgegenwart für die lexikographische Beschreibung irrelevant. Denn diese konzentriert sich auf die lexikalischen Einheiten, denen unabhängig von den Bedingungen spezifischer Äußerungskontexte eine konstante Bedeutung zugeschrieben werden kann, die nicht aus der Form der Gebärde ableitbar ist. Der Einsatz korpuslinguistischer Methoden hat gezeigt, dass die klassische Aufteilung zwischen Grammatik und Lexikon kein geeignetes Modell ist, Kollokationen, das häufige gemeinsame Auftreten bestimmter Wörter, zu beschreiben. Diese sprachlichen Muster wurden erst entdeckt, als man begann, große Textsammlungen gesprochener und geschriebener Sprache automatisiert auszuwerten und sich die Kontexte von Wörtern genauer anschaute. Korpuslinguistische Methoden erlauben es heutzutage, den sprachlichen Kontext von Wörtern im natürlichen Sprachgebrauch zu untersuchen und statistisch fundierte Hypothesen zu formulieren, die wiederum an großen Korpora überprüft werden können. Da Gebärdensprachen die ikonischen Eigenschaften ihrer sprachlichen Mittel funktional und strukturell nutzen, indem sie diese auf mehreren Ebenen, der manuellen, der nonmanuellen und der oralen Ebene, simultan und sequenziell miteinander kombinieren, ist die Korpuslinguistik das Mittel der Wahl zur Erforschung von Gebärdensprachen. Denn sie ermöglicht es, die Gebärden im Kontext zu untersuchen. Die Voraussetzung für ein linguistisch verwertbares Korpus ist jedoch, dass es automatisiert ausgewertet werden kann. Solange es noch keine automatisierte Gebärdenerkennung gibt, müssen die beobachtbaren Realisierungen (Token) einer lexikalischen Einheit manuell segmentiert und identifiziert, d.h. einem Type zugeordnet werden. Die Token-Type-Zuordnung muss fortlaufend und vollständig erfolgen, damit auf alle Token und ihre Umgebung zugegriffen werden kann. Die Zuordnung bedarf jedoch bestimmter Regeln, die in den Transkriptionskonventionen festgelegt sind. Diese Regeln sind jedoch nicht nur aus den Daten abgeleitet, sondern werden auch vor dem Hintergrund theoretischer Entscheidungen getroffen. Ein Transkriptionssystem ist daher am ehesten als Modellierung zu verstehen. Das Modell umfasst alle theoretischen Aspekte, die die Selektion und angemessene Abbildung der sprachlichen Phänomene im Modell betreffen (Schmidt 2005). Ein theoretisch wesentlicher Aspekt ist die Frage, ob die <?page no="13"?> 13 Ikonizität von Gebärden in diesem Modell ihren Niederschlag finden soll, und wenn ja, wo und wie. Die bisherigen Ausführungen betreffen zunächst die Lexikologie und Lexikographie von Gebärdensprachen im Allgemeinen und weniger die Fachgebärdenlexikographie im Speziellen. Inwiefern gerade aus der lexikographischen Beschreibung gebärdensprachlicher Entsprechungen für Fachbegriffe ein Lexikonmodell entwickelt werden kann, das die Ikonizität integriert, ist auf den ersten Blick unverständlich. Denn gerade für Fachbegriffe eines geordneten terminologischen Begriffssystems sollte in höherem Maß als für alle anderen Lexeme gelten, dass sie auch kontextunabhängig eindeutig interpretierbar sind. Der Widerspruch löst sich sehr schnell auf, wenn man sich von der Vorstellung löst, dass es für die verschiedenen Berufszweige ein entsprechend ausdifferenziertes Fachgebärden-Vokabular gibt. Die Fachgebärdenlexikographie hat bisher noch nicht die Aufgabe übernommen, die Struktur von Fachgebärden lexikologisch und lexikographisch zu beschreiben, sondern sie stellt diese zunächst einmal bereit. Will sie jedoch nicht selbst den Gegenstand schaffen, den sie anschließend wissenschaftlich erforschen will, dann ist sie auf die Übersetzungsangebote angewiesen, die gehörlose Fachleute ihr liefern. Diese zeichnen sich jedoch gerade dadurch aus, dass sie spezifische Bedeutungen inhalts- oder wortbezogen kontextualisieren, d.h. entweder Bedeutungsaspekte in einer ikonisch motivierten Form visualisieren oder auf die Wörter der Lautsprache zurückgreifen. Insbesondere DGS-Übersetzungen von Fachbegriffen greifen häufig auf das deutsche Fachwort zurück, das zeitgleich zur Gebärde meist lautlos artikuliert wird. Mundbilder, im Folgenden Ablesewörter genannt, kommen in den erhobenen Daten zu den Fachgebärdenlexika häufiger vor als in natürlichsprachlichen DGS-Texten. Ihre Funktion im Zusammenspiel mit den ikonischen Eigenschaften der Gebärden kommt dadurch noch deutlicher zum Tragen. Das hier vorgestellte Lexikonmodell nimmt daher explizit Bezug auf Forschungsarbeiten zu Ablesewörtern und zur Ikonizität. Die Korpora, auf die sich diese Forschungsarbeiten stützen, sind transkribierte natürlichsprachliche Äußerungen in zusammenhängenden Kontexten. Kapitel 2 geht auf die Besonderheiten der Entstehungsbedingungen dieser Arbeit ein. Dazu gehört zum einen die Frage nach dem Stand der Fachgebärdenlexikographie und der Einordnung der eigenen Arbeiten 3 , zum anderen die Frage nach den Grenzen einer Modellierung, die Gebärden mit Wörtern gleichsetzt. In Kapitel 3 werden die grundlegenden Aspekte einer Korpuslinguistik von Gebärdensprachen vorgestellt. Neben der Frage, ob Korpuslinguistik als Methode oder eigenständige linguistische Disziplin 3 S. Arbeitsgruppe Fachgebärdenlexika (1996), Arbeitsgruppe Fachgebärdenlexika (1998), Konrad et al. (2000), Konrad et al. (2003), Konrad et al. (2007), Konrad et al. (2010), online verfügbar unter der URL: http: / / www.sign-lang.uni-hamburg.de/ projekt/ abg_projekte.html. <?page no="14"?> 14 verstanden werden sollte, wird der Begriff ‚Korpusbasiertheit‘ diskutiert. Weiterhin kommen das Verständnis von sprachlichen Daten auf den verschiedenen Bearbeitungsstufen sowie die Bedeutung der Korpuslinguistik für die Gebärdensprachlexikographie zur Sprache. Im Zentrum steht die Transkription gebärdensprachlicher Äußerungen, deren vorrangige Aufgabe darin besteht, die Gebärden zu identifizieren, d.h. sie lexikalischen Einheiten zuzuordnen (Lemmatisierung). 4 Eng mit der Korpuslinguistik verbunden ist der Begriff ‚Language Resources‘. Dazu zählen nicht nur Korpora, sondern auch Annotationswerkzeuge, mit denen annotierte Korpora erstellt und aufbereitet werden. Für die Auswertung der Daten in den verschiedenen Fachgebärdenlexikon-Projekten wurde ein datenbankgestütztes Transkriptions- und Annotationssystems (iLex) entwickelt. Im 4. Kapitel werden die beiden für unser Lexikonmodell zentralen Aspekte, die wechselseitige Kontextualisierung von Gebärden und Ablesewörtern sowie die Ikonizität, im Hinblick auf praktische und theoretische Konsequenzen diskutiert. Zunächst werden die Forschungsergebnisse von Ebbinghaus/ Heßmann (u.a. 1989, 1996, 2001) im Rahmen weiterer Arbeiten zu Ablesewörtern in Gebärdensprachen skizziert, bevor die Konsequenzen vorgestellt werden, die wir aus diesem Ansatz für die Lemmatisierung gezogen haben. Diese schlagen sich in der Einführung einer doppelten Glossierung und in der Unterscheidung zwischen einer konventionellen und einer produktiven Verwendung konventioneller Gebärden nieder. Die bereits erwähnte Funktion der inhalts- und wortbezogenen Kontextualisierung, die die Gebärden im Zusammenspiel mit Ablesewörtern übernehmen, wird anhand von Beispielen illustriert. Die Möglichkeit der Kontextualisierung von Ablesewörtern beruht vor allem auf dem ikonischen Charakter der Gebärden. Eine systematische Beschreibung des den Gebärden zugrunde liegenden Bildes und die Analyse der manuellen Bilderzeugungstechnik schaffen die Voraussetzung für die Bestimmung ihres lexikalischen Status sowie für die Beschreibung der zwischen den Gebärden bestehenden Beziehungen. Die Beziehungen der Gebärden untereinander lassen sich als Netzwerk darstellen, das wesentlich dichter geknüpft ist als ein semantisches Netzwerk, welches lediglich die konventionalisierten Bedeutungen von Gebärden erfasst. Nach dieser auf die eigene lexikographische Praxis bezogenen Darstellung folgen grundsätzliche Überlegungen zu Wörtern und Gebärden im Spannungsfeld von Motiviertheit und Arbitrarität sowie Ikonizität und Konventionalität. Während Wörter meistens arbiträr und damit notwendiger- 4 In dieser Arbeit werden allgemeine theoretische Fragen und Prinzipien behandelt. Die konkrete Vorgehensweise im Rahme der Fachgebärdenlexikon-Projekte ist in Konrad (2010a) dokumentiert. Konrad (2010b) gibt einen Überblick über die Transkriptionskonventionen im Vergleich mit Konventionen, die im Rahmen internationaler lexikographischer Arbeiten und Korpusprojekte verwendet werden. Beide Dokumente sowie die Gebärdenfilme sind Bestandteil der „Materialien zu den Fachgebärdenlexika (1996-2010)“ (s. URL: http: / / www.sign-lang.uni-hamburg.de/ projekte/ mfl/ ). <?page no="15"?> 15 weise konventionalisiert sind, sind die meisten Gebärden ikonisch motiviert und müssen nicht zwangsläufig lexikalisieren. Der Beschreibungsansatz von Cuxac (u.a. 2000) ist bisher der einzige, der die Ikonizität in den Mittelpunkt seiner Forschung stellt. Er hat diesen Ansatz auf der Grundlage seiner Untersuchungen von ausgesprochen ikonischen, natürlichsprachlichen Texten der Französischen Gebärdensprache (LSF), insbesondere monologischen Erzählungen und Schilderungen, entwickelt. Dieser Ansatz bezieht sich auf alle sprachlichen Ebenen und ist von Cuxacs Überzeugung geprägt, dass jegliche Beschreibung von Gebärdensprachen von der Ikonizität ausgehen muss, will sie ihren Gegenstand nicht verfehlen. Die Frage der Angemessenheit lexikologischer und lexikographischer Beschreibungen von Gebärdensprachen wird in Kapitel 5 diskutiert. Die Modellierung von Cuxac lässt die lexikalische Ebene aus und stellt eine direkte Beziehung von Einheiten des gebärdensprachlichen Diskurses auf die morphologischen Bestandteile lexikalischer Gebärden her. Sie ist am weitesten entfernt vom Beschreibungsansatz von Johnston/ Schembri (1999), deren lexikologischen und lexikographischen Arbeiten sich, analog zu Lautsprachen, auf die konventionellen Gebärden konzentrieren. Das hier vorgestellte Lexikonmodell ist der Versuch, den Beschreibungsansatz von Cuxac auf den Bereich des Lexikons zu übertragen. Um mögliche praktische Konsequenzen der hier dargestellten theoretischen Überlegungen aufzuzeigen, wird im Anhang 1 ein Ausblick auf das seit 2009 am Institut für Deutsche Gebärdensprache durchgeführte DGS- Korpus-Projekt gegeben, das die vermutlich einmalige Gelegenheit bietet, die in dieser Arbeit dargelegten Prinzipien einer Korpuslinguistik von Gebärdensprachen exemplarisch auf die DGS anzuwenden. <?page no="16"?> 16 2 Lexikologische und lexikographische Aspekte 2.1 Lexikon, Lexikologie und Lexikographie Das Wort ‚Lexikon‘ wird im Deutschen in drei Bedeutungen verwendet: 1. der Wortschatz einer Sprache, der die lexikalischen Einheiten enthält und als offenes Teilsystem zusammen mit der Grammatik als das geschlossene Teilsystem der Regeln das Gesamtsystem einer Sprache bildet, 2. das mentale Lexikon, auch als internes oder subjektives Lexikon oder semantisches Gedächtnis bezeichnet, das das Wissen eines einzelnen Sprechers einer Sprache über die lexikalischen Einheiten ausmacht, 3. das Wörterbuch, im engeren Sinn das enzyklopädische oder Sachwörterbuch. Die Verwendung des Wortes ‚Lexikon‘ in der Bedeutung „Wörterbuch“ ist eine Besonderheit des Deutschen. 1 Im Englischen und Französischen werden dafür üblicherweise nicht die Wörter lexicon/ lexique verwendet, sondern dictionary/ dictionnaire. Um eine Verwechslung zu vermeiden, verwendet Lutzeier (2002) dafür die Bezeichnung ‚Lexis‘, das Wort ‚Lexikon‘ ist damit reserviert für die erste Bedeutung „Wortschatz einer Sprache“. Das mentale Lexikon ist in erster Linie Gegenstand der Psycholinguistik, die neben dem Spracherwerb die Speicherung und Verarbeitung von Wörtern untersucht und Modelle zur Repräsentation von Wortbedeutungen entwickelt. Diese Modelle unterscheiden sich nach Fellbaum (2005) darin, welches Gewicht sie der paradigmatischen und syntagmatischen Beziehung eines Wortes zu anderen Wörtern beimessen in Bezug auf die Bedeutung dieses Wortes. Die Beziehungen der Wörter untereinander sind vor allem phonologischer und semantischer Art, darauf weisen Phänomene wie Versprecher oder das „Es-liegt-mir-auf-der-Zunge“-Phänomen hin. Die Tatsache, dass Kinder in relativ kurzer Zeit den Wortschatz einer Sprache erlernen, spricht dafür, dass sie Beziehungen zwischen den Wortbedeutungen herstellen. Diese sind als Konzepte organisiert, zwischen denen es Beziehungen gibt. Weiterhin spricht die Tatsache, dass Sprecher einer Sprache Wörter sehr schnell und sicher produzieren und verarbeiten und im Falle polysemer Wörter je nach Kontext die beabsichtigte Wortbedeutung richtig zuordnen können, für ein hoch strukturiertes mentales Lexikon, das eine effiziente Speicherung und einen schnellen Zugriff ermöglicht. Daraus 1 Das Wortschatz-Portal (URL: http: / / wortschatz.uni-leipzig.de/ ) listet bei den signifikanten Kookkurrenzen für ‚Lexikon‘ das Wort ‚Wörterbuch‘ an fünfter Stelle auf, zählt man nur die Nomen. <?page no="17"?> 17 wird deutlich, dass das mentale Lexikon anders organisiert und geordnet sein muss als die Einträge in einem Wörterbuch, die üblicherweise alphabetisch aufgelistet sind, um dem Benutzer einen schnellen Zugriff zu gewähren. Neben der Psycholinguistik beschäftigen sich auch die klinische Linguistik und die Kognitive Linguistik mit dem mentalen Lexikon. Das Lexikon als Wörterbuch ist Gegenstand der Lexikographie. Lutzeier (2002: 2) definiert diese „als Theorie und Praxis des Schreibens von Wörterbüchern“ und verweist auf Wiegand (1998), der sich für die Etablierung der Lexikographie als eigenständige Disziplin einsetzt. Die Aufgabe der Lexikographie ist es, den Wortschatz einer Sprache, d.h. die lexikalischen Einheiten, möglichst umfassend hinsichtlich ihrer Formen, Bedeutungen und Verwendungen zu beschreiben. Dazu gehören auch grammatische Informationen wie etwa die Zuordnung zu Wortklassen. Da sich durch den Sprachwandel der Wortschatz einer Sprache ständig ändert, ist dies immer nur annähernd und bezogen auf einen bestimmten Zeitraum möglich, d.h. die Lexikographie beschreibt immer nur einen Sprachausschnitt, der durch Sprachdaten aus oder bis zu einer bestimmten Zeit belegt werden kann. Damit ist auch gleichzeitig die empirische Grundlage der Lexikographie benannt, die seit den 1990er-Jahren durch den Einsatz von Computern und den Möglichkeiten der Sprachverarbeitung, insbesondere schriftlicher Texte in elektronischer Form, zunehmend korpusbasiert ist. Fragen der Wörterbuchbenutzung und der Organisation der Einträge im Wörterbuch bzw. bei elektronischen Wörterbüchern der Suchfunktionen und Zugriffsmöglichkeiten sind originäre Fragen der Lexikographie, die im Rahmen der Wörterbuchforschung bzw. Metalexikographie behandelt werden. Dagegen gibt es starke Überschneidungen mit der Lexikologie in Bezug auf den Gegenstand. Die o.g. Definition lässt erkennen, dass die Lexikographie nicht die Praxis der Lexikologie ist, letztere gewissermaßen die Theorie liefert, die die Lexikographie in praktische Produkte umsetzt. „Sprachlexikographie ist weder angewandte Lexikologie noch angewandte Linguistik noch ein Teilgebiet dieser angewandten Disziplinen“ (Wiegand 1998: 26). Der Gegenstand beider Disziplinen ist der Wortschatz, das Lexikon einer Sprache. Ziel der Lexikographie ist es, den Wortschatz in Form von Wörterbüchern zugänglich zu machen. Unter anderem ist es dieses für den Benutzer verfügbare Endprodukt, das den Aspekt des Handwerklichen, der Praxis, stärker in den Vordergrund rückt. Die damit verbundenen Probleme und Lösungsansätze sind jedoch nicht weniger theoretisch als die Fragestellungen der Lexikologie, die die Lexikographie mit berücksichtigen muss. Lutzeier (2002: 1), der sich für die Lexikologie als eigenständige Disziplin einsetzt, definiert diese, analog zu seiner Definition der Lexikographie, als „die Theorie und Praxis der Strukturierungen im Wortschatz.“ Dass sich die Lexikologie erst zögerlich zu einer eigenständigen Disziplin <?page no="18"?> 18 entwickelt, liegt u.a. an der „Allgegenwart der Lexikologie bzw. der lexikologischen Fragen“ (Lutzeier 2002: 7) in der Linguistik. Die Schwerpunkte der lexikologischen Forschung liegen jedoch in der Morphologie und der lexikalischen Semantik. Damit ist sie nach Lutzeier gleichzeitig Grundlagendisziplin für die Lexikographie. Wiegand (1998) weist jedoch darauf hin, dass die Lexikographie erst das Material bereitstellt, auf das die Lexikologie für ihre Forschung zurückgreift. Das Verhältnis von Geben und Nehmen zwischen den beiden Disziplinen lässt sich nach Wolski (2005: 1822) am besten so beschreiben: Zum einen gilt, dass Wörterbücher ‚Hilfsmittel für weitere Forschung‘ sein können, obwohl sie zu diesem Zweck nicht erstellt worden sind. […] Zum anderen gilt für alle Wörterbücher, in denen Bedeutungsangaben obligatorisch sind, dass die Lexikologie (insbes. in deren Rahmen entwickelte lexikalisch-semantische Differenzierungen) als informationsspendendes Forschungsfeld ‚gegenstandsspezifisch‘ ist. Wolski (2005: 1817) schränkt die Charakterisierung der Lexikologie als Praxis insofern ein, als die Beschreibung von Sprachausschnitten unter mehr oder weniger erschöpfender oder exemplarischer Anwendung von Methoden eine „‚theoretische‘ Praxis [ist], die an die alltägliche ‚Praxis‘ im Umgang mit Sprache anschließt (und daran anschließen sollte)“. Die Einordnung der Lexikologie als Theorie ist unstrittig. Wie jedoch die Lehre, und dies trifft auch für die Lexikographie zu, näher bestimmt werden soll, wird als problematisch angesehen. Innerhalb des strukturalistischen Paradigmas, nach dem die lexikalische Einheit eine Verbindung aus Form- und Inhaltsseite darstellt, kommt der Lexikologie die Aufgabe zu, „die immer wieder leidigen Identifikations-/ Klassifikationskriterien für Wortschätze und lexikalische Einheiten“ zu klären (Lutzeier 2002: 7). Das heißt, dass die Entwicklung und Überprüfung von Kriterien der Token-Type-Zuordnung im Rahmen der Tokenisierung, Lemmatisierung und Transkription von Daten gesprochener Sprachen die ureigene Aufgabe der Lexikologie ist. Die Untersuchung relevanter Ausschnitte einzelner Wortschätze ist ohne die Bereitstellung „massive[r] Datenmengen“ (Lutzeier 2002: 8) nicht möglich. Da dies jedoch insbesondere für die Untersuchung gesprochener Sprachen sehr zeitaufwendig ist, gibt es nach Lutzeier leider noch nicht genügend lexikologische Untersuchungen, die diesem Anspruch gerecht werden. Die typische abstrakte Einheit, auf die sich die Identifikations- und Klassifikationskriterien beziehen, ist das Wort. An den Rändern dieser Einheit befinden sich die Mehrwortlexeme und Phraseologismen, die mit einer einfachen Bestimmung der Form- und Inhaltsseite nicht mehr fassbar sind. Das Wort ist sowohl für die Disziplinen, die das mentale Lexikon als Untersuchungsgegenstand haben, als auch für die Lexikographie und Lexikologie der zentrale Begriff, die prototypische Spracheinheit. Gleichwohl handelt es sich, so der Hinweis von Schindler (2002: 36), „um einen der problematischsten innerhalb der Linguistik“. Es ist daher nicht ver- <?page no="19"?> 19 wunderlich, dass das Institut für deutsche Sprache (IDS; Mannheim) sein Projekt zur Entwicklung eines lexikalisch-lexikologischen, korpusbasierten Informationssystems „Wissen über Wörter“ genannt hat. Dieses System (OWID 2 ) stellt kein Modell des mentalen Lexikons dar, sondern ist ein elektronisches, online verfügbares Nachschlagewerk, aufgeteilt in ein Wörterbuch mit über 300000 Stichwörtern - auch bekannt unter der Bezeichnung ‚elexiko‘ -, ein Neologismenwörterbuch, eine Sammlung usueller Wortverbindungen sowie ein Diskurswörterbuch, das den Sprachausschnitt des Deutschen von 1945-1955 wiedergibt. Schindler (2002: 36) definiert das sprachliche Zeichen als „die konventionalisierte Verbindung einer phonologisch organisierten, vom menschlichen Stimmapparat hervorgebrachte Lautfolge mit einer begrifflichen Bedeutung“. 3 Herbermann (2002: 23) weist darauf hin, dass dies nur auf das Lexikonwort zutrifft, das synonym zu lexikalischer Einheit und Lexem verwendet werden kann und auch als Inhaltswort oder Autosemantikon bezeichnet wird, da es eine kontextunabhängige, selbstständige lexikalische Bedeutung besitzt. Bezogen auf die Wortarten sind dies Substantive, Verben, Adjektive und Adverbien. Ein weiteres Kriterium ist seine Idiomatizität. Damit ist der „semantische Überschuss“ gemeint, der in der begrifflichen Bedeutung des Wortes enthalten ist und über das hinausgeht, was aus den Wortkomponenten und Bildungsregeln abgeleitet werden kann. Das Prinzip der spezifizierten Bedeutung, das Johnston/ Schembri (1999: 146) zur Unterscheidung zwischen produktiven und konventionellen Gebärden anwenden, bezieht sich auf diese spezifizierte begriffliche Bedeutung einer lexikalischen Einheit. Im Unterschied zum Inhaltswort hat das grammatische Wort, auch Strukturwort, Funktionswort oder Synsemantikon genannt, keine selbstständige lexikalische Bedeutung, sondern bedarf immer eines Kontexts, d.h. anderer Wörter. Zu den grammatischen Wörtern zählen Artikel, Konjunktionen und Präpositionen. Die Bezeichnung ‚Lexem‘ ist innerhalb der Lexikologie für die Inhaltswörter reserviert, nach Lutzeier (1995: 39) ist sie sogar überflüssig, da synonym zum Wort. In der Lexikographie wird Lexem als Bezeichnung für alle konventionellen lexikalischen Einheiten verwendet, d.h. auch für die grammatischen Wörter, die in einer umfassenden Beschreibung des Wortschatzes einer Sprache nicht fehlen dürfen. In dieser Arbeit wird Lexem vorwiegend in seiner lexikologischen Dimension verwendet, ebenso Wort bzw. Wörter. 4 Ein weiterer zentraler Begriff in der Lexikographie ist das ‚Lemma‘, auch Nenn- oder Zitierform genannt, das die lexikalische Einheit, das Lemmazeichen, zu Beginn eines Wörterbucheintrags repräsentiert. 2 Online-Wortschatz-Informationssystem Deutsch; URL: http: / / www.owid.de/ . 3 Schindler (2002: 36) geht in seinen Ausführungen explizit auf die Gebärden ein, die er aber „aufgrund ihres visuellen Charakters [als] weniger typisch“ einstuft. 4 Nicht unerwähnt bleiben soll die Unterscheidung zwischen dem konkreten, gesprochenen oder geschriebenen Wort, d.h. einem Token, und dem Lexem als der abstrakten, lexikalischen Einheit. <?page no="20"?> 20 In der Korpuslinguistik wird unterschieden zwischen Type und Token, in dieser Arbeit als Lehnwörter verwendet mit den Formen ‚der Type‘ (‚die Types‘) und ‚das Token‘ (‚die Token‘), in Lyons (1980: 26-31) auch mit Typ und Exemplar übersetzt. Der Type entspricht der abstrakten lexikalischen Einheit, hier jedoch dem Lexem in seiner lexikographischen Dimension, da bei der Token-Type-Zuordnung alle Token, auch Vorkommen oder Realisierungen des Types genannt, einem Type zugeordnet werden müssen, auch die Token grammatischer Wörter. In der Regel sind die Token orthographisch geschriebene Wörter. Bei der Tokenisierung werden getrennt geschriebene Wörter wie z.B. ‚New York‘ als eine Einheit markiert, damit sie im Prozess der Lemmatisierung der lexikalischen Einheit {New York} zugeordnet werden können. Ebenso werden Besonderheiten der Schrift wie die Verwendung von Satzzeichen bei Abkürzungen (z.B. ‚Str.‘ für ‚Straße‘) normalisiert, sodass sie in der weiteren automatisierten Verarbeitung der richtigen lexikalischen Einheit zugeordnet werden können. Unterhalb der Wortebene befinden sich die Morpheme, die als Bestandteile des Lexikons gezählt werden, wenn sie semantische Eigenschaften haben, d.h. entweder lexikalisch-begriffliche oder grammatische Bedeutung tragen. Da die Angabe der Bedeutung bei grammatischen Morphemen wie z.B. dem Fugen-S jedoch schwierig ist, wurde die ursprüngliche Morphemdefinition dadurch erweitert, dass auch eine weitere außerphonologische Eigenschaft zur Klassifizierung als Morphem genügt. Oberhalb der Wortebene sind die Phraseologismen angesiedelt, das sind Mehrwortverbindungen oder -lexeme bis hin zu satzartigen Äußerungen, die Irregularitäten unterschiedlicher Art und in verschiedener Kombination aufweisen. Sie werden auch als Idiome bezeichnet, wenn sie idiosynkratische, d.h. nicht (mehr) ableitbare Bedeutungs- und Kombinationseigenschaften haben. Dadurch grenzen sie sich auch gegenüber dem neutralen Begriff ‚Kollokation‘ ab, der lediglich das regelmäßige, d.h. statistisch signifikante gemeinsame Auftreten mehrerer Wörter bezeichnet. 5 Aus Kollokationen können feste Wortverbindungen entstehen, die in einer spezifischen Bedeutung verwendet werden und damit die Voraussetzungen für einen Lexikoneintrag erfüllen. Die Entscheidung, Wortverbindungen ins Lexikon aufzunehmen, wird häufig eher nach pragmatischen als nach theoretischen Aspekten getroffen. 2.2 Lexikon und Grammatik Wie die o.g. Definition des Gegenstands der Lexikologie und Lexikographie zeigt, wird das Gesamtsystem einer Sprache üblicherweise aufgeteilt in zwei Teilsysteme, das offene Teilsystem des Lexikons und das geschlos- 5 Die syntaktisch-semantische Definition, nach der eine Kollokation die Kombination bestimmter Wortarten bezeichnet, bleibt hier unberücksichtigt. <?page no="21"?> 21 sene Set grammatischer Regeln. Diese Zweiteilung findet man z.B. in der von Prillwitz (1985: 9) verwendeten knappen Definition von Sprache: „Sprache ist ein System relativ willkürlicher Zeichen, die a. eine bestimmte Struktur aufweisen (Morphologie) und b. nach bestimmten Regeln gebildet und verknüpft werden (Grammatik/ Syntax).“ Mit dieser Definition als Stütze weist Prillwitz nach, dass die DGS sowohl ein Inventar konventioneller Zeichen als auch Regeln zur Kombination dieser Zeichen besitzt und damit kein bloßes Gestikulieren ist, sondern eine Sprache wie andere gesprochene Sprachen auch. Herbermann (2002: 25) weist auf die Notwendigkeit einer Trennung zwischen Grammatik und Lexikon hin, die jedoch durch klare Kriterien begründet sein muss: Notwendige Grundlage jeder angemessenen Sprachbeschreibung ist eine möglichst sachgerecht begründete Separierung von Grammatik und Lexikon bzw. von grammatischen und lexikalischen Einheiten. Die Trennlinie zwischen beiden verläuft im allgemeinen nicht längs eines bestimmten morphologischen oder syntaktischen Phänomens und erst recht nicht zwischen Morphologie und Syntax. Herbermann spielt damit auf die verschiedenen Auffassungen an, die das Verhältnis zwischen Grammatik und Lexikon mal zugunsten der Grammatik, d.h. der Syntax, mal zugunsten des Lexikons gewichteten. Die jüngere Geschichte der Linguistik zeigt, dass mit der frühen Generativen Grammatik die Tendenz aufkam, das Lexikon als Teil der Syntax zu beschreiben, in der Tradition des amerikanischen Strukturalismus, vertreten durch Bloomfield (1965: 274), der im Lexikon „an appendix to the grammar, a list of basic irregularities“ sah. Auf diesen Speicher lexikalischer Einheiten greifen die syntaktischen Regeln zu. Sinclair (1991: 109) bezeichnet diesen Ansatz als „slot-and-filler“-Grammatik. Die Leerstellen sind durch die Syntax vorgegeben und werden durch lexikalische Einsetzungsregeln gefüllt. Heute hat sich das Verhältnis umgekehrt und syntaktische Phänomene werden zunehmend als Teil des Lexikons beschrieben, besonders stark z.B. in der Head-driven Phrase Structure Grammar (HPSG), die auf syntaktische Regeln weitgehend verzichtet. Die Kognitive Linguistik (s. Langacker 1987) nimmt eine Zwischenstellung ein, indem sie Grammatik und Lexikon als zwei Pole eines Kontinuums beschreibt. Auf der einen Seite stehen die Wörter, Morpheme und Phraseologismen, auf der anderen Seite schematisierte symbolische Einheiten bzw. etablierte kognitive Muster. Dadurch wird jedoch, so die Kritik von Teubert (1999: 297 f.) an der Sprachkonzeption der Kognitiven Linguistik, die Dualität des sprachlichen Zeichens aufgegeben, da sie „Bedeutung und Verstehen in eins [setzt]“: Wenn wir indessen representations mit Vorstellung übersetzen, geben wir die Grundannahme der Zeichenhaftigkeit von Sprache auf. Die Bedeutung eines Wortes, eines Satzes oder eines Textes entspräche einem in einer sogenannten Sprache des Geistes formulierten immateriellen Ausdruck, dessen Elemente komplexe oder atomistische Konzepte sind […]. Diese Konzepte der kognitiven <?page no="22"?> 22 Linguistik scheinen grosso modo Wörtern zu entsprechen, unterscheiden sich aber dadurch von ihnen, dass sie keine interpretationsbedürftigen materiellen Symbole, sondern schlechthin reine, durch keinerlei Form kontaminierte astrale Vorstellungen sind […]. (kursiv i.O.) Die Form sprachlicher Zeichen ist jedoch neben der Bedeutung das grundlegende Kriterium für die Identifikation und Klassifizierung sprachlicher Zeichen, diese wiederum sind die wichtigsten Aufgaben der Korpuserstellung. Erst die konsistente Lemmatisierung ermöglicht die weitergehende, auf empirischen Daten und eine quantitative Auswertung gestützte linguistische Analyse. Schindler (2002: 41) erwähnt eine weitere Unterscheidung zwischen einem Form- und einem Bedeutungslexikon, die sich auf Phänomene der Sprachproduktion und Sprachverarbeitung stützt und daher kein lexikologisches Modell des Wortschatzes, sondern ein funktionales Modell des mentalen Lexikons darstellt (s. Levelt 1989). Bei der Sprachproduktion scheint die Sprachverarbeitung von einem Konzept, d.h. der Bedeutung, auszugehen, zu der die passende Form gesucht wird. Im Bedeutungslexikon sind demnach semantische und syntaktische Informationen gespeichert. Bei der Worterkennung werden ähnlich klingende Worte aktiviert. Durch zusätzliche Informationen kann die Menge immer stärker reduziert werden, bis schließlich eine Form ermittelt wird. Das Formlexikon enthält daher phonologische und morphologische Informationen. Durch Verweise („lexical pointer“) werden Beziehungen zwischen Einträgen des Formlexikons und Einträgen des Bedeutungslexikons hergestellt. Diese Konzeption ist insofern interessant, da sie im Widerspruch zu Herbermanns Aussage steht, dass die Grenze zwischen Grammatik und Lexikon nicht zwischen Morphologie und Syntax verläuft. Damit ist keine starre Trennung zwischen zwei Beschreibungsansätzen gemeint. Herbermanns „sachgerechte Begründung“ bezieht sich auf die Möglichkeit, anhand des Begriffsstatus und der oben bereits erwähnten Idiomatizität lexikalischer Einheiten zwischen lexikalischen und grammatischen Einheiten zu unterscheiden. Dies trifft jedoch nur auf die Klasse der Substantive zu. Diese haben eine generische Bedeutung und drücken in ihrer Funktion der Benennung eine Typhaftigkeit aus. Das gegenläufige Prinzip zur Idiomatizität ist das der Kompositionalität. Im Allgemeinen gilt jedoch, dass Lexikon und Grammatik aufeinander bezogen sind und die Beschreibung syntaktischer Regeln nicht ohne lexikalische Informationen, die Beschreibung der Lexis nicht ohne grammatische Informationen auskommt. Helbig (1998: 5 f.) definiert das Verhältnis als das vom Allgemeinen zum Besonderen: Wenn sich Grammatik und Lexikon wie das Allgemeine zum Besonderen zueinander verhalten, steht das Lexikon in diesen Sinn nicht schlechthin der Grammatik gegenüber, sondern die Grammatik (als eine Art Verallgemeinerung über dem Lexikon) setzt das Lexikon bereits voraus bzw. enthält es in sich. Wie die Grammatik eine Art Verallgemeinerung über dem Lexikon ist, so ist anderer- <?page no="23"?> 23 seits das Lexikon die (notwendige) Spezifizierung der Grammatik (und ihrer allgemeinen Regeln und Klassenbildungen). Halliday, neben Sinclair ein prominenter Vertreter des Britischen Kontextualismus, hebt die Trennung zwischen Grammatik und Lexikon auf, indem er nicht von der Grammatik, sondern genauer von der lexicogrammar spricht, die einem Kontinuum entspricht und nicht verwechselt werden sollte mit der Lexikongrammatik als dem Teil eines Wörterbuchs, in dem die grammatischen Regeln, insbesondere die paradigmatischen Wortformen der einzelnen Wortklassen, beschrieben werden. Je nachdem, von welcher Seite man auf dieses sprachliche Phänomen schaut, steht mehr die Lexik oder mehr die Grammatik im Vordergrund. The central stratum, the inner core of language, is that of grammar. To be accurate, however, we should call it LEXICOGRAMMAR, because it includes both grammar and vocabulary. These two, grammar and vocabulary, are merely different ends of the same continuum - they are the same phenomenon as seen from opposite perspective. The grammar, in this broader sense of lexicogrammar, is the level of wording in a language. (Halliday 1994: 15) Der Ausdruck ‚wording‘ meint eine Wortkette, d.h. der eigentliche Gegenstand der Untersuchung ist nicht das einzelne Wort, sondern immer das Wort im Kontext, die Kollokation. Die Wortgrammatik wird erweitert zu einer Kollokationsgrammatik. Mithilfe großer Korpora und computergestützter Auswertung ist es möglich, Kollokationsmuster zu bestimmen und dadurch ein realistisches Bild von der Koselektion von Lexik und Grammatik im tatsächlichen Sprachgebrauch zu erhalten. Halliday (2004: 2) beschreibt die lexicogrammar als ein Netzwerk von Wahlmöglichkeiten, durch die erst Bedeutung hergestellt wird. The lexicogrammar of a language consists of a vast network of choices, through which the language construes its meanings: like the choices, in English, between ‘positive’ and ‘negative’ […]. Some of these choices are very general, applying to almost everything we say: we always have to choose between positive and negative whenever we make a proposition or a proposal (it’s raining, it isn’t raining; run! don’t run! ). Others are very specific, belonging to just one domain of meaning; these arise only when we are concerned with that particular domain. The choice between rain and snow, for example, arises only if we are talking about the weather. Für diese zweite spezifische Wahlmöglichkeit greift der Sprecher auf lexikalische Einheiten, die Lexeme, in diesem Fall die Inhaltswörter, zurück. Dennoch macht es bei der Untersuchung sprachlicher Phänomene Sinn, zwischen Grammatik und Lexikon, bzw. genauer zwischen einer grammatischen und lexikologischen Beschreibung zu unterscheiden, da dasselbe Phänomen von zwei verschiedenen Seiten, mal mit dem Fokus auf die lexikalischen Einheiten, mal auf die grammatischen Kategorien, mithilfe verschiedener Modelle und Theorien beschrieben wird. <?page no="24"?> 24 2.3 Sind Gebärden Wörter? Aus den bisherigen Ausführungen wurde deutlich, dass in Lautsprachen das Wort die zentrale Einheit des Wortschatzes ist. In der strukturalistischen Sicht des sprachlichen Zeichens besteht es aus einer Form- und einer Inhaltsseite. In der lexikologisch ausgerichteten Forschung ist die lexikalische Einheit das Inhaltswort. In der lexikographischen Forschung, die die Aufgabe hat, den gesamten Wortschatz einer Sprache zu erfassen und zu beschreiben, kommen zu den Inhaltswörtern noch die Funktionswörter hinzu. In der Gebärdensprachforschung und insbesondere in der Gebärdensprachlexikographie werden Gebärden implizit und auch explizit (z.B. Johnston/ Schembri 1999: 115, Brien 1992: 14, Skant et al. 2001: 99, Sandler/ Lillo-Martin 2006: 94 f.) mit Wörtern gleichgesetzt. Obwohl in Gebärdensprachen alle sichtbaren Körperbewegungen, insbesondere die des Oberkörpers, der Hände und Arme und des Kopfs, dazu eingesetzt werden, Bedeutung zu visualisieren, sind die zentralen Elemente die manuellen Zeichen, die sichtbaren Bewegungen der Hände und Arme. Dies lässt sich schon quantitativ damit begründen, dass gebärdensprachliche Äußerungen nur selten ohne irgendeine Beteiligung der Hände ausgeführt werden. Zu diesen Ausnahmen gehört z.B. das wiederholte Entlangstreifen der Zunge an der Backentasche, die dadurch sichtbar nach außen gedrückt wird. Dieses Zeichen wird u.a. in den konventionalisierten Bedeutungen „lügen“, „mogeln“, „schummeln“, „jemanden hinters Licht führen“ verwendet. Ebbinghaus/ Heßmann (1989) bezeichnen diese manuellen Zeichen als manuelle Komponente. Zu dieser manuellen Komponente treten noch nonmanuelle Zeichen hinzu, die nahezu zeitgleich artikuliert werden. Dies sind absichtsvolle Bewegungen der Augen, des Gesichts, des Munds sowie des Kopfs und des gesamten Oberkörpers. Zur nonmanuellen Komponente zählen die Autoren jedoch nicht die Ablesewörter, das sind lautlose Mundbewegungen, die dazu dienen, Wörter zeitgleich zu den manuellen Zeichen zu artikulieren. Dieser Gebrauch deutscher Wörter gehört zur oralen Komponente. Als Gebärden im Sinne von Wörtern werden üblicherweise die manuellen Zeichen bezeichnet, die sich durch die vier Formparameter Handform, Handstellung (Orientierung), Ausführungsstelle (Lokation) und Bewegung beschreiben lassen. Stokoe (1960) hatte die Formparameter des manuellen Zeichens unter dem Begriff ‚Cherologie‘, eine in Analogie zu Phonologie gebildete Bezeichnung, abgeleitet vom griechischen Wort cher (Hand), eingeführt, wobei er noch nicht zwischen Handform und Handstellung unterschieden hatte. Da es in der Phonologie aber um die Beschreibung abstrakter sprachlicher Einheiten geht, unabhängig von ihrer konkreten materiellen Realisierung, wurden auch die Formparameter von Gebärden nicht als Chereme, sondern weiterhin als Phoneme behandelt. Während in späteren Beschreibungsansätzen die nonmanuellen Anteile als Bestandteile von Gebärden mit aufgenommen wurden, da sie ebenso zur Bedeutung <?page no="25"?> 25 einer gebärdensprachlichen Äußerung beitragen, finden diese in der Regel in der Gebärdensprachlexikographie noch keine Berücksichtigung. Gebärdensprachwörterbücher, in denen die Einträge nach Formaspekten geordnet sind, wählen wiederum die Handform als wichtigstes und hervorstechendes Merkmal einer Gebärde als Ordnungskriterium (s. Stokoe et al. 1976, Brien 1992, Kennedy et al. 1998, Johnston 1998a). Aus dem bisher Gesagten folgt, dass faktisch, und dies vor allem in der Gebärdensprachlexikographie, Gebärden im Sinne manueller Zeichen den Wörtern gleichgesetzt werden. Sie bilden die lexikalischen Einheiten, denen in der empirisch ausgerichteten Gebärdensprachlexikographie und -lexikologie die Token zugeordnet werden. Auf den ersten Blick scheint diese Praxis im Einklang zu stehen mit folgender Definition, die ich analog zu o.g. Definition von Schindler (2002: 36) an die Erfordernisse von Gebärden angepasst habe: Eine lexikalische Einheit ist die konventionalisierte, phonologisch organisierte und mit den Händen hervorgebrachte visuell wahrnehmbare Bewegung mit einer begrifflichen Bedeutung. Die für Wörter geltende Einschränkung, dass diese Definition nur auf die Inhaltswörter zutrifft, muss vermutlich für Gebärdensprachen nicht gelten, da nicht klar ist, ob es überhaupt eine Entsprechung zu Funktionswörtern gibt, d.h. Gebärden, denen nur in der Kombination mit anderen Gebärden eine Bedeutung zugewiesen werden kann bzw. die eine rein grammatische Funktion haben. In der DGS könnte dies möglicherweise die Gebärde A UF - P ERSON 1 ( ) sein, die infolge eines Grammatikalisierungsprozesses aus der Gebärde P ERSON 1 ( ) entstanden ist. Sie wird in Richtung auf ein real oder fiktiv im Gebärdenraum vorhandenes Objekt ausgeführt und stellt somit eine syntaktische sowie semantische Beziehung her. Von dieser Definition nicht abgedeckt werden unbewegte Gebärden, denn der Wechsel der Hand von einer neutralen Stellung oder einer vorhergehenden Gebärde hin zu einer unbewegten Gebärde ist zwar visuell wahrnehmbar, die Bewegung ist jedoch nur eine Übergangsbewegung, die nicht Bestandteil der Gebärdenform ist. Erst die in einer bestimmten Position gehaltene Hand entspricht bei unbewegten Gebärden der Zitierform. Eine erweiterte Definition des manuellen Zeichens als lexikalische Einheit wäre: Eine lexikalische Einheit ist die konventionalisierte, phonologisch organisierte und mit den Händen hervorgebrachte visuell wahrnehmbare Bewegung oder unbewegte Handkonfiguration mit einer begrifflichen Bedeutung. Die Reduktion auf die Handzeichen bringt eine weitere Schwierigkeit mit sich, da sich bei indexikalischen Gebärden und Gebärden mit Körperkontakt die Bedeutung nicht allein aus dem Handzeichen ergibt, sondern aus der Kombination von Handzeichen und Körperstelle oder Bewegungsrichtung. Die Gebärde A UGE 1 ( ) bedeutet nur deshalb „Auge“, weil auf die entsprechende Körperstelle gezeigt wird. Das Beispiel weist auf einen viel grundsätzlicheren Aspekt von Gebärden hin, ihre Ikonizität (s. Kap. 4.2). Die meisten Gebärden sind ikonisch, d.h. es kann <?page no="26"?> 26 eine Beziehung der Ähnlichkeit zwischen der Form einer Gebärde und ihrer Bedeutung hergestellt werden. Diese Beziehung besteht auch zwischen den einzelnen Formbestandteilen und Bedeutungsaspekten. Die o.g. Definition besagt nur, dass die Bewegungen der Hände phonologisch organisiert sind. Dass die meisten Formparameter auch morphologische Einheiten darstellen, mag für die Ausführung der Zitierform einer Gebärde nicht relevant sein, da die Verbindung zwischen Form und Bedeutung per Konvention festgelegt ist, die ikonischen Eigenschaften kommen nicht zum Tragen. Im Kontext jedoch können Gebärden ihr ikonisches Potenzial entfalten und, kombiniert mit mimischen Elementen, einem bestimmten Blick oder Ablesewörtern, ein Bedeutungsspektrum abdecken, das weit über die begriffliche Bedeutung der Zitierform hinausgeht. Hinzu kommt, dass mit zwei Händen auch zwei Gebärden gleichzeitig ausgeführt werden können. Dies führt zu einer Formenvielfalt und damit auch dazu, dass die Konventionalität der Gebärden relativ schwer zu bestimmen ist, da gebärdensprachliche Äußerungen zum einen sehr anschaulich das Gemeinte vor Augen führen können und zum anderen die Ausführung der Gebärden stark variieren kann. Zu der Frage der Konventionalität, die letztlich nur im Rahmen einer umfassenden korpusbasierten Lexikographie beantwortet werden kann, kommt das Problem der Abgrenzung zu anderen, formähnlichen Ausführungen, das im Rahmen der Token-Type-Zuordnung gelöst werden muss. Während in Lautsprachen wie dem Deutschen die Wörter durch die Zuordnung zu einer Wortklasse auch einem Formparadigma zugeordnet sind, ist das Formenspektrum, innerhalb dessen die Form einer Gebärde variiert werden darf, um noch dieser Einheit zugeordnet werden zu können, nicht klar definiert. Gebärden können graduell modifiziert werden, um eine spezifische Bedeutung auszudrücken. Eine weitere Besonderheit, die neben der Entfaltung des ikonischen Potenzials von Gebärden dazu führt, dass Gebärden ein wesentlich weiteres Bedeutungsspektrum annehmen können, ist die Kombination von Gebärden mit Ablesewörtern (s. Kap. 4.1.4). Reduziert man diese Kombination zweier verschiedener Zeichentypen, so die Auffassung von Ebbinghaus/ Heßmann (1996, 2001), auf eine Eigenschaft der manuellen Zeichen, dann verschleiert man die Tatsache, dass mit derselben Gebärde auch semantisch weit auseinanderliegende Bedeutungen ausgedrückt werden können. Das Ablesewort lediglich als Doppelgänger der Gebärde bzw. die Gebärde als visuelles Pendant des Wortes sehen zu wollen (s. Ebbinghaus 1998a: 596), verfehlt die beobachtbaren dynamischen Beziehungen zwischen Wort und Gebärde und ihr funktionales Zusammenspiel. Berücksichtigt man die Ikonizität von Gebärden und ihre Kombination mit Ablesewörtern, dann ist die Gleichsetzung von Wort und Gebärde äußerst problematisch (vgl. Konrad/ Bentele 1998: 95). Das Vorgehen von Johnston/ Schembri (1999) ist der Versuch, die o.g. lexikologischen Kriterien auf die Gebärdensprache zu übertragen und Gebärden wie Wörter zu behandeln. Sie teilen den Gebärdenbestand ein in produktive und kon- <?page no="27"?> 27 ventionelle Gebärden. Produktive Gebärden sind nicht lexikalische Gebärden, die spontan gebildet werden und ikonisch sind. Die Bedeutung dieser Gebärden ergibt sich aus der Summe der Teilbedeutungen, die jeder einzelne Formparameter annehmen kann. In diesem Sinn sprechen Johnston/ Schembri (1999: 118) auch von „Phonomorphemen“. Diese manuellen Formen haben eine erste Stufe der Konventionalisierung erreicht, die dazu führt, dass sie eine ikonisch motivierte, allgemeine Bedeutung haben, die im jeweiligen Kontext eine spezifische Bedeutung ausdrücken kann. So kann der ausgestreckte Zeigefinger, mit der Fingerinnenseite nach unten, einen länglichen, schmalen Gegenstand darstellen, der z.B. auf dem Boden liegt. Im Kontext kann mit dieser Handform z.B. ein Baumstamm visualisiert werden, der im Wasser schwimmt. Zeigt die Fingerspitze nach oben, dann kann diese Handform auch dazu verwendet werden, eine Person darzustellen, die sich z.B. in eine bestimmte Richtung bewegt wie z.B. bei der Gebärde $M AN -P ERSON 17 ( ). Dass die Verwendung dieser Formen konventionalisiert ist, zeigt sich daran, dass sie von Hörenden, die die Gebärdensprache nicht kennen, oft nicht richtig interpretiert werden können. Sie können den Gebärden zwar etwas ansehen, aber es fehlt ihnen der Schlüssel für die Wahl der richtigen Interpretation. Erst durch eine zweite Stufe der Konventionalisierung erhalten Gebärden eine spezifizierte Bedeutung, die nicht mehr aus der Summe der Teilbedeutungen der ikonischen Formparameter abgeleitet werden kann. Sie zeichnen sich wie die Inhaltswörter durch ihre Idiomatizität aus. Diese Gebärden bilden den Bestand der lexikalischen Einheiten, die Lexeme. A Lexeme in Auslan is defined as a sign that has a clearly identifiable and replicable citation form which is regularly and strongly associated with a meaning which is (a) unpredictable and/ or somewhat more specific than the sign’s componential meaning potential, even when cited out of context, and/ or (b) quite unrelated to its componential meaning potential (i.e., Lexemes may have arbitrary links between form and meaning). That is to say, a Lexeme is a sign that achieves its meaning through a second level of conventionalization. (Johnston/ Schembri 1999: 126) <?page no="28"?> 28 Abbildung 1: Hierarchie der Lexikalisierung: Zwei Stufen der Konventionalisierung von Gebärden Die Einteilung in zwei Gruppen von Gebärden ist jedoch unbefriedigend, da lexikalische und nicht lexikalische Gebärden nicht kategorial verschieden sind. Es handelt sich vielmehr um graduelle Unterschiede, die die Unterscheidung im Einzelfall schwierig macht und eine Zuordnung zu der einen oder anderen Gruppe willkürlich erscheinen lässt. Johnston/ Schembri (2010) sehen in der construction grammar (s. Croft 2001, Goldberg 2006) einen theoretischen Ansatz, der es ermöglicht, die Beschreibung gebärdensprachlicher Einheiten entlang zweier Kontinua mit den Polen atomar - komplex und konkret (substanziell) - schematisch vorzunehmen. Dadurch können sowohl die Unterscheidung in zwei Gebärdengruppen als auch Prozesse der Lexikalisierung und Grammatikalisierung angemessen beschrieben werden. Um eine Verwechslung von nicht lexikalischen mit grammatischen Gebärden zu vermeiden, sprechen Johnston/ Schembri (2010) von vollständig lexikalisierten (Inhalts- oder grammatischen) Gebärden („fully-lexical signs“) und teil-lexikalisierten Gebärden („partly-lexical signs“). Vollständig lexikalisierte Gebärden können einerseits als atomare und konkrete Konstruktionen angesehen werden, andererseits als konkrete, komplexe Konstruktionen, wie Idiome in Lautsprachen. Der entscheidende Punkt dieser Analogie ist die Verschiebung, die eintritt, wenn man lautsprachliche Lexeme nicht mit vollständig lexikalisierten Gebärden gleichsetzt, sondern mit den sublexikalischen, bedeutungstragenden Formparametern einer Gebärde. Diese atomaren, konkreten Konstruktionen können lexikali- <?page no="29"?> 29 sieren, was in Analogie zur Lautsprache nichts anderes heißt, als dass sie zu Idiomen werden. In other words, given the meaningfulness and/ or iconicity of sign components, the idiosyncratic meaning of a fully-lexical sign suggests that lexicalization in SLs [sign languages; R.K.] is similarly ‘idiomatic’. Lexical signs are in a sense idioms. It may well be that in SLs there is a large role for displaced or downshifted idiomaticity within the linguistic system, rather than simply double articulation, in the creation of fully-lexical signs. (Johnston/ Schembri 2010: 31) Dieser Beschreibungsansatz, der in Johnston/ Ferrara (2010) näher ausgeführt wird, ist dem Gegenstand ‚Gebärdensprachen‘ angemessen, denn er berücksichtigt die Ikonizität von Gebärden. Er steht im Gegensatz zum Mainstream in der Gebärdensprachforschung, der an einer Parallelisierung von Gebärdensprachen und Lautsprachen festhält und sich u.a. damit begnügt, mithilfe von Minimalpaaren die doppelte Artikulation von Gebärdensprachen nachzuweisen. Nahezu jede Gebärde ist ikonisch und besitzt auf der ersten Stufe der Konventionalisierung durch ihre sublexikalischen Formkomponenten eine „wörtliche“ Bedeutung, die Summe der Einzelbedeutungen dieser Parameter. Darüber hinaus besitzen vollständig lexikalisierte, d.h. konventionalisierte Gebärden eine spezifizierte Bedeutung, die sich nicht regelhaft aus diesen Teilbedeutungen ableiten lässt. Entscheidend ist, dass der Prozess der Lexikalisierung jederzeit umkehrbar ist, d.h. die „wörtliche“ Bedeutung einer ikonischen Gebärde kann reaktiviert werden. 6 Im Kontext weiß ein kompetenter Sprecher einer Gebärdensprache, ob eine Gebärde in ihrer „wörtlichen“ oder ihrer lexikalisierten, d.h. idiomatischen Bedeutung verwendet wird. Die Erkenntnis, dass jede Gebärde „zwei Gesichter“ 7 hat, gab es schon zu Beginn der modernen Gebärdensprachforschung, sie wurde jedoch zugunsten des Nachweises einer phonologischen Ebene in Gebärdensprachen nicht weiter verfolgt. Die Möglichkeit der Delexikalisierung oder Reikonisierung von Gebärden, d.h. der kontextspezifischen Verwendung als lexikalisierte oder nicht lexikalisierte Form, ist die Voraussetzung für die dynamische Kombination von Gebärden und Ablesewörtern, bei der die Ikonizität von Gebärden oder ihrer einzelnen Bestandteile funktional eingesetzt wird. Die konventionelle, idiomatische Bedeutung einer Gebärde tritt in den Hintergrund, ihr ikonischer Gehalt dient dazu, das Ablesewort zu kontextualisieren und damit das Ablesen des gleichzeitig artikulierten Wortes abzusichern (s. Kap. 4.1.5.2, Tab. 6). 6 Eine ähnliche Unterscheidung nimmt Augst (1996) in Bezug auf die semantische Motiviertheit von Wörtern vor, indem er von Motiv- und Funktionsbedeutung spricht (s. Kap. 4.3.1). 7 So lautet die Überschrift des ersten Abschnitts von Klima/ Bellugi (1980a): „The two faces of sign“. <?page no="30"?> 30 Im Folgenden werde ich auf die Problematik der sogenannten Fachgebärden näher eingehen, da sich die hier dargestellten Forschungsergebnisse auf die korpusbasierte Erstellung von Fachgebärdenlexika beziehen. 8 Die Datengrundlage der verschiedenen Projekte sind im Wesentlichen elizitierte, spontane Antworten auf die Frage nach DGS-Entsprechungen für Fachbegriffe aus verschiedenen Berufsfeldern. Die Methode der Elizitation, bei der die deutschen Fachbegriffe verwendet wurden, war unverzichtbar, um in dem gegebenen Zeitrahmen von zwei bis drei Jahren ein Projekt erfolgreich durchführen zu können. 2.4 Fachsprachen in der Gebärdensprachlexikographie 2.4.1 Was sind Fachgebärden? In der Verwendung des Begriffs ‚Fachgebärde‘ zeigt sich, dass damit zwei verschiedene Bedeutungen ausgedrückt werden, die letztendlich zwei verschiedenen Phasen der Sprachentwicklung entsprechen: der Prozess der Standardisierung im Rahmen der natürlichen Sprachentwicklung, der entweder unbewusst durch den Sprachgebrauch geschieht oder bewusst durch sprachpolitische Maßnahmen gesteuert wird, und der Versuch, die fachsprachliche Kommunikation durch die Veröffentlichung von Übersetzungsvorschlägen für Fachbegriffe zu effektivieren. In ihrer Stellungnahme (Fischer et al. 1995), die noch vor dem Erscheinen des Fachgebärdenlexikons Psychologie (PLex; Arbeitsgruppe Fachgebärdenlexika 1996) veröffentlicht wurde, gehen die Autoren auf die praktischen Probleme der Verwendung von Fachgebärden beim Dolmetschen ein und weisen insbesondere darauf hin, dass Dolmetscher nicht die Aufgabe haben, Fachgebärden zu verbreiten. An diesem Artikel sind die beiden Bedeutungen des Begriffs Fachgebärde gut ablesbar: 1. Fachgebärde als gleichwertige Entsprechung zum Fachwort: Eine Fachgebärde ist eine etablierte, konventionelle Gebärde oder Kombination von Gebärden, die dazu dient, die Kommunikation über komplexe fachliche Inhalte, für die die Alltagssprache oft keine Sprachzeichen anbietet, zu ermöglichen. Die Autoren gehen davon aus, dass Gehörlose bereits über eigene Fachgebärden verfügen, die bei der Erstellung von Fachgebärdenlexika am Zentrum für DGS insoweit berücksichtigt werden, als gehörlose Fachleute aus dem gesamten Bundesgebiet an der Erhebung beteiligt sind. Die Autoren weisen jedoch darauf hin, dass der Gebrauch von Fachgebärden, ihre Verbreitung sowie Bestrebungen, diese zu vereinheitlichen, ausschließlich in der Verantwortung der Gehörlosen selbst liegen. 8 S. URL: http: / / www.sign-lang.uni-hamburg.de/ projekt/ abg_projekte.html. <?page no="31"?> 31 2. Fachgebärde als analoge Wortbildung zum Fachwort: Als Fachgebärde wird eine Übersetzung eines Fachworts in die jeweilige Gebärdensprache bezeichnet. Die Fachgebärden sind geeignete Übersetzungen des Fachbegriffs in die DGS. Sie sind das Ergebnis eines Prozesses, in dem Gebärden mithilfe geeigneter Erhebungsmethoden zusammengetragen, ausgewertet und für die Veröffentlichung aufbereitet wurden. Die als Fachgebärden bezeichneten Übersetzungen sind als „Angebote für fachliche Kommunikation in Gebärdensprache“ (Fischer et al. 1995: 506) zu verstehen, nicht als Vorschrift, nur diese Gebärden in der fachsprachlichen Kommunikation zu verwenden. Weniger deutlich wird diese Unterscheidung der beiden Lesarten des Begriffs Fachgebärden (technical signs) in Veröffentlichungen zum Technical Signs Project (TSP), das unter der Leitung von Caccamise am National Technical Institute for the Deaf (NTID), einer Abteilung des Rochester Institute of Technology (RIT, Rochester, New York), durchgeführt wurde. Ziel des Projekts war es, die Fachkommunikation in der akademischen Ausbildung und in Berufen, die ein Studium oder einen vergleichbaren Abschluss erfordern, zu verbessern. Von 1975 bis 1993 wurden 59 Videos für 24 verschiedene Fachgebiete produziert, jedes Video enthält zwischen 60 und 200 Fachbegriffe, die als Titel eingeblendet und entweder gebärdet oder gefingert werden. Zusätzlich wurden elf Begleithefte (manuals) publiziert (Caccamise et al. 1993: 18 f.) 9 . Die Vorgehensweise wurde in zahlreichen Veröffentlichungen 10 dokumentiert und zielte darauf ab, ein USAweites Verfahren für die Auswahl, Standardisierung und Entwicklung von Fachgebärden zu etablieren. Sie war Ausgangspunkt für meine eigenen Überlegungen zur Erstellung des Fachgebärdenlexikons Psychologie (Arbeitsgruppe Fachgebärdenlexika 1996) und beispielgebend für andere Fachgebärden-Projekte wie z.B. die Entwicklung von Fachgebärden für Mathematik (Spicer/ Rogers 1989) oder für Computer (Parker/ Schembri 1996) für die Australische Gebärdensprache (Auslan). Im Folgenden wird daher das methodische Vorgehen des TSP näher erläutert. Der Prozess der Erarbeitung von Fachgebärden ist ein Kreislauf mit fünf aufeinanderfolgenden Bearbeitungsschritten: Erhebung (collection, C), Evaluation (evaluation, E), Auswahl (selection, S), Studioproduktion (recording, R) und Vertrieb (sharing, S), kurz CESRS genannt. Entscheidend dabei ist, dass dieser Kreislauf (s. Abb. 2: (5)) die natürliche Gebärdenentwicklung (s. Abb. 2, (1)-(4)), angestoßen durch neue Kommunikationsbedarfe, 9 Einen Überblick über die für ASL verfügbaren Fachgebärdensammlungen geben Caccamise/ Newell (2010: 37-48). 10 S. Caccamise et al. (1976), Caccamise et al. (1977), Caccamise (1978), Caccamise et al. (1978a), Caccamise et al. (1978b), Newell et al. (1980), Caccamise et al. (1981), Caccamise et al. (1982), Caccamise et al. (1983), Caccamise (1986), Caccamise (1987), Caccamise (1989), Caccamise/ Oglia (1989), Caccamise et al. (1993), Oglia et al. (1994), Caccamise et al. (1997). <?page no="32"?> 32 voraussetzt. Ebenso wird betont, dass die Dokumentation und Evaluation von Gebärden in der Fachkommunikation fortlaufend geschehen muss: „The TSP process must be on-going in order to include both new signs and modifications that occur in existing signs through normal language usage and development“ (Caccamise et al. 1993: 6). Abbildung 2: Natürliche Gebärdenentwicklung und TSP-Kreislauf (Caccamise et al. 1993: 6) Die Bearbeitungsschritte fußen auf neun Grundsätzen (Caccamise et al. 1993; Übers.: R.K.): 1. Respekt gegenüber allen Sprechern und an der Kommunikation Beteiligten, 2. Festlegen wichtiger Fachbegriffe/ Termini kommt vor der Gebärdenerhebung; 3. Respekt gegenüber und Akzeptieren von dialektalen und kontextuellen Gebärdenvarianten, 4. Einsatz des Fingeralphabets ist ein wichtiger Teil der Kommunikation in Gebärdensprache und der Gebärdenentwicklung; 5. ausgewählte Gebärden sind Empfehlungen für und keine Vorschrift zum Gebrauch; 6. fortlaufende Auswertung ist notwendig; 7. interne (auf lokaler Ebene) und externe Zusammenarbeit (auf regionaler und nationaler Ebene) sind wichtig; 8. fortlaufende Gebärdensprachforschung, die die Beobachtung von Gebärdensprache in natürlichen Kommunikationssituationen einschließt, ist wichtig; <?page no="33"?> 33 Der letzte Grundsatz fasst drei Richtlinien für den CESRS-Kreislauf zusammen: 9. A. Konsistente Verwendung (der ausgewählten Gebärden) von Fachleuten, die native signer 11 sind, ist oberste Richtlinie; B. Konsistente Verwendung (der ausgewählten Gebärden) von anderen Fachleuten, die erfahrene Gebärdensprachbenutzer sind, ist zweithöchste Richtschnur; C. Übereinstimmung (der ausgewählten Gebärden) mit den strukturellen Eigenschaften des Lexikons (Gebärdensprachvokabular) der natürlichen Gebärdensprache ist wichtig. In der 2. Auflage des Begleithefts (Technical Sign Manual 1; Caccamise et al. 1982: 5) waren es noch zehn Grundsätze. Als dritter Grundsatz war dort zusätzlich aufgeführt, dass die Gebärdenerhebung vor dem Erfinden neuer Gebärden kommt. Dies gab jedoch Anlass zu der Vermutung, dass im Rahmen des TSP neue Gebärden für Fachbegriffe erfunden werden. In seiner Antwort auf eine Veröffentlichung von Rasmus/ Allen (1988), stellt Caccamise (1989: 127 f.) richtig, dass gemäß den Grundsätzen des TSP keine Gebärden erfunden, sondern vorhandene Gebärden dokumentiert und ausgewertet werden. Der Kritik von Rasmus/ Allen, dass in den vom NTID veröffentlichten Fachgebärden zu viele gefingerte und initialisierte Gebärden enthalten seien - für das Fachgebiet Biologie sind von 103 Gebärden 22 % der Gebärden gefingert, 44 % sind initialisierte Gebärden, d.h. Gebärden, deren Handform der Fingeralphabet-Handform des Anfangsbuchstabens des Wortes entspricht -, häufiges Fingern jedoch den Gebärdenfluss in einer natürlichen Gesprächssituation beeinträchtigt und gehörlose Studenten neu entwickelte Gebärden, die nicht wortbezogen sind wie initialisierte Gebärden, dem exzessiven Einsatz des Fingeralphabets vorziehen, entgegnet Caccamise (1989: 129 f.) mit dem Hinweis auf die aktuelle Forschungslage. Nach Battison (1978) und Bellugi/ Newkirk (1981) sei die Verwendung des Fingeralphabets ein natürlicher Mechanismus der Gebärdenbildung. Nach Frishberg (1975) entwickeln sich anfangs stark ikonische Gebärden zu weniger ikonischen, konventionellen und arbiträren Zeichen. Auf die von Rasmus/ Allen gemachte Unterscheidung zwischen wort- und konzeptbezogenen Gebärden geht Caccamise nicht ein. Diese entspricht der Unterscheidung zwischen einer wortbezogenen und einer inhaltsbezogenen Kontextualisierung von Ablesewörtern (s. Kap. 4.1.5.3). 11 Die Bezeichnung ‚native signer‘ wird in dieser Arbeit durchgängig verwendet im Sinne von Muttersprachler, die ihre Sprache im natürlichen Prozess der Sprachentwicklung durch die Kommunikation mit ihren Bezugspersonen erlernt haben. Streng genommen fallen darunter nur Gehörlose, die gehörlose Eltern oder eine gehörlose Bezugsperson in der Familie haben. Mittlerweile wird für dese Personengruppe auch die Bezeichnung ‚Deaf CODA‘ (Child of Deaf Adult) verwendet, d.h. gehörlose Kinder gehörloser Eltern. Im Unterschied dazu sind Frühlerner Personen, die Gebärdensprache zwischen 1; 6 und 6-7 Jahren erworben haben. <?page no="34"?> 34 Caccamise stellt weiterhin klar, dass der Prozess der fortlaufenden Erhebung und Auswertung von Fachgebärden deskriptiv und nicht präskriptiv sei, da er vom aktuellen Sprachgebrauch ausgehe. Entsprechend fehlt in der 4. Auflage (Caccamise et al. 1993) dieser Grundsatz 12 , der Sprachgebrauch der native signer entsprechend der Richtlinie 9. A (s.o.) wird betont: „Principle 10 [sic, richtig ist 9] recognizes the critical importance of sign vocabulary use by skilled signers (especially native signers)“ (Caccamise et al. 1993: 2; fett i.O.). In beiden Auflagen werden in der Zusammenfassung der deskriptive Ansatz und die Rolle fach- und Gebärdensprachkompetenter Informanten hervorgehoben: This process places emphasis on the collection of existing signs rather than invention. This is consistent with the basic project tenet of usage by content experts who are skilled sign language communicators as the major determiner for signs selected for recording. In brief, the TSP is descriptive, not prescriptive. (Caccamise et al. 1993: 15, kursiv i.O.) Gemäß dem Ziel, ein national einheitliches Vorgehen für die Auswahl, Standardisierung und Entwicklung von Fachgebärden zu etablieren, wurde die Richtlinie 9. C in 12 Aspekte unterteilt, die dem damaligen Stand der morphologischen Beschreibung von ASL-Gebärden entsprechen und z.B. die Symmetrie- und Dominanz-Regel von Battison (1978), der selbst Mitglied des Auswahl-Komitees war, enthalten. In Caccamise et al. (1978a: 880-890) werden die Grundsätze und Richtlinien genauer ausgeführt und das Vorgehen beschrieben. Nachdem die 100-200 wichtigsten Begriffe eines Fachgebiets festgelegt und in thematische Gruppen zu 20-30 Begriffen eingeteilt waren, wurde eine interne Gebärdenerhebung durchgeführt, d.h. innerhalb des RIT mit gehörlosen Studierenden und Lehrenden sowie erfahrenen Dolmetschern als Informanten. Die Gebärden sollten in einer modifizierten Stokoe-Notation festgehalten werden. Ursprünglich war vorgesehen, dass Dolmetscher 15-20 Informanten interviewen sollten. Dies erwies sich jedoch als zu zeitaufwendig. Das Verfahren wurde dahingehend geändert, dass nur ein oder zwei fach- und gebärdensprachkompetente Personen (native signer, Spätlerner, Dolmetscher mit langjähriger Erfahrung im Fachgebiet oder Studenten im höheren Studienabschnitt) interviewt wurden. Die Gebärden wurden mithilfe des Stokoe Notation System oder schriftlicher Ausführungen festgehalten oder/ und auf Videobänder aufgezeichnet. Für die daran anschließende interne Auswertung der erhobenen Gebärden wurde ein Videoband erstellt mit dem jeweiligen Fachbegriff als Untertitel und der oder den Gebärden. 15-20 Testpersonen (fachkompetente Studenten, Dolmetscher und Lehrkräfte) sollten anhand eines Auswertungsbogens Angaben zu den Gebärden machen. Sie sollten 12 Ungeachtet dieser Stellungnahme und Korrektur ist in einem Nachdruck (Caccamise et al. 1997: 93) von Caccamise et al. (1978a) dieser umstrittene dritte Punkt der Grundsätze noch enthalten; in Oglia et al. (1994: 350) dagegen wurde er umgeschrieben in: „The project collects, but does not invent, signs.“ <?page no="35"?> 35 notieren, ob sie die Gebärden selbst benutzen, ob sie anstatt der Gebärden das Fingeralphabet verwenden oder ob sie andere oder zusätzliche Gebärden verwenden. Falls sie andere Gebärden verwenden oder bevorzugen, sollten sie diese kurz beschreiben. Auf der Grundlage dieser Auswertungsbögen wurde die Auswahl der Gebärden vorgenommen, bei der die Antworten der native signer und gebärdensprachkompetenten Fachleuten stärker berücksichtigt wurden als andere. Die ausgewählten Gebärden müssen mit den Struktureigenschaften von Gebärden, d.h. mit den phonologischen und morphologischen Regeln der Gebärdenbildung, in diesem Fall von ASL-Gebärden, übereinstimmen. In Zweifelsfällen wurden Nacherhebungen durchgeführt. Fachbegriffe und ausgewählte Gebärden wurden thematisch sortiert auf Videos aufgenommen und in Umlauf gebracht, um eine externe Evaluation zu erreichen. Dazu wurden wiederum Auswertungsbögen erstellt, die jeder Benutzer dieser Videos ausfüllen sollte. Der Prozess der Auswahl, Standardisierung und Entwicklung von Fachgebärden sieht vor, dass nach der Produktion und dem Vertrieb der Videos bzw. Begleithefte eine fortlaufende Evaluation stattfindet, d.h. eine Überprüfung der tatsächlichen Verwendung dieser in Umlauf gebrachten Gebärden, möglichst USA-weit. Mithilfe der Auswertungsbögen soll dokumentiert werden, ob die Gebärden verwendet werden, ob sie sich verändern oder ob andere Gebärden verwendet werden. Die Auswertung der Ergebnisse wird in einer Neuauflage der bereits veröffentlichten Gebärden eingearbeitet, um so eine Standardisierung zu erreichen, die auf dem tatsächlichen Sprachgebrauch beruht. Inwieweit diese fortlaufende Evaluation tatsächlich durchgeführt wurde, mit welchen Methoden und welche Ergebnisse diese Evaluation erbracht hat, ist meines Wissens nicht dokumentiert. Caccamise (1989: 129) deutet an, dass die Überarbeitung von bereits veröffentlichten Fachgebärden abhängig ist von den Reaktionen der Benutzer. Auch wenn im Rahmen des TSP versucht wurde, mit gehörlosen Informanten aus den verschiedenen Bundesstaaten der USA zusammenzuarbeiten, konnten nicht alle möglichen ASL-Übersetzungen erhoben werden. Bis 1989 wurden Videos mit Fachgebärden zu fünf Themenbereichen überarbeitet. In den bereits erwähnten Fachgebärdenlexika zur Australischen Gebärdensprache (Auslan) wird diese fortlaufende Evaluation entweder nicht erwähnt (s. Spicer/ Rogers 1989) oder lediglich in Form einer Aufforderung an die Benutzer aufgegriffen, Anmerkungen, Kritik oder andere Gebärden an das Projekt-Team zu senden (Parker/ Schembri 1996: V). Neben der internen wie externen Dokumentation von ASL-Gebärden, die in der Fachkommunikation verwendet werden, ist das zweite inhaltliche Ziel des TSP die Standardisierung von Fachgebärden. Dazu reicht die Verbreitung von Videobändern nicht aus. Zunächst muss Überzeugungsarbeit geleistet werden: „the recognition of the need for sign standardization by professional organizations, educational programs, and the deaf community is an important step“ (Caccamise et al. 1978a: 889). Dazu sollen über die <?page no="36"?> 36 Ziele des Projekts informiert, Informationsmaterial verbreitet, Artikel publiziert sowie Vorträge und Workshops gehalten werden. Entsprechend den beiden Zielen lässt sich die Verwendung des Begriffs ‚Fachgebärde‘ (technical sign) in Caccamise et al. (1978a) klar zuordnen: Die veröffentlichten Videos enthalten geeignete Übersetzungen des Fachbegriffs in die ASL. Sie sind einerseits das Ergebnis eines internen Erhebungs- und Auswertungsprozesses, andererseits Ausgangspunkt für eine mögliche Standardisierung und damit zu einer Herausbildung von Fachgebärden im ersten Sinne als gleichwertige Entsprechungen zu Fachwörtern. Die Kennzeichnung der Videobänder als „initial-final“ bringt genau dies zum Ausdruck: The reason these videotape are referred to as ‘initial-final’ is two-fold. First, as the signs and fingerspelling recorded undergo natural language and communication changes, such changes will necessitate modification of these videotapes. Second, if efforts toward greater cooperation on a national scale in the area of technical sign selection, standardization, and development are successful, then input from other programs will likely lead to modifications of the videotapes now being produced at NTID. (Caccamise et al. 1978a: 887, Fußnote 10) Komplizierter wird es jedoch, wenn man spätere Veröffentlichungen berücksichtigt, die sich auf den in Abbildung 2 gezeigten Zusammenhang zwischen natürlicher Gebärdenentwicklung und TSP-Kreislauf beziehen. Darin drückt sich eine m.E. optimistische bzw. idealisierte Sicht auf die Ausgangssituation der Datenerhebung aus, da davon ausgegangen wird, dass die erhobenen Gebärden bereits standardisierte Verwendungen sind (s. Abbildung 2: „(4) standard sign usage“) und damit bereits als Fachgebärden im ersten Sinn zu werten sind. Caccamise (1989: 127) führt dazu aus: As Figure 1 [s. Abbildung 2] shows, sign development and standardization precede the TSP process. Therefore, rather than being prescriptive in nature, the TSP process is descriptive of signs (and fingerspelled terms) in current usage, and it respects the natural process through which skilled sign communicators coin new signs to help meet their communication needs. [Fett R.K.] Diese durch den natürlichen Gebärdengebrauch sich etablierende Standardisierung von Fachgebärden steht im Widerspruch zur o.g. Notwendigkeit einer bewussten sprachpolitischen Standardisierung von Fachgebärden, die durch den TSP-Prozess in Gang gesetzt werden soll. Der Nachsatz gibt dagegen die Realität der Sprachbenutzer wieder, die in der Kommunikationssituation spontan die ihnen zur Verfügung stehenden sprachlichen Mittel einsetzen, um fachliche Inhalte zu vermitteln. Ob die dabei eingesetzten Gebärden bereits standardisiert sind, lässt sich jedoch nicht durch in Umlauf gebrachte Auswertungsbögen oder nationale Workshops ermitteln, sondern nur auf Grundlage eines ausreichend großen Korpus, der statistisch signifikante Aussagen zulässt. Zu erwarten ist, dass dadurch wesentlich mehr Gebärden bzw. Varianten erhoben werden und in vielen <?page no="37"?> 37 Fällen die Belegdichte nicht ausreichen würde, um den Grad der Konventionalisierung bzw. Standardisierung zu bestimmen. Aus den bisherigen Ausführungen wird deutlich, dass letztendlich ein Widerspruch zwischen dem hohen Anspruch eines streng deskriptiven Vorgehens, das vorhandene Gebärden dokumentiert und auswertet, wobei explizit regionale Varianten und Variation im Kontext berücksichtigt werden sollen (s.o. Punkt 4 der Grundsätze), und der beabsichtigten aktiven sprachpolitischen Standardisierung besteht, die eine Eingrenzung der Vielfalt gebärdensprachlicher Mittel zur Folge hätte. Im Nachhinein lässt sich dies erklären durch die sozialpolitische Situation der 1970er-Jahre in den USA. Im Rahmen des total-communication-Ansatzes wurden verschiedene Möglichkeiten der manuellen Kommunikation zugelassen, die zu einer Verbesserung der Kommunikation mit Gehörlosen und hochgradig Schwerhörigen führen. Dies war die Chance, eine Verbreitung der ASL in Schule und Hochschule zu erreichen. Gleichzeitig stellte man fest, dass in vielen Fachgebieten keine entsprechenden Gebärden zur Verfügung standen. Der eingeschlagene Weg, die intern erhobenen ASL-Übersetzungen, die aus Zeitgründen nur von ein bis zwei Informanten stammen, vorwiegend intern zu evaluieren, zu veröffentlichen und eine externe Evaluation durch Auswertungsbögen und Öffentlichkeitsarbeit zu erreichen, ist der Versuch, drei Dinge gleichzeitig zu tun: • die Sprachgemeinschaft respektieren, indem nur vorhandene und bereits standardisierte Gebärden berücksichtigt werden und somit der natürliche Prozess der Gebärdenentwicklung nicht gestört wird, • möglichst schnell den Bedarf an ASL-Übersetzungen für Fachbegriffe decken, • die Standardisierung von Fachgebärden beschleunigen, da sich dies vorteilhaft auf die Fachkommunikation sowie auf die Ausbildungssituation auswirken würde. Ausgehend von einer relativ kleinen Anzahl an Fachbegriffen, für die eine ASL-Übersetzung bzw. eine initialisierte Gebärde oder das Fingern angeboten wurde, sollte der Gebärdengebrauch möglichst USA-weit ständig evaluiert werden. Diese theoretisch richtige Entscheidung wurde jedoch methodisch unzureichend umgesetzt. Dazu muss man jedoch anmerken, dass die heute verfügbaren Methoden der Korpuslinguistik in den 1970er- Jahren ausschließlich auf Lautsprachen angewandt wurden und ihre Bedeutung für die sprachwissenschaftliche Forschung nur von wenigen gesehen wurde. Die kontinuierliche, mit Methoden der Korpuslinguistik arbeitende Dokumentation und Auswertung des Sprachgebrauchs erfordert einen hohen finanziellen und personellen Aufwand, der in der Regel nur durch institutionalisierte Einrichtungen wie z.B. eine universitäre Arbeitsstelle oder eine Wörterbuchredaktion eines Verlages erbracht werden kann. Da es jedoch für viele Fachgebiete noch keine Übersetzungsangebote gibt, ist davon auszugehen, dass gebärdensprachlexikographische Projekte auf absehbare Zeit darauf ausgerichtet sein werden, diesen Bedarf <?page no="38"?> 38 zu decken, anstatt Fachgebärden im o.g. Sinne zu evaluieren. Obwohl die Vermutung von Fischer et al. (1995) bzw. des TSP-Teams sicherlich richtig ist, dass Gehörlose bereits über eigene Fachgebärden verfügen, kann aufgrund der unzureichenden Forschungslage der Begriff ‚Fachgebärde‘ im Zusammenhang mit Veröffentlichungen lediglich in seiner zweiten Bedeutung als Übersetzung eines Fachworts in die jeweilige Gebärdensprache verstanden werden, deren lexikalischer Status ungeklärt ist. In der Neuauflage der Projektbeschreibung (Caccamise et al. 1993) wurde der Beitrag von Bar-Tzur, ASL-Dolmetscher und Mitarbeiter des TSP, zu Ressourcen und Strategien für ASL-Dolmetscher in der Fachkommunikation als weiterer Anhang mit aufgenommen (Bar-Tzur 1993). Während Fachgebärde (technical sign) als Ergebnis des TSP-Prozesses im ersten Sinn als gleichwertige Entsprechung zum Fachwort verstanden wird, schreibt Bar-Tzur aus der Anwenderperspektive als Dolmetscher und geht auf die Frage ein, ob die im Rahmen des TSP veröffentlichten Gebärden „echte“ ASL-Gebärden seien: The so-called technical ‘signs’ we may develop or borrow from others are not, in many cases, true signs nor are they unique representations of T/ S [technical/ specialized; R.K.] vocabulary, but rather a negotiation between a sender and a receiver. In einer Fußnote fügt er noch hinzu: I am using the term technical ‘sign’ to mean an individual sign, sign phrase, abbreviation, fingerspelling, use of classifiers, or any other possible technique to represent technical or specialized concepts in ASL. (Bar-Tzur 1993: 40; kursiv i.O.) 13 Das heißt, Bar-Tzur verwendet die Bezeichnung ‚Fachgebärde‘ im zweiten o.g. Sinn als eine geeignete Übersetzung des Fachbegriffs, die, wie oben bereits erwähnt, in der Dolmetschsituation zwischen Dolmetscher und Klient ausgehandelt wird. In seinem Vorwort zu diesem Beitrag räumt Caccamise ein, dass die dabei angewandten Übersetzungsstrategien auch als Teil der natürlichen Sprachentwicklung angesehen werden können und den Ausgangspunkt der Entwicklung und Standardisierung von Fachgebärden bilden. In ihrem Beitrag „Zur Qualität der Fachkommunikation Gehörloser im IT-Bereich“ weist Grbi ć (2004: 211) auf die bislang einseitige Ausrichtung der Forschung zur Fachkommunikation in Gebärdensprachen auf Fachlexikographie hin. Nach Ansicht der Autorin liegt dies u.a. „in der Notwendigkeit der aktiven Sprachpolitik durch Sammlung und Entwicklung von Fachwortschätzen, die in Gebärdensprachen aufgrund ihrer langen Unterdrückung nur teilweise vorhanden sind“, begründet. Aus der Erfahrung in der Gehörlosenbildung und -weiterbildung sieht sie den „dringende[n] Bedarf, Fachwortschätze zu erheben und zu entwickeln, um Gehörlosen 13 Eine modifizierte Fassung dieses Beitrags wurde vom Autor 1999 online veröffentlicht unter der URL: http: / / www.theinterpretersfriend.com/ tech/ sinngosh.html. <?page no="39"?> 39 die Teilnahme an der Wissensgesellschaft zu ermöglichen“ (2004: 213). Als Desiderata für die Forschung nennt sie soziologische Aspekte der Fachkommunikation, z.B. empirische Untersuchungen zu Gewohnheiten und Problemen der Sprachbenutzer, diskursanalytische Studien zur Gesprächsdynamik oder zu Merkmalen von Experten-Laien-Kommunikation. Ebenso müsste sich die Translationswissenschaft verstärkt dem fachsprachlichen Dolmetschen widmen. Die Autorin geht wie viele andere davon aus, dass die lexikologische und lexikographische Forschung zur Fachkommunikation in Gebärdensprachen ausreichend ist. Dies mag in der Tatsache begründet sein, dass das methodische Vorgehen in vielen Fachgebärden- Projekten deskriptiv ist, d.h. vom tatsächlichen Sprachgebrauch ausgeht. Dabei wird jedoch übersehen, dass die Erhebungsmethoden, die in verschiedenen Fachgebärden-Projekten 14 eingesetzt wurden, nicht geeignet sind, den Grad der Konventionalisierung dieser Übersetzungen festzustellen. Hinzu kommt, dass es im Unterschied zu Fachwörtern für deren gebärdensprachlichen Entsprechungen bislang noch keine entsprechende lexikologische bzw. lexikographische Forschung gibt. Eine theoretische wie empirisch fundierte Beschreibung der Eigenschaften von Fachgebärden, ihrer morphologischen Struktur und syntaktischen Verwendung steht noch aus. Weder sind methodische Fragen, die die Erhebung eines gebärdensprachlichen Fachtext-Korpus betreffen, geklärt noch gibt es Kriterien, die eine lexikologische bzw. lexikographische Unterscheidung zwischen Gebärden und Fachgebärden erlauben würden. Dabei ist zu berücksichtigen, dass sich die Fachsprachenforschung weiterentwickelt hat und einige Autoren von einer „Diskrepanz zwischen Sprachwissenschaft und Sprachwirklichkeit“ ausgehen (vgl. Roelcke 1995). Insbesondere die idealtypischen Kriterien der Exaktheit - die Bedeutung eines Fachbegriffs ist klar definiert - und Eindeutigkeit - ein Fachbegriff drückt immer nur einen bestimmten Inhalt aus; bei einer eineindeutigen Beziehung wird ein Inhalt nur durch einen einzigen Fachbegriff ausgedrückt - werden in Frage gestellt bzw. relativiert durch das Einbeziehen des kommunikativen Kontextes. In einigen Beschreibungen der Fachwort-Charakteristika (z.B. Fluck 1996: 47-59) wird das Problem der Mehrdeutigkeit benannt, z.B. sind Kürzungen wie ‚Rübenernter‘ anstatt ‚Rübenvollerntemaschine‘ oder substantivierte Infinitive wie ‚Röntgen‘ ein ökonomisches Verfahren in der konkreten Kommunikationssituation und darüber hinaus produktive Verfahren der Wortneubildung, sie sind jedoch mehrdeutig und widersprechen damit dem Ideal der Exaktheit. Gestützt auf empirische Untersuchungen kommt Roelcke (2005: 50-70) zu dem Schluss, dass weder Exaktheit noch Eineindeutigkeit als charakteristische Merkmale von Fachwörtern zu werten sind. Der sprachlichen Realität der Fachkommunikation angemessener ist ein kognitionslinguistischer Ansatz, der von einer systematischen Vagheit und 14 Eine Beschreibung der Erhebungsmethoden, die für der Erstellung von Fachgebärdenlexika am IDGS eingesetzt wurden, findet man in Konrad (2010a: 16-20). <?page no="40"?> 40 Mehrdeutigkeit von Fachwörtern ausgeht, die im fachsprachlichen Kontext exakt und eindeutig verwendet werden (Roelcke 2005: 67). Dieser Ansatz widerspricht auch dem Metaphern-Tabu und erklärt, warum fachsprachliche Metaphern notwenige sprachliche Mittel sind, um dem wachsenden Bedarf an sprachlichen Neuerungen gerecht zu werden. Auch wenn sich Fachgebärden und Fachwörter in vielen Aspekten untersuchen und vergleichen lassen, so bringt die Tatsache, dass sich die meisten Fachgebärden auf den jeweiligen Fachbegriff beziehen und ihre Funktion oft darin besteht, diesen zu kontextualisieren (s. Kap. 4.1.4), eine Schieflage mit sich. In vielen Wissensgebieten sind Fachwörter in eine Fachsystematik eingebunden und werden infolge dessen als terminus technicus oder Fachterminus eingestuft. In der Regel soll durch die Übersetzung des Fachworts in eine andere Sprache auch der Bezug zu dieser Fachsystematik hergestellt werden. Die lexikologische Beschreibung des Fachgebärdenbestands einer Gebärdensprache muss dies in angemessener Weise berücksichtigen. Aus den bisherigen Ausführungen wird deutlich, dass die Verwendung der Bezeichnung ‚Fachgebärden‘ im Zusammenhang mit veröffentlichten Gebärdensammlungen lexikologisch und lexikographisch nicht gerechtfertigt ist. Die Bezeichnung wird vorwissenschaftlich verwendet und kennzeichnet eine sprachpolitische Aktivität. Diese wiederum kann verschiedene Zielsetzungen haben. Alle Autoren haben das Ziel, geeignete Übersetzungen bereitzustellen, um die Fachkommunikation in der jeweiligen Gebärdensprache zu effektivieren. Darüber hinaus haben manche Autoren die erklärte Absicht, eine Standardisierung von Fachgebärden zu erreichen. Da in einer Veröffentlichung nicht alle möglichen Übersetzungen eines Fachbegriffs in die jeweilige Gebärdensprache enthalten sein können, haben alle Veröffentlichungen einen „verdeckten präskriptiven Charakter“ (Grbi ć et al. 2004: 134), da durch diese Veröffentlichung bestimmte Übersetzungen stärker verbreitet, dokumentiert und recherchierbar sind und daher eine stärkere Verwendung dieser Gebärden zu erwarten ist. Unabhängig von der explizit gemachten Absicht einer Standardisierung ist daher die Anzahl der gezeigten Übersetzungen pro Fachbegriff ein Indiz für den mehr oder weniger präskriptiven Charakter eines Fachgebärdenlexikons. Der Grad der Standardisierung von Fachgebärden wurde jedoch m.W. durch geeignete empirische Erhebungsmethoden noch in keiner erforschten Gebärdensprache nachgewiesen. Auch wenn das Erstellen von Fachgebärdenlexika als aktive Sprachpolitik angesehen werden kann, ist davon die bewusst intendierte sprachpolitische Ausrichtung solcher Publikationen zu unterscheiden. Wie bereits zuvor erwähnt, sind die am IDGS erstellten Fachgebärdenlexika nicht sprachpolitisch ausgerichtet, d.h. die darin gezeigten DGS-Übersetzungen sind nicht als standardisierte Fachgebärden zu verstehen. Alle in den Lexika enthaltenen DGS-Entsprechungen sind mögliche Übersetzungen, d.h. sie sind geeignet, den Inhalt des jeweiligen Fachbegriffs in die DGS zu <?page no="41"?> 41 übersetzen und entsprechen den strukturellen Eigenschaften des DGS- Lexikons. Im Durchschnitt werden mindestens zwei Übersetzungen pro Fachbegriff gezeigt. Da bei den von uns durchgeführten Erhebungen von DGS-Entsprechungen für Fachbegriffe die geschriebenen Wörter den größten Teil der Stimuli ausmachen, die wir den Informanten zeigen, möchte ich zum Abschluss noch auf die Frage der Schriftsprachkompetenz Gehörloser eingehen. 2.4.2 Zur Schriftsprachkompetenz Gehörloser Aussagen zur Schriftsprachkompetenz Gehörloser stützen sich häufig auf Untersuchungen aus den 1980er-Jahren. So schreibt Wudtke (1993: 212), dass ca. 50 % die Schule als Analphabeten [verlassen], je 20 % verbleiben auf dem Niveau von Zweit- und Viertklässlern, keine 10 % gelangen zu einem Niveau strukturellen Lesens und des gestaltenden Textschreibens. Am Ende erreichen dann vielleicht 5 % ein altersangemessenes Niveau. Wudtke verweist auf die Arbeiten von Conrad (1979), Günther (1982, 1990) und King/ Quigley (1985). Louis-Nouvertné (2001: 305), die an der Entwicklung eines umfangreichen Tests zur Schriftsprachkompetenz gehörloser Erwachsener, dem Aachener Testverfahren zur Berufseignung von Gehörlosen (ATBG), mitgearbeitet hat, stellt fest, dass „alle Forschungen bestätigen, dass Gehörlose über einen extrem eingeschränkten Wortschatz verfügen“, und beruft sich dabei auf Quigley/ Paul (1984), Kyle (1980) und Myklebust (1960). In einer Fußnote führt sie zusätzlich Wisch (1990) an, der von einem passiven Wortschatz von 500 Wörtern bei gehörlosen Schreibanfängern ausgeht, im Vergleich zu 19000 bei einem hörenden Kind. Gutjahr (2006: 52), die die Literatur zur empirischen Erforschung der Lesekompetenz Gehörloser, überwiegend in den USA und in Deutschland durchgeführt, gesichtet hat, fasst die Ergebnisse quantitativer Untersuchungen in den USA zusammen: [Sie] haben gezeigt, dass 18-jährige Gehörlose auf dem Niveau von neunbis zehnjährigen hörenden SchülerInnen oder sogar darunter lesen und dass sich eine negative Korrelation zwischen Hörverlust und Lesekompetenz feststellen lässt […]. Eine Ausnahme bilden gehörlose Kinder gehörloser Eltern, die in der Regel bessere Leseleistungen vorweisen können. Bezogen auf die Situation in Deutschland kann sie jedoch nur auf die fehlende Forschung bzw. den dringenden Bedarf an quantitativer wie qualitativer Forschung hinweisen: In Deutschland besteht in dieser Hinsicht eine absolute Lücke; zwar lassen einzelne Untersuchungen mindestens genauso schlechte Ergebnisse vermuten […], doch ist das tatsächliche Ausmaß der Leseschwierigkeiten Gehörloser in Deutschland noch unklar. Dies scheint von der Forschung kaum wahrgenommen zu werden (noch von der Öffentlichkeit), obwohl dieser Gruppe eine Teilhabe an der Gesellschaft aufgrund ihrer Leseschwierigkeiten nicht möglich sein <?page no="42"?> 42 kann. Um sich der Situation Gehörloser überhaupt annehmen zu können, muss das Problem zuerst in seinem Ausmaß erkannt werden. (Gutjahr 2006: 52) Der Wortschatz, der als Prädikator für das Lesekompetenzniveau fungieren kann, weist anhand der englischen Forschungsliteratur bei gehörlosen Schülerinnen deutliche Defizite auf. Nach LaSasso/ Metzger (1998) hat sich die Leseleistung auch durch das Konzept der total communication, das in den 1970er-Jahren in den Gehörlosenschulen der USA eingeführt wurde und in der Praxis bedeutete, dass gleichzeitig gesprochen und gebärdet sowie manuelle Kommunikationssysteme wie Seeing Essential English (SEE 1), Signing Exact English (SEE 2) oder Cued Speech eingesetzt wurden, nicht verbessert. Obwohl dieses Konzept auch in deutschen Gehörlosenschulen eingeführt und das Lautsprachbegleitende Gebärden propagiert wurde, gibt es keine Studie, die die Effizienz dieser Methode in Bezug auf die Lesekompetenz untersucht hat. Eisenwort et al. (2002: 266), die anhand von Fax-Texten erwachsener österreichischer Gehörloser deren Schriftsprachkompetenz untersuchten und diese in drei Leistungsgruppen einteilten, kommen zu dem Schluss, dass sich diese Daten nicht mit denen Hörender vergleichen lassen, die Deutsch als Zweitsprache (DaZ) erlernen. Vielmehr sind diese Daten repräsentativ für eine exzeptionelle Anormalität einer «Sprachlernsituation». Mit einer durchschnittlichen Fehlerquote von mehr als einem Drittel in allen untersuchten Kategorien ist vorstellbar, dass die Texte als «Ganzes» ziemlich stark von den Texten Hörender abweichen. Krausmann (1998/ 1999), die ebenfalls anhand von Fax-Texten deutscher Gehörloser exemplarisch die Abweichungen vom Standard zu systematisieren versuchte, stellte große Unterschiede zwischen den Schreibern fest. Sie fand Fehler, die auch DaZ-Lernern unterlaufen, als auch Fehler, die sich charakteristischerweise nur bei Gehörlosen finden und in der Literatur als Deafism bezeichnet werden. Nach Louis-Nouvertné (2001) liegt die besondere Lernsituation Gehörloser darin begründet, dass sie in der Regel nicht vertraut sind mit den Besonderheiten der geschriebenen Sprache, da die Gebärdensprache eine nicht literatisierte Sprache ist, die nicht die spezifischen Merkmale schriftlicher Kommunikation aufweist. Hinzu kommt, dass sie die Schriftsprache nur durch das Medium der Schrift erlernen können. Eine wichtige Besonderheit ist, dass Schrift dekontextualisiert ist, d.h. die Inhalte sind nur in einem literarischen Diskurs kontextualisiert zu verstehen. Gehörlose haben jedoch die Tendenz, die Inhalte direkt auf die eigene Kommunikations- und Lebenssituation zu beziehen. Auswertungen des Aachener Testverfahrens zeigen, dass die darin gestellten Fragen von den gehörlosen Testpersonen nicht auf den schriftsprachlichen Kontext bezogen werden, sondern auf den ihnen vertrauten Kontext der direkten Kommunikation. Die Fragen werden nach eigenen Plausibilitätsannahmen beantwortet. <?page no="43"?> 43 Wo immer sie angeboten werden, werden Lösungen, die nach Alltagswissen sehr plausibel sind, auch wenn sie dem Inhalt des Textes entgegengesetzt sind, mit großer Häufigkeit gewählt. Erst wenn eine plausible Lösung dieser Art nicht angeboten wird, wird eine andere Strategie gewählt, nämlich die Suche nach Textidentität. (Louis-Nouvertné 2001: 315) Für die Autorin ist dies Ausdruck einer Kompensationsstrategie, die sich Gehörlose aneignen, um die für sie alltägliche Erfahrung unvollständiger Kommunikation zu bewältigen. Gehörlose Menschen befinden sich ihr Leben lang in einer besonderen Kommunikationssituation. Sie sind in ihrer gesamten kommunikativen Sozialisation darauf angewiesen, aus Informationsbruchstücken Sinn zu erzeugen. […] Wollen sie in dieser Situation der unvollständigen Informationen die Kommunikation aufrechterhalten, müssen sie stets bemüht sein, auf irgendeine Weise Sinn herzustellen. Daher sind sie in höherem Maße auf top-Down-Prozesse [sic] angewiesen als Hörende in lautsprachlicher Kommunikation. Dies führt zu einer Gewöhnung an die schnelle Aktivierung assoziativer Schemata, eine Strategie, die - so lautet meine These - auch auf die Auseinandersetzung mit schriftlicher Kommunikation angewendet wird. Dies ist dadurch zu erklären, dass sich durch die lebenslange Gewöhnung an unvollständige Kommunikation in der direkten Kommunikation eine kommunikative Kompensationsstrategie entwickelt, die sich verfestigt und unabhängig von der Modalität und der Situation auf jede sprachliche Interaktion angewendet wird. Sie führt möglicherweise dazu, dass eine genaue und vollständige Informationsaufnahme nicht mehr angestrebt wird, da eine nur ungefähre Annäherung an die Sinnentnahme in der direkten Kommunikation lebenslang eingeübt wurde. Das würde bedeuten, dass solche Strategien auch unabhängig von den sprachlichen Kompetenzen auf den unteren Ebenen das Verstehen zusätzlich einschränken können. (Louis- Nouvertné 2001: 306 f.) Das Bemühen Gehörloser, der Schrift irgendeinen Sinn zu entnehmen, wurde schon von List et al. (1995) beschrieben, die acht Gehörlose in gebärdensprachlichen Interviews nach ihren Leseerfahrungen und -strategien befragten. Diese Beobachtung ist nicht auf Gehörlose begrenzt, sondern wurde schon von Reich (1990) bei jugendlichen türkischen Immigranten beschrieben: „Beim Lesen in einer weniger vertrauten Sprache bestimmt das Bedürfnis, überhaupt etwas zu erkennen, die Lesestrategie - nicht das Bedürfnis, alles (jedes Element des Textes) zu verstehen“ (zitiert nach List et al. 1995: 13). Die Autoren weisen jedoch darauf hin, dass die Lage prälingual ertaubter Gehörloser weitaus komplizierter ist, da ca. 95 % die Gebärdensprache nicht als Muttersprache erwerben und somit die Wissensbasis, die sich durch einen ungesteuerten, frühen Spracherwerb bildet, eingeschränkt ist. Diese Wissensbasis ist jedoch eine Voraussetzung für die Neugier auf Informationen, die aus Texten gewonnen werden können. Hinzu kommen weitere Aspekte: • Gebärden- und Lautsprache sind von ihrer Struktur her sehr verschieden; <?page no="44"?> 44 • der Erwerb der Schriftsprache wird für Gehörlose dadurch erschwert, dass sie durch ihre Gehörlosigkeit nie die phonologische Basis dieser Sprache erlernen können; • die Schriftsprache ist negativ besetzt als die Sprache der Hörenden; • es existiert keine Gebärdenschrift, die Gehörlosen die Vorteile einer Literalität vermitteln und dadurch die Motivation schaffen könnte, daran teilzuhaben. 15 Mit der von Louis-Nouvertné aufgestellten These einer generalisierten Kompensationsstrategie ließen sich auch die Schwierigkeiten erklären, die Gehörlose mit Wörtern oder Wendungen der gehobenen Standardsprache in Schrifttexten haben. Da diese nicht Teil ihrer Alltagskommunikation sind und sie keine oder wenig Erfahrung darin haben, diese auf den Kontext des Schrifttextes zu beziehen, sind sie auf Schlüsselworte und ihr Alltagswissen angewiesen, um diesen Wörtern Sinn zu entnehmen. Auf diese Schwierigkeiten weist auch eine Evaluation von Techniken der Textoptimierung hin, die am Rheinisch-Westfälischen Berufskolleg für Hörgeschädigte in Essen Mitte der 1990er-Jahren entwickelt wurden. Die Evaluation, die mithilfe eines Fragebogens durchgeführt wurde, ergab, dass die befragten Fachlehrer den Einsatz dieser Techniken neben der Text- und Satzebene auch auf der Wortebene für sehr wichtig halten. Dabei sehen die Fachpädagogen die Hauptschwierigkeiten vor allem im Bereich des fachübergreifenden Wortschatzes der gehobenen Standardsprache. Als Beispiele führen Cremer/ Schulte (2002: 9) an: „eine Bedingung erfüllen“, „einen Wert unterschreiten“, „ursächlich sein“, „Größe/ Einheit (physikalisch)“. Hier gibt es bei den hörgeschädigten Schülerinnen und Schülern eher Lücken als in dem jeweiligen Fachwortschatz. Dies liegt zum einen daran, dass der Fachwortschatz im Unterricht systematisch gelernt und viele Fachbegriffe im Ausbildungsbetrieb praktisch vertieft werden können, zum anderen aber auch daran, dass Lücken im standardsprachlichen Wortschatz, wie am Beispiel des mündlichen Unterrichts beschrieben, durch bekanntere Wörter ersetzt werden können, so dass hier die Notwendigkeit systematischen Trainings weniger offensichtlich ist. (Cremer/ Schulte 2002: 10) Als Konsequenz für die Erstellung von Lehr- und Prüfungstexten ergibt sich daraus die Forderung, neben der spezifischen Fachterminologie auch die Standardsprache zu verwenden, d.h. Wörter und Wendungen, die häufig in der deutschen Schriftsprache, z.B. in Tageszeitungen, vorkommen. 15 Die Haltung französischer Gehörloser gegenüber der Schrift und ihre Erfahrungen mit schriftlicher Kommunikation hat Garcia (2006b, Boutet/ Garcia 2006) als Vorstudie zum Projekt „LS-Script“ (2005-2007), in dem es um die Entwicklung einer den Besonderheiten der Gebärdensprache, insbesondere ihrer Ikonizität, angemessenen Schriftform geht, untersucht. <?page no="45"?> 45 2.5 Zusammenfassung Lexikologie und Lexikographie, die von einigen Vertretern ihres Faches als eigenständige Disziplinen angesehen werden, haben den gleichen Gegenstand, den Wortschatz einer Sprache. Während sich die Lexikologie mit der Strukturiertheit der Inhaltswörter, ihrer morphologischen und semantischen Beziehungen befasst, muss die Lexikographie alle Wörter einer Sprache, auch die Funktionswörter, möglichst umfassend beschreiben. Beide Disziplinen sind auf eine breite empirische Basis, d.h. Sprachkorpora angewiesen. Sprachkorpora bieten die Möglichkeit, Wörter im Kontext zu untersuchen. Dadurch rücken die Bereiche Lexikon und Grammatik, die üblicherweise als die beiden Teilsysteme beschrieben werden, die Sprache ausmachen, wieder zusammen, denn die Beschreibung von Kollokationen kann sich nicht allein auf phonologische, morphologische oder semantische Eigenschaften der Einzelwörter beschränken. Ein realistisches Bild des Sprachgebrauchs ergibt sich erst durch die Einbeziehung lexikalischer und grammatischer Beschreibungsansätze. Je nachdem, ob der Fokus stärker auf den lexikalischen Einheiten oder auf den grammatischen Kategorien liegt, werden unterschiedliche Modelle und Theorien entwickelt, die jedoch nicht getrennt voneinander gesehen werden sollten, denn sie beschreiben denselben Gegenstand. Der zentrale Begriff ist das Wort, das in der Lexikologie als das Inhaltswort definiert ist und somit die Bezeichnung ‚Lexem‘ eigentlich überflüssig macht. In der Lexikographie wird jedoch eher vom Lexem als lexikalischer Einheit gesprochen, die in einem Wörterbucheintrag durch das Lemma repräsentiert wird. Dem Wort entspricht in der Praxis der Gebärdensprachlexikographie das manuelle Zeichen, das die Gebärde ausmacht. Obwohl Gebärdensprache als visuell-gestisches Kommunikationsmittel massiv von nonmanuellen Zeichen Gebrauch macht und Gehörlose auf vielfältige und kreative Weise Kontextualisierungsstrategien einsetzen, wird beim traditionellen Ansatz der Identifikation lexikalischer Einheiten in Gebärdensprachen wie in Lautsprachen davon ausgegangen, dass es konventionalisierte Handzeichen gibt, die unabhängig vom Kontext eine spezifische Bedeutung haben. Die Besonderheit dieser Handzeichen ist jedoch, dass sie einerseits als phonologisch strukturierte Formen beschrieben werden können, die einzelnen Parameter - Handform, Handstellung, Ausführungsstelle, Bewegung - jedoch wiederum bedeutungstragend sind, d.h. Morphemstatus haben. Johnston/ Schembri (1999) bezeichnen sie deshalb als Phonomorpheme, die eine erste Stufe der Konventionalisierung erreicht haben. Ihre Form ist motiviert durch eine bildliche Vorstellung, die sich auf Eigenschaften eines außersprachlichen Referenten oder einer Handlung beziehen lässt. Für Gehörlose ist es selbstverständlich, die Formparameter entsprechend ihrer ikonischen Motivierung zu variieren und so spezifische konkrete und abstrakte Inhalte zu kommunizieren. Hörende sehen den Gebärden zwar etwas an, sie können diese jedoch nicht <?page no="46"?> 46 richtig interpretieren, da sie die Kodierungskonventionen und -strategien nicht gelernt haben. Konventionelle Gebärden haben eine zweite Stufe der Konventionalisierung erreicht, da sich ihre Bedeutung nicht von der Summe der Teilbedeutungen, die die einzelnen Formparameter einer Gebärde haben können, ableiten lässt. Ihre Bedeutung ist spezifischer bzw. generischer, sie besitzen wie Inhaltswörter einen semantischen Überschuss, d.h. man kann ihnen auch ohne sprachlichen Kontext eine begriffliche Bedeutung zuschreiben. Die Reduktion der Gebärden auf ihre wortähnlichen Eigenschaften lässt die produktiven Möglichkeiten der Bedeutungserzeugung, die die Ikonizität der Gebärden bzw. ihrer Formbestandteile bietet, außer Acht. Ebenso werden die dynamischen Beziehungen, die Gebärden mit Wörtern eingehen, indem zeitgleich zu den Gebärden Ablesewörter artikuliert werden, nicht ausreichend berücksichtigt, da die Bedeutung als eine Eigenschaft der Gebärde als sprachliches Zeichen gesehen wird. Die Fachgebärdenlexikographie als eine spezifische Ausprägung der Lexikographie, hat es mit einem schwerwiegenden Problem zu tun: Will sie sich nicht aktiv sprachpolitisch verhalten und auf eine Standardisierung von Fachgebärden als funktionale Äquivalente zu Fachbegriffen hinwirken, dann muss sie zunächst einmal anerkennen, dass der lexikalische Status ihres Gegenstands, der gebärdensprachlichen Entsprechungen von Fachbegriffen, die sie empirisch zu erheben sucht, in den meisten Fällen nicht geklärt ist. Das methodisch ausgefeilte Vorgehen zur Entwicklung und Standardisierung von Fachgebärden, das vom National Technical Institute for the Deaf (NTID; Rochester, New York) in den 1970er-Jahren entwickelt wurde, ist insofern nicht schlüssig, als die Standardisierung aktiv betrieben wird, bevor die Dokumentation vorhandener Übersetzungsmöglichkeiten für Fachbegriffe systematisch und umfassend durchgeführt wurde. Durch die Verbreitung von vorwiegend einer Übersetzung pro Fachbegriff in die Amerikanische Gebärdensprache (ASL), die zudem stark vom Einsatz des Fingeralphabets geprägt ist, wird in erster Linie auf einen ständig wachsenden Bedarf an Fachgebärden reagiert. Die so beeinflusste Situation anschließend zu dokumentieren und auszuwerten, heißt in gewisser Weise, sich den Gegenstand selbst schaffen, den man beschreiben will. Hinzu kommt, dass weder der Grad der Konventionalisierung bzw. Standardisierung noch eine geeignete Beschreibung der Charakteristika von Fachgebärden im Unterschied zu konventionellen Gebärden in einer Gebärdensprache bisher erforscht wurden. Da die Erhebung von Fachgebärden in hohem Maße auf den Einsatz von Fachwörtern angewiesen ist, ist es nicht verwunderlich, auch hier ähnliche Kontextualisierungsstrategien vorzufinden, wie sie Gehörlose im Umgang mit Schrift entwickelt haben. Obwohl einige Untersuchungen zeigen, dass gehörlose Auszubildende eher Schwierigkeiten mit dem fachübergreifenden Standardwortschatz haben als mit den Fachbegriffen, machten sich bei der Elizitation von DGS-Übersetzungen, in denen den <?page no="47"?> 47 gehörlosen Informanten kontextfreie bzw. -arme Fachwörter gezeigt wurden, kommunikative Kompensationsstrategien bemerkbar. Wörter wurden falsch gelesen oder mit anderen Inhalten verknüpft, wenn es dafür plausible Vermutungen gab, die aus dem Alltagswissen stammen. War das Fachwissen noch präsent, so schien es doch in einigen Fällen mit dem Alltagswissen zu konkurrieren. Je weniger die gezeigten Fachbegriffe im Alltag der gehörlosen Informanten eine Rolle spielten, desto häufiger griffen sie auf plausibel erscheinende Assoziationen zurück. Die vorliegende Arbeit ist aus der Erstellung und Auswertung von Korpora für sechs Fachgebärdenlexika entstanden. Diese Korpora waren die Grundlage für die Auswahl geeigneter DGS-Entsprechungen der Fachbegriffe. Das konkrete Vorgehen von der Datenerhebung über die Transkription bis zur Auswahl der DGS-Entsprechungen ist in Konrad (2010a) beschrieben. 16 Dabei wurden korpuslinguistische Methoden und Prinzipien berücksichtigt, die in der allgemeinen empirischen Gebärdensprachforschung und insbesondere in der Gebärdensprachlexikographie verstärkt eingefordert werden. Dies trifft insbesondere auf die Erstellung lemmatisierter Korpora (s. Kap. 3.6.3) zu. Im Folgenden werden daher grundlegende Aspekte der Erstellung lemmatisierter Korpora in der Gebärdensprachforschung diskutiert, bevor im vierten Kapitel die Auswirkungen von Ablesewörtern und Ikonizität auf die lexikalische Struktur von Gebärdensprachen beschrieben werden. 16 S. URL: http: / / www.sign-lang.uni-hamburg.de/ projekte/ mfl/ . <?page no="48"?> 48 3 Korpuslinguistik und Language Resources Korpuslinguistik hat im ersten Jahrzehnt des 21. Jahrhunderts zunehmend an Bedeutung gewonnen. Darauf weisen u.a. die Zahl und die Art der Veröffentlichungen hin. Die englischsprachige Einführung in die Korpuslinguistik von McEnery/ Wilson wurde 2001 neu aufgelegt, Kennedy (1998) ist ebenfalls eine Einführung unter anderen; Teubert/ Krishnamurthy (2007-2008) fassen in sechs Bänden die wichtigsten Forschungsarbeiten zusammen. Trotz des enormen Umfangs haben die Autoren das ursprüngliche Ziel einer erschöpfenden Darstellung der Korpuslinguistik aufgegeben. In der Reihe Handbücher zur Sprache und Kommunikationswissenschaft (HSK) sind zwei Bände zur Korpuslinguistik erschienen (Lüdeling/ Kytö 2008-2009). Auf Deutsch gibt es zwei kleinere Bände (Lenz 2005, Scherer 2006), ein Studienbuch (Lemnitzer/ Zinsmeister 2010) sowie eine praxisbezogene Einführung (Draxler 2008) in die Korpuslinguistik; in Pusch (2002) sind Aufsätze zum Stand der Romanistischen Korpuslinguistik versammelt. Einige Verlage haben eigene Buchreihen zur Korpuslinguistik aufgelegt: Studies in Corpus Linguistics (John Benjamins, seit 1998), English Corpus Linguistics (Peter Lang, seit 2004) und die Routledge Advances in Corpus Linguistics (Routledge, seit 2002). Seit 1979 veröffentlicht das ICAME Journal (International Computer Archive of Modern and Medieval English) schon Artikel zur Korpuslinguistik, 1996 kam das International Journal of Corpus Linguistics (IJCL) hinzu, 2005 die Zeitschrift Corpus Linguistics and Linguistic Theory (CLLT) sowie 2006 Corpora. Das zunehmende Interesse an Korpuslinguistik spiegelt sich auch in Konferenzen und Tagungen wider. Im Rahmen der Language Resources and Evaluation Conference (LREC), die seit 1998 alle zwei Jahre stattfindet, gab es 2010 zum vierten Mal einen Workshop on the Representation and Processing of Sign Languages, diesmal zum Thema Corpora and Sign Language Technologies (Dreuw et al. 2010), der Kongress der International Pragmatics Association 2007 hatte das Thema Language data, corpora, and computational pragmatics, das Rahmenthema der Jahrestagung 2006 der Deutschen Gesellschaft für Sprachwissenschaft (DGfS) war Sprachdokumentation und Sprachbeschreibung 1 , ebenfalls mit einer Arbeitsgruppe zu methodischen Problemen der Korpusbildung und -auswertung in der Gebärdensprachforschung 2 , das Thema der Jahrestagung 2006 des Instituts für Deutsche Sprache (IDS) war Sprachkorpora - Datenmengen und Erkenntnisfortschritt (s. Kallmeyer/ Zifonun 2007). 1 S. URL: http: / / dgfs.de/ jahrestagung/ bielefeld_2006/ . 2 AG 3: How to recognize a sentence when you see one: methodological and linguistic issues in the creation of sign language corpora. <?page no="49"?> 49 Entgegen der Befürchtung von Bergenholtz/ Pedersen (1994: 162), das Korpus könne zum Selbstzweck werden, zum „erlösenden ‚habeas corpus‘“, und damit Kritikern Recht geben, die in dem Korpus lediglich einen Fetisch sehen, ist heute eine Trendwende hin zur korpusbasierten 3 , d.h. empirisch nachprüfbaren, deskriptiven Forschung in der Linguistik festzustellen, die sich auch in der Lehre immer mehr durchsetzt. Ein deutliches Zeichen dafür ist der Lehrstuhl für Korpuslinguistik 4 , der am Institut für deutsche Sprache und Linguistik der Humboldt-Universität (Berlin) eingerichtet wurde und den seit 2002 Prof. Dr. Lüdeling innehat. Einen wichtigen Beitrag für die Lehre leisten u.a. die o.g. Einführungen, die meist einen praktischen Übungsteil enthalten oder auf die Erstellung und Auswertung eines eigenen Korpus eingehen. Im Folgenden werde ich zunächst auf die Bedeutung und das Selbstverständnis der Korpuslinguistik innerhalb der Linguistik eingehen und den häufig gebrauchten Begriff der ‚Korpusgebundenheit‘ differenzieren. Anschließend gehe ich auf die Bedeutung der Korpuslinguistik für die empirische Gebärdensprachforschung und -lexikographie ein sowie auf die Frage, welche Korpora bereits erstellt wurden. Nach einem Überblick über die Interpretation sprachlicher Daten auf den verschiedenen Bearbeitungsstufen steht die Verschriftlichung gesprochener/ gebärdeter Äußerungen im Mittelpunkt. Die Transkription sprachlicher Daten ist der wichtigste Bearbeitungsschritt, der erst aus einer Sammlung von Daten ein verwertbares Korpus macht. Zunächst werden die theoretischen, auf der Schrift basierenden Grundlagen reflektiert, bevor die einzelnen Arbeitsschritte der Segmentierung, Tokenisierung und Lemmatisierung sowie deren Umsetzung in Form der Glossentranskription diskutiert werden. Abschließend folgen Ausführungen zum Begriff der ‚Language Resources‘, zu dem auch die Annotationswerkzeuge gehören. Im Rahmen der Skizzierung der Entwicklung des am IDGS entwickelten Annotationsprogramms iLex werden die Unterschiede zwischen einem datenbankgestützten und einem dokumentenzentrierten Ansatz deutlich gemacht. 3.1 Korpuslinguistik als Methode oder eigenständige linguistische Teildisziplin? Lemnitzer/ Zinsmeister (2010: 10) definieren Korpuslinguistik als die Beschreibung von Äußerungen natürlicher Sprachen, ihrer Elemente und Strukturen, und die darauf aufbauende Theoriebildung auf der Grundlage von Analysen authentischer Texte, die in Korpora zusammengefasst sind. Diese Definition lässt offen, ob es sich bei der Korpuslinguistik lediglich um eine Methode, eine eigenständige Teildisziplin oder sogar ein weiteres 3 Zur terminologischen Abgrenzung s. Kap. 3.2. 4 S. URL: http: / / www.linguistik.hu-berlin.de/ institut/ professuren/ korpuslinguistik/ . <?page no="50"?> 50 Teilgebiet der Linguistik handelt wie z.B. die Sozio- oder Psycholinguistik. Zwar schließt diese Definition auch die Theoriebildung mit ein, der Gegenstandsbereich jedoch bleibt offen bzw. nicht abgegrenzt gegenüber anderen linguistischen Teildisziplinen. Herausgestellt wird die empirische Basis: authentische Texte gesprochener oder geschriebener Sprache. Dies ist jedoch kein neuer methodischer Ansatz. Erhebung, Aufbereitung und Auswertung natürlichsprachlicher Daten sind Methoden, die schon im 19. Jahrhundert in der Feldforschung, insbesondere in der Dialektologie zur Erstellung von Sprachatlanten eingesetzt wurden (Goebl 1988). Die induktive Methode, auch als Bottom-up-Ansatz bezeichnet, bei der man von dokumentierten sprachlichen Äußerungen ausgeht und davon phonologische, morphologische und syntaktische Regeln ableitet, um die Grammatik einer Sprache zu beschreiben, wurde insbesondere Anfang des 20. Jahrhunderts von den Vertretern des amerikanischen Strukturalismus angewandt, um vom Aussterben bedrohte Indianersprachen zu erforschen und zu dokumentieren. Mit Chomskys Annahme einer angeborenen Sprachfähigkeit des Menschen und der von ihm begründeten Generativen Transformationsgrammatik, die die Regeln dieser Universalsprache zu beschreiben suchte, trat Mitte des 20. Jahrhunderts die auf empirischen Daten beruhende deskriptive Beschreibung von Einzelsprachen in den Hintergrund. Für Linguisten, die sich diesem neuen Forschungsparadigma verschrieben, war nur noch die Sprachkompetenz des native speaker ausschlaggebend. Die grammatische Beschreibung einer Sprache, die sich auf empirische Daten stützt, wurde von Chomsky verworfen, u.a. mit der Begründung, dass Äußerungen nie vollständig und immer fehlerhaft sind. Nach Labov (1969) nahm Chomsky an, dass 95 % aller natürlichsprachlichen Äußerungen ungrammatisch sind. Die beobachtbaren Äußerungen sind der Sprachperformanz zuzurechnen, d.h. sie lassen keine direkten Schlüsse auf die Sprachkompetenz eines Sprechers zu, da sie durch verschiedene nichtsprachliche Faktoren wie z.B. die beschränkte Speicherkapazität des Kurzzeitgedächtnisses oder die Tatsache, dass der Sprecher Alkohol getrunken hat, beeinflusst werden. Die induktive Methode (bottom-up) wurde abgelöst durch die deduktive (top-down), die ausgehend von Regeln nach Kompetenzbeispielen suchte, die diese Regeln bestätigen. Solche Kompetenzbeispiele waren in der Regel isolierte Sätze, die sich der sprachkompetente Forscher selbst ausdenken konnte 5 und deren Wohlgeformtheit er von einem native speaker beurteilen ließ. Introspektiv gewonnene Daten haben im Zusammenhang mit der Frage der Grammatikalität durchaus ihre Berechtigung, sie können jedoch nicht 5 Das wohl bekannteste konstruierte Beispiel ist der Satz ‚Colorless green ideas sleep furiously‘ von Chomsky (1957: 15), der unabhängig davon, ob er einen Sinn ergibt, von einem kompetenten Sprecher des Englischen als grammatikalisch richtig beurteilt wird, im Gegensatz zu ‚Furiously sleep ideas green colorless‘. <?page no="51"?> 51 als Belege für den aktuellen Sprachgebrauch herangezogen werden. Beschreibung und Analyse des Sprachgebrauchs ist jedoch das Hauptanliegen der Korpuslinguistik. Aus Korpusdaten lassen sich quantitative Aussagen ableiten, aber nur schwerlich qualitative über Akzeptabilität oder Wohlgeformtheit. Ein formal grammatisches Urteil kann lediglich über eine Interpretation zu den Daten hinzugefügt werden. (Perkuhn/ Belica 2006: 6) Die Autoren, Mitarbeiter des Instituts für deutsche Sprache (IDS) und beteiligt am Aufbau und der Auswertung von Korpora, sprechen sich in ihrem Beitrag zu „Mythen über Korpora und Korpuslinguistik“ klar dagegen aus, aus Korpusdaten normative bzw. präskriptive Aussagen abzuleiten. Sie sind jedoch der Ansicht, dass quantitative Methoden indirekt einen Beitrag zur Frage der Grammatikalität leisten, indem sie zutage fördern, was normal und typisch bzw. selten und atypisch ist. Aus einer „pragmatisch-evolutionären“ Sicht lässt sich argumentieren, dass Formulierungen, die eine Mehrheit nicht akzeptabel findet, ‚besseren‘ Formulierungen unterlegen sein [werden] und sich somit nicht als normale oder typische Formulierungen (für eine bestimmte Zeit oder für einen bestimmten Raum) durchsetzen. (Perkuhn/ Belica 2006: 6) Während Vertreter der Generativen Transformationsgrammatik den Sprachgebrauch der Sprachperformanz zurechnen und damit als ungeeignet, um davon Aussagen über die Sprachkompetenz abzuleiten, sind Vertreter des Britischen Kontextualismus wie Firth, Halliday und Sinclair der Überzeugung, dass Sprache nur anhand des authentischen, nachprüfbaren Sprachgebrauchs untersucht werden sollte. Beschreibungen einer Sprache, sei es in Form eines Wörterbuchs oder einer Grammatik, könnten nur dann Wert und Autorität für sich in Anspruch nehmen, wenn sie Aspekte dieses Sprachgebrauchs wiedergeben. We have already referred to the dangers of assuming that a dictionary of English is the vocabulary of English […], and a book describing the grammar of English may likewise seem to be the grammar of English. But dictionaries and grammar books are only representations of the language (and limited representations of certain aspects of the language). If they have value, it is because they represent, in some generalising abstract way, what people do linguistically. […] If dictionaries and grammar books have authority, it is because they reflect general usage. Thus a language exists or lives not because it is described or recorded but because it is in use among people who know the language. (Halliday et al. 2004: 42; kursiv i.O.) Darin drückt sich zum einen die respektvolle Haltung gegenüber den Sprachbenutzern aus, die wiederum Benutzer von Wörterbüchern und Grammatiken sind, zum anderen die Auffassung von Sprache als sozialem Phänomen: Sprache gibt es nur da, wo Menschen miteinander kommunizieren. Und sie tun dies in der Regel, weil sie sich etwas zu sagen haben. Dieser Auffassung ist auch Teubert (1999), der in der Analyse von Korpora <?page no="52"?> 52 einen originären Beitrag zum Wissen über Sprache sieht. In seinem programmatischen Aufsatz Korpuslinguistik und Lexikographie definiert er den spezifischen Beitrag der Korpuslinguistik für die Semantik folgendermaßen: Alles, was über die Bedeutung von Wörtern, Phrasen, Sätzen gesagt werden kann, findet sich im Diskurs. Was nicht in natürlicher Sprache paraphrasiert werden kann, hat mit Bedeutung von Sprache nichts zu tun. Dies ist, in nuce, das Programm der Korpuslinguistik, mit dem sie sich von der kognitiven Linguistik und der logischen Semantik unterscheidet. (Teubert 1999: 299) Teubert fasst Anspruch und Leistung der Korpuslinguistik in folgenden fünf Punkten zusammen: • Im Unterschied zur klassischen Lexikographie bestimmt die Korpuslinguistik nicht die Bedeutung dekontextualisierter Wörter, sondern wertet das Korpus systematisch aus und gewichtet und interpretiert die Belege, um die Bedeutung ganzer Textsegmente zu bestimmen. Daher ist die Korpuslinguistik besonders dafür geeignet, Bedeutungsveränderungen und Neologismen zu erfassen. • Sie entwickelt Verfahren, die es ermöglichen, Bestandteile metasprachlicher Äußerungen automatisch zu identifizieren und zu extrahieren. Damit werden Belegstellen zusammengetragen, die das Aushandeln von Bedeutung zwischen den Diskursteilnehmern dokumentieren. • Sie berücksichtigt den Kontext, der die Bedeutung von Wörtern, aber auch von Kollokationen verändern kann. • Mithilfe von Frequenzanalysen kann die Korpuslinguistik eine semantische Kohäsion zwischen den Bestandteilen von Mehrwortausdrücken, Kollokationen und Phraseologismen validieren. • Für die Korpuslinguistik ist natürliche Sprache ein soziales Phänomen, deren Kern die Bedeutung ist. Bedeutung ist, im Unterschied zum Verstehen, immer an eine Form gebunden, einen sprachlichen Ausdruck. Außerhalb der Sprache gibt es keine Bedeutung. Sprache manifestiert sich in Texten, d.h. für den Linguisten haben nur Texte eine Bedeutung. Damit ist Korpuslinguistik nicht nur eine Methode der Datengewinnung und -aufbereitung, sondern eine eigenständige Disziplin mit einem eigenständigen theoretischen Ansatz, der intertextuellen Hermeneutik. Corpus linguistics is providing the data for an empirical theory of ‘cultural transmission’, and more than that, it has ist own theoretical framework, intertextual hermeneutics, to explain how new objects are entered into the discours, how they are accepted, modified, changed or rejected, and how they are compared, across langugages, cultures and times, to other discourse objects. (Teubert 2008: 82) Teubert ist sich bewusst, dass diese Sichtweise nicht von vielen geteilt wird, dass Korpuslinguistik weniger als eigenständiges Teilgebiet der Linguistik als vielmehr eine interdisziplinäre Methode angesehen wird, deren <?page no="53"?> 53 Möglichkeiten eng mit den Entwicklungen in der Computertechnologie und -linguistik verzahnt sind. Denn die Computerlinguistik, die ein Teilgebiet der Künstlichen Intelligenz (KI) und Schnittstelle zwischen Informatik und Linguistik ist, ist auf natürlichsprachliche Korpora angewiesen, um ihre Werkzeuge für die Spracherkennung und Sprachsynthese zu testen und zu verbessern, die Korpuslinguistik wiederum ist auf zuverlässige Software angewiesen, um möglichst umfangreiche Korpora gesprochener und geschriebener Sprache automatisch für die linguistische Analyse zu erschließen. Ziel der Computerlinguistik ist nicht in erster Linie, theoretische Probleme zu lösen, sondern Systeme zu schaffen, die sprachliche Daten verarbeiten und daraus einen Output erzeugen, der in der Forschung und Entwicklung weiter verarbeitet werden kann. Sie ist zielbzw. produktorientiert, d.h. ihre Ergebnisse sind z.B. durch kommerzielle Interessen bestimmt wie bei der maschinellen Übersetzung oder der künstlichen Sprachsynthese oder durch die Bedarfe der empirischen Linguistik. Diese wiederum liefert theoretische Ansätze wie z.B. die Lexikalisch-Funktionale Grammatik (Lexical Functional Grammar, LFG) oder die kopfgesteuerte Phrasenstrukturgrammatik (Head-Driven Phrase Structure Grammar, HPSG), die formalisiert und implementiert werden. Ziel der Korpuslinguistik ist es, neben der Dokumentation des Sprachgebrauchs 6 , Hypothesen und Regeln auf den verschiedenen Sprachebenen (Phonologie, Morphologie, Syntax) sowie in den Bereichen der Semantik und Lexik zu testen und anhand ausreichend großer und geeigneter Datenmengen diese Theorien zu verifizieren oder falsifizieren. Darüber hinaus besitzen Korpora einen heuristischen Wert, da sie auch dazu genutzt werden können, neue sprachliche Phänomene und Strukturen zu entdecken und neue Hypothesen aufzustellen. Je größer die Datensammlungen sind, desto mehr seltene Phänomene decken sie mit ausreichender Aussagekraft ab. […] erst ab einer bestimmten Größenordnung enthalten Korpora mehr Wissen als die Summe ihrer Belege. Auf dieses latente Wissen zielen die korpusanalytischen Methoden, für deren Anwendbarkeit eine kritische Datenmasse mindestens zur Verfügung stehen muss. (Perkuhn/ Belica 2006: 5) Dieses Entdecken neuer Informationen und die Probleme, die sich daraus ergeben, dass aus den Daten Zusammenhänge sichtbar werden, die nicht mit etablierten Beschreibungskategorien übereinstimmen, ist eine Erfahrung, die insbesondere in der korpusgestützten Lexikographie schon bei der Planung mit berücksichtigt werden sollte. Sinclair, Leiter des Cobuild- 6 Himmelmann (1998) weist darauf hin, dass im Unterschied zur Anreicherung und Analyse von Korpora Theorie und Praxis der Sprachdokumentation zu kurz kommen und argumentiert daher für eine eigenständige Teildisziplin der documentary linguistics. Nach Hoiting/ Slobin (2002: 56) ist die Transkription Teil der Sprachdokumentation, die erst die Voraussetzung für die Beschreibung und Analyse gesprochener/ gebärdeter Sprachen schafft (s. Kap. 3.6.3). <?page no="54"?> 54 Wörterbuchprojekts (1980-1987), das allein auf der Grundlage eines Korpus mit einen Umfang von ca. 7 Mio. Wörtern 7 erstellt wurde, berichtet, dass er dies stark unterschätzt habe: I grossly underestimated the effect of the new information that the corpus supplied, and in particular the total lack of fit between the evidence coming from the corpus and the accepted categories of English lexicography. (Sinclair 2004: 9) Die Tatsache, dass durch korpuslinguistische Methoden sprachliche Phänomene offengelegt werden, die im Widerspruch zu bereits etablierten linguistischen Beschreibungen stehen, ist für Tognini-Bonelli, die zusammen mit Teubert die Buchreihe Studies in Corpus Linguistics herausgibt, ein Argument für eine eigenständige Teildisziplin, die korpusgestützte Linguistik (Corpus- Driven Linguistics, CDL). Tognini-Bonelli (2001: 49) wendet den berühmten Satz von Saussure (1972: 23) „Bien loin que l’objet précède le point de vue, on dirait que c’est le point de vue qui crée l’objet“ um in „it is […] the methodology that defines the domain“. Für sie ist der korpusgestützte Ansatz nicht nur ein Inventar von Methoden, sondern definiert sich durch eine bestimmte Sichtweise auf sprachliche Phänomene, die sich in der Analyse und Interpretation der Daten niederschlägt. Ihr Buch Corpus Linguistics at Work (2001) ist ebenso wie der Aufsatz von Teubert (1999) als ein Plädoyer für eine eigenständige Teildisziplin ‚Korpuslinguistik‘ geschrieben, was aus der Einführung unmissverständlich klar wird: Chapter Ten, the conclusion, argues explicitly for the setting up of Corpus- Driven Linguistics (CDL) as a discipline of its own on the grounds that it has a distinctive set of goals, a specific philosophical standpoint, a unique methodology, a set of theoretical and descriptive categories for articulating the body of the research and an accumulating body of knowledge which is particular to this domain of enquiry. (Tognini-Bonelli 2001: 12) Dieser Haltung fühlen sich auch Perkuhn/ Belica (2006: 7) verpflichtet, die die „Doktrin der Korpuslinguistik“ analog zum o.g. Teubert’schen Programm mit folgendem Satz umschreiben: „Alles, was man wissen muss, um Erkenntnisse über Sprache zu gewinnen und zu vermitteln, steckt in den Sprachen selbst.“ Die Autoren halten Annotationen, die nicht ohne Vorannahmen auskommen, d.h. nicht „aus den Daten selbst hervorgetreten sind“, für schädlich, da dadurch „das Korpus lediglich zu einer Testfallsammlung der Vorannahmen degeneriert“ (Perkuhn/ Belica 2006: 3). Bei diesen Aussagen fällt auf, dass sie das Vorhandensein eines (repräsentativen) Korpus voraussetzen und ausblenden, dass ebenso wie die Datengewinnung und Zusammenstellung eines Korpus von Hypothesen geleitet 7 Das COBUILD-Korpus (Collins Birmingham University International Language Database) wurde später erweitert und umbenannt in die Bank of English mit über 500 Mio. Wörtern (vgl. Teubert 2006). Das Korpus enthält überwiegend schriftliche Texte, aber auch einen nicht unerheblichen Anteil gesprochener Daten und ist über die University of Birmingham, an der Teubert einen Lehrstuhl für Korpuslinguistik hat, für Forschungszwecke zugänglich (URL: http: / / www.titania.bham.ac.uk/ ). <?page no="55"?> 55 wird, auch die Transkription nicht ohne theoretische Vorannahmen durchführbar ist (s. Kap. 3.6.1.2 und 3.6.2; Lüdeling 2007). Diese wiederum sind auf Intuition und Introspektion angewiesen. McEnery/ Wilson (2001: 19) sehen in der Anwendung korpusbasierter und introspektiver Methoden keinen Widerspruch, sondern eine sinnvolle Ergänzung: „A corpus and an introspection-based approach to linguistics are not mutually exclusive. In a very real sense they can be gainfully viewed as being complementary.“ In diesem Sinne beschreiben sie Korpuslinguistik als eine „synthesis of introspective and observational procedures, relying on a mix of artificial and natural observation“ (McEnery/ Wilson 2001: 19). Ebenso plädieren Lemnitzer/ Zinsmeister (2010: 7) für „[e]ine enge Zusammenarbeit zwischen Denkern und Beobachtern, also zwischen theoretischen Linguisten und empirisch arbeitenden Linguisten“. In ihrem Überblick über verschiedene europäische korpusbasierte Lexikonprojekte beschreibt Calzolari diese notwendige Kombination von theoretischen Modellen und Korpusdaten im Zusammenhang mit dem DELIS- Projekt 8 , aus dem das von Fillmore geleitete FrameNet-Projekt hervorgegangen ist. Da auf theoretische Annahmen nicht verzichtet werden kann, sollten diese am besten aus den Daten selbst gewonnen werden und in einem zyklischen Verfahren wieder auf die Daten angewandt werden, um die Beschreibungskategorien und das theoretische Modell zu modifizieren, zu bestätigen oder zu verwerfen. Diese Sichtweise entspricht wiederum dem korpusgestützten Ansatz i.S. Tognini-Bonellis. Corpus data cannot be used in a simplistic way: in order to become usable it must be analysed according to some theoretical hypothesis, that helps to model and structure what would otherwise be an unstructured set of data. The best mixture of empirical and theoretical approaches is the one in which the theoretical hypothesis is itself emerging from and guided by successive analysis of the data, and is cyclically refined and adjusted to textual evidence. (Calzolari 2007: 119) Die bisherigen Ausführungen machen deutlich, dass die Frage, ob Korpuslinguistik eine eigenständige Disziplin der Linguistik oder eine interdisziplinär entwickelte Methodik darstellt, eng mit der Frage verknüpft ist, welche Funktion die Daten für die Theoriebildung haben. Zur Kennzeichnung verschiedener Ansätze in der Lexikographie spielt weiterhin die Methode der Datengewinnung eine Rolle. Da einige Bezeichnungen nicht einheitlich verwendet werden, sollen im Folgenden die verschiedenen Ansätze näher erläutert werden. 8 Descriptive Lexical Specifications, 1993-1995. <?page no="56"?> 56 3.2 Korpusgestützt, korpusgebunden, korpusvalidiert oder korpusgesteuert? Tognini-Bonelli, die in der Korpuslinguistik eine eigenständige Disziplin sieht, schlägt vor, zwischen einem korpusgestützten (corpus-based) und einem korpusgesteuerten Ansatz (corpus-driven 9 ) in der Linguistik zu unterscheiden. Beim korpusgestützten Ansatz werden die Korpusdaten dazu benutzt, vorher aufgestellte Theorien und Beschreibungskategorien zu testen oder zu exemplifizieren: the term corpus-based is used to refer to a methodology that avails itself of the corpus mainly to expound, test or exemplify theories and descriptions that were formulated before large corpora became available to inform language study. (Tognini-Bonelli 2001: 65; kursiv i.O.) Der Einfluss der Korpusevidenz auf die Theorie bleibt jedoch begrenzt: „the effect on the theory of the corpus experience is limited to validating existing parameters rather than perhaps - if so shown by the evidence - forcing the linguist to look for new ones“ (Tognini-Bonelli 2001: 68). Der korpusgestützte Ansatz in der empirischen Linguistik ist daher auch nicht als eigenständige Disziplin, sondern lediglich als Methode anzusehen, bei der häufig nicht die Gesamtheit der Daten ausgewertet, sondern nur geeignete Korpusausschnitte als Belegstellen angeführt werden. Beim korpusgesteuerten Ansatz werden die zur Beschreibung und Analyse erforderlichen Analysekategorien ausschließlich aus den Daten selbst abgeleitet. In a corpus-driven approach the commitment of the linguist is to the integrity of the data as a whole, and descriptions aim to be comprehensive with respect to corpus evidence. The corpus, therefore, is seen as more than a repository of examples to back pre-existing theories or a probabilistic extension to an already well-defined system. […] Examples are normally taken verbatim, in other words they are not adjusted in any way to fit the predefined categories of the analyst; recurrent patterns and frequency distributions are expected to form the basic evidence for linguistic categories; the absence of a pattern is considered potentially meaningful. (Tognini-Bonelli 2001: 84) Der entscheidende Unterschied zum korpusgestützten Ansatz ist, dass Theorie und Korpusevidenz nicht mehr getrennt voneinander gesehen werden, dass sich der Wert von Dichotomien wie Kompetenz - Performanz, langue - parole, Lexik - Grammatik anhand der Korpusdaten beweisen muss. Diese stehen am Anfang jeder linguistischen Theorie, von ihnen muss jede Theorie abgeleitet werden: The theory has no independent existence from the evidence and the general methodological path is clear: observation leads to hypothesis leads to generalisation leads to unification in theoretical statement. (Tognini-Bonelli 2001: 84 f.) 9 Im Zusammenhang mit der Sprachlehre ist auch vom data-driven teaching bzw. datadriven learning die Rede. <?page no="57"?> 57 Auch wenn es keine reine induktive Methode geben kann, da Daten immer interpretiert werden müssen, wozu Wissen und Erfahrung des Forschers notwendig sind, diese jedoch nicht objektiviert werden können, ist diese enge Verbindung zwischen beobachtbaren sprachlichen Phänomenen und Theoriebildung das qualitativ Neue, das nach Tognini-Bonelli eine eigenständige Disziplin, die korpusgesteuerte Linguistik, rechtfertigt. Während im Englischen die Unterscheidung zwischen corpus-based und corpus-driven durchweg mit Bezug auf die unterschiedliche Funktion der Korpusdaten für die Theoriebildung verwendet wird, fällt die Übertragung ins Deutsche unterschiedlich aus. Dies mag damit zusammenhängen, dass Korpuslinguistik im Britischen Kontextualismus eng mit der Frage der linguistischen Theoriebildung diskutiert wurde und daher die Funktion der Daten im Vordergrund stand, in der deutschsprachigen Lexikographie und Metalexikographie dagegen die Methode der Datenerhebung bzw. die einem Wörterbuch zugrunde liegenden Datenquellen. Klosa (2007) trennt beide Kriterien und unterscheidet in der Lexikographie hinsichtlich der Datenquellen zwischen einem korpusgestützten und einem korpusgebundenen (corpus-bound) Ansatz. Beim korpusgestützten Ansatz - im Englischen ebenfalls mit corpus-based übersetzt und in diesem Sinne auch von (Summers 1996) verwendet - werden neben einem Korpus als Primärquelle auch sekundäre (z.B. Wörterbücher) und tertiäre Quellen (z.B. Monographien oder Grammatiken) zur Artikelschreibung verwendet. In der korpusgestützten Lexikographie, die sich auch ausschließlich auf ein Wörterbuchkorpus als primäre Quelle stützt, ist es dagegen möglich, neben der Auswertung des Wörterbuchkorpus noch sekundäre und/ oder tertiäre Quellen hinzuzuziehen. […] Ein korpusgestütztes Wörterbuch bietet also keine 1: 1-Abbildung der Sprachwirklichkeit des zugrunde gelegten Korpus, sondern ergänzt, wo nötig, das Bild, das aus der Korpusanalyse gewonnen wurde. (Klosa 2007: 110) Als weiteres Kriterium fordert Klosa (2007: 111), dass das Korpus „mithilfe korpuslinguistischer Verfahren erschlossen“ wird, z.B. durch Kontextanalysen. Die Vorverarbeitung - Tokenisierung und Lemmatisierung - allein reicht demnach nicht aus. Beim korpusgebundenen Ansatz werden nur Korpusdaten verwendet, keine weiteren sekundären oder tertiären Quellen. Ein korpusgebundenes Wörterbuch wird ausschließlich auf der Basis des Wörterbuchkorpus und ohne Hinzuziehung anderer primärer Quellen, aber auch ohne Hinzuziehung sekundärer und/ oder tertiärer Quellen erarbeitet. […] Ein korpusgebundenes Wörterbuch bildet genau die Sprachwirklichkeit ab, die das zugrunde gelegte Korpus repräsentiert - aber nicht mehr und auch nicht weniger. (Klosa 2007: 110) Hinsichtlich der Funktion der Daten für die Theoriebildung übernimmt Klosa die Unterscheidung von Tognini-Bonelli, wobei sie corpus-based gemäß der Definition mit „korpusvalidierend“ übersetzt, corpus-driven <?page no="58"?> 58 wörtlich mit „korpusgesteuert“. 10 Ein korpusgesteuertes Vorgehen wird auch als Kennzeichen „wahrer Korpuslexikographie“ angesehen: What characterizes true corpus lexicography? Each entry in a dictionary represents a detailed examination of the corpus evidence. […] The entry reflects what is found - and what our users are likely to find in the real text world - rather than what was believed to be the case. (Clear et al. 1996: 308 f.; zitiert nach Klosa 2007: 113) Als Beispiel für den korpusvalidierenden Ansatz führt Klosa das Cambridge International Dictionary of English an, als Beispiel für den überwiegend korpusgesteuerten Ansatz das Collins COBUILD English Language Dictionary. Sie konstatiert, dass zurzeit in verschiedenen Ländern dem korpusgestützten Verfahren der Vorzug gegeben wird und führt als Beleg ein Zitat von Summers (1996: 262) an, die Mitarbeiterin am Longman Dictionary of Contemporary English war: „The corpus is a massively powerful resource to aid the lexicographer, which must be used judiciously. Our aim at Addison Wesley Longman is to be corpus-based, rather than corpus-bound.“ Summers, die sich gegen ein blindes Vertrauen auf Korpusdaten ausspricht und die Notwendigkeit der Interpretation dieser Daten für die Artikelschreibung betont, beendet ihren Artikel mit dem Satz: „We expect our motto: ‘Corpus-based, but not corpus-bound’ to hold good for many years to come.“ (Summers 1996: 266) Klosas Darstellung überzeugt durch die klare Trennung der beiden Kriterien ‚Methoden der Datenerhebung‘ und ‚Funktion der Daten für die Theoriebildung‘. Unklar bleibt jedoch, warum sie nur den korpusgestützten Ansatz weiter unterteilt in korpusvalidierend und korpusgesteuert. Eine Kombination aus korpusgebundenem und korpusvalidierendem Ansatz ist durchaus sinnvoll und wird in unten stehender Matrix (s. Tab. 1) berücksichtigt. Lemnitzer/ Zinsmeister (2010: 32-38) unterscheiden zwischen einem korpusgestützten Ansatz im Sinne von korpusvalidierend und einem korpusbasierten Ansatz. Die Merkmale dieses korpusbasierten Ansatzes sind jedoch eine Mischung verschiedener Kriterien, die von den bereits genannten Autoren anderen Bezeichnungen zugeordnet wurden. Dass nur Beobachtungsdaten und keine durch Elizitation, introspektiv oder experimentell gewonnenen Daten berücksichtigt werden, deckt sich mit dem korpusgebundenen Ansatz, bei dem nur das Korpus als primäre Quelle zulässig ist. Dass diese Daten „exhaustiv“ genutzt werden, entspricht dem Merkmal des korpusgesteuerten Ansatzes, bei dem die Daten in ihrer Gesamtheit berücksichtigt werden. Dass zur Interpretation der Daten Beschreibungskategorien angewendet werden, die nicht aus den Daten selbst gewonnen wurden, ist wiederum ein Merkmal des korpusvalidierenden Ansatzes, den die Autoren selbst als korpusgestützten Ansatz bezeich- 10 Steyer (2004: 93) spricht von einem Konsultationsparadigma im Unterschied zu einem Analyseparadigma. <?page no="59"?> 59 nen. Abgesehen von dieser unklaren Abgrenzung scheint mir die Verwendung der Bezeichnungen ‚gestützt‘ und ‚basiert‘ problematisch, da ‚basiert‘, vom Französischen baser abgeleitet, auf das lateinische Wort basis zurückgeht und „gestützt auf“, „auf der Grundlage von“ bedeutet, d.h. dass die beiden Wörter synonym verwendet werden können und sich daher nicht für eine Differenzierung eignen. Die Bezeichnungen ‚korpusbasiert‘ und ‚korpusgestützt‘ werden häufig synonym verwendet in der allgemeinen Bedeutung „auf der Grundlage eines Korpus“. Für weitere spezifische Bedeutungen stehen die Begriffe ‚korpusgebunden‘, ‚korpusvalidiert‘ bzw. ‚korpusvalidierend‘ und ‚korpusgesteuert‘ zur Verfügung. ‚Korpusgestützt‘ kann in der Lexikographie weiterhin als Komplementärbegriff zu ‚korpusgebunden‘ verwendet werden. Die verschiedenen Kombinationen lassen sich in Form einer Merkmalsmatrix darstellen, wobei die Kombination ‚korpusgestützt + korpusgesteuert‘ ausgeschlossen wird, da sie einen Widerspruch in sich birgt: Introspektiv oder experimentell erhobene Daten bzw. Daten aus Wörterbüchern oder Grammatiken sind immer Ergebnis von Interpretationen auf der Grundlage theoretischer Positionen, die nicht aus den Daten selbst gewonnen wurden. Die Forderung von Teubert (1999: 312), „dass die nächste Wörterbuchgeneration, die einsprachige ebenso wie die zweisprachige, zumindest korpusvalidiert, wenn nicht korpusbasiert sein muss“, erscheint, mit einem Abstand von fast zehn Jahren, auf den ersten Blick widersprüchlich, zeigt aber die Richtung an, in die sich der Begriff ‚korpusbasiert‘ ausdifferenziert hat. Sie lässt sich anhand der folgenden Matrix verstehen als eine Entwicklung von einer korpusgestützten, korpusvalidierten Lexikographie zu einer korpusgebundenen, korpusgesteuerten Lexikographie. Funktion der Daten für die Theoriebildung Datenquelle/ Erhebungsmethode korpusvalidiert korpusgesteuert korpusgestützt --- korpusgebunden Gegenwart: „korpusbasierte“ Lexikographie Zukunft? Tabelle 1: Merkmalsmatrix korpuslinguistischer Ansätze und Methoden 3.3 Bedeutung der Korpuslinguistik für die Gebärdensprachforschung und -lexikographie Als Sprachen der direkten Face-to-Face-Kommunikation verfügen Gebärdensprachen über keine Schriftform, in der sie leicht konserviert und der Analyse zugänglich gemacht werden könnten. Eine empirisch begründete <?page no="60"?> 60 Beschreibung und Analyse der lexikalischen und grammatischen Eigenschaften einer Gebärdensprache sind deshalb um so mehr auf die Erhebung und Aufbereitung repräsentativer, authentischer Daten angewiesen. hin, Darüber hinaus ist die Notwendigkeit linguistischer Korpora in der besonderen soziolinguistischen Situation von Gebärdensprachgemeinschaften begründet, worauf Johnston (2008b) in seinem Plädoyer für eine empirische, korpusbasierte Gebärdensprachforschung unter Verweis auf die folgenden Faktoren hinweist: • Sprachkontakt: Die meisten Gehörlosen leben als sprachliche Minderheit in einer Gesellschaft und Kultur der Hörenden und sind vor allem durch die Schrift beständig mit deren Sprache konfrontiert. Dies führt u.a. zu Sprachkontaktphänomenen wie der Verwendung von lautsprachlichen Wörtern in gebärdensprachlichen Äußerungen (s. Kap. 4.1). Wie dieser Zusammenhang von Gebärden und Wörtern distributionell und kontextuell beschaffen ist, lässt sich nur mithilfe von Korpora dokumentieren und erforschen. • Bedrohte Sprachen: Johnston (2004) hat für Australien nachgewiesen, dass die häufig kolportierte Annahme, ein Promille der Gesamtbevölkerung sei gehörlos, nicht der Wirklichkeit entspricht. In Australien ist demnach lediglich von 6000 statt der bisher angenommenen 15000 Gehörlosen auszugehen. Angesichts dieser Zahl ist der von ihm in den kommenden Jahren prognostizierte Rückgang der Sprecher dieser Sprache dramatisch. Ausschlaggebend für eine solche Entwicklung sind vor allem die Ausweitung der Röteln- Impfung, die möglichst frühe Versorgung von hörgeschädigten Kindern mit dem Cochlea-Implantat sowie die zunehmend praktizierte Pränataldiagnostik. Dies kann dazu führen, dass die kritische Masse unterschritten wird, die für das Überleben einer Sprache notwendig ist. Damit ist sowohl die Anzahl der Sprecher als auch die Verwendung der Sprache in der Erziehung und Sozialisation nachwachsender Sprecher dieser Sprache gemeint. Die genannten Faktoren können weiterhin dazu führen, dass junge Gehörlose in einer sprachlichen Umgebung aufwachsen, die von der ihrer Elterngeneration sehr verschieden ist. Johnston konnte im Rahmen des Hans Rausing Endangered Languages Documentation Programme (School of Oriental and African Studies, University of London) eine Erhebung zur Dokumentation von Auslan durchführen mit dem Ziel, ab 2012 ein online zugängliches Archiv annotierter Auslan- Texte zur Verfügung zu stellen (s. Kap. 3.6). Das 2008 ausgeschriebene EuroBABEL-Projekt 11 der European Science Foundation (ESF) 11 Better Analyses Based on Endangered Languages; URL: http: / / www.esf.org/ eurobabel. Das Ziel dieses Förderprogramms wird gleich zu Beginn der Seite so beschrieben: „The main purpose of the EUROCORES programme EuroBABEL is to promote empirical research on underdescribed endangered languages, both spoken and signed, that aims at changing and refining our ideas about linguistic structure in general and <?page no="61"?> 61 hat ein Forschungsprojekt zu Gebärdensprachen in seiner Auswahl mit berücksichtigt. Für zukünftige Korpusprojekte bedeutet dies, dass neben linguistischen Aspekten auch das kulturelle Erbe von Gebärdensprachgemeinschaften, das sich in der jeweiligen Gebärdensprache manifestiert, beim Korpusdesign berücksichtigt werden sollte. Hinzu kommt, dass die meisten Gebärdensprachen noch nicht dokumentiert sind und unser heutiges Wissen im Wesentlichen auf der Erforschung einiger weniger Gebärdensprachen, allen voran der Amerikanischen Gebärdensprache (ASL), beruht. 12 • Repräsentativität der Gebärdensprache von Muttersprachlern: Nur ca. 5 % der Gehörlosen habengehörlose Eltern und eignen sich die Gebärdensprache in der primären Sozialisation als Muttersprache an. Die Gebärdensprache dieser native signer bzw. deren intuitiven Urteile über Akzeptabilität und Grammatikalität gebärdensprachlicher Äußerungen standen bisher im Mittelpunkt linguistischer Untersuchungen. Dadurch wurde eine Homogenität der Daten künstlich erzeugt. 13 Die Frage, inwiefern die Gebärdensprache dieser Minderheit innerhalb der Gehörlosengemeinschaft bzw. deren intuitive Sprachurteile repräsentativ sind für den Sprachgebrauch, lässt sich nur durch repräsentative, breit angelegte Korpora beantworten. Bei der Erstellung von Gebärdensprachkorpora sollte daher immer die Dokumentation und Archivierung in einem umfassenden Sinn berücksichtigt werden. Dies beinhaltet jedoch nicht nur die Konservierung der Rohdaten, sondern auch die Bereitstellung der Metadaten, ohne die ein Spracharchiv nicht sinnvoll genutzt werden kann. Darüber hinaus wird auch an Spracharchive die Anforderung der Maschinenlesbarkeit gestellt. So definiert beispielsweise Ooi (1998: 35) ein Spracharchiv als ein „repository of readable electronic texts, not linked in any coordinated way“. Selbstverständlich ist auch die Bereitstellung von Metadaten erforderlich, um ein Spracharchiv sinnvoll nutzen zu können. Damit ein Spracharchiv maschinenlesbar ist, müssen die Rohdaten (s. Kap. 3.5) annotiert bzw. transkribiert werden. Dabei ist insbesondere bei Gebärdensprachdaten wichtig, dass der Bezug zu den Rohdaten immer erhalten bleibt, da es noch keine einheitliche Notation der Form von Geabout language in relation to cognition, social and cultural organization and related issues in a trans-/ multi-disciplinary perspective.“ 12 Harrison (2007: 230) stützt sich auf eine Aussage von Zeshan, die die Anzahl verschiedener Gebärdensprachen auf einige Hundert schätzt. Genaue Angaben gibt es nicht, aber es ist anzunehmen, dass noch längst nicht alle existierenden Gebärdensprachen bekannt sind. 13 Cuxac/ Pizzuto (2010: 39-42) interpetieren dies als Ausdruck einer „assimilatorischen Perspektive“, da diese homogenen Daten eher geeignet sind, die Gemeinsamkeiten zwischen Gebärden- und Lautsprache aufzuzeigen als ihre Unterschiede. <?page no="62"?> 62 bärden, vergleichbar dem IPA für Lautsprachen, gibt 14 und die Transkriptionskonventionen sowie die Verwendung von Glossen sehr unterschiedlich sind. Ohne den ständigen Rückbezug auf die Rohdaten besteht die Gefahr, dass durch die Verwendung der Transkriptionen als Primärdaten Kategorien der Lautsprache auf die Gebärdensprache übertragen werden, dass relevante Merkmale unberücksichtigt bleiben, da sie mit dem linguistischen Instrumentarium nicht erfasst werden können oder dass gebärdensprachliche Phänomene unentdeckt bleiben, da die Kategorien nicht aus den Daten heraus entwickelt wurden. Nur durch die Synchronisation von Annotationen und Videodaten können die über Lexikon und Grammatik einer Gebärdensprache aufgestellten Hypothesen überprüft werden. Ebenfalls sind nur durch die Bereitstellung offen zugänglicher Archive (open language archives 15 ) crosslinguistische Untersuchungen zu syntaktischen und lexikalischen Ähnlichkeiten bzw. Unterschieden zwischen Gebärdensprachen durchführbar. Der Bezug zum Rohdatum bietet wiederum jederzeit die Möglichkeit, Fehler in der Transkription oder Annotation zu kommentieren bzw. zu korrigieren und so die Qualität der Transkripte, die die Primärdaten jeglicher Untersuchung darstellen, zu verbessern. Die Unterschiede zwischen einem elektronischen Spracharchiv und einem linguistischen Korpus liegen in • der Zielsetzung: Ein Archiv dient der langfristigen Konservierung und Katalogisierung von Sprachdaten, die das kulturelle Erbe einer Sprachgemeinschaft dokumentieren, ein Korpus wird auf eine linguistische Fragestellung hin zusammengestellt oder erhoben; • der Größe bzw. des Umfangs: Ein Archiv umfasst meistens mehrere Korpora verschiedenster Art, z.B. verwaltet das Deutsche Spracharchiv zur Zeit 28 Korpora aus Dokumentations- und Forschungsprojekten 16 . Ein Korpus ist homogener als ein Spracharchiv, z.B. werden Spracherwerbsdaten und lexikographische oder Daten zu Mundarten nicht zu einem Korpus zusammengefasst, da die Fragestellungen ganz verschieden sind, für die diese Korpora herangezogen werden können; ein Korpus kann jedoch auch aus mehreren Teilkorpora bestehen; • dem Grad der Aufbereitung: Ein Archiv umfasst die Rohdaten (digitalisierte Ton- oder Videodokumente), Angaben zur Herkunft, Entstehung und Verwendung sowie die Einordnung der Dokumente in eine systematische Katalogisierung. Damit die Rohdaten maschinenlesbar sind, müssen gesprochene oder gebärdete Texte annotiert sein. Für die inhaltliche Erschließung kann eine Übersetzung ausreichen. Ein nicht annotiertes Korpus gesprochener oder 14 Zu den Möglichkeiten und Grenzen von Gebärdenschriftsystemen s. Bentele (2002). 15 Bemühungen um die best practice der Erstellung, Bereitstellung und Nutzung digitaler Spracharchive und Language Resources gehören zu den Zielen der Open Language Archives Communitiy (OLAC); URL: http: / / www.language-archives.org/ . 16 S. URL: http: / / dsav-oeff.ids-mannheim.de/ DSAv/ AUFBAU.HTM. <?page no="63"?> 63 gebärdeter Texte besteht aus den Rohdaten und den Metadaten und unterscheidet sich nicht wesentlich von einem elektronischen Archiv. Die Metadaten enthalten in möglichst standardisierter Form zusätzliche Angaben zu den Informanten und dem Aufnahmesetting. Ein Korpus wird im Zuge der Vorverarbeitung tokenisiert und lemmatisiert, bevor es für morphologische, syntaktische, semantische oder pragmatische Analysen weiter annotiert werden kann. Gebärdensprachliche Texte, die mithilfe von Glossen lemmatisiert sind, können weiter annotiert werden, Johnston (2010a, 2010b) spricht vom „secondary processing“. Korpusdaten zeigen sprachliche Einheiten in einem größeren Zusammenhang. Dies ist insbesondere für die Bestimmung der Bedeutung von Gebärden wichtig, die oft nur mit Bezug auf einen ausreichend spezifizierten Kontext beantwortet werden können. Der Kontext spielt in der Korpuslinguistik überhaupt eine große Rolle, da sie sich für Phänomene interessiert, die nicht immer von vornherein eindeutig als entweder lexikalisch oder grammatikalisch klassifizierbar sind. Bei der Erforschung der Gebärdensprache kommt dem Kontext ein gleichermaßen hoher Stellenwert zu wie in der Korpuslinguistik, weshalb diese, zumindest als methodischer Ansatz, besonders geeignet erscheint für die Untersuchung von Gebärdensprachen Die folgenden Eigenschaften von Gebärdensprachen sprechen dabei für eine besondere methodische Affinität zur Korpuslinguistik: • Gebärdensprachen werden erst seit relativ kurzer Zeit erforscht; Fragen der Grammatikalisierung und Lexikalisierung sind noch weitgehend unbeantwortet. • Gebärdensprachen sind Minderheitensprachen, die immer im Sprachkontakt zu einer dominanten Lautsprache stehen. Dies hat Auswirkungen auf die Struktur ihres Lexikons: Durch den funktionalen Einsatz von Wörtern (s. Kap. 4.1.3.3) kommen Gebärdensprachen wie die DGS mit einem im Vergleich zu Lautsprachen relativ geringen Bestand konventioneller Zeichen aus (s. Kap. 4.1.5). • Gebärdensprachen sind visuell-gestische Sprachen, bei denen lexikalisierte Gebärden im steten Wechsel mit teillexikalisierten, sogenannten produktiven Gebärden 17 kombiniert werden, deren Bedeutung nur im Kontext richtig interpretiert werden kann. (s. Kap. 4.1.3.3). • Gebärdensprachen sind Nähesprachen (Koch/ Österreicher 1985, 1994) und werden mündlich tradiert, da es keine alltagstaugliche, verbreitete Gebrauchsschrift gibt. Wie in der lautsprachlichen Face-to-Face-Kommunikation sind auch in Gebärdensprachen die kontextuellen Bezüge für das Verständnis von Äußerungen uner- 17 Eine ausführliche Beschreibung der Transkriptionskonventionen und der Abgrenzung zwischen konventionellen und produktiven Gebärden sowie sonstiger in der DGS verwendeter Zeichen und Zeichensysteme findet man in Konrad (2010a: 31-64). <?page no="64"?> 64 lässlich. Dies betrifft nicht nur die Bedeutung produktiver Gebärden, sondern auch der Einsatz nonmanueller Mittel wie Blick und Mimik sowie die Nutzung des Gebärdenraums zur Herstellung semantischer und syntaktischer Beziehungen. • Die meisten konventionellen Gebärden sind ursprünglich ikonisch. Dieses ikonische Potenzial kann im Diskurs jederzeit zur Modifikation von Gebärden reaktiviert werden, was ein beständiges Ineinandergreifen konventioneller und produktiver sprachlicher Mittel bedingt. Die dabei auftretenden Muster, Regelhaftigkeiten oder Beschränkungen können nur anhand großer Datenmengen mit kontinuierlich lemmatisierten Texten freigelegt werden. Insbesondere die Frage der Konventionalität von Gebärden, die gehörlose Transkribenten auch auf der Grundlage ihrer Intuition treffen, ist anhand der statistischen Auswertung, d.h. einer Frequenzanalyse der in einem Referenzkorpus enthaltenen Lemmata, objektivierbar. Dies ist nach Weigand (2004: 314) mit ein Grund, warum Wörterbücher korpusbasiert sein müssen: The only way of verifying conventions of language use is by checking frequency in a representative corpus. We can thus find out how words are actually used and can overcome contradicting views of individual native speakers. Future dictionaries have to be based on corpora. Neben der Konventionalität von Gebärden können mithilfe eines Referenzkorpus folgende lexikologischen und syntaktischen Fragestellungen untersucht werden: • Grundwortschatz (nach Häufigkeit der Token), • Bedeutungsumfang lexikalischer Gebärden, • Gebärdenkomposita und Mehrwortlexeme (idiomatische Wendungen), • Kollokationen, insbesondere die Kombination von lexikalischen und teillexikalisierten (produktiven) Gebärden, • Deikonisierung/ Lexikalisierung - Reikonisierung/ Delexikalisierung, insbesondere im Zusammenhang mit der Modifizierbarkeit von Gebärden (s. Kap. 4.2.2.5), • konventionelle und produktive Gebärde-Ablesewort-Kombinationen, • lexikalische Klassen (Wortarten), • syntaktische Kategorien eines räumlich basierten grammatischen Systems. Das Wellington Corpus of New Zealand Sign Language, auf dessen Grundlage das allgemeine Wörterbuch der New Zealand Sign Language (NSZL; Kennedy et al. 1998) erstellt wurde, ist bislang das einzige Korpus, das auch dazu verwendet wurde, aufgrund der Häufigkeit der Token den Grundwortschatz einer Gebärdensprache zu bestimmen (McKee/ Kennedy 1999; McKee/ Kennedy 2006). Um die Bedeutung der Ikonizität in der Französischen Gebärdensprache (Langue des Signes Française, LSF) anhand empirischer Daten zu dokumentieren und zu analysieren, wurde das <?page no="65"?> 65 Korpus LS-COLIN 18 erstellt, das aus überwiegend elizitierten monologischen Texten besteht. Zur Erforschung der Funktion deutscher Wörter in der DGS haben Ebbinghaus/ Heßmann (u.a. 1996, 2001) im Rahmen des DFG- Projekts Integration deutscher Wortformen in gebärdensprachliche Äußerungen (1989-1996) eine umfangreiche Erhebung natürlicher umgangssprachlicher DGS-Konversation durchgeführt. Im Rahmen des Forschungsprojekts The linguistic use of space in Auslan: semantic roles and grammatical relations in three dimensions von Johnston werden auf der Grundlage des Auslan- Korpus, das für das Endangered Languages Documentation Project erhoben wurde (Johnston/ Schembri 2006), syntaktische Beziehungen auf der Grundlage räumlicher Strukturen in Auslan erforscht (Johnston et al. 2007). Im Rahmen des Projekts CREAGEST (Balvet et al. 2010) werden drei Teilkorpora erstellt, zum kindlichen Spracherwerb, zu koverbalen Gesten Hörender und Gehörloser und zu Neologismen in der Französischen Gebärdensprache (LSF). Korpusbasierte Untersuchungen zum Bedeutungsumfang von Gebärden, zu Gebärdenkomposita und Mehrwortlexemen, Kollokationen, lexikalischen Klassen sowie zu Phänomenen der De- und Reikonisierung wurden m.W. noch nicht durchgeführt. Atkins/ Rundell (2008: 96) schließen ihre Ausführungen zu den lexikographischen Vorarbeiten mit einer Skizzierung der aktuellen Aufgaben einer korpusbasierten Lexikographie - hier bezogen auf Lautsprachen -, die eng mit der Aufbereitung von Korpora verknüpft ist: Optimierte Software soll die Auswertung von Korpora effizienter machen und das Entdecken lexikographisch relevanter sowie neuer Informationen erleichtern, damit der tatsächliche Sprachgebrauch beschrieben werden kann. There is no longer any serious argument about whether or not to use corpora in creating dictionaries. The use of corpora can be taken as a given, and our main concerns now are with optimizing corpus-querying software in order to make it faster, more efficient at tracking down the information we need, more proactive in alerting us to lexicographically relevant facts, and better-adapted to helping us discover new and unsuspected information about the way language works. Damit ist die Richtung vorgegeben, die auch eine korpusbasierte Gebärdensprachforschung einschlagen sollte. Die Frage ist jedoch, ob es bereits lemmatisierte Korpora gibt, die in dieser Weise ausgewertet werden könnten. 3.4 Gibt es Korpora in der Gebärdensprachforschung? Wie schon erwähnt, wird der Begriff ‚Korpus‘ nicht einheitlich verwendet und es ist nicht immer ersichtlich, welche Art der Datensammlung im konkreten Fall damit bezeichnet werden soll. Auf ihre Anfrage in der 18 Langues des Signes - Cognition, Linguistique et Informatique (LS-COLIN 2002). <?page no="66"?> 66 slling-list 19 (04.1999) nach Gebärdensprachkorpora erhielten Báez & Cabeza, die an der University of Vigo (Spanien) ein Korpusprojekt zur sprachlichen Variation in der Spanischen Gebärdensprache (LSE) planten (s. Álvarez Sánchez et al. 2008), recht unterschiedliche Antworten. Sie fassten diese in einer knapp gehaltenen Nachricht an die slling-list (09.1999) zusammen, worin das Wellington Corpus of New Zealand Sign Language erwähnt wurde. Nicht genannt wurde das von 1994-2000 durchgeführte Projekt zur soziolinguistischen Variation in der Amerikanischen Gebärdensprache (ASL; Lucas et al. 2001; Lucas 2003), das Vorbild für weitere Projekte zur Australischen (Auslan; Johnston 2010c), Niederländischen (NGT; Crasborn/ Zwitserlood 2008a) und Britischen Gebärdensprache (BSL; Schembri 2008) war. Drei Jahre später verneinte Slobin eine entsprechende Anfrage und verwies auf die eigenen Bemühungen, ein mehrsprachiges Spracherwerbskorpus aufzubauen: As far as I know, there are no corpora of any sign language. The problem is, of course, that there is no standard transcription format. There are archives of videotapes in a number of places. At the University of California at Berkeley we have developed a system for transcribing sign languages at the morphological level, and are working on data of American Sign Language and Sign Language of the Netherlands - early acquisition by deaf children as well as secondlanguage acquisition of sign by their hearing parents. Eventually we will contribute these data to the international CHILDES archive of child language, but that will be several years from now. 20 Die Frage, ob es Korpora in der Gebärdensprache gibt, lässt sich nur dann sinnvoll beantworten, wenn man vorher definiert, was man als Korpus bezeichnen möchte. Im Folgenden soll als linguistisches Korpus einer Gebärdensprache eine Zusammenstellung empirisch erhobener gebärdeter Texte verstanden werden, die folgenden Kriterien genügen: • sie sind maschinenlesbar, d.h. die Rohdaten sind so transkribiert, dass sie mithilfe geeigneter Softwareprogramme ausgewertet und weiterverarbeitet werden können, • sie wurden erhoben bzw. zusammengestellt, um eine bestimmte linguistische Fragestellung anhand längerer Textabschnitte und mithilfe von Frequenzanalysen zu untersuchen, • die Primärdaten (s. Kap. 3.5) erlauben jederzeit das Auffinden des entsprechenden Äußerungsabschnittes in den Rohdaten; idealerweise sind digitalisierte Videofilme und Transkriptionen mithilfe eines Transkriptionswerkzeugs bzw. eines Annotationsprogramms aufeinander bezogen, d.h. die Transkripte und Annotate sind (zeit-)aligniert; 19 Die sign language linguistics list ist ein Diskussionsforum für Gebärdensprachforscher; ein Web-Archiv ist unter folgender URL erreichbar: http: / / listserv.linguistlist.org/ cgibin/ wa? A0=slling-l. 20 Slobin, slling-list, 28.05.2002; Subject: „Corpora: a corpus of sign language“. <?page no="67"?> 67 • neben den Roh- und Primärdaten gibt es Metadaten, die möglichst standardisiert sein sollten und die Auskunft über die Informanten und das Aufnahmesetting geben. Johnston/ Schembri (2005) definieren ein Korpus als „representative collection of naturalistic written, spoken or signed texts in a machine-readable form“, die den Zugriff auf die Rohdaten gewährleistet, und beantworten die rhetorisch gestellte Frage „Do we have SL corpora? “ selbst damit, dass die Daten, mit denen die meisten Gebärdensprachlinguisten arbeiten, nicht den Anforderungen an ein linguistisches Korpus genügen und somit für eine korpusbasierte Forschung wertlos sind. Despite claims or assumption to the contrary most SL [sign language] researchers appear to have hardly any real corpora at all and certainly none that are easily accessible. They have incidental or accidental archives. In other words, SL linguists often say they have hundreds of hours of video. They probably have. However, in terms of what we mean today by ‘corpus’ what most of SLs [sign language linguists] have is next to useless and probably beyond salvaging. (Johnston/ Schembri (2005, Folie 20) Selbst die eigenen Daten, die sie im Rahmen des Projekts Sociolinguistic variation in Auslan: Theoretical and applied dimensions (2003-2004; Schembri/ Johnston 2004) erhoben haben, entsprechen keinem „real corpus of Auslan“, womit ein offen zugängliches, annotiertes Referenzkorpus gemeint ist im Sinne eines open archive, mit Zugriff auf die Rohdaten sowie standardisierten Metadaten. Das Projekt Intersign - Sign Linguistics and Data Exchange 21 (1998-2001; Bergman et al. 2001), ein von der European Science Foundation (ESF) gefördertes Projekt, war auf europäischer Ebene der erste Versuch, die Diskussion über methodische und theoretische Probleme der Beschreibung und Analyse von Gebärdensprachen auf der Grundlage von Korpora voranzubringen. Dazu wurden vier Workshops veranstaltet zu folgenden Themen: Lexikalische Datenbanken, Phonologie, Morphosyntax: Textkorpora und Tagging sowie Gebärdenspracherwerb. Die verschiedenen Beiträge der Sonderausgabe von Sign Language & Linguistics (SL&L 2001) zu Datenbanken und Transkriptionswerkzeugen machen deutlich, dass es noch ein weiter Weg ist bis zu einer Standardisierung der Dokumentation und Transkription von Gebärdensprachdaten, da die Forschungsinteressen zu unterschiedlich sind und es zu aufwendig wäre, bisher erhobene Daten zu überarbeiten, zu ergänzen und in ein digitales Format zu überführen. Das Projekt European Cultural Heritage Online (ECHO; 2003-2005) 22 war die Fortsetzung des Versuchs, einheitliche Standards für die korpusbasierte Gebärdensprachforschung zu erreichen. Es wurden transkribierte Texte sowie die Rohdaten aus den Gebärdensprachen der drei beteiligten Länder 21 S. URL: http: / / www.sign-lang.uni-hamburg.de/ Intersign/ . 22 Homepage des Teilprojektes zu Gebärdensprachen: URL: http: / / www.let.kun.nl/ sign-lang/ echo. <?page no="68"?> 68 Niederlande, Großbritannien und Schweden online zur Verfügung gestellt sowie ein Transkriptionswerkzeug. Neben isolierten Einzelgebärden (lexikalische Datenbanken), Dialogen (Interview), Erzählungen oder (elizitierten) Nacherzählungen und Texten aus der Gebärdensprachpoesie enthält die Zusammenstellung zusätzlich einen DGS-Text (Auszüge aus den Materialien von Heßmann 2001b). 23 Als Transkriptionswerkzeug wurde das am MPI für Psycholinguistik in Nijmegen entwickelte Transkriptionswerkzeug ELAN 24 für die Annotation digitaler Videos weiterentwickelt und kostenfrei zur Verfügung gestellt. Weiterhin wurde in Kooperation mit dem IDGS (Universität Hamburg) ein Vorschlag für gebärdensprachspezifische Ergänzungen zum IMDI-Metadatenstandard 25 für Sprachkorpora ausgearbeitet und im Rahmen eines Workshops von Vertretern europäischer Gebärdensprach-Forschungseinrichtungen diskutiert. Als Ergebnis des Workshops liegen eine entsprechende Dokumentation sowie fertige Vorlagen (templates) für das Metadaten-Erfassungswerkzeug des MPI Nijmegen vor (Crasborn/ Hanke 2003). Im Zusammenhang mit diesem Workshop wurde ebenfalls ein Überblick über vorhandene Datensammlungen zu europäischen Gebärdensprachen erstellt. 26 Dieser Überblick über die in einzelnen Forschungszentren vorhandenen Gebärdensprachdaten zeigt, dass die unter dem Sammelbegriff Korpus aufgelisteten Materialien sehr unterschiedlicher Art sind. Der Umfang der Datensammlungen variiert von einer bis 1500 Stunden Filmaufnahmen, die auf den verschiedensten Datenträgern konserviert und meistens nur zu einem geringen Teil digitalisiert und in computerlesbarer Form dokumentiert sind. Aus dieser Auflistung geht nicht hervor, welcher Art diese Materialien sind, d.h. welcher Textsorte sie angehören, ob es sich um elizitierte oder reine Beobachtungsdaten, um monologische oder dialogische Texte handelt und in welchen Projektzusammenhängen die Daten erstellt wurden. Metadaten zur Beschreibung eines Korpus, wie sie auf dem Workshop definiert wurden, standen für diese Daten (noch) nicht zur Verfügung. Da Erhebungen in der Vergangenheit oft nur lückenhaft dokumentiert wurden, wird es vermutlich auch nur bei einigen dieser Materialien möglich sein, nachträglich alle geforderten Metadaten zu vervollständigen. Die meisten dieser Materialien erfüllen somit nicht die Kriterien, die an ein linguistisches Korpus gestellt werden und sind mit den Worten von Johnston/ Schembri (2005) unbrauchbar bzw. nicht weiter verwertbar. 23 Die Filme und die dazugehörigen ELAN-Dokumente können auf folgender Seite heruntergeladen werden: URL: http: / / www.let.kun.nl/ sign-lang/ echo/ data.html. 24 EUDICO Linguistic Annotator (EUDICO = European Distributed Corpora Project); die aktuelle Programmversion kann unter folgender URL heruntergeladen werden: http: / / www.mpi.nl/ tools/ elan.html. 25 IMDI steht für ISLE Metadata Initiative, ein im Rahmen des Projektes International Standards for Language Engineering (ISLE) entwickelter Vorschlag für die Kodierung von Metadaten zu Language Resources, insbesondere zu Korpusdaten. 26 S. URL: http: / / www.let.kun.nl/ sign-lang/ echo/ overviewSLCorpora.html. <?page no="69"?> 69 Einen Überblick über den aktuellen Stand der Korpusprojekte in der internationalen Gebärdensprachforschung gibt Konrad (2010c). Anhand eines Fragebogens wurden neben allgemeinen Informationen zum Forschungsprojekt, zu Publikationen und Kontaktpersonen detaillierte Angaben zu Rohdaten (Umfang, Digitalisierung, Verfügbarkeit), Metadaten (Art der Daten, Zahl und Alter der Informanten, Gebärdensprachkenntnisse) und Primärdaten (Art und Umfang der Transkription, Annotation, Lemmatisierung, Annotationswerkzeug, Alignierung) erhoben (s. Kap. 3.5, Tab. 2). Der Überblick 27 enthält 35 laufende oder bereits abgeschlossene Korpusprojekte zu 15 verschiedenen Gebärdensprachen mit 37 verschiedenen Korpora. 15 Korpora wurden bzw. werden zur Sprachdokumentation erstellt, 4 davon ebenso zur Untersuchung der soziolinguistischen Variation, ebenfalls 4 davon für die Sprachlehre. Weitere mit der Dokumentation kombinierte Untersuchungsziele betreffen Ablesewörter, Ikonizität, Textsorten und koverbale Gesten. 15 Korpora dienen lexikographischen Zwecken, jeweils weitere 3 ausschließlich der Untersuchung der soziolinguistischen Variation und der Morphosyntax. Lediglich 2 Korpora, die für die Sprachlehre erstellt wurden, verfolgen keine explizite linguistische Fragestellung. 25 Korpora enthalten authentisches Sprachmaterial, überwiegend Monologe (elizitierte Nacherzählungen) oder Dialoge in der jeweiligen Gebärdensprache. 26 Korpora enthalten zusammenhängende gebärdensprachliche Äußerungen, lediglich 9 Korpora können als repräsentativ für die jeweilige Gebärdensprache angesehen werden. Die übrigen Korpora sind vom Umfang zu klein oder enthalten fachspezifisches Material bzw. elizitierte Einzelgebärden. Nur 3 Korpora sind nicht in maschinenlesbarer Form transkribiert, 18 sind vollständig transkribiert oder enthalten vollständig transkribierte Äußerungen, 20 sind lemmatisiert (s. Kap. 3.6.3), bei 6 weiteren Korpora ist die Lemmatisierung geplant oder in Arbeit. Legt man die von Johnston/ Schembri (2005) geforderten Kriterien für ein Korpus zugrunde, dann können lediglich 9 der 37 erfassten Korpora als Korpus im engeren Sinn bezeichnet werden, da sie einen repräsentativen Sprachausschnitt mit natürlichsprachlichen Daten enthalten, die in maschinenlesbarer Form aufbereitet sind. Bislang sind davon lediglich 2 Korpora zur Australischen Gebärdensprache (Auslan) - und diese noch nicht vollständig - lemmatisiert. Für weitere 6 Korpora ist die Lemmatisierung geplant oder bereits in Arbeit. Zum Abschluss dieses Kapitels möchte ich noch auf die besonderen ethischen und juristischen Probleme hinweisen, die sich dadurch ergeben, dass die gefilmten Informanten nicht anonymisiert werden können, ohne dass die Daten für linguistische Untersuchungen wertlos werden. Bei der Planung einer empirischen Erhebung sollten immer urheberrechtliche Fragen mit berücksichtigt werden, damit einerseits die Daten langfristig der For- 27 Der Überblick wird fortlaufend aktualisiert. Die folgenden Angaben beziehen sich auf den Stand vom Dezember 2010. <?page no="70"?> 70 schung zur Verfügung gestellt werden können, andererseits das informationelle Selbstbestimmungsrecht der Informanten und urheberrechtliche Bestimmungen durch Veröffentlichung oder die Weitergabe der Daten nicht verletzt werden (s. Crasborn/ Zwitserlood 2008a). In diesem Zusammenhang hat Schembri (2008) darauf hingewiesen, dass die Aufklärung der Informanten über die Nutzung der Daten und die notwendige Einverständniserklärung vor der Erhebung dazu führen können, dass die Informanten nicht natürlich gebärden, sondern ihre Äußerungen stärker kontrollieren. Die Erfahrung in verschiedenen Projekten hat jedoch gezeigt, dass eine hohe Bereitschaft unter Gehörlosen vorhanden ist, bei der Datenerhebung mitzuwirken und der Veröffentlichung zuzustimmen. Viele Gehörlose sind stolz, einen Beitrag zur Erforschung ihrer Sprache und zur Dokumentation des kulturellen Erbes zu leisten. 3.5 Korpus und sprachliche Daten Der Bezug auf ein Korpus, das in der Regel für eine bestimmte linguistische Untersuchung oder ein Lexikonprojekt erstellt wird, ist der gemeinsame Nenner aller korpuslinguistischen Bemühungen. Die Frage, was ein linguistisches Korpus ausmacht, hängt eng mit der Datenerhebung, der Dokumentation sowie der Aufbereitung der Daten zusammen. Durch die Transkription und die automatisierte Weiterverarbeitung schriftlich fixierter Äußerungen entstehen verschiedene Stufen der Beschreibungsebene sprachlicher Daten. Diese Primärdaten sind jedoch immer nur symbolische Repräsentationen sprachlicher Handlungen (vgl. Lehmann 2004), die in archivierter Form als Ton- oder Videoaufnahmen vorliegen. Diese Rohdaten wiederum sind bereits schon eine ikonische Repräsentation der Originaldaten, die nur im Moment der Äußerung existieren. Denn im Unterschied zu den Naturwissenschaften, deren Daten sich auf ein materielles Substrat beziehen lassen, ist das Material, auf das sich sprachliche Daten beziehen, eine konservierte Form sprachlichen Handelns, d.h. eine Ton- oder Videoaufnahme. Sprachliche Daten sind daher nicht „gegeben“, so die Bedeutung des lateinischen Partizips datum, von dem sich das deutsche Wort ableitet, sondern sie werden durch die Archivierung und Dokumentation festgehalten und in gewissem Sinne dadurch erst geschaffen. Sinclair (1997: 31) betont diesen Aspekt im Zusammenhang mit der Methodendiskussion und der Rolle der Beobachtung: „Language cannot be invented; it can only be captured.“ Ein weiterer wesentlicher Unterschied zu den Naturwissenschaften ist die semiotische Natur sprachlicher Zeichensysteme, deren Bestandteile, Funktion und Struktur die Linguistik wiederum durch sprachliche Zeichen zu repräsentieren versucht. In Abhängigkeit von den Bearbeitungsschritten werden immer neue Daten einer höheren Beschreibungsebene erzeugt, die die Rohdaten immer mehr reduzieren und von diesen abstrahieren. In <?page no="71"?> 71 Anlehnung an Lehmann (2004: 34) zeigt die folgende Tabelle die verschiedenen Repräsentationsebenen, hier jedoch unter Berücksichtigung der in der Korpuslinguistik typischen Bearbeitungsschritte (s. Kap. 3.6). Hervorgehoben ist die Tokenisierung und Lemmatisierung auf der zweiten Ebene, da diese Bearbeitungsschritte die Voraussetzung für korpuslinguistische Analysen sind. Repräsentationsebene Bezeichnung der Daten Sprachliche Handlungen 0 Originaldaten Bearbeitungsschritt Ziel/ Ergebnis Konservierung Ton-, Videoaufnahme Rohdaten Archivierung Sprachdokumentation 1 Roh- und Metadaten Übersetzung inhaltliche Erschließung Tokenisierung und Lemmatisierung Vorverarbeitung (für automatisierte Weiterverarbeitung) Transkription: phonetisch, phonologisch, orthographisch Repräsentation der Form 2 Primärdaten Annotation: morphologisch (part-of-speech tagging) Wortarten Annotation: syntaktisch (parsing) Satzstruktur (z.B. Strukturbaum) Annotation: semantisch (sense tagging) Lesarten Annotation: pragmatisch Informationsstruktur (satzübergreifend) 3 Sekundärdaten Tabelle 2: Bearbeitungsschritte und Repräsentationsebenen sprachlicher Daten Um die Beziehung zwischen sprachlichen Daten und davon abgeleiteten Theorien nachvollziehbar zu machen, sollte es immer möglich sein, Repräsentationen der jeweiligen Beschreibungsebene auf die Rohdaten zu beziehen. Nur so kann nach Lehmann (2004: 34 f.) der empirische Status der Linguistik garantiert werden. Die Primärdaten sind die verschriftlichten Äußerungen, aus denen ein Korpus besteht. Sie sind immer Repräsentationen zweiter Ordnung 28 , da 28 Eine andere Einteilung, die sich an der sukzessiven maschinellen Weiterverarbeitung sprachlicher Daten orientiert, unternimmt Stubbs (2002: 66 f.). Ein vorverarbeitetes Korpus enthält nach Stubbs Daten erster Ordnung, daraus erstellte Konkordanz- und Häufigkeitslisten Daten zweiter Ordnung, Tabellen, die die aus diesen Listen wiederum extrahierten statistisch signifikanten Muster zeigen, Daten dritter Ordnung. Werden diese Daten ausgewertet, um z.B. die für einen Sprachausschnitt typischen Kollokationen zu zeigen, entstehen Daten vierter Ordnung. <?page no="72"?> 72 die Rohdaten selbst schon Repräsentationen der flüchtigen Originaldaten sind. Videoaufnahmen sind die beste Möglichkeit, sprachliche Handlungen möglichst originalgetreu wiederzugeben, obwohl auch hier schon Abstriche gemacht werden müssen: Der Filmausschnitt ist durch die gewählte Perspektive begrenzt und zeigt die Handlung aus der Sicht des Rezipienten, nicht des Produzenten; die Wahrnehmung ist beschränkt auf optische und akustische Phänomene, z.B. werden olfaktorische Reize nicht wiedergegeben. Ohne Metadaten wiederum ist es schwierig, die aus einem Korpus gewonnenen Analyseergebnisse richtig interpretieren und vergleichen zu können. Metadaten sind nähere Angaben zu den Rohdaten wie z.B. Angaben zur Herkunft der Daten, zur Aufnahmesituation (Zeit, Ort, Personen) und zum Ablauf der Erhebung sowie Angaben zum sozialen und sprachlichen Hintergrund der Informanten. Sie gehören zur Dokumentation der Datenerhebung und sollten möglichst standardisiert sein, um den Austausch von Korpora oder sprachübergreifende, sogenannte crosslinguistische Untersuchungen zu ermöglichen. Beispiele für solche Standards sind der IMDI-Metadatenstandard, zu dem gebärdensprachspezifische Ergänzungen entwickelt wurden (Crasborn/ Hanke 2003), sowie der Corpus Encoding Standard (CES) 29 , der von der Expert Advisory Group on Language Engineering Standards (EAGLES) 30 entwickelt wurde und sich an Konventionen der Text Encoding Initiative (TEI; Sperberg-McQueen/ Burnard 2002) 31 anlehnt. Letztere wurden für ein breites Spektrum literarischer und linguistischer Textsammlungen und Korpora erarbeitet, die von Verlagen, Bibliotheken und Forschern im Rahmen der Dokumentation, Forschung und Lehre verwendet werden. Aus den bisherigen Ausführungen wird deutlich, dass ein linguistisches Korpus mehr ist als eine einfache Zusammenstellung von geschriebenen Texten bzw. verschriftlichten Äußerungen. Die Schriftform ist die Voraussetzung dafür, dass diese Texte maschinenlesbar sind und damit automatisiert ausgewertet werden können. Die maschinelle Verarbeitung hat den Vorteil, dass die Ergebnisse zuverlässiger sind als von Hand vorgenommene Auswertungen. Weiterhin ist die Datenmenge, die in relativ kurzer Zeit von Computern verarbeitet werden kann, nahezu unbegrenzt. Je größer ein Korpus ist, desto aussagekräftiger sind wiederum statistische Analysen. Neben dem Merkmal der maschinenlesbaren Form kennzeichnen für McEnery/ Wilson (2001: 29) noch drei weitere Kriterien ein linguistisches Korpus: Stichprobe und Repräsentativität, Referenzcharakter und feste Größe. Korpora enthalten in der Regel sehr große Datenmengen. Nach Tognini-Bonelli (2001) wird einem Korpus immer unterstellt, dass es repräsenta- 29 S. URL: http: / / www.cs.vassar.edu/ CES/ . 30 Die EAGLES-Richtlinien sind über die Homepage: URL: http: / / www.ilc.cnr.it/ EAGLES/ home.html abrufbar. 31 S. URL: http: / / www.tei-c.org/ . <?page no="73"?> 73 tiv ist für den Sprachausschnitt, für dessen Untersuchung es zusammengestellt wurde. Repräsentativität ist ein Kriterium, das eine Aussage über das Verhältnis zwischen einer Stichprobe und einer Gesamtgröße macht. Diese Grundgesamtheit ist bei sprachlichen Phänomenen oft nicht eindeutig zu bestimmen: „the most important issue in corpus design is to define the target population the corpus aims to represent“ (Biber 1994: 378, zitiert nach Tognini-Bonelli 2001: 59). Beim Korpusdesign sind daher Fragen der Stichprobe für die Repräsentativität entscheidend. Dazu gehören externe Kriterien wie formelle oder informelle Situation, Grad der Mündlichkeit bzw. Schriftlichkeit, Merkmale der Sprecher, Kommunikationsanlass, Genre und Register. Die Textsorte wird nach linguistischen Kriterien bestimmt, die u.U. jedoch erst durch das Korpus entdeckt bzw. belegt werden soll. Nach Biber (1994) sollte es ein Hauptanliegen der Korpuslinguistik sein, Zusammenhänge zwischen situativen, d.h. externen, und sprachlichen Merkmalen zu entdecken. Mithilfe eines Pilotkorpus kann man diese Zusammenhänge untersuchen, bevor man das eigentliche Korpus erstellt. Eine Möglichkeit, ein repräsentatives Korpus zu erstellen, besteht darin, diese Kriterien in einem ausgewogenen Verhältnis zu berücksichtigen. Man spricht dann von einem ausgewogenen Korpus (balanced corpus). Kleinere Korpora, z.B. auf eine bestimmte Sprechergruppe zugeschnitten, oder Teilkorpora, die nach bestimmten Kriterien aus einem Gesamtkorpus zusammengestellt wurden, können repräsentativ sein für diesen Sprachausschnitt, jedoch nicht für die Gesamtheit der Sprache. Ein Korpus, das so groß ist und aufgrund der Kriterien der Stichprobe so zusammengesetzt ist, dass es als Grundlage für die Untersuchung aller wichtigen Varietäten einer Sprache dient, wird Referenzkorpus genannt. Es liefert mit hoher Wahrscheinlichkeit Belege für die meisten sprachlichen Phänomene und dient somit als Referenz 32 . Das Deutsche Referenzkorpus (DEREKO) mit ca. 2 Mia. Textwörtern wurde von 1999-2002 am IDS (Mannheim) erstellt mit dem Ziel, „die deutsche Gegenwartssprache (von 1956 bis Ende 2001) möglichst breit und der Sprachwirklichkeit angemessen zu repräsentieren“ 33 . Das DEREKO enthält jedoch nur Schrifttexte, sprachliche Phänomene, die im gesprochenen Deutsch vorkommen, können mithilfe dieses Korpus nicht untersucht werden. „Streng genommen handelt es sich bei DEREKO also nicht um ein Referenzkorpus der deutschen Sprache, sondern um ein Referenzkorpus der deutschen Schriftsprache“ (Scherer 2006: 27 f.). Im Gegensatz dazu besteht das British National Corpus (BNC), das als Referenzkorpus des Britischen Englisch gilt, obwohl seine Größe mit ca. 100 Mio. Textwörtern nur 20 % der 32 Vgl. die entsprechende Definition von Blanche-Benveniste (2000: 14): „Die Gesamtheit dieser Belege zielt darauf ab, alle Äußerungssituationen in einem bestimmten Zeitabschnitt zu repräsentieren. In diesem Sinne ‚dient das Korpus als Referenz‘“. „L’ensemble de ces échantillons vise à représenter toutes les situations de prise de parole, à une époque donnée. En ce sens, le corpus peut ‚faire référence‘“. 33 S. URL: http: / / www.ids-mannheim.de/ kl/ projekte/ dereko_I/ . <?page no="74"?> 74 Bank of English 34 und nur 5 % des Oxford English Corpus 35 ausmacht, zu 90 % aus Texten geschriebener und zu 10 % aus Transkriptionen gesprochener Sprache. Die Texte für das gesprochene Englisch wurden nach demographischen Kriterien und nach Kommunikationssituation möglichst ausgewogen zusammengestellt: The spoken part (10 %) consists of orthographic transcriptions of unscripted informal conversations (recorded by volunteers selected from different age, region and social classes in a demographically balanced way) and spoken language collected in different contexts, ranging from formal business or government meetings to radio shows and phone-ins. 36 Dass die gesprochene Sprache deutlich unterrepräsentiert ist, liegt an dem erheblichen Mehraufwand, diese Texte zu verschriftlichen, bevor sie automatisiert weiterverarbeitet werden können. Die Teilkorpora des BNC, die gesprochenes Englisch repräsentieren, enthalten ca. 10 Mio. Textwörter, davon ca. 4 Mio. Textwörter aus Transkriptionen normaler Alltagskommunikation und ca. 6 Mio. Textwörter aus Transkriptionen von Texten zu vier verschiedenen Textsorten: Erziehung und Bildung, Beruf und Arbeit, öffentliche Einrichtungen, Freizeit. Das Archiv für Gesp rochenes Deutsc h (AGD) 37 des IDS verwaltet 38 Korpora, von denen 27 öffentlich zugänglich und recherchierbar sind, mit knapp 2 Mio. Wörtern. Dazu gehört auch das Pfeffer-Korpus, das zur Erstellung eines deutschen Grundwortschatzes erhoben wurde (ca. 400 Aufnahmen à 12 min.) und ca. 600000 Wörter enthält (Pfeffer/ Lohnes 1984: 14). Das Wellington Corpus of Spoken New Zealand English 38 enthält 1 Mio. Textwörter, das Referenzkorpus gesprochenes Französisch (Corpus de réf ér ence du français parl é, CRFP 39 ; Équipe DELIC 2003) 460000 Wörter (Baude 2006: 198). Die Frage, ob diese Korpora als Referenzkorpora für die jeweilige gesprochene Sprache gelten können, hängt mit deren Größe zusammen, aber auch mit der Zusammensetzung der Teilkorpora (s. Auswahl der Stichproben), der Aktualität und der Zugriffsmöglichkeit. Während Blanche-Benveniste (2000: 13), eine der führenden Linguistinnen in der Erforschung des gesprochenen Französisch, 34 S. URL: http: / / www.titania.bham.ac.uk/ . 35 S. URL: http: / / www.askoxford.com/ oec/ mainpage/ . 36 S. URL: http: / / www.natcorp.ox.ac.uk/ corpus/ . Eine genauere Beschreibung des Korpusdesigns und der Datenerhebung findet sich unter der URL: http: / / www.natcorp.ox.ac.uk/ docs/ URG.xml? ID=BNCdes. 37 S. URL: http: / / agd.ids-mannheim.de/ . 38 S. http: / / www.victoria.ac.nz/ lals/ resources/ corpora-wsc.aspx. 39 S. URL: http: / / sites.univ-provence.fr/ delic/ corpus/ index.html. Im Auftrag des französischen Kulturministeriums wurde das Web-Portal „Corpus de la parole. comment on parle en France aujourd’hui“ eingerichtet (URL: http: / / corpusdelaparole.culture.fr/ ), in dem seit 2007 verfügbare Korpora gesprochener Sprachen auf französischem Territorium zusammengestellt werden. Dazu zählt auch die Französische Gebärdensprache (LSF). U.a. sind bereits die Filme, die im Rahmen des Projekts LS-COLIN erstellt wurden, mit Übersetzung ins Französische und Metadaten abrufbar. Ziel ist es, nicht nur Forschern, sondern der Öffentlichkeit die Vielfalt der in Frankreich gesprochenen Sprachen näher zu bringen. <?page no="75"?> 75 feststellt, dass es für das gesprochene Französisch noch kein repräsentatives Korpus gibt, hält Scherer (2006: 28) den Teilkorpus des BNC zum gesprochenen (britischen) Englisch für ausreichend. Letztendlich handelt es sich bei der Frage der Repräsentativität jedoch um einen Akt des Vertrauens. Der Verdacht, dass ein Korpus nicht groß genug sein könnte, kommt erst dann auf, wenn man etwas nicht findet, das nach der eigenen sprachlichen Intuition gefunden werden müsste, d.h. man weiß eigentlich erst am Ende der Untersuchung, ob das Korpus repräsentativ ist. Eine Korrektur ist dann jedoch zu spät. Tognini-Bonelli (2001: 59) spricht von einem „fait accompli“, einer vollendeten Tatsache. Dies bezieht sich jedoch nur auf Korpora, deren Größe vor der Erhebung festgelegt wurde (s.u.). Eng mit der Repräsentativität ist das Kriterium der Authentizität verbunden. Bei großen Korpora geht man davon aus, dass es sich um Korpora mit einem allgemeinen, d.h. unspezifischen Gehalt handelt. Man spricht auch von einem general corpus bzw. einem „‘general purpose’ corpus“ (Tognini-Bonelli 2001: 55). Während die Größe des Korpus und die Zusammensetzung der Stichprobe für die Repräsentativität entscheidend sind, ist für die Authentizität insbesondere die Methode der Datenerhebung ausschlaggebend. Ein authentisches Korpus enthält reine Beobachtungsdaten. Die Kommunikationssituation und der Kommunikationsanlass sollten so weit wie möglich einer natürlichsprachlichen Situation entsprechen. Wurden die Daten elizitiert oder in einem künstlichen oder experimentellen Setting erhoben, dann spiegeln sie nicht den tatsächlichen Sprachgebrauch wider. Nach Hundt (2005: 26-28), der Korpora hinsichtlich ihrer Brauchbarkeit für Grammatikalitätsurteile diskutiert, sind solcherart gewonnene Textsammlungen nicht authentisch und demzufolge auch keine Korpora, sondern Belegsammlungen. Am bekanntesten sind Belegsammlungen für Wörterbuchprojekte, z.B. für das Oxford English Dictionary, für das über 800 freiwillige Leser Millionen von Textstellen gesammelt hatten (Winchester 2003), oder die Duden-Sprachkartei. Auch für syntaktische Fragestellungen werden Belegsammlungen erstellt, um sprachliche Phänomene zu dokumentieren, die in Korpora selten oder gar nicht vorkommen. Aus dieser Funktion von Belegsammlungen ergibt sich gleichzeitig, dass diese Daten nicht für Frequenzanalysen brauchbar sind. Ein weiterer Unterschied zu großen Korpora ist die Größe des Textausschnitts. Bei Belegsammlungen umfasst dieser Ausschnitt in der Regel nur einen Satz, bei Korpora ist das Textwort oder die syntaktische Struktur eingebettet in einen größeren Kontext laufender Textwörter (running text). Da nach Blanche-Benveniste (2000: 14) der Begriff ‚Korpus‘ mittlerweile so eng mit dem Merkmal der maschinellen Verarbeitung mithilfe von Computerprogrammen verknüpft ist, werden auch elektronisch erfasste Belegsammlungen als Korpora bezeichnet. Zum Beispiel bezeichnen Wermke (1998) und Ickler (o.J.) die Duden-Sprachkartei als „Korpus“, wohingegen die Dudenredaktion klar unterscheidet zwischen dem Duden- Korpus, das in den letzten Jahren aufgebaut wurde und ca. 1,3 Mia. Text- <?page no="76"?> 76 wörter umfasst, und der seit 1998 elektronisch geführten Sprachkartei (Rautmann 2008). Lemnitzer/ Zinsmeister (2010: 188) definieren eine linguistische Belegsammlung als „[…] eine Sammlung von Ausschnitten aus einem Korpus, die als Belege für ein bestimmtes linguistisches Phänomen Gegenstand weiterer linguistischer Untersuchung sind“. Demnach wäre die Sprachkartei des Duden-Verlags keine Belegsammlung, da es kein größeres Korpus gibt, aus dem die Belege entnommen sind. Dass die Autoren die Duden-Sprachkartei dennoch als Beispiel für eine Belegsammlung anführen, macht nur dann Sinn, wenn man die Gesamtheit der Belege, die seit 1998 maschinenlesbar sind, als Korpus auffasst. Im Unterschied zu einem Referenzkorpus sind Spezialkorpora (special purpose corpora oder „LSP 40 corpora“; Bowker/ Pearson 2002: 11 f.) nur repräsentativ für eine bestimmte Varietät, Textsorte oder Fachsprache wie z.B. die Rechtssprache. Zusammen mit einem Referenzkorpus kann ein Fachsprachenkorpus z.B. dazu verwendet werden, die spezifischen sprachlichen Merkmale einer Fachsprache zu untersuchen. Zu den Spezialkorpora zählen auch Lernerkorpora sowie Spracherwerbskorpora wie zum Beispiel die im CHILDES-Projekt 41 erstellten Korpora (MacWhinney 1999, 2000). Das dritte von McEnery/ Wilson (2001) genannte Kriterium ist die feste Größe. Die Größe eines Korpus wird normalerweise im Voraus festgelegt und nach Abschluss der Erhebung nicht mehr geändert. Durch die feste Größe bleiben quantitative Aussagen verlässlich, da die Größe des Korpus konstant bleibt. Eine Ausnahme bildet ein sogenanntes Monitor-Korpus wie die Bank of English. Der Datenbestand solcher Korpora wird ständig erweitert mit dem Ziel, neue Wörter sowie Bedeutungsveränderungen von Wörtern zu erfassen und somit den Sprachwandel zu dokumentieren. Die feste Größe ist gleichzeitig auch der Grund, warum ein Korpus einen Sprachausschnitt nur innerhalb eines bestimmten Zeitraums widerspiegeln kann. Dieser Zeitraum wird im Korpusdesign festgelegt. Die folgende Definition von Tognini-Bonelli (2001: 2) ergänzt die bereits genannten Merkmale um ein weiteres, das bisher nicht explizit genannt wurde: der sinnvolle Bezug zu linguistischen Fragestellungen, der schon beim Korpusdesign berücksichtigt wird. A corpus can be defined as a collection of texts assumed to be representative of a given language put together so that it can be used for linguistic analysis. Usually the assumption is that the language stored in a corpus is naturally-occurring, that it is gathered according to explicit design criteria, with a specific purpose in mind, and with a claim to represent larger chunks of language selected according to a specific typology. 40 „Language for specific purposes“, in einigen Veröffentlichungen auch aufgelöst in „language for special purposes“ (s. Hoffmann et al. 1997, 1999), die englische Übersetzung des Begriffs ‚Fachsprache‘. 41 S. URL: http: / / childes.psy.cmu.edu/ . <?page no="77"?> 77 Demnach sind Textsammlungen oder Textarchive wie das Gutenberg- Projekt 42 oder die digitale Bibliothek 43 , deren Zweck die Konservierung von Texten ist, keine linguistischen Korpora. Auch das World Wide Web wäre demnach kein linguistisches Korpus. Da es eine riesige Menge leicht verfügbarer Texte darstellt, wird es dennoch von einigen Linguisten als solches genutzt. Lemnitzer/ Zinsmeister (2010: 43 f.) weisen auf das Problem fehlender Metadaten hin. Dadurch ist es z.B. nicht möglich, nur Texte von Muttersprachlern aus dem World Wide Web herauszufiltern. Für qualitative Analysen müssen Texte aus dem Netz genauer beschrieben und z.T. unter erheblichem Aufwand aufbereitet werden. Tognini-Bonelli ist eine der wenigen Autoren, die fordern, dass Korpusdaten immer den Zugriff auf die Rohdaten gewährleisten. Dies bestätigt indirekt die Aussage von Lehmann (2004: 33), dass sich Linguisten wenig Gedanken darüber machen, ob es sich bei dem sprachlichen Datum um ein verifizierbares Rohdatum oder eine davon abgeleitete Repräsentation handelt. Angesichts der Tatsache, dass transkribierte Texte immer eine Reduktion und Abstraktion der Rohdaten darstellen, sollte es zum Standard werden, dass Korpusdaten gesprochener Sprachen immer den Zugriff auf die zugrunde liegenden Rohdaten gewährleisten, wie dies vom Institut für deutsche Sprache (IDS, Mannheim) mithilfe einer maschinellen Text-Ton- Synchronisation (Schmidt 2007) für einen Großteil der Transkripte des Deutschen Spracharchivs und der Datenbank Gesprochenes Deutsch 44 umgesetzt wurde. Die Synchronisation (time alignment) von gespeicherten Ton- oder Videodaten mit Texten bzw. Annotationen wird auch Alignierung genannt, Draxler (2008: 177) spricht auch von „zeitbezogene[r] oder zeitalinierte[r] Annotation“. In diesem Zusammenhang meint Alignierung nicht die Parallelisierung von Paragraphen, Sätzen oder Wörtern, wie sie bei zwei- oder mehrsprachigen Parallelkorpora vorgenommen wird. Dass die Nachhaltigkeit der Rohdaten, d.h. die Möglichkeit, auch mit neuester Technologie auf diese zugreifen zu können, von entscheidender Bedeutung für die Forschung ist, hat MacWhinney (2008: 8) im Rückblick auf die letzten drei Jahrzehnte, in denen Computer zur Transkription und Auswertung von Spracherwerbsdaten eingesetzt werden, deutlich gemacht. With the experience of three more decades of computerized analysis behind us, we now know that the idea of reducing child language data to a set of codes and then throwing away the original data is simply wrong. Instead, our goal must be to computerize the data in a way that allows us to continually enhance it with new codes and annotations. 42 S. URL: http: / / www.gutenberg.org/ . 43 S. URL: http: / / www.digitale-bibliothek.de/ . 44 Die öffentliche Version findet man unter der URL: http: / / dsav-oeff.ids-mannheim.de/ DSAv/ . Daneben gibt es auch eine Version für Wissenschaftler unter der URL: http: / / dsav-wiss.ids-mannheim.de/ . <?page no="78"?> 78 Die folgende Tabelle zeigt als Zusammenfassung die genannten Merkmale eines Korpus mit den verschiedenen Bezeichnungen für die jeweilige Art des Korpus. Merkmale eines Korpus Korpusart und Bezeichnung maschinenlesbar annotiertes Korpus Verschriftlichung nicht maschinenlesbar [Texte, Belege, Listen, Transkripte] mit Bezug zu linguistischer Fragestellung linguistisches Korpus Korpusdesign/ Stichprobe kein Korpusdesign oder ohne Bezug zu linguistischer Fragestellung nicht linguistisches Korpus, Textarchiv für die Sprache Referenzkorpus, Gesamtkorpus für einen Sprachausschnitt/ eine Sprachvarietät Spezialkorpus, Teilkorpus Repräsentativität und Authentizität wenig bzw. nicht repräsentativ und authentisch Belegsammlung fest statisches Korpus Größe zunehmend Monitorkorpus Zugriff auf Rohdatum Annotation und Rohdaten sind aufeinander bezogen. (zeit-)aligniertes Korpus Tabelle 3: Merkmale eines Korpus und Bezeichnungen Ich möchte mit einem Zitat von Stubbs (2002: 239) zum Abschluss dieses Kapitels auf die eingangs gemachte Feststellung zurückkommen, dass weder archivierte sprachliche Daten noch deren Repräsentationen in Form eines Korpus eine 1: 1-Abbildung der Wirklichkeit sind, sondern ein Konstrukt des forschenden Linguisten: „A corpus is a collection of texts, designed for some purpose, usually teaching or research. […] A corpus is not something that a speaker does or knows, but something constructed by a researcher.“ Noch grundsätzlicher weist Weigand (2004: 304; kursiv i.O.) auf die Grenzen der Korpuslinguistik hin, die nur verbale Äußerungen als sprachlich relevant ansieht und dadurch schon abstrahiert von dem komplexen Gegenstand sprachlichen Handelns, von Weigand verstanden als dialogische Interaktion. Linguistics as a science of language only is not capable of addressing language action. Trusting the text does not lead to an understanding of the interaction. The corpus therefore constitutes only a part of the complex object we are trying to investigate. […] the corpus is not a record of our behaviour because only part of the behaviour is recorded. Eine große Herausforderung der Korpuslinguistik von Gebärdensprachen liegt darin, die verschiedenen Möglichkeiten der Bedeutungskodierung, die Gebärdende in der Face-to-Face-Kommunikation nutzen, indem sie den <?page no="79"?> 79 sprachlichen wie situativen Kontext einbeziehen und sowohl manuelle wie nonmanuelle Mittel simultan und sequenziell kombinieren, zu dokumentieren und zu interpretieren. Die Lemmatisierung mithilfe der Glossentranskription (s. Kap. 3.6.4) ist notwendig für eine maschinelle Verarbeitung und Auswertung der manuellen Zeichen, sie stellt jedoch eine wesentlich stärkere Reduktion des sprachlichen Verhaltens Gebärdender dar als die orthographische Transkription einer lautsprachlichen Äußerung. 3.6 Transkribieren, annotieren, taggen und parsen 3.6.1 Transkription „Transcription is the very start of a linguistic analysis of a corpus.“ Mit diesem Satz beginnen Hoiting/ Slobin (2002: 55) ihre Beschreibung des Berkeley Transcription System (BTS), das zur Untersuchung der Sprachentwicklung gehörloser Kinder entwickelt wurde. Transkription steht am Anfang einer sprachwissenschaftlichen Analyse, die auf der Grundlage empirischer Daten vorgenommen wird. Gesprochene bzw. gebärdete Äußerungen werden in Schrift überführt, d.h. von einem flüchtigen in ein statisches Medium „hinüber-geschrieben“ (lat. trans-scribere). Entsprechend wird Transkription umschrieben als Verschriftung bzw. Verschriftlichung, Wiedergabe, Transfer, Übergang oder Repräsentation. Das schriftliche Fixieren gesprochener oder gebärdeter Äußerungen ist notwendig, um sprachliche Phänomene vergleichen, sortieren, analysieren und anderen Forschern zugänglich machen zu können. Hinzu kommt, dass (orthographische) Schrift- oder Notationssysteme den Vorteil haben, dass sie computerlesbar sind und mit Textverarbeitungsprogrammen oder spezieller Software bearbeitet und ausgewertet werden können. Transkribieren ist jedoch mehr als das Niederschreiben von Gesprochenem. Es ist eine wissenschaftliche Tätigkeit, die einer Schulung 45 und bei Lautsprachen eines guten Gehörs, bei Gebärdensprachen eines scharfen Blicks bedarf, da im Vordergrund das Notieren der sprachlichen Form steht. 3.6.1.1 Transkription als Verschriftlichung der Form Ziel einer Transkription ist es, die sprachlichen Phänomene einer Äußerung, die für das Untersuchungsziel relevant sind, zu notieren. Das heißt, dass die Transkription über die reine Verschriftlichung des Inhalts hinausgeht. Anhand eines Transkripts soll die Äußerung mehr oder weniger genau wiedergegeben werden können. Die Artikulation wird bei einer 45 Redder (2002) geht in ihren Ausführungen weit über diese besonders von Phonologen geforderte Schulung hinaus und fordert eine wissenschaftliche Ausbildung, die erst den Transkribenten in die Lage versetzt, die methodologischen Probleme der Transkription sowie die hermeneutische Verstehensleistung zu reflektieren. <?page no="80"?> 80 phonetischen Transkription z.B. mithilfe des Internationalen Phonetischen Alphabets (IPA) oder eines Notationssystems für Gebärdensprachen notiert. Im engeren Sinn wird unter Transkription nur diese Lautschrift oder phonetische Umschrift verstanden (vgl. Glück 2004). Dabei wird wiederum unterschieden zwischen einer engen und einer weiten Transkription. Bei der engen, phonetischen Transkription in Lautsprachen werden z.B. die Qualitätsunterschiede der Vokale unterschieden - die IPA-Symbole werden zwischen eckigen Klammern geschrieben, z.B. [ o ]-[ ɔ ] -, bei der weiten, phonologischen Transkription werden nur die bedeutungsunterscheidenden Phoneme notiert - die IPA-Symbole werden zwischen Schrägstrichen geschrieben, z.B. / o / . Wie genau transkribiert wird, hängt vom Untersuchungsziel ab, z.B. ist für Dialektstudien eine phonetische Transkription erforderlich, um die unterschiedliche Aussprache der Wörter zu dokumentieren. In der Gestenforschung genügt dagegen die orthographische Transkription, um die gesprochenen Äußerungen wiederzugeben. Die Gesten müssen selbstverständlich zusätzlich notiert werden. Enge oder weite Transkription werden auch dazu verwendet, die Zitatform eines Wortes oder einer Gebärde anzugeben, z.B. in einem Aussprachewörterbuch. Eine orthographische Transkription, die auf die normierte Standardschrift einer Sprache zurückgreift, kann die Wörter und Morpheme einer Äußerung wiedergeben, jedoch nicht in zuverlässiger Weise die Lautung, da „diese beiden Formen der Sprachlichkeit bekanntermaßen nicht isomorph sind und die Abbildung somit nicht eineindeutig sein kann“ (Schmidt 2005: 27). Im Deutschen entsprechen sich Phoneme auf der Lautebene und Grapheme auf der Schriftebene zu großen Teilen. Dennoch ist das Schriftsystem des Deutschen ein Mischsystem, das neben dem phonographischen auch das morphologische und das silbische Prinzip berücksichtigt. Daher kommt es zu Unregelmäßigkeiten wie <Fläche> - anstatt <Fleche>, analog zu <Bleche>; der Bezug zu <flach> bleibt erhalten - oder <Aal> - anstatt <Al>, analog zu <Gral>; die Länge der Silbe wird in analoger Weise durch die Verdoppelung des Buchstabens kodiert. Es besteht folglich die Gefahr, „dass bei einer Abschrift das Gesprochene ‚schriftsprachlich korrigiert‘ wird, während eine Transkription gerade die Besonderheiten des Mündlichen […] festhält“ (Lalouschek/ Menz 2002: 55; zitiert aus Schmidt 2005: 28). Dieser Gefahr versucht man dadurch zu begegnen, dass man nicht nur geschriebene Wörter verwendet, sondern im Rahmen der Transkriptionskonventionen vorhandene Schrift- und Satzzeichen neu definiert, um sprachliche Signale wie z.B. Akzentuierung, Längung oder Veränderung der Tonhöhe, parasprachliche 46 Signale wie z.B. Pausen, Lachen, Husten oder Auslassungen und Kommentare zu notieren. Weitere Besonderheiten in der Aussprache können entweder im Kommentar notiert werden (vgl. Blanche- Benveniste 1987: 125 oder das Transkriptionssystem Verbmobil (Burger 46 Zur Kritik an der Unterscheidung zwischen Verbalem und Nonverbalem s. Kap. 3.6.3 und 4.3.3. <?page no="81"?> 81 1997)) oder aber in Form der literarischen Umschrift, bei der artikulatorische Besonderheiten abweichend von der Standardorthographie geschrieben werden, z.B. ‚geschdern‘ anstatt ‚gestern‘ oder ‚trinka‘ anstatt ‚trinken‘. Damit soll einerseits die besondere Aussprache kenntlich gemacht werden, andererseits soll das Transkript noch einfach zu lesen sein. Die literarische Umschrift wird in Transkriptionssystemen wie GAT 47 , HIAT 48 oder DIDA 49 verwendet. Die literarische Umschrift erschwert jedoch die Lemmatisierung (s. Kap. 3.6.3). Eine Alternative wäre eine doppelte Transkription in Standardorthographie und als IPA-Notation (vgl. Blanche-Benveniste 1987: 125). Durch die Standardschrift wird die morphologische Ebene, durch das IPA die phonologische bzw. phonetische Ebene abgebildet. Eine solche doppelte Transkription ist jedoch wesentlich zeitaufwendiger als die literarische Umschrift. 3.6.1.2 Transkription als Theorie Die Frage, ob das Transkript die Äußerung angemessen abbildet, kann nicht aus den Daten heraus beantwortet werden. Sie wird bestimmt durch das Untersuchungsziel und die dahinterstehenden theoretischen Annahmen. Das heißt, dass Transkription immer theoriegeleitet ist. Dieses Verständnis von „Transkription als Theorie“ hat Ochs (1979) in ihrem gleichnamigen Aufsatz näher ausgeführt. Sie betont u.a. die Verschiebung von den Rohdaten, die in irgendeiner Weise konserviert sind als Ton- oder Videodokumente, zu den Transkripten, die die eigentlichen Daten des empirisch arbeitenden Linguisten sind: We consider this [transcription] process (a) because for nearly all studies based on performance, the transcriptions are the researcher’s data; (b) because transcription is a selective process reflecting theoretical goals and definitions; and (c) because, with the exception of conversational analysis […], the process of transcription has not been foregrounded in empirical studies of verbal behavior. (Ochs 1979: 44; fett i.O.) Aus der Sicht der Korpuslinguistik weist Teubert (2006: 44) ebenso auf diese Verschiebung hin, die sich aus der Notwendigkeit ergibt, gesprochene Sprache in irgendeiner Form schriftlich fixieren zu müssen: Sprachwissenschaft setzt geschriebene oder sonst wie festgehaltene Sprache voraus, Sprache, die, wie auch immer, archiviert ist und wieder zugänglich gemacht werden kann. Gesprochene Sprache, die im Augenblick ihres Entstehens bereits vergeht, ist einer Analyse unzugänglich. Auch wenn die Linguistik gesprochene Sprache untersucht, ist sie auf Transkriptionen, wenigstens auf Tonaufnahmen angewiesen. Denn sonst hat sie keine Daten, an denen wissenschaftliche Behauptungen gemessen werden können. 47 Gesprächsanalytisches Transkriptionssystem (Selting et al. 1998). 48 Halbinterpretative Arbeitstranskription (Rehbein et al. 2004). 49 Diskurs-Datenbank; Transkriptionssystem zur Erschließung der gleichnamigen Datenbank am IDS (Mannheim). <?page no="82"?> 82 Die logische und methodologisch wichtige Konsequenz daraus ist, dass sich Korpuslinguistik immer mit Texten in schriftlicher Form beschäftigt (Teubert 2005: 2; These 2). Archivierte, gesprochene Sprache in Form von Ton- oder Videodokumenten sagt noch nichts über die Sprache selbst aus. Sie muss durch Transkription und Annotation erst angereichert werden. Das heißt, der Forscher muss zunächst einmal in die Rohdaten investieren, bevor er einen Gewinn im Sinne verwertbarer Daten und daraus ableitbarer Aussagen über die Sprache, zu der der transkribierte Sprachausschnitt gehört, herausholen kann. Dieses Mehr an Beschreibung und Abstraktion bezieht sich jedoch immer auf ein Weniger an Information, denn Transkription ist immer selektiv. Ein Transkript enthält nur Informationen, die im Fokus der Untersuchung stehen. Dies ist legitim und auch wünschenswert, denn ein Zuviel an Information in einem Transkript lenkt von den Phänomenen ab, die für das Untersuchungsziel relevant sind. Dieser Selektionsprozess darf jedoch nicht unbewusst und unreflektiert geschehen, sondern muss explizit gemacht werden. Theoriebildung und Aufbereitung sprachlicher Daten im Transkriptionsprozess bedingen sich wechselseitig: In die Transkription fließen die aktuellen theoretischen Erkenntnisse ein und bestimmen die Selektion der Rohdaten und die Angemessenheit der Abbildung. Aus der Auswertung der Transkripte können allgemeine theoretische Fragestellungen oder Aussagen gewonnen werden, die sich jedoch nur auf diejenigen sprachlichen Phänomene beziehen, die in den Transkripten erfasst wurden. 3.6.1.3 Transkription als Modellierung Aus dem bisher Gesagten wird deutlich, dass Transkripte nicht einfach als Wiedergabe oder Repräsentation gesprochener bzw. gebärdeter sprachlicher Äußerungen verstanden werden können, „sondern lediglich als Modelle dieser Gespräche, die durch Abstraktionen der Notationszeichen, die Fähigkeiten und Interpretationen derer, die die Transkription herstellen und die Ziele der Transkription beeinflusst werden“ (Lalouschek/ Menz 2002: 55; zitiert aus Schmidt 2005: 35; kursiv i.O.). Kowal/ O’Connel (1995: 114) verweisen auf einen zusätzlichen Aspekt, den Körper des Forschenden, der wesentlich bei der Modellierung beteiligt ist: Transkripte sind selbst Daten, in deren Herstellung Abstraktions- und Interpretationsprozesse eingegangen sind, und sie sind nicht die Rohdaten von Gesprächen. Als Konstruktion unter Verwendung der ‚Körper von ForscherInnen‘ stehen sie in einer modellhaften Relation zu den Originalgesprächen. Die Rolle der Körperlichkeit und Medialität für die Gegenstandskonstitution der Linguistik hat Settekorn (1993) am Beispiel der ethnographischen Forschung Ende des 19. Jahrhunderts deutlich herausgearbeitet. Schmidt (2005) plädiert aus der Sicht der Computerlinguistik dafür, Transkriptionssysteme nicht mehr als Verschriftlichung, sondern als Modellierungsverfahren aufzufassen, die aus einem symbolischen Modell ge- <?page no="83"?> 83 sprochener Sprache und Visualisierungsanweisungen bestehen. Das Modell enthält alle Regeln, mit deren Hilfe die relevanten sprachlichen Einheiten identifiziert und im Modell abgebildet werden. Es umfasst alle theoretischen Aspekte, die die Selektion und angemessene Abbildung der sprachlichen Phänomene im Modell betreffen. Die Visualisierung besteht aus Regeln, mit deren Hilfe die modellierten Einheiten graphisch dargestellt werden. Die Auswertung verschiedener in der Gesprächsanalyse verwendeter Transkriptionssysteme zeigt, dass diese maßgeblich von Linguisten entwickelten Systeme den Visualisierungsaspekt betonen, um eine einfache Les- und Schreibbarkeit zu erreichen, den Modellaspekt jedoch vernachlässigen. Dies führt dazu, dass in einem Transkript verschiedene sprachliche Ebenen vermischt und unterschiedlich stark gewichtet werden, wie z.B. bei der literarischen Umschrift, bei der in einigen Fällen von der Standardorthographie abgewichen wird. Dadurch kann jedoch beispielsweise die lexikalische Identität von Aussprachevarianten eines Wortes (<sacht> vs. <sagt> ) unkenntlich werden, was wiederum eine automatische Annotation der Wortart oder eine statistische Auswertung der Vorkommen eines Wortes erschwert. Die Konsequenz einer unzureichenden Modellierung ist, dass die Möglichkeiten der Computertechnologie nicht im vollen Umfang genutzt werden können. Dies reicht von der Erstellung eines Transkripts, der Konsistenz der Eintragungen über die quantitative Auswertung bis hin zur Austauschbarkeit der Daten, z.B. deren Überführung von einem Transkriptionssystem in ein anderes. 3.6.2 Segmentierung von Textwörtern: Tokenisierung Die Verschriftlichung gesprochener Sprache beinhaltet immer eine Segmentierung des kontinuierlichen Lautstroms in diskontinuierliche, diskrete Einheiten. Allgemein geht man davon aus, dass Sprecher einer Sprache Äußerungen in kleinste für sich stehende Bedeutungseinheiten aufteilen können, aus denen wiederum größere Einheiten wie Sätze gebildet werden. Die Möglichkeit der Segmentierung wird als „natürlich“ angesehen. Himmelmann (2006: 255 f.) weist darauf hin, dass im Zuge der Dokumentation von Sprachen ohne Schriftform diese Intuition der native speaker ebenfalls dokumentiert werden sollte. A documentation should include clear evidence as to how native speakers handle word boundaries, both in the clear and the unclear cases. This may be done by including recordings of acts of ‘dictation’ (for example, recording a transcription session where the native speaker listens to a previously made recording and dictates it in workable chunks to the transcriber) or by including specimens of unedited transcriptions in those instances where speakers are able to provide these themselves (usually based on the literary skills acquired for a dominant language). Diese Daten können Aufschlüsse darüber geben, wie native speaker intuitiv Wort- oder Satzgrenzen festlegen, was wiederum für die Transkriptions- <?page no="84"?> 84 praxis, aber auch für die Entwicklung einer Gebrauchsschrift genutzt werden kann. Bei der orthographischen Transkription wird das Gesprochene in Standardschrift wiedergegeben. Als Repräsentanten der Laute werden Wörter notiert. Dieses Verfahren geht davon aus, dass die Orthographie geeignet ist, das Gesprochene angemessen abzubilden. Anders als bei der engen phonetischen Transkription mithilfe des IPA werden jedoch nicht Laute notiert, sondern Wortformen. Die damit gleichzeitig vorgenommene Segmentierung wird als selbstverständlich vorausgesetzt. So ist es auch nicht verwunderlich, dass Dittmar (2004: 9; kursiv i.O.), der mit seinem Leitfaden zur Transkription „das Handwerk der Verschriftlichung mündlicher Rede im Deutschen […] vermitteln“ will, die Frage der Segmentierung nicht erörtert. Lediglich im Praxisteil steht in der Erläuterung zur Grobtranskription: Was ein Sprecher sagt, soll in Worten (als Redebeitrag) notiert werden; dabei kann ein nicht ausgeführtes Wort (Wortfragment) ebenso wie das Zusammenziehen von Wörtern (hatse = ‚hat sie‘ etc.) bereits im Anfangsstadium grob festgehalten werden. Die Segmentierung in Wörter steht also im Vordergrund. (Dittmar 2004: 232; kursiv i.O.) Dass die Transkription auf Wortebene vorgenommen wird, ist nicht verwunderlich, da auch die Lexikologie vom „Wort als typischer lexikalischer Einheit“ ausgeht (Lutzeier 2002: 8). Im Folgenden soll in bewusst verkürzter Form auf die methodologischen Probleme hingewiesen werden, die die für die Analyse notwendige schriftliche Fixierung des Gesprochenen mit sich bringt, da sich gerade in Bezug auf die Segmentierbarkeit des Lautkontinuums der Einfluss der orthographischen Schrift am deutlichsten zeigt. 50 Segmentierung und Klassifikation, d.h. die Zuordnung sprachlicher Einheiten zu einer Klasse aufgrund übereinstimmender Merkmale, sind die beiden Grundoperationen des Strukturalismus. Sie sind von hohem praktischen Nutzen, lassen sich jedoch weder theoretisch begründen noch methodologisch absichern. Ebenso wie die Selektion der Informationen ist auch die Segmentierung des Lautstroms theoriegeleitet und beruht auf einem Abstraktionsprozess. Spektrographische Untersuchungen zeigen keine deutlich voneinander abgegrenzten Strukturen, sondern eine „Landschaft mit fließenden Übergängen, bei der nur Anfang und Ende klar abgegrenzt sind“ (Lessen-Kloeke/ Vater 1987: 2). Die erkennbaren Strukturen lassen sich keiner Buchstabenfolge zuordnen. Dass ein native speaker intuitiv Wort- und Phonemgrenzen bestimmen kann, wird von Phonetikern als Beweis für die universelle Gültigkeit der Phonemtheorie angesehen. Dagegen argumentiert u.a. Linell (1979: 69; kursiv i.O.), dass diese Fähigkeit zumindest teilweise durch die kulturell eingeübten Techniken des Lesens und Schreibens erworben wird: 50 Eine etwas ausführlichere Darstellung, die auf den konstitutiven Aspekt der Schrift für die Untersuchung von Sprache eingeht, findet man in Konrad (1992: 17-40). <?page no="85"?> 85 By way of summary, I would say that the segmental analysis, which is nearly always taken for granted in phonology, is not self-evident. Segments may be perceived as units, but such an analysis is probably partly a result of cultural traditions (alphabetical writing, the tradition of talking about sound structure in terms of ‘sound types’ etc.). There are several facts which speak for the perception of morphs and word forms as phonetic gestalts. In fact, this is precisely that may be expected, given that (morphs and) word forms are communicative and grammatical primes. Das bedeutet, dass die Aufschlüsselung in phonematische Einheiten, die dem Alphabet zugrunde liegt, nicht intuitiv erworben wird, sondern unter speziell dafür geschaffenen und institutionell abgesicherten Bedingungen (Schule, Lehrplan, Lehrbücher). Läge die Segmentierbarkeit gesprochener Sprache in der Sprache selbst, dann ließen sich die Schwierigkeiten vieler Kinder beim Lesenlernen nicht erklären. Ebenso betont Maas (1986: 247; kursiv i.O.) die kulturell bedingte soziale Praxis, durch die ein Verhältnis zwischen gesprochener und geschriebener Sprache erst hergestellt wird: Die Reflexion auf Schrift ist in unserer Kultur über die Veranstaltungen zu ihrer Aneignung organisiert. Sie ist gebunden an eine bestimmte Praxis des Umgangs mit Schrift: Schreiben bzw. Lesen. Eine definitorische Bestimmung von Schrift hat daher auch von dort ihren Ausgang zu nehmen: Schrift fixiert graphisch die wörtliche Form eines Textes nach kulturell vorgegebenen Regeln so, daß er gelesen (erlesen) werden kann; eine entsprechende Bestimmug des Terminus Lesen ist, Geschriebenem nach kulturell vorgegebenen Regeln eine wörtliche Form zuzuordnen. Die Isolierung von Lautsegmenten ist nach Maas (1989: 358) eine „Rückprojektion von einer Buchstabenkette zur Repräsentation einer Äußerung“. Sie wird durch literale Analysekategorien erst ermöglicht. In diesem Sinne ist es vor allem wichtig, sich den Abstraktionsprozeß zu verdeutlichen, der in der Isolierung von Lauten als Segmenten des Gesprochenen liegt, die letztlich nur als Rückprojektion aus der erworbenen Fähigkeit zu erklären sind, Texte phonographisch aufzuschreiben. (Maas 1989: 368) In Bezug auf das Schriftverständnis der neueren, empirisch orientierten Sprachwissenschaft spricht Maas (1986: 254; kursiv i.O.) von der „Phonographie-Konzeption der Schrift“, d.h. von einer Verkürzung der Potenziale einer Schrift auf die Abbildung von Phonemen. Ebenso widersprechen Bugarski (1970) und Lüdtke (1969) der Annahme einer natürlichen Segmentierung des Lautkontinuums und argumentieren wie Maas, dass der gewohnte Umgang mit der Alphabetschrift, die aus diskreten Einheiten (Buchstaben, Wortgrenzen, Leerzeichen, Interpunktionszeichen) aufgebaut ist, das Modell für die Segmentierung der Lautkette nahelegte. Nach Milner (1978) konnte Saussure die Linguistik als Wissenschaft nur durch die Phonemtheorie, d.h. die Zergliederung der Sprache in kleinste Einheiten, legitimieren. Ähnlich wie Coulmas (1984) sieht er in der Aufteilung der Sprache in Sätze, Worte und Phoneme keine Beschreibung dessen, was objektiv gegeben ist, sondern einen aktiven Eingriff, eine Schaffung von Strukturen, die der Sprache auferlegt werden: <?page no="86"?> 86 la linguistique impose à un objet qui les ignore, les réseaux de discernement qui lui conviennent; en d’autres termes, au commencement, il y a un flux, où sont introduites des coupures, qui n’ont en elles-mêmes aucun titre à être tenues pour réelles - thèse nominaliste, courante, implicitement ou non, chez les structuralistes. (Milner 1978: 65) Die Frage, woher die Möglichkeit zur Unterscheidung bzw. Segmentierung kommt, bleibt unbeantwortet. Nach Milner lässt sich dies nur wissenschaftssoziologisch begründen in der Etablierung von Begrifflichkeiten, die selbst nicht mehr hinterfragt werden, in der Setzung des „maître-mot“. So ist der Zeichenbegriff Saussures nicht Gegenstand einer allgemeinen Zeichenlehre, sondern Mittel zur Fundierung einer Sprachtheorie. Linguistik ist nur dann eine Wissenschaft, wenn sie Sprache als ein System von Zeichen untersucht. Die Grundoperationen der Segmentierung und Klassifizierung sind Bestandteil der Zeichenkonzeption selbst. Die drei fundamentalen Eigenschaften des sprachlichen Zeichens „arbitraire, négatif, biface“ (Milner 1978: 56) wurden von Saussure auf den Dualismus Substanz - Form reduziert und operationalisiert. Saussure (1972: 45) selbst hat die Schrift als Untersuchungsgegenstand der Linguistik ausgeschlossen. Langue et écriture sont deux systèmes de signes distincts; l’unique raison d’être du second est de représenter le premier; l’objet linguistique n’est pas défini par la combinaison du mot écrit et du mot parlé; ce dernier constitue à lui seul cet objet. Die moderne Linguistik sollte sich nur mit der sprachlichen Form und nicht mit ihrer Substanz beschäftigen. Schrift wurde auf die Repräsentation phonetisch-phonologischer Einheiten reduziert. Saussure (1972: 44) weist darauf hin, dass ohne Schrift das Sprachsystem nicht darstellbar ist, lässt es aber mit dem Hinweis auf die Nützlichkeit und die damit verbundenen Risiken auf sich beruhen. Ainsi, bien que l’écriture soit en elle-même étrangère au système interne, il est impossible de faire abstraction d’un procédé par lequel la langue est sans cesse figurée; il est nécessaire d’en connaître l’utilité, les défauts et les dangers. Die doppelte Funktion von Schrift als Produkt und Bedingung sprachlicher Analyse wird nicht weiter thematisiert. Die Schrift wird als notwendiges Übel angesehen, der Schaden, den sie anrichten kann, wird als kalkulierbar eingestuft. Das Primat der gesprochenen Sprache verhindert eine theoretische Auseinandersetzung mit der Schrift und lässt das methodologische Problem nicht ins Bewusstsein treten. Es kommt zu einer Verschiebung der Wahrnehmung, da die Daten, mit denen sich der Linguist beschäftigt, schriftlich fixierte Äußerungen sind. Linell (2005) hat diese Verschiebung unter dem Stichwort der written language bias zusammengefasst, einer Schieflage, die auf allen Ebenen der Linguistik, aber auch in anderen Wissenschaften wie z.B. der Psychologie, festzustellen ist. Sie entstand dadurch, dass lange Zeit Sprache nur als geschriebene Sprache untersucht wurde. Auf diesen philologischen Kern des indoeuropäischen linguisti- <?page no="87"?> 87 schen Denkens hatte bereits Vološinov 1929 in seiner Arbeit Marxismus und Sprachphilosophie hingewiesen. Man muss nachdrücklich betonen, daß diese philologische Ausrichtung das gesamte linguistische Denken Europas in bedeutendem Maße bestimmt hat. Über den Kadavern geschriebener Sprachen ist dieses Denken entstanden und gereift; alle seine grundlegenden Kategorien, Ansätze und Verfahrensweisen wurden durch die Wiederbelebung dieser Kadaver herausgearbeitet. (Vološinov (1975: 127) Die daraus abgeleiteten Kategorien und theoretischen Konzepte eignen sich daher eher zur Beschreibung geschriebener als gesprochener Sprache. Im Bemühen um abstrakte Begrifflichkeiten mit dem Ziel, Sprache als System zu beschreiben - Vološinov zählt die von Saussure begründete strukturalistische Sprachwissenschaft zum abstrakten Objektivismus -, ist jedoch gleichzeitig aus dem Blick geraten, dass Sprache dialogisch angelegt ist und sich als Handlung lebender Personen ereignet. Beherrscht von philologischen Bedürfnissen, ging die Linguistik immer von der abgeschlossenen monologischen Äußerung eines altertümlichen Sprachdenkmals als der letzten Realität aus. Bei der Arbeit an einer solchen toten monologischen Äußerung, oder genauer, einer Reihe solcher nur durch die Einheit der Sprache zusammengehaltenen Äußerungen hat die Linguistik ihre Methoden und Kategorien entwickelt. Doch die monologische Äußerung ist selbst schon eine Abstraktion, wenn auch eine »natürliche«. Jede monologische Äußerung, auch das Schriftdenkmal, ist ein untrennbares Element sprachlicher Kommunikation. Jede Äußerung, die abgeschlossene, geschriebene, nicht ausgenommen, antwortet auf etwas und ist auf eine Antwort hin gerichtet. Sie ist nur ein Glied in der kontinuierlichen Kette sprachlicher Handlungen. (Vološinov 1975: 128 f.) Der Einfluss der Schrift zeigt sich deutlich an den Metaphern, die den Beschreibungen sprachlicher Strukturen zugrunde liegen. Sprachliches Verhalten als dynamischer, kommunikativer Akt wird reduziert auf statische, autonome Strukturen: Our conception of linguistic behavior is biased by a tendency to treat processes, activities, and conditions on them in terms of object-like, static, autonomous and permanent structures, i.e., as if they shared such properties with written characters, words, texts, pictures and images. (Linell 1982: chapter 1: Introduction 51 ) Die Objekt-Metapher, die sich auf allen linguistischen Analyse-Ebenen wiederfindet, wird in der Regel jedoch nicht reflektiert, sondern führt dazu, dass Linguisten tatsächlich denken, dass z.B. Phoneme abstrakte Objekte sind und durch keine anderen Begriffe repräsentiert werden können. Damit gerät der Einfluss der Schrift auf die linguistische Beschreibung gesprochener Sprache vollständig aus dem Blickfeld. Gleichzeitig sind die konkreten Objekte, die einzelnen beweglichen Lettern des Setzkas- 51 Diese Fassung wurde Jahre später in Linell (2005) stark überarbeitet, insbesondere die negative Kritik an einer Linguistik, die noch keine Theorie der Sprache als Interaktion und Dialog entwickelt hatte. <?page no="88"?> 88 tens, die Gutenberg für sein maschinelles Druckverfahren einsetzte, aus dem Blick geraten. Diese Lettern sind die realen Gegenstände, die als Vorlage für die Entwicklung des Phonembegriffs dienten. Die bisherigen Ausführungen sollen die Notwendigkeit zur methodisch reflektierten Fixierung gesprochener Sprache unterstreichen. Es wurde darauf hingewiesen, dass Segmentierung und Klassifikation sprachlicher Einheiten einen Abstraktionsprozess erfordern, der nicht natürlich oder universell ist, sondern durch die Entwicklung der Alphabetschrift und die kulturell vermittelte soziale Praxis des Schreibens erst möglich wurde. Dem Gesprochenen werden dadurch jedoch Analysekriterien (Phonem, Morphem, Wort, Satz) auferlegt, die geeignet sind, schriftliche Äußerungen zu klassifizieren. Das heißt, dass Sprache auf statische Einheiten reduziert wird. Diese Selektion abstrahiert vom dynamischen und dialogischen Charakter einer gesprochenen/ gebärdeten Äußerung. Gleichzeitig impliziert diese Selektion eine Wertung. Durch die Orthographie werden nur die segmentalen, sprachlichen, verbalen Einheiten wiedergegeben, Phänomene wie Intonation, Akzent, Pausen, Tonhöhe, Intensität und Rhythmus fehlen. Durch die Gewöhnung an die Wiedergabe von Sprache in Form von Schrift werden die statischen segmentalen Einheiten der Schrift als diejenigen angesehen, die Sprache ausmachen. Da die Orthographie sich nicht dafür eignet, die dynamischen Eigenschaften gesprochener Sprache abzubilden, sind diese nicht präsent und werden in der Wahrnehmung des Linguisten für nicht wichtig erachtet. Sprache wird gleichgesetzt mit dem, was in der Orthographie darstellbar, d.h. segmentierbar ist. Alles andere ist nichtsprachlich, nonverbal, parasprachlich, suprasegmental oder prosodisch. Die Unzulänglichkeit der Schrift als Zeichensystem, kontinuierliche und dynamische Aspekte des Gesprochenen abzubilden, führt zu einer Einteilung in Sprachliches (Verbales) und Nichtsprachliches (Nonverbales), d.h. die Vor- und Nachteile der Schrift werden auf den Gegenstand ‚Sprache‘ übertragen. Sprache ist, was segmentierbar und durch die Schrift gut darstellbar ist, alles andere liegt außerhalb der Sprache (griech. para: neben), wird über die Sprache gelegt (lat. supra: über) oder dient der Ausschmückung (griech. prosodia: Dazugesungenes). 52 In einer Transkription, die sich nicht nur auf das Segmentierbare beschränkt, müssen diese kontinuierlichen und dynamischen Aspekte, die in einer gesprochenen Äußerung vorhanden und hörbar sind, durch geeignete Symbole und Konventionen zusätzlich notiert werden. Je differenzierter jedoch die Transkription, desto schwerer les- und handhabbar wird sie. Die Selektion erschöpft sich nicht nur in der Reduktion gesprochener Sprache auf das Segmentierbare. Klein, der sich auf die früheren Ausführungen zur written language bias von Linell (1982) stützt, weist darauf hin, 52 Zur Kritik dieser unreflektierten Sichtweise s. Cuxac (2001), Liddell (2003: 355-362), Slobin (2008) und Garcia (2010). <?page no="89"?> 89 dass das Gesprochene nur ein Teil des gesamten Informationsflusses ist. Situationsgebundenheit und Intervention des Hörers sind meist nur Störgrößen, die irgendwie berücksichtigt werden müssen, aber tunlichst wegabstrahiert werden: der Beschreibungsapparat ist nicht darauf angelegt; er läßt lediglich - bestenfalls - die Möglichkeit offen, diese Faktoren einzubeziehen. (Klein 1985: 13) Je differenzierter die Notation jedoch wird, desto schwieriger ist sie zu lesen, da sie den kulturell eingeübten Lesegewohnheiten widerspricht. Während die Alphabetschrift ein starkes Argument für die Möglichkeit der Segmentierung gesprochener Sprachen ist, kann ihr Einfluss bei Gebärdensprachen nicht geltend gemacht werden. Gehörlose lernen zwar schreiben und somit auch die Form und Bedeutung von Wörtern kennen, aber diese Schriftzeichen und Wörter repräsentieren nicht ihre eigene, sondern eine Fremdsprache, deren lautliche Realisierung sie nicht wahrnehmen können. Dennoch können Gehörlose meistens bestimmen, wo eine Gebärde endet und eine neue Gebärde anfängt. Diese Fähigkeit zur Segmentierung und Identifikation von Form-Bedeutungs-Einheiten kann als Indiz dafür gewertet werden, dass es durchaus plausibel ist, die Gebärde, genauer gesagt ihre manuelle Form, als Äquivalent zur abstrakten Einheit ‚Wort‘ anzusehen, wovon die meisten Gebärdensprachforscher ausgehen (vgl. Kap. 2.3). Diese Annahme wird z.B. explizit in Erlenkamp (2000: 40 f.) gemacht: Für die Analyse werde ich dennoch zunächst annehmen, daß Gehörlose - vergleichbar der intuitiven Auffassung der Einheit Wort durch Hörende - eine intuitive Vorstellung dessen haben, was eine Gebärde ist. Ich werde ebenfalls annehmen, daß es möglich ist, intuitiv Gebärden voneinander abzugrenzen und als isolierte Einheiten zu betrachten, und daß die Antworten von MuttersprachlerInnen nach den Gebärdengrenzen in den meisten Fällen gleich ausfallen werden. Was diese Fähigkeit der Segmentierung einer zusammenhängenden gebärdensprachlichen Äußerung in einzelne Gebärden ausmacht, wurde bislang jedoch noch nicht erforscht. Ganz ohne Einfluss auf die Segmentierung scheint die Form ihrer Verschriftlichung allerdings nicht zu sein. Vergleichende Studien zur Verwendung von Glossen und SignWriting bei der Transkription gebärdensprachlicher Texte haben gezeigt, dass die Zahl der segmentierten Einheiten abweicht, wenn die Gebärden nicht mit Glossen, sondern in SignWriting repräsentiert werden (Di Renzo et al. 2006, Pizzuto et al. 2006, Pizzuto et al. 2008). Das Erlernen einer Schrift hat Einfluss auf die metasprachlichen analytischen Fähigkeiten. Der Einfluss der Lautsprache ist bei SignWriting ausgeschlossen, insofern ist anzunehmen, dass Gehörlose, die SignWriting lesen und schreiben können, eine gebärdensprachliche Äußerung anders analysieren als Gehörlose, die auf die Schriftform der Lautsprache, z.B. in Form einer Glossentranskription, angewiesen sind. Unabhängig von der Frage, ob durch den Einsatz von SignWriting eine zuverlässigere Segmentierung erreicht werden kann, lag der Vorteil von SignWriting darin, dass die so notierten Äußerungen we- <?page no="90"?> 90 sentlich verlässlicher reproduziert werden konnten als bei einer Glossentranskription. Erste Ideen zu einer schriftunabhängigen, automatisierten Segmentierung und Annotation gebärdensprachlicher Texte finden sich bei Dalle (2006) und Lefebvre-Albaret et al. (2008). Das Ziel der Tokenisierung (tokenising) ist es, alle Einheiten eines Textes zu ermitteln. Dazu gehört neben dem Zusammenfassen von Token zu einer Einheit auch das Trennen von Token in verschiedene Einheiten. Zur Tokenisierung eines schriftlichen Textes im Rahmen der automatisierten Korpusannotation gehört die Normalisierung eines Textes auf Zeichenebene. Bei der Ermittlung von Textwörtern (Token) werden Leerzeichen und Interpunktionen als mögliche Wortgrenzen interpretiert. Dies führt bei Mehrwortlexemen (‚zum Beispiel‘), Abkürzungen (‚Bsp.‘, ‚Humboldtstr.‘) Zahlen (‚100 000‘ bzw. ‚100.000‘) und Zusammenziehungen (‚siehste‘) zu falschen Ergebnissen. Bei der Überarbeitung werden diese Fehler entweder automatisiert, durch den Einsatz von Heuristiken oder Listen, oder von Hand korrigiert, d.h. es werden Einheiten wieder zusammengefasst - ‚Bspl.‘ und ‚Beispiel‘ sind Realisierungen desselben Types - oder getrennt - ‚siehste‘ ist die Realisierung von zwei Types: ‘sehen‘ und ‚du‘. Das Ziel der Normalisierung ist es, die Token zu vereinheitlichen, indem verschiedene Schreibweisen einer Einheit zugeordnet werden. Diese Token werden in den darauffolgenden Bearbeitungsschritten als eine Einheit behandelt. Da ein bereits tokenisierter Text die Grundlage aller weiteren Bearbeitungsschritte ist, ist die Qualität der Tokenisierung besonders wichtig. Automatisierte Verfahren auf der Grundlage von statistischen Modellen, regulären Ausdrücken und Heuristiken setzen ebenfalls linguistisches Wissen voraus, sind aber in der Regel konsistenter als von Hand vorgenommene Korrekturen. Nach Abschluss der Tokenisierung kann die Zahl der Textwörter (Token) bestimmt werden. Diese sind jedoch Realisierungen abstrakter lexikalischer Einheiten (Types). Um diese zu bestimmen, muss jedes Token einem Type zugeordnet werden. Man bezeichnet dieses Verfahren als Lemmatisierung. 3.6.3 Identifikation lexikalischer Einheiten: Lemmatisierung Bei der orthographischen Transkription geht mit der Segmentierung immer auch die Identifikation lexikalischer Einheiten einher, denn die Wortformen beziehen sich immer auf Wörter, d.h. abstrakte Types, die in der Lexikologie dazu dienen, die zu einem Lexem gehörigen Wortformen zusammenzufassen. Lexeme wiederum werden eingeteilt in verschiedene Flexionsklassen, die das Formenparadigma eines Lexems festlegen. Diese implizite Identifikation des Lexems wird dann explizit gemacht, wenn zu jeder Wortform die Zitatform des Lexems annotiert wird. Jedes Token wird dadurch einem Type zugeordnet. Das Textwort (auch Token oder Vorkommnis genannt) ist eine Realisierung des Types, der eine abstrakte Einheit des Lexikons darstellt, der eine Grundform (bzw. Zitier- oder <?page no="91"?> 91 Zitatform) hat und dem verschiedene Wortformen (Vollformen) zugeordnet werden. In Anlehnung an die Lexikographie, die im Wörterbuch unter einem Lemma alle Angaben zu einem Lexem versammelt, wird diese Token-Type-Zuordnung auch Lemmatisierung genannt. 53 Die Lemmatisierung ist neben der Tokenisierung der zweite wichtige Berarbeitungsschritt von Korpora im Rahmen der Vorverarbeitung und Voraussetzung für die weitere Annotation auf Wort- oder Satzebene. Bei Lautsprachen, die eine Schriftform haben und deren Lexikon erforscht und in Form von Wörterbüchern dokumentiert ist, ist es relativ unproblematisch, gesprochene Sprache orthographisch zu transkribieren, da der Transkribent in Laut- und Schriftsprache kompetent ist und somit die kulturell vorgegebenen Regeln kennt, wie Gesprochenes schriftlich fixiert werden muss, damit es aus der Schrift wieder „erlesen“ werden kann. Das heißt vor allem, dass er die normierte Schreibung der Lautform kennt. Diese ist entweder in einem Vollformen-Wörterbuch erfasst oder lässt sich über die Flexionsklasse ermitteln. Die Lemmatisierung kann daher bei Sprachen wie Deutsch oder Englisch halb- oder vollautomatisiert geschehen. Gebärdensprachen haben jedoch keine Schriftform, d.h. die sprachlichen Einheiten und relevante sprachliche Phänomene müssen in einer anderen Schriftsprache und einer geeigneten Notation wiedergegeben werden. In der Gebärdensprachforschung hat sich die Repräsentation von Gebärden durch Glossen etabliert (s. Kap. 3.6.4). Glossen sind weder für die Wiedergabe der Bedeutung noch der Form von Gebärden geeignet. Diese wird durch ein Notationssystem, vergleichbar dem IPA, festgehalten. Am bekanntesten sind das Stokoe Notation System (Stokoe et al. 1976), das für verschiedene Zwecke adaptiert wurde (s. z.B. Thoutenhoofd 2003), das Hamburger Notationssystem für Gebärdensprachen (HamNoSys; Prillwitz et al. 1989, Hanke et al. 1995, Hanke 2004), das die Aufteilung der Gebärdenform in verschiedene Parameter von Stokoe übernommen hat, oder SignWriting 54 , eine aus der Tanzchoreographie entwickelte Notation, die sowohl für wissenschaftliche Zwecke als auch als Gebärdenschrift eingesetzt werden kann. Für eine phonetische oder phonologische Untersuchung ist die Notation der Gebärdenform unverzichtbar. Für die Segmentierung und Lemmatisierung eines gebärdensprachlichen Textes sind Glossen ausreichend, vorausgesetzt sie verweisen in konsistenter und eindeutiger Weise auf Einträge in einem Wörterbuch oder einer lexikalischen Datenbank, in der 53 In der Lexikographie wird unter Lemmatisierung die Festlegung der Grundform, des Lemmas, verstanden, mit der die lexikalische Einheit, das Lemmazeichen, als Eintrag im Wörterbuch repräsentiert werden soll. Diese Festlegung kann von Sprache zu Sprache unterschiedlich sein, z.B. wird im Deutschen bei Verben immer der Infinitiv als Lemma gewählt. Der Infinitiv wird daher auch Grund- oder Nennform genannt. In lateinischen Wörterbüchern dagegen muss man bei Verben nach der 1. Person, Singular, Präsens, Indikativ, Aktiv als Lemma suchen. 54 URL: http: / / www.signwriting.org/ . Zur Anwendung von SignWriting auf die DGS s. Wöhrmann (2005). <?page no="92"?> 92 die Lexeme einer Gebärdensprache beschrieben sind. Glossen sind lautsprachliche Wörter und haben die Aufgabe, die lexikalische Einheit eindeutig zu benennen. Sie sind lediglich ein Etikett oder Label für diese Gebärde und erfüllen dieselbe Funktion wie ein Zahlencode, der in einer Datenbank als Identifikationsnummer (ID) einer Einheit dient. Um auf ihre Funktion als Label hinzuweisen und eine Verwechslung mit dem lautsprachlichen Wort zu vermeiden, werden Glossen in Großbuchstaben geschrieben. Im Unterschied zu Zahlen haben Wörter einige Vorteile: Sie dienen denjenigen als Memorierungshilfe, die die Gebärdensprache kennen und so über die Bedeutung des Wortes einen indirekten Hinweis auf die Gebärdenform haben, sie lassen sich leichter merken und man kann mithilfe von Glossen leichter über Gebärden kommunizieren. Johnston (2010c: 119) spricht in diesem Sinne von der „ID-gloss“ als „identifying gloss“ und verweist auf die eigene Praxis, die vorwiegend durch teilnehmende Beobachtung gesammelten Daten in einer Datenbank zu verwalten (Johnston 2001). Im Unterschied zu Ad-hoc-Glossen, die oft als vermeintlicher Hinweis auf Form und/ oder Bedeutung einer Gebärde verwendet werden, dienen ID-Glossen dazu, in konsistenter Weise gebärdensprachliche Einheiten im Rahmen der Token-Type-Zuordnung (Lemmatisierung) zu kennzeichnen. Konsistente Verwendung meint, dass alle Vorkommen einer Gebärde immer mit derselben Glosse etikettiert werden, unabhängig davon, ob sie im Äußerungskontext modifiziert werden oder ob sie eine andere, nicht bereits lexikalisierte Bedeutung ausdrücken. The use of ID-glosses and standardized glossing procedures in multi-media corpus annotation also ensures the consistency and commensurability of annotations created by different researchers, or even the same researcher on different occasions. The number of sign types in the data-set would proliferate without constraint if distinctive ‘meaning-based’ glosses are assigned to essentially the same sign form in different contexts. The unique identification of sign types, which is one of the prime motivations for the creation of a linguistic corpus in the modern sense would thus not be achieved without this approach. It would be impossible to use the corpus productively and much of the time spent on annotation would effectively be wasted because the corpus would never become machine-readable in any meaningful sense. The result would not be the type of corpus that linguists aspire to today; rather, it would just be a collection of reference texts - a ‘corpus’ in what is rapidly becoming a superseded sense in the literature. (Johnston 2010c: 121) Erst eine verlässliche Glossierung macht aus einer Textsammlung ein linguistisch verwertbares Korpus, da jede weitere korpuslinguistische Analyse auf der Lemmatisierung aufbaut. Und nur eine eindeutige Token- Type-Zuordnung macht aus einer Transkription eine verlässliche Datengrundlage für weitere linguistische Analysen, denn „[n]on-unique glosses (‘non-lemmas’) cannot be searched, sorted, or counted consistently within or across annotation files“ (Johnston 2008b). <?page no="93"?> 93 Das Entscheidende bei der Lemmatisierung ist der Bezug auf eine möglichst umfassende lexikalische Datenbank oder ein Wörterbuch der entsprechenden Gebärdensprache, in dem die Gebärden, ihre Varianten und Modifikationsmöglichkeiten sowie ihre Bedeutungen ausreichend beschrieben sind. Da es, im Unterschied zur DGS, für etliche nationalen Gebärdensprachen schon allgemeinsprachliche Wörterbücher gibt, könnte man meinen, dass Forscher beim Aufbau von Korpora für diese Sprachen im Vorteil sind. Da die meisten dieser Wörterbücher jedoch nicht auf der Grundlage linguistischer Korpora im o.g. Sinn erstellt wurden - m.W. ist nur das Dictionary of New Zealand Sign Language (Kennedy et al. 1998) korpusgestützt, wenn auch nicht auf ein lemmatisiertes Korpus -, besteht die Gefahr, einem Zirkelschluss zu unterliegen, wenn man die lexikalische Einheiten mit den in einem Wörterbuch verzeichneten Gebärden gleichsetzt und außer Acht lässt, wie sie in das Wörterbuch gelangt sind. Dieses Problem wird in der Literatur selten diskutiert. Lediglich bei Pizzuto et al. (2006: 3) findet sich ein entsprechender Hinweis: The signs that are included in SL dictionaries are for the most so-called standard signs (though this definition is far from being clear and somewhat circular, since the very inclusion of a sign in a dictionary is one of the element for classifying it as ‘standard’). Die Auswertung großer, ausgewogener Korpora soll gerade dazu dienen, auf der Grundlage von Frequenzanalysen die lexikalischen Gebärden zu bestimmen. Es ist zu erwarten, dass die Lemmaselektion nach Abschluss der Korpusanalyse deutlich verschieden sein wird von der eines bestehenden Gebärdensprachwörterbuchs, von den lexikographischen Angaben im Gebärdeneintrag ganz abgesehen. Denn die meisten Gebärdensprachen sind lexikologisch noch nicht ausreichend erforscht. Publizierte Wörterbücher und Gebärdensammlungen sind immer präskriptiv, da immer ein Selektionsprozess stattfindet. Es werden nie alle Gebärden gezeigt, die im tatsächlichen Sprachgebrauch verwendet werden. Dies liegt zum einen in der Publikationsform begründet. Bei gedruckten Wörterbüchern muss eine pragmatische Entscheidung getroffen werden, da die Seitenzahl begrenzt ist. Durch die enorm gestiegenen Speicherkapazitäten elektronischer Datenträger unterliegen elektronische Gebärdensprachwörterbücher solchen Zwängen nicht mehr. Dennoch findet auch hier ein Selektionsprozess statt. Das wichtigste Kriterium für die Aufnahme einer Gebärde in ein Wörterbuch ist der Grad ihrer Lexikalisierung. Dieser kann objektiv nur durch eine statistisch signifikante Häufigkeit der Vorkommen einer Gebärde in gebärdensprachlichen Äußerungen bestimmt werden (s. Kap. 3.3). Im Unterschied zu verschrifteten Lautsprachen ist es jedoch in Gebärdensprachen sehr zeit- und kostenaufwendig, repräsentative lemmatisierte Korpora zu erstellen, die eine aussagekräftige quantitative Analyse ermöglichen. Die Einträge in vorhandenen <?page no="94"?> 94 Gebärdensprachwörterbüchern sind somit solange als vorläufig anzusehen, bis sie korpusvalidiert sind. Ein weiteres grundsätzliches Problem der Gebärdensprachlexikologie und -graphie liegt darin, dass bis heute die Meinungen unter den Gebärdensprachforschern weit auseinandergehen, wenn es darum geht zu bestimmen, was als sprachliche bzw. lexikalische Einheit in Gebärdensprachen angesehen werden soll. Dies hängt u.a. mit dem geringen Grad der Standardisierung bzw. Lexikalisierung zusammen. Bei der Transkription empirischer Daten sollte man daher auch nicht den Versuch machen vorwegzunehmen, was durch die Auswertung von Korpora erst erforscht werden kann. Transkription ist im Sinne von Hoiting/ Slobin (2002: 56) in erster Linie Sprachdokumentation: In our opinion, we must first have a full documentation of linguistic behaviour before we can ascertain whether particular types of components are standardized signs or gestural accompaniments, and whether particular forms are productive in the use of an individual signer. Die Autoren weisen auf eine weitere Konsequenz für die praktische Transkriptionsarbeit hin: Da wir noch zu wenig wissen über Gebärdensprachen, beruhen viele Entscheidungen zwangsläufig auf der sprachlichen Intuition gehörloser Informanten und Projektmitarbeiter. Das bedeutet, dass Festlegungen, die der Transkribent treffen muss, z.B. ob es sich um eine konventionelle oder eine produktive Gebärde handelt, so lange als vorläufig anzusehen sind, bis sie durch ausreichende Belegstellen abgesichert oder widerlegt werden. Dennoch beruht die Entscheidung im Einzelfall nicht nur auf der intuitiven Eingebung des Transkribenten. Johnston/ Schembri (1999) kommt der Verdienst zu, sich der „leidigen Identifikations-/ Klassifikationskriterien für Wortschätze und lexikalische Einheiten“ (Lutzeier 2002: 7) in Bezug auf Gebärdensprachen angenommen zu haben, indem sie am Beispiel der Australischen Gebärdensprache (Auslan) definieren, was ein Lexem ist und wie es von den sogenannten produktiven Gebärden abgegrenzt werden kann. Die für die Lemmatisierung notwendige eindeutige und konsistente Verwendung von Glossen in der Funktion einer Identifikationsnummer entspricht (noch) nicht der gängigen Praxis in der Gebärdensprachforschung. Dies mag zum einen daran liegen, dass dies von den meisten Annotationswerkzeugen nicht unterstützt wird, zum anderen an dem unterschiedlichen Verständnis davon, was eine Glosse leisten soll. Bevor ich zum Abschluss dieses Kapitels auf die Annotation von Korpora und den Begriff der ‚Language Resources‘ mit den dazugehörigen Annotationswerkzeugen eingehen werde, soll zunächst die Praxis der Glossentranskription und die an ihr geübte Kritik näher beleuchtet werden. <?page no="95"?> 95 3.6.4 Zur Praxis der Glossentranskription Die Frage, in welcher Schriftform Gebärdensprachen repräsentiert werden sollen, ist für die Erstellung von Gebärdensprachkorpora zentral, denn sie wirkt sich auf die Segmentierung und die Lemmatisierung aus, die die Daten für jede weitere korpuslinguistische Auswertung und Analyse bereitstellen. Für die Verschriftlichung von Gebärden hat sich seit den 1980er-Jahren die sogenannte Glossentranskription etabliert (vgl. z.B. die Erläuterungen zur Transkription in Klima/ Bellugi 1980a: 375-377, Baker/ Cokely 1988: 1-29, Prillwitz 1985: 19-35, Prillwitz/ Wudtke 1988: 371-374). Der Begriff ‚Glosse‘ stammt vom Lateinischen Wort glossa und bezeichnet ein Wort, das zur Erklärung eines anderen Wortes zwischen die Zeilen oder an den Rand eines Textes geschrieben wurde. Ihre Funktion besteht darin, einen Hinweis auf die Bedeutung eines Wortes oder einer Textstelle zu geben. In dieser Funktion wurden und werden Glossen auch in der Gebärdensprachforschung verwendet. Der Hinweis auf die Bedeutung einer Gebärde durch die Wahl des Glossennamens hat jedoch die Funktion, auf die Form der Gebärde zu verweisen. Diese Funktion steht bei der Glossentranskription im Vordergrund. In diesem Sinne handelt es sich um eine, wenn auch vage und indirekte Verschriftlichung der Form (s. Kap. 3.6.1.1). Für denjenigen, der die lexikalischen Gebärden einer Gebärdensprache kennt, sind Glossen eine Eselsbrücke, um die Form einer Gebärde zu erinnern. Dies funktioniert jedoch nur für einen relativ kleinen Bestand von Gebärden. Werden auch Varianten und Modifikationen einer Gebärde in der Glosse gekennzeichnet 55 und handelt es sich nicht um einige Hundert, sondern Tausende von Glossen, dann ist das Gedächtnis normalerweise überfordert, die Glosse verliert ihre Funktion, auf die Form einer Gebärde zu verweisen. Eine Gebärde wird mit einem oder mehreren Wörtern glossiert, die möglichst nah an der Bedeutung dieser Gebärde sind. Abhängig vom Kontext kann dieselbe Gebärde jedoch verschiedene Bedeutungen haben. Die Glossen F LACH , E BEN , S TRAND , T EPPICH referieren auf ein und dieselbe manuelle Form ( ! " #$% & ), bei der die Flachhände, Handfläche nach unten, Fingerspitzen nach vorne, von der Mitte nach außen bewegt werden. Wird der Glossenname wie in dem genannten Beispiel anhand der kontextuellen Bedeutung vergeben, dann wird dieselbe Form mithilfe vier verschiedener Glossen identifiziert. Für die Lemmatisierung, die die Identifikation von Gebärden zum Ziel hat, wäre ein solches Vorgehen fatal, da je nach kontextueller Bedeutung bzw. gewählter Übersetzung dieselbe Gebärdenform einen anderen Glossenname erhalten würde. Da es, wie bei anderen Sprachen auch, keine 1: 1-Entsprechungen zwischen Gebärden und Wörtern gibt, liegt es auf der Hand, dass Glossen auch zur Wiedergabe der Bedeutung ungeeignet sind. Die Bedeutung von Gebärden wird in einem Gebärdenwörterbuch beschrieben. Dort ist auch die Form der Gebärde notiert, die 55 Ein Überblick über die im Rahmen der Fachgebärdenlexikon-Projekte eingesetzten Transkriptionskonventionen im internationalen Vergleich gibt Konrad (2010b). <?page no="96"?> 96 mithilfe von Glossen nicht wiedergegeben werden kann. Da weder Form noch Bedeutung von Gebärden mithilfe von Glossen wiedergegeben werden können, handelt es sich im eigentlichen Sinn auch nicht um eine Glossentranskription, sondern um eine Annotation (s. Kap. 3.6.5). Transkription wird im Folgenden als eine bestimmte Form der Annotation verstanden, bei der durch die Verwendung von Schriftsymbolen 56 sprachliche Einheiten segmentiert/ tokenisiert und identifiziert/ lemmatisiert werden. Neben der Beschreibung der Zitierform des Types, die in einem Wörterbuch oder einer lexikalischen Datenbank festgehalten ist, gehört dazu auch eine Angabe zur Form des Tokens, entweder als vollständige Notation oder in Abhängigkeit von der Zitierform, z.B. als Formabweichung. Die heute zur Verfügung stehenden Annotationswerkzeuge ermöglichen durch die Alignierung von Rohdatum und Annotation, dass die Form des Tokens stets abgerufen werden kann. Daher müssen nach Johnston (2010c: 111; kursiv i.O.) Glossen nicht länger als schlechter Ersatz für eine Transkription herhalten. The development of digital recording and multi-media annotation software in the late twentieth century changed the situation completely, as it has enabled transcriptions to be directly time-aligned with recorded segments. By so doing transcriptions have been ‘demoted’ to a type of annotation […]. In other words, the text can remain the language recording itself, rather than being effectively replaced by its representation in a transcription to which annotations are only subsequently appended. This has implications for the way in which recordings of face-to-face languages can now be best processed in the creation of corpora for the purposes of linguistic analysis […]. For example, with respect to SLs, one can now productively use glosses in a digital multi-media environment by exploiting the fact that glosses are ‘mere’ annotations, rather than using them as second-best compromise transcriptions. Weiterhin ist Johnston (2010c: 117) der Ansicht, dass dadurch eine phonetische oder phonologische Transkription gebärdeter Texte für eine automatisierte Analyse nicht unbedingt erforderlich ist. In principle, therefore, one need not have a level of transcription that represents the form of the utterance in order to have a machine-readable corpus which can be researched: the form is ever present in the linked and aligned media. 56 Technisch ist eine rein gebärdensprachliche Annotation eines gebärdensprachlichen Textes möglich, indem Annotate als Videosequenzen entweder direkt nach der zu kommentierenden Sequenz in die Videospur geschnitten werden oder als zweite Videospur angelegt werden und auf bestimmte Zeitabschnitte des Rohdatums (Video) verweisen. Diese Technik wird z.B. in einem Sprachlabor eingesetzt, um gebärdensprachliche Produktionen von L2-Lernern in Gebärdensprache zu kommentieren bzw. zu korrigieren, und hat den Vorteil, dass dies ohne den Umweg über die Lautbzw. Schriftsprache geschehen kann. Für die Transkription ist solch ein Vorgehen jedoch nicht praktikabel, da erst durch den Einsatz der Schrift Such- und Sortierfunktionen, d.h. eine automatisierte Auswertung der Annotate, möglich gemacht werden. <?page no="97"?> 97 Es bleibt abzuwarten, ob die Bezeichnung ‚Glossentranskription‘ in Zukunft durch die korrekte Bezeichnung ‚Glossenannotation‘ ersetzt werden wird. Die einzig sinnvolle Verwendung von Glossen besteht darin, dass sie auf einen Wörterbucheintrag verweisen: „in the ideal case they are pointers to lemmas in a lexicon“ Crasborn/ Zwitserlood (2008b: 4). Dieser Verweis muss eindeutig sein, daher spricht Johnston (2008a, 2008b, 2010c) auch von „ID-Glossen“. Liegt kein Gebärdenwörterbuch vor, muss eine Liste der in der Transkription bereits verwendeten Glossen erstellt werden. Diese Liste sollte zu jeder Glosse die Form und die Bedeutungen enthalten. Ob zur Kennzeichnung dieser Gebärde die Glosse F LACH , E BEN , S TRAND oder T EP- PICH heißt, ist nicht wichtig, solange immer dieselbe Glosse für dieselbe Gebärdenform verwendet wird. Dieses Vorgehen erfordert bei der Transkription großer Datenmengen vom Transkribenten Disziplin und sollte durch geeignete Transkriptionswerkzeuge unterstützt werden, insbesondere wenn mehrere Transkribenten gleichzeitig arbeiten. In Diskussionsforen, Vorträgen, wissenschaftlichen Veröffentlichungen und auch in Gebärdenwörterbüchern wird die Forderung nach einer konsistenten Glossierung und eindeutigen Zuordnung Token-Type-Zuordnung leider nicht immer eingehalten. Glossen werden häufig noch dazu benutzt, die Bedeutung einer Gebärde wiederzugeben oder sind der einzige Hinweis auf die Gebärde. Pizzuto et al. (2006: 4) sprechen daher vom „Missbrauch sogenannter Glossen“. Sie gehört zu einer Gruppe von Forschern, die nach einer Alternative zur Verwendung von lautsprachlichen Wörtern in der Transkription von Gebärdensprache suchen (s. Garcia et al. 2008). Denn über die Glossen kann sich der Einfluss der Schriftsprache auf verschiedenen Ebenen auswirken. Wie bereits erwähnt wurde beim Vergleich zwischen Glossen und dem Einsatz von SignWriting ein Unterschied in der Segmentierung festgestellt. Durch eine nicht konsistente Glossierung wird die Lemmatisierung inkonsistent und damit unbrauchbar. Eine weitere Gefahr liegt darin, dass die lexikalische Kategorie des Wortes, das als Glossenname verwendet wird, z.B. Nomen oder Verb, unreflektiert auf die Gebärde übertragen wird (Pizzuto/ Pietrandrea 2001: 39). Glossen sind ungeeignet, um dreidimensionale räumliche Bezüge darzustellen. Sie eignen sich vor allem zur Benennung lexikalischer Einheiten, wofür sie ursprünglich und hauptsächlich eingesetzt wurden bzw. werden. Produktive Gebärden oder ikonische Strukturen, die in Gebärdensprachen nicht nur durch die manuelle Form ausgedrückt werden, sondern auch durch Blickrichtung, Mimik und Gestik, können mit Glossen nur recht umständlich oder gar nicht repräsentiert werden. Eine unkontrollierte oder unreflektierte Verwendung von Glossen kann dazu führen, dass die darauf aufbauende Analyse mehr über die dafür benutzten Wörter der Lautsprache aussagen als über die gebärdensprachlichen Einheiten, die dadurch benannt werden sollen. Slobin (2008: 121-123) spricht aus der Perspektive des zu untersuchenden Gegenstands von der „Tyrannei der Glossen“. Ebenso wie Pizzuto u.a. <?page no="98"?> 98 sieht er in der Verwendung von Glossen die implizite Gefahr, dass nicht Gebärden und gebärdensprachliche Äußerungen beschrieben und analysiert werden, sondern Glossen, d.h. schriftsprachliche Einheiten der Lautsprache. Die Tatsache, dass Glossen verwendet werden, um eine Gebärdensprache zu beschreiben, ist für ihn Ausdruck einer neokolonialistischen Haltung. Dahinter steht die Annahme, dass die eine Gebärdensprache umgebende Lautsprache in irgendeiner Weise relevant sei für die sprachliche Analyse dieser Gebärdensprache. Ad absurdum wird diese Praxis dadurch geführt, dass z.B. in englischen Texten zur DGS zusätzlich zu deutschen auch noch englische Glossen geschrieben werden, die wiederum eine andere Interpretation nahelegen. Der einzige Ausweg liegt nach Slobin darin, ganz auf Glossen zu verzichten. Als Alternative verweist er an das von ihm selbst mit entwickelte Berkeley Transcription System (2001; Slobin et al. 2001), indem er die dort festgelegten Konventionen zur Notation produktiver Gebärden erwähnt. Interessanterweise entspricht dies dem Ansatz von Cuxac (s. Kap. 4.3.3.3), Gebärden auf der morphologischen Ebene zu beschreiben. Für lexikalisierte Gebärden sind im BTS jedoch englische Glossen vorgesehen. Ein weiterer schwerwiegender Nachteil von Glossen ist, dass es gehörlosen Forschern erschwert wird, sich in der Gebärdensprachforschung in gleicher Weise einzubringen wie Hörende. Sie sind mit einer Schrift konfrontiert, die sie oft nicht gut beherrschen und müssen gleichzeitig vom normalen Gebrauch dieser Lautschrift abstrahieren, da sie in der Transkription nur sehr eingeschränkt in der Funktion als Etikett für eine Gebärde verwendet werden soll. Nach Garcia et al. (2008: 34) greifen die bislang eingesetzten Transkriptionsverfahren, einschließlich der speziell für die Notation der Gebärdenform entwickelten Notationssysteme wie das Stokoe Notation System in zweifacher Hinsicht zu kurz: Sie sind entweder ungeeignet zur Transkription von Diskursdaten, da sie sich zu sehr auf die einzelnen Gebärdenzeichen konzentrieren, oder sie wurden für die Transkription von diskursiven Texten entwickelt, verdecken jedoch durch die Verwendung von Glossen wichtige Kontextphänomene. Da die Verschriftlichung immer auch die Segmentierung einer Äußerung zum Ziel hat, stellt sich die Frage erneut, nach welchen Prinzipien, bewusst oder unbewusst, segmentiert wird. In einem dreieinhalbjährigen Projekt (LS-Script 57 , 2005-2007) hat die Forschergruppe um Cuxac (Université de Paris 8) die Möglichkeiten einer Gebärdenschrift ausgelotet und dabei bewusst die Gehörlosen von Anfang an mit einbezogen 58 . Dabei wurde auch SignWriting als Alternative zu anderen Notationssystemen mit gehörlosen Kindern und Erwachsenen 57 S. URL: http: / / www.irit.fr/ ACTIVITES/ EQ_TCI/ EQUIPE/ dalle/ Publis/ ib05_LS_Script.pdf. 58 Das Projekt, die Beiträge des Abschlusskolloquiums sowie die Ergebnisse wurden von webSOURD als DVD-ROM veröffentlicht, auf der sämtliche Inhalte auch in Französischer Gebärdensprache (LSF) vorliegen (LS-SCRIPT 2008). <?page no="99"?> 99 ausprobiert. Die Schwäche dieser Schriftform liegt jedoch darin, dass es lediglich ein dreidimensionales visuelles Geschehen zweidimensional abbildet, aber nicht die ikonischen Bezüge, die nach Ansicht von Cuxac (2000) die Struktur bzw. die Grammatik von Gebärdensprachen ausmachen. Ein Schriftsystem für Gebärdensprachen, so der Anspruch der Forscher, sollte jedoch an diesen strukturellen Eigenschaften von Gebärdensprachen ansetzen. The true semiological challenge is to succeed in elaborating a graphical interpretation that respects what is structurally relevant in SL. In this sense, the original semiological choice made by Sign Writing [sic] to simply represent a visual phenomenon by another visual form, that is to exploit 2D graphical space as a ‘flattened’ analogon (lacking depth) of the signing space, seems to me to be also one of its limitations, especially for the restitution of sophisticated phenomena concerning the spatializing of loci, and of anaphora. (Garcia 2006a: 35; kursiv i.O.) Da Cuxac die seit Stokoe (1960) vorherrschende phonetische Analyse von Gebärden - ihre Aufteilung in die bekannten Parameter Handform, Handstellung, Ausführungsstelle und Bewegung - ablehnt und von überwiegend ikonischen Morphemen, vergleichbar den gebundenen Morphemen in Lautsprachen, als unterster Ebene der Segmentierung ausgeht, ist es sein Ziel, eine „morphemo-graphische“ Schrift bzw. Notation zu entwickeln, vergleichbar der phonographischen Alphabetschrift. Dieser Ansatz würde sich auch auf die Gebärdensprachlexikographie auswirken. Gebärden würden dann nicht mehr nach Glossen oder Formparametern angeordnet, sondern nach ikonischen Elementen, die durch ihre Kombination und Variation Gebärdenfamilien bilden. Wie so ein Wörterbuch aussehen könnte, hat Bonnal-Vergès (2005) in einem Entwurf eines zweisprachigen Wörterbuchs LSF-Französisch gezeigt (s. Kap. 5.2). Die Lemmata eines solchen Wörterbuchs wären dann Kombinationen aus morphemographischen Elementen und würden die im Vergleich zu Lautsprachen relativ niedrige Zahl der Einträge von Gebärdensprachwörterbüchern, 1000-4000, weit übersteigen. Dieser Ansatz löst jedoch nicht die Frage der Konventionalität bzw. Lexikalisierung von Gebärden, da er sich auf die sublexikalische Ebene konzentriert, die im Wörterbuch abgebildet werden soll. Die von Johnston (2008a, 2008b, 2010c) forcierte Verwendung von Glossen in der Funktion einer Identifikationsnummer für lexikalische Gebärden schließt den Missbrauch von Glossen weitgehend aus, da das Ziel dieses Bearbeitungsschrittes lediglich die Lemmatisierung ist. Weitere Annotationen für syntaktische Analysen wie z.B. die Nutzung des Gebärdenraums oder die Integration verschiedener gestischer, ikonischer und gradueller Elemente können in nachfolgenden Bearbeitungsschritten erfolgen. <?page no="100"?> 100 3.6.5 Annotation, Tagging und Parsing Während die Transkription dazu dient, die lautliche Form des Gesprochenen mehr oder weniger genau schriftlich aufzuzeichnen, ist die Annotation ein zusätzlicher Kommentar zu den bereits schriftlich fixierten sprachlichen Einheiten (lat. adnotare bzw. annotare: anmerken, aufschreiben, aufzeichnen, notieren). Lemnitzer/ Zinsmeister (2010: 188) definieren Annotation als „linguistische Anreicherung der Primärdaten eines Korpus“. Dabei gehen sie von vorhandenen linguistischen Einheiten aus, wie sie in schriftlichen Texten oder in einer orthographischen Transkription gesprochener Sprache vorliegen. Denn als Primärdaten definieren die Autoren „Texte bzw. Äußerungen […], die in einem Korpus versammelt sind“ (Lemnitzer/ Zinsmeister 2010: 190). Scherers (2006: 58) Ausführungen zur Annotation sind genauer: „Die Annotation macht also Informationen, die in einem Korpus implizit vorhanden sind, leichter zugänglich, indem sie sie explizit kodiert.“ Scherer geht wie Lemnitzer & Zinsmeister von einem transkribierten Korpus aus. Die schriftlich fixierten Einheiten enthalten implizit Informationen, die durch eine zusätzliche Annotation ausgewiesen werden. Scherer verwendet die Bezeichnung ‚kodieren‘ synonym zu annotieren. Darin stimmt sie mit MacWhinney (2000: 13; zitiert nach Schmidt 2005: 22) überein, der deutlich macht, dass sich Annotate immer auf schon vorhandene schriftliche Einheiten eines Transkripts beziehen: Transcription focuses on the production of a written record that can lead us to understand, albeit only vaguely, the flow of the original interaction. Transcription must be done directly off an audiotape or preferably, a videotape. Coding, on the other hand, is the process of recognizing, analyzing, and taking note of phenomena in transcribed speech. Coding can often be done by referring only to a written transcript. In den Zitaten wird die zentrale Rolle der Transkription deutlich, die vermutlich deshalb als gegeben angesehen wird, weil sie unabdingbar ist für eine linguistische Analyse gesprochener Äußerungen. Werden diese Transkripte als Primärdaten angesehen, dann sollte nicht aus den Augen verloren werden, dass sie zwangsläufig eine Reduktion der archivierten sprachlichen Interaktion darstellen, da ein dynamisches Geschehen nur annäherungsweise mithilfe statischer Einheiten abgebildet werden kann. Für einige Autoren ist es daher wichtig, dass ein Korpus immer aligniert ist und damit den Zugriff auf das Rohdatum gewährleistet (s. Kap. 3.5). Übertragen auf ein Datenbankmodell sind Annotationen immer als weak entities angelegt, d.h. sie müssen sich immer auf bereits vorhandene regular entities beziehen. Dies wiederum setzt jedoch voraus, dass die Unterscheidung zwischen abhängiger und eigenständiger Einheit immer eindeutig getroffen werden kann. Bird/ Liberman (2001) bestreiten dies und bezeichnen daher alle beim Transkribieren vorgenommenen Beschreibungen als Annotation. Nach diesem weiten Verständnis von Annotation ist jedes transkribierte Korpus ein annotiertes Korpus, d.h. archivierte sprachliche Rohdaten, <?page no="101"?> 101 die vollständig oder partiell mit linguistischen Informationen zu den darin enthaltenen Token angereichert sind. Da Textwörter implizit Informationen zur Wortart des dazugehörigen Types enthalten, unterscheidet sich diese Sichtweise von dem üblichen, engeren Verständnis von Annotation nur darin, dass letzteres die explizite Ausweisung einer bestimmten Art von Information zu einem Textwort meint. Das typische Beispiel für eine Annotation ist die Klassifikation eines Textwortes bezüglich der Wortart, auch als Part-of-Speech-Tagging (POS-Tagging) bekannt, das mithilfe eines sogenannten Taggers automatisch durchgeführt werden kann. Ein Textwort wird mit einem Etikett oder Anhängsel (tag) versehen, das die Wortart dieses Tokens ausweist. Üblicherweise werden diese Informationen an das Textwort angehängt. Der Beispielsatz (1) Ich nahm den Zug. kann folgendermaßen nach Hauptwortarten getaggt werden: Ich_P nahm_V den_ART Zug_N. 59 Die Menge aller Tags wird als Tagset bezeichnet und in den Annotationsrichtlinien definiert. Das Stuttgart-Tübingen- Tagset für Wortarten umfasst 54 Tags (STTS; Schiller et al. 1995). Der Beispielsatz (1) würde nach dem STTS folgendermaßen getaggt werden: Ich_PPER nahm_VVFIN den_ART Zug_NN. Zusätzlich zur Wortart kann auch die zugehörige Grundform an das Token angehängt werden. Diese Lemmatisierung (s. Kap. 3.6.3) kann mithilfe eines Lemmatisierers ebenfalls automatisch durchgeführt werden. Tagger und Lemmatisierer benötigen ein Wörterbuch mit den Lemmata einer Sprache, deren Flexionsklasse sowie Regeln, die die flektierten Formen auf das zugehörige Lemma abbilden, oder ein Vollformenlexikon. Die Qualität der Lemmatisierung und des Taggings hängen vom Wörterbuch und den Abbildungsregeln bzw. dem Vollformenlexikon ab. Beide Bearbeitungsschritte können auch zusammen erledigt werden. Das Ergebnis sähe für den Beispielsatz (1) in Form einer Liste folgendermaßen aus: 59 Die Abkürzungen stehen für: P = Pronomen, ART = Artikel, V = Verb, N = Nomen. <?page no="102"?> 102 Textwort Lemma Tag Wert des Tags Ich ich PPER irreflexives Personalpronomen nahm nehmen VVFIN finites Vollverb den der ART bestimmter oder unbestimmter Artikel Zug Zug NN Apellativum [Nomen, in Abgrenzung zu Eigennamen] Tabelle 4: Lemmatisierung und POS-Tagging Im Unterschied zur Korpusannotation, bei der alle Textwörter klassifiziert werden, werden bei der Belegklassifikation nur diejenigen Textwörter mit POS-Tags versehen, die für das Untersuchungsziel relevant sind. Die Annotation auf Satzebene wird Parsing genannt. Token werden syntaktischen Kategorien zugeordnet wie Subjekt, Objekt oder Verb und innerhalb einer syntaktischen Struktur verortet, d.h. ein oder mehrere Token werden einer syntaktischen Struktureinheit zugeordnet. Parser, auch Zerteiler genannt, sind Programme, die bereits getaggte Sätze in ihre syntaktischen Bestandteile zerlegen können. Das Ergebnis wird z.B. in Form einer Baumbank (tree bank) dargestellt. Abbildung 3: Parsing und syntaktische Baumstruktur 3.7 Language Resources Die Erstellung von Korpora wurde in erster Linie durch die Lexikographie sowie durch die Spracherwerbsforschung und die Angewandte Linguistik, insbesondere die Sprachlehre und die Übersetzung vorangetrieben. Für die zuverlässige Aufbereitung, die quantitative Auswertung sowie die automatisierte Anreicherung der Rohdaten war die enge Zusammenarbeit mit Informatikern und Computerlinguisten notwendig, um geeignete Werkzeuge zu <?page no="103"?> 103 entwickeln. Die Entwicklung in der Sprachtechnologie, insbesondere in den Bereichen der Künstlichen Intelligenz und des natural language processing (NLP), war wiederum auf natürlichsprachliche Daten angewiesen. Die Anwendungsgebiete der automatisierten Sprachverarbeitung haben sich in den letzten zehn Jahren jedoch erheblich ausgeweitet, was z.B. auf dem Gebiet der Lexikographie deutlich wird. Wörterbücher können auf der Grundlage eines Korpus vollautomatisch erstellt werden, wie das Beispiel des Projekts Deutscher Wortschatz, mittlerweile umbenannt in Wortschatz- Portal 60 , zeigt, das von der Abteilung Sprachverarbeitung des Institut für Informatik der Universität Leipzig seit 1998 online zur Verfügung gestellt wird. Während dieses elektronische Wörterbuch für menschliche Benutzer gemacht ist und somit nach Müller-Spitzer (2005: 50) die Bezeichnung ‚Wörterbuch‘ gerechtfertigt ist 61 , gibt es auch wörterbuchähnliche, automatisch erstellte oder maschinenlesbare Produkte, die wiederum nur für die automatische Weiterverarbeitung gedacht sind, d.h. nur von einem Computer benutzt werden. Ein Beispiel für ein solches Produkt ist eine Datenbank, die von einem Programm für automatische Übersetzungen benötigt wird. In diesen Fällen ist die Bezeichnung ‚Wörterbuch‘ irreführend und es sollte, nach Engelberg/ Lemnitzer (2001: 230), von „lexikalischen Ressourcen für sprachtechnologische Produkte“ gesprochen werden. Als Ressource können jedoch nicht nur die aufbereiteten Daten bezeichnet werden, sondern das Übersetzungsprogramm selbst. Nach Calzolari (2007) wurde der Ausdruck ‚Language Resources‘ (LR) von Zampolli (1991) eingeführt im Zusammenhang mit dessen Überlegungen für die Gründung einer europäischen Einrichtung für Sprachtechnologie (ELTA 62 ). Die Einsicht in die Notwendigkeit, in einer Informationsgesellschaft den Austausch aller wissenschaftlichen und wirtschaftlichen Einrichtungen zu fördern, die sich im weitesten Sinn mit Sprachtechnologie (HLT 63 ) beschäftigen, führte zur Gründung der ELDA 64 und der EL- RA 65 , dem europäischen Pendant zum amerikanischen Linguistic Data Consortium (LDC). Beide Institutionen halten gemeinsam seit 1998 in zweijährigem Rhythmus die Language Resources and Evaluation Conference (LREC) ab. In den Zielen der 2. Konferenz (LREC 2000) 66 wird der Begriff ‚Language Resources‘ genauer bestimmt: 60 S. URL: http: / / wortschatz.uni-leipzig.de/ . Für eine frühe Beschreibung dieses Projekts s. Quasthoff/ Wolff (1999). 61 Müller-Spitzer (2005: 51) schlägt als Alternative die Bezeichnung ‚Wortschatzinformationssystem‘ vor, da elektronische Wörterbücher mit einem Buch nichts mehr gemein haben und durch flexible Recherchemöglichkeiten anders genutzt werden als ein klassisches Wörterbuch. 62 European Language Technology Agency. 63 Human Language Technologies. 64 Evaluations and Language resources Distribution Agency. 65 European Language Resources Association. 66 S. URL: http: / / www.lrec-conf.org/ lrec2000/ . <?page no="104"?> 104 The term language resources (LR) refers to sets of language data and descriptions in machine readable form, used specifically for building and evaluating natural language and speech algorithms or systems, for software localisation industries and language services, for language enabled information and communication services, for electronic commerce, electronic publishing, language studies, subject-area specialists and end users. Examples of language resources are written and spoken corpora, computational lexica, grammars, terminology databases, and basic software tools for the acquisition, preparation, collection, management, customisation and use of these and other resources. Demnach ist Language Resources ein Sammelbegriff für • Daten, die maschinenlesbar sein müssen und über Korpora geschriebener und gesprochener Sprache hinausgehen, indem ebenso spezifische Datenbanken, Wörterbücher sowie Grammatiken mit einbezogen sind; • Werkzeuge, insbesondere Programme (Software), mit denen diese Daten zusammengestellt, verwaltet und verarbeitet werden können; • Methoden und Anwendungsgebiete der Sprachtechnologie, insbesondere der Computerlinguistik. In den Konferenzzielen der 5. Konferenz (LREC 2006) 67 werden unter den Anwendungsgebieten explizit die linguistische Forschung sowie die gesellschaftlichen Bereiche, die zunehmend durch den Einsatz elektronischer Medien bestimmt werden, genannt. Die Stichworte sind e-commerce, epublishing, e-learning und e-government. Dadurch erhalten Language Resources eine strategische Bedeutung. Die Herausforderung wird darin gesehen, für alle Sprachen grundlegende Language Resources bereitzustellen, damit sie allen für die genannten Zwecke zur Verfügung stehen. Insbesondere im Bereich der Entwicklung von Transkriptionswerkzeugen (annotation tools) für die Unterstützung der manuellen Transkription sowie der automatisierten Transkription gesprochener Sprache bzw. der Gebärdenerkennung und Annotation von Videodaten zeigt sich, dass die klassische Aufgabenaufteilung zwischen Informatikern und Linguisten aufgehoben ist. Je enger beide Berufsgruppen zusammenarbeiten, desto eher werden Informatiker in der Lage sein, die linguistischen Fragestellungen und Forschungsziele nachzuvollziehen, und desto stärker werden Linguisten Konzepte und Modelle der Informationstheorie für sich zu nutzen wissen (vgl. Schmidt 2005). Da sich gerade in der Korpuslinguistik die Forschungsperspektiven beider Disziplinen ergänzen, sollte sich dies nach Baude (2006: 40) auch in der Ausbildung von Linguisten und Informatikern widerspiegeln, indem Konzepte und Anwendungsbereiche des jeweils anderen Faches stärker berücksichtigt werden. 67 S. URL: http: / / www.lrec-conf.org/ lrec2006/ rubrique.php3? id_rubrique=1. <?page no="105"?> 105 Noch weiter gedacht sollten in Zukunft die Vorstellungen von Linguisten und Informatikern immer weniger stark auseinanderliegen. In dieser Hinsicht sollte die aufkommende Korpuslinguistik, die gesprochene Korpora zum Forschungsgegenstand hat, auf der Ausbildung informatisch geschulter Linguisten und linguistisch geschulter Informatiker fußen. (Übers. R.K.) 68 3.8 Annotationswerkzeuge Bezogen auf die Annotation gebärdensprachlicher Äußerungen ist es sinnvoll, Annotation im weiten Sinne zu verstehen als die Kommentierung und linguistische Anreicherung von Rohdaten, die z.B. in Form digitalisierter Videosequenzen vorliegen. In diesem Sinne sind Segmentierung und Sichtung ebenso wie die Transkription als Annotation zu verstehen. Die Synchronisation von Annotation und Videosequenz wird im Englischen auch als alignment bezeichnet, meint hier jedoch nicht die Parallelisierung von Paragraphen, Sätzen oder Wörtern, wie sie bei Parallelkorpora vorgenommen wird. Während die Sichtung und Einteilung der Rohdaten in inhaltliche Abschnitte mehr der Dokumentation, dem gezielten Zugriff auf die Rohdaten und der Eingrenzung des weiter zu bearbeitenden Korpus dienen, sind Tokenisierung und Lemmatisierung die ersten Schritte der Verschriftlichung gebärdensprachlicher Einheiten. Die Entwicklung bzw. die Wahl eines geeigneten Annotationswerkzeugs ist eng mit den theoretischen Annahmen und Untersuchungszielen verbunden, für die das Transkriptionsverfahren die Primärdaten liefern soll. Im Vordergrund steht die Modellierung und Klassifizierung sprachlicher Einheiten, die durch das Annotationswerkzeug unterstützt werden sollen. Ein Aspekt dabei ist die graphische Darstellung dieser Einheiten auf Papier und/ oder auf dem Bildschirm (vgl. Schmidt 2005: 22). Als Ergebnis eines Workshops während des 2. Kongresses der International Society for Gesture Studies haben Rohlfing et al. (2006) fünf Annotationswerkzeuge verglichen und als Orientierung für potenzielle Nutzer solcher Programme deren Stärken und Schwächen näher beschrieben. Während EXMARaLDA, TASX und MacVisSTA in der Konversationsanalyse und Gestenforschung verwendet werden, werden ANVIL 69 und insbesondere ELAN auch in der Gebärdensprachforschung eingesetzt. Lexikalische Datenbanken, die insbesondere in der Gebärdensprachlexikographie eingesetzt werden bzw. wurden, sind in dem Sonderheft von Sign Language & Linguistics (SL&L 2001) beschrieben als Teilergebnis des InterSign-Projekts. 68 „Plus généralement, on peut penser qu’à l’avenir il faudra de moins en moins opposer les visions des linguistes et des informaticiens. À cet égard, l’émergence de la linguistique des corpus oraux comme domaine de recherche doit reposer sur la formation de linguistes informaticiens et d’informaticiens linguistes.“ 69 ANVIL ist die Abkürzung für Annotation of Video and Language Data; s. URL: http: / / www.dfki.de/ ~kipp/ anvil/ . <?page no="106"?> 106 3.8.1 Funktionalität Ein wesentlicher Aspekt bei der Erstellung von Gebärdensprachkorpora ist die Möglichkeit, von den Primärdaten stets auf die Rohdaten zugreifen zu können, d.h. die Annotate wie z.B. Glossen oder Symbole eines Notationssystems müssen (zeit-)aligniert sein. Die Annotationen sollten möglichst einfach eingegeben, überarbeitet und exportiert werden können. Zur Synchronisation von Roh- und Primärdaten standen schon Mitte der 1990er-Jahre Softwareprogramme wie syncWRITER (Hanke/ Prillwitz 1995, Hanke 2001) und SignStream™ 70 zur Verfügung. Die Partiturschreibweise dieser Programme ermöglichte es, verschiedene, in Gebärdensprachen typischerweise gleichzeitig artikulierte Phänomene wie Gebärden und nonmanuelle Signale (Ablesewort, Mimik, Gestik, Blickrichtung) zu notieren, annotieren und visualisieren. Die Programme waren jedoch für eine automatisierte Auswertung einer Vielzahl solcher Transkripte, z.B. für Frequenzanalysen oder systematische Suchabfragen und Konsistenzprüfungen, ungeeignet. Neben ANVIL wird heutzutage in der Gebärdensprachforschung vor allem ELAN verwendet. ELAN wurde für die Transkription multimodaler Daten programmiert, wird vom MPI Nijmegen angepasst, weiterentwickelt (s. Crasborn/ Sloetjes 2008, Crasborn/ Sloetjes 2010) und kostenfrei zur Verfügung gestellt 71 . Das Programm ermöglicht mittlerweile Suchabfragen über mehrere Transkripte, die Erstellung von Konkordanzlisten, sogenannter KWIC 72 -Listen, wie sie in der Korpuslinguistik üblich sind, und erlaubt Frequenzanalysen (s. Johnston 2008b, 2010c). 3.8.2 Qualitätssicherung Eine zweiter wesentlicher Aspekt ist die Qualitätssicherung im Sinne einer konsistenten Lemmatisierung, denn durch die Transkription gebärdensprachlicher Texte mithilfe von Glossen wird gleichzeitig die Tokenisierung (s. Kap. 3.6.2) und Lemmatisierung (s. Kap. 3.6.3) mit erledigt. Diese Arbeitsschritte werden bei schriftlichen Quellen im Zuge der Vorverarbeitung zum großen Teil automatisiert vorgenommen, bei Texten gesprochener Sprache, die auch eine Schriftform besitzen, sind durch die orthographische Umschrift schon implizit die Lemmata mit angegeben. Johnston (2008a, 2008b) weist unter dem Schlagwort no lemmata - no corpus zurecht darauf hin, dass gebärdensprachliche Daten nur dann als Korpus gelten können, wenn in den dazugehörigen Transkripten Vorkommen (Token) derselben Gebärde (Type) konsistent mit derselben Glosse etikettiert wurden. Denn nur auf dieser Basis ist eine verlässliche Sortierung, Zählung und weitere morphologische, syntaktische und semantische Annotierung möglich. Im Unterschied zur orthographischen Transkription wird bei der Glossentranskription der Gebärdentyp durch eine Glosse etikettiert (s. Kap. 3.6.4), 70 Programmbeschreibung s. URL: http: / / www.bu.edu/ asllrp/ SignStream. 71 S. URL: http: / / www.mpi.nl/ tools/ elan.html. 72 Key Word In Context. <?page no="107"?> 107 die Form des Tokens wird durch eine zusätzliche Notation, z.B. mithilfe der Stokoe-Notation oder des Hamburger Notationssystems für Gebärdensprachen (HamNoSys; Prillwitz et al. 1989, Hanke 2004) festgehalten. Auf die Notwendigkeit, eine aktuelle Liste aller verwendeten Glossen zur Verfügung zu haben, um eine konsistente Transkription zu erreichen, hatte Johnston schon 1991 hingewiesen: Interlinear text processing programs that automatically produce lexical data-bases, such as IT, will automatically query alternative glosses of previously transcribed and glossed strings. The transcriber is forced to confront the issue of why on one occasion a particular gloss was given, yet not on another. In this way such programs not only ensure consistency of glossing practices but also allow for precisely that kind of manipulation of large amounts of language data necessary for linguistic analyses. The researcher is thus able to scan many texts to discern otherwise obscure patterns relating to the use of various types of signs (e.g. proforms, manipulators, lexical signs and deictic signs). (Johnston 1991: 25) In der Fußnote 4 zu diesem Abschnitt erwähnt Johnston die entscheidende Doppelfunktion des Programms IT, das er damals zur Transkription von Auslan-Texten verwendet hatte: die Erstellung von Transkripten und die Indizierung der in einem Transkript verwendeten Glossen, die als Liste aufgerufen werden konnte. Auf dem 2. Workshop des Intersign-Projekts, in dem es um Textkorpora und Annotationswerkzeuge ging, wurde die Notwendigkeit betont, ein Programm zur Verfügung zu haben, das die Verwendung der Glossen kontrolliert und damit die Konsistenz und Qualität der Glossierung in den Transkripten entscheidend erhöht (Bergman/ Pizzuto 1999). Im Zusammenhang mit der Erstellung eines Wörterbuchs der Deutsch-Schweizerischen Gebärdensprache (DSGS) umschreibt Boyes Braem (2001: 246) das Problem erneut: „the deaf transcribers, in their first transcriptions, were sometimes using the same German word gloss for several different signs. Alternatively, a single sign was given different German glosses by the transcribers.“ Das Intersign-Projekt hat gezeigt, dass eine Einigung auf gemeinsame Standards in der Dokumentation und Transkription gebärdensprachlicher Daten zwar notwendig, aber nicht realistisch ist. Im Anschluss an dieses Projekt setzte in der Gebärdensprachforschung eine Entwicklung ein, möglichst schnell transkribierte Korpora zur Verfügung zu stellen, beispielhaft umgesetzt im ECHO-Projekt. Dieses Beispiel machte insofern Schule, als dass das im Rahmen dieses Projekts weiterentwickelte und kostenlos zugängliche Annotationsprogramm ELAN eine weite Verbreitung fand. Die Konzeption von ELAN ist dokumentenzentriert, d.h. es unterstützt das Editieren von geschriebenem Text in einem Transkript, das als elektronische Datei abgespeichert wird. Glossen werden als freier Text in das entsprechende Textfeld eingetippt, d.h. die Vergabe von Glossen geschieht nicht kontrolliert. Um festzustellen, ob eine bestimmte Form bereits mit einer Glosse etikettiert wurde, muss der Transkribent entweder nach einer Glosse im Transkript suchen oder die bereits verwendeten Glossen <?page no="108"?> 108 als Liste exportieren und diese ständig erweitern. Korrekturen oder Änderungen eines Glossennamens müssen von Hand punktuell oder über die Suchen-Ersetzen-Funktion vorgenommen werden. ELAN bietet keine Möglichkeit der Qualitätssicherung im Sinne einer konsistenten Lemmatisierung innerhalb eines Transkripts, von mehreren Transkripten, die parallel von verschiedenen Transkribenten erstellt werden, ganz abgesehen. Dass die intra- und interpersonellen Unterschiede beim Transkribieren erheblich sind, ist schon aus der Analyse gesprochener Sprachen bekannt (Vieregge 1989). Diese Varianz kann auch nicht durch eng gefasste Transkriptionskonventionen verhindert werden. Gerade bei einem Multi-User- System, mit dem mehrere Transkribenten gleichzeitig und über einen längeren Zeitraum an verschiedenen Transkripten arbeiten, ist es notwendig, eine durch das Transkriptionswerkzeug stets aktuell gehaltene Liste aller verwendeten Glossen zu haben, um eine konsistente Token-Type- Zuordnung vornehmen zu können. Dadurch kann der Transkribent feststellen, ob ein Glossenname bereits vergeben wurde. Um zu entscheiden, ob solch ein Glossenname auch für das zu transkribierende Token passt, braucht er jedoch mehr Informationen über den Type, zumindest dessen Grundform und eine Bedeutung, die mit dieser Gebärde ausgedrückt wird. Am sichersten ist jedoch der Zugriff auf alle bereits mit dieser Glosse etikettierten Token, damit er das zu transkribierende mit den bereits lemmatisierten Token vergleichen kann. Im Unterschied zu Programmen wie IT, die lediglich eine Indizierung von bereits verwendeten Textwörtern bzw. Glossen vornehmen und als Liste verfügbar machen, ermöglicht das im Rahmen der Erstellung von Fachgebärdenlexika am IDGS entwickelte Programm iLex 73 (Hanke 2002, 2006; Hanke/ Storz 2008, Hanke et al. 2010) einen direkten Zugriff auf alle einer Gebärde (Type) zugeordneten Token über alle in der Datenbank erfassten Transkripte hinweg. In iLex ist die Funktionalität dokumentenzentrierter Annotationsprogramme, die inzwischen im Bereich der Transkription multimodaler Korpora zum Standard geworden ist, in einer lexikalischen Datenbank integriert. Die Vergabe einer Glosse für ein Token wird nicht durch das Eintippen eines Textes vorgenommen, sondern durch die Verknüpfung eines Eintrags aus der Tabelle types mit dem Tag des Tokens (s. Kap. 3.8.4, Abb. 8). Die Tabelle types enthält alle bereits in der Transkription verwendeten Gebärden und wird durch die Transkribenten ständig erweitert und aktualisiert. Fehlende Gebärden werden im Laufe der Transkription ergänzt, vorhandene werden durch den Vergleich der ihnen zugeordneten Token differenziert in Varianten oder modifizierte Formen. Änderungen eines Types wirken sich auf alle Token aus, die mit diesem Type verbunden sind, und 73 iLex ist die Abkürzung für integriertes Lexikon, da der zentrale Bestandteil ein Gebärdenlexikon, d.h. eine lexikalische (relationale) Datenbank, ist, in der die Gebärden als Einträge der Tabelle types verwaltet werden. Das bedeutet, dass jeder Eintrag vom System eine eindeutige ID zugewiesen bekommt. Die Einträge dieser Tabelle sind über ihre ID mit Einträgen der Tabelle tags verbunden, diese wiederum mit weiteren Tabellen. <?page no="109"?> 109 sind in den Transkripten sofort sichtbar. Im Unterschied zum dokumentenzentrierten Ansatz erlaubt die Datenbank-Architektur die Trennung zwischen Informationen, die zum Type gehören wie z.B. Grundform, Bedeutungen sowie form- oder bedeutungsseitige Beziehungen zwischen den Types, und Token-Informationen wie z.B. Abweichungen von der Grundform oder Bearbeitungskommentare. 3.8.3 Flexibilität Im Zusammenhang mit der Qualitätssicherung steht die Flexibilität als ein weiterer Aspekt, der bei der Wahl des Transkriptionswerkzeugs berücksichtigt werden sollte. Durch die fortschreitende Transkriptionsarbeit kann es sein, dass getroffene Entscheidungen bezüglich der Glossierung und Kategorisierung gebärdensprachlicher Einheiten korrigiert werden müssen oder deren Beschreibung systematisch ergänzt werden soll. Bei dokumentenzentrierten Transkriptionswerkzeugen wie ELAN betrifft dies im Wesentlichen die Art und Abhängigkeit von verschiedenen Spuren. Bei datenbankgestützten Systemen wie iLex sind die Beziehungen zwischen Einheiten der Datenbank vielschichtig und komplex. Einerseits sind durch die Wahl verschiedener Sichten auf die Daten oder durch Abfragen die Kontrollmöglichkeiten wesentlich größer und komfortabler, andererseits können für die Transkription erforderliche oder gewünschte Änderungen entweder einen hohen Programmieraufwand oder eine zeit- und personalintensive Nachbearbeitung der bereits erfassten Daten nach sich ziehen. Beides sollte vermieden werden. Die bereits vorgenommenen Annotationen sollten möglichst automatisiert in die neuen Strukturen übertragen werden können, damit ein Datenverlust oder eine fehleranfällige manuelle Nachbearbeitung vermieden werden. Zur Frage der Flexibilität gehört weiterhin die Möglichkeit, Daten zu exportieren oder in andere Formate umzuwandeln. Dies ist zum einen wichtig, um ältere Daten importieren und aktuelle Daten austauschen zu können, zum anderen, um die Nachhaltigkeit der Daten zu gewährleisten, damit diese kompatibel bleiben mit Softwarelösungen und Standards, die sich in der Zukunft durchsetzen werden. 3.8.4 iLex: Integration von Interlinear-Transkription und lexikalischer Datenbank Im Folgenden werde ich nicht die Datenbankstruktur von iLex im Detail vorstellen, sondern die Entwicklung von den ersten Transkriptionserfahrungen bis zur Programmversion zu Beginn des DGS-Korpus-Projekts (Januar 2009; s. Anhang 1) nachzeichnen. Weiterhin werde ich auf die wesentlichen Unterschiede zwischen iLex als datenbankgestütztes und ELAN als dokumentenzentriertes Transkriptionsbzw. Annotationssystem eingehen. <?page no="110"?> 110 Die Erfahrungen bei der Erstellung des Fachgebärdenlexikons Psychologie (Arbeitsgruppe Fachgebärdenlexika 1996; PLex) waren ausschlaggebend für die Entwicklung einer eigenen lexikalischen Datenbank, die im Laufe der Projekte entsprechend den Anforderungen ständig weiterentwickelt wurde. Bevor ich näher auf die Arbeitsschritte, die sich an die Datenerhebung anschließen, eingehe, werde ich zunächst die verwendeten Annotationswerkzeuge und deren Weiterentwicklung im Laufe der Projekte skizzieren. Zur Annotation gebärdensprachlicher Texte stand bereits beim PLex das Programm syncWRITER (Hanke/ Prillwitz 1995) zur Verfügung. Damit konnten Rohdaten in Form digitalisierter Videofilme annotiert werden. Die Annotate konnten in beliebig vielen Spuren angelegt und mit den jeweiligen Zeitabschnitten des Videos verbunden werden. Im PLex wurden die vorstrukturierten Gespräche von Gebärdensprachdolmetschern ins Deutsche übersetzt, verschriftlicht und in syncWRITER mit den entsprechenden Filmsequenzen synchronisiert. Diese verschriftlichten Übersetzungen dienten als Anhaltspunkte für die Suche nach DGS-Entsprechungen für Fachbegriffe. Wurden von den gehörlosen Mitarbeitern solche DGS- Entsprechungen identifiziert, dann wurden diese Begriffe in einer weiteren Spur notiert. Da es sich um konsekutive Live-Übersetzungen handelte, die auf Band gesprochen und nicht in einem zweiten Durchgang überprüft wurden, war die verschriftlichte Form dieser Übersetzungen nur begrenzt zuverlässig. Die gehörlosen Mitarbeiter sind im Laufe dieses Arbeitsschrittes dazu übergegangen, die Videofilme vollständig durchzusehen und sich nicht mehr an den Übersetzungen zu orientieren. Die Möglichkeit, mithilfe von syncWRITER relativ schnell Zeitabschnitte eines digitalen Videos mit Annotaten zu synchronisieren, wurde auch in den beiden folgenden Projekten zur Segmentierung der elizitierten Antworten genutzt. Fachbegriff und Timecodes für Beginn und Ende des jeweiligen Videoabschnitts konnten exportiert und in eine Datenbank importiert werden. In einer späteren Version der Datenbank (s.u.) wurde diese Funktion der Segmentierung integriert, sodass auf syncWRITER verzichtet werden konnte. Die Segmentierung der über 3600 elizitierten Antworten auf die gezeigten Fachbegriffe wurde im PLex in einem ersten Schritt in Form eines Videoschnitts vorgenommen. Hinter jeden Begriff, der als Titelbild eingeblendet wurde, wurden die Gebärden der fünf Informanten geschnitten. Die Zahl der Antworten blieb bei dieser geringen Informantenzahl noch überschaubar. Diese Schnittbänder waren die Grundlage für die Auswahl geeigneter Gebärden, die die gehörlosen Mitarbeiter vornahmen. Ausgewählte Gebärden wurden von den Mitarbeitern auf einem Monitorband aufgenommen, das als Vorlage für die Studioaufnahmen diente. Die Überprüfung dieser ersten Auswahl ergab, dass die Auswahl in vielen Fällen unsystematisch war. Dies ist im Nachhinein nicht überraschend, da die Mitarbeiter nur anhand der geschnittenen Videosequenzen eine Entscheidung treffen konnten, d.h. sie hatten keine Möglichkeit, die Antwor- <?page no="111"?> 111 ten anhand von Transkriptionen und Annotationen zu vergleichen, zu sortieren oder zu suchen. Weder die Fundstellen noch die Form der Gebärden waren dokumentiert. Erst mit einer maschinenlesbaren Segmentierung, Transkription und Annotation konnte die Auswahl systematisch überarbeitet werden. Zur Dokumentation und Segmentierung wurden zu jeder Antwort Informant, Transkribent, Bandnummer, Begriff, Timecode und Reihenfolge der Antwort auf dem Schnittband in einer FileMaker- Datenbank festgehalten. Abbildung 4: Dokumentation und Segmentierung elizitierter Antworten im PLex Die ausgewählten Gebärden wurden in der Regel durch den Begriff benannt und formseitig beschrieben. Zusätzlich zur Formbeschreibung, die im Wesentlichen darin bestand, die Handkonfiguration sowie die Bewegung in Worten und Kürzeln festzuhalten, wurde bei ikonischen Gebärden als mnemotechnische Hilfe auch das der Gebärde zugrunde liegende Bild notiert. Weiterhin wurde zwischen verschiedenen Gebärden und Formvarianten unterschieden. Zur Transkription der Antworten, die von den ausgewählten Antworten verschieden waren, wurden auch Glossen verwendet, um die Formbeschreibung abzukürzen. Dabei handelte es sich um einen Grundstock bekannter lexikalischer Gebärden, deren Form durch den Glossennamen leicht erinnert werden konnte. Diese Gebärden waren jedoch nicht in einem Wörterbuch erfasst, das in Zweifelsfällen hätte konsultiert werden können. Zu jeder Antwort wurde das Ablesewort notiert sowie Angaben zur Verwendung des Fingeralphabets. Ebenso wurde die Bedeutung der Gebärde notiert, die vom abgefragten Begriff abweichen konnte, z.B. wenn die Gebärdenform oder das zeitgleich mit der Gebärde artikulierte Ablesewort spezifischer als der Begriff waren. Weitere Beobachtungen wurden in eine Kommentarspalte geschrieben, z.B. wenn die Antwort aus mehreren Gebärden besteht, anstelle eines Ableseworts eine Mundmimik eingesetzt wird oder die Gebärden als Bestandteile des lautsprachbegleitenden Gebärdens (LBG), der nonverbalen Kommuni- <?page no="112"?> 112 kation (NVK) oder des phonembestimmten Manualsystems (PMS) eingestuft wurden. Angaben zu regionalen Varianten wurden nur in gesicherten Einzelfällen gemacht. Zusätzlich wurde die Zahl gleicher Antworten gezählt und als Erhebungsstatus eingetragen sowie Verweise auf formgleiche oder formähnliche Gebärden angelegt. Abbildung 5: Annotation und Transkription im PLex Durch diese Form der Transkription konnte die Auswahl der Antworten überarbeitet und wesentlich systematischer vorgenommen werden. Gleichzeitig zeigten sich jedoch die Schwächen dieser Vorgehensweise: Die Glossierung wurde nicht durchgängig vorgenommen und es fehlte eine Gebärdenliste, die die bereits identifizierten und in der Transkription verwendeten Gebärden enthält. Durch die Verwendung einer relationalen Datenbank hätten die konkreten Verwendungen einer Gebärde in den elizitierten Antworten mit der jeweiligen Gebärde verknüpft werden können. Die Konsistenz der Transkription war daher nur durch mehrmalige Prüfschritte herzustellen und sehr zeitaufwendig. Da die Einzelgebärden, aus denen sich die Antworten zusammensetzen, nicht durchgängig glossiert wurden, sind die Verweise auf formgleiche oder formähnliche Gebärden im PLex nur begrenzt hilfreich. Es kann lediglich auf eine ausgewählte Antwort als DGS-Übersetzung des Fachbegriffs verwiesen werden, nicht jedoch direkt auf eine Gebärde, die in dieser Antwort verwendet wird. <?page no="113"?> 113 Diese Vorgehensweise war unökonomisch, schwer nachzuvollziehen und notwendigerweise inkonsistent. Der größte Gewinn lag jedoch in dem Erfahrungswert, der sich in einem Forderungskatalog für das Folgeprojekt niederschlug: • Für die Transkription muss eine relationale Datenbank zur Verfügung stehen, in der Gebärden (Types) und ihre Verwendungen (Token) miteinander verknüpft und auf ihre Konsistenz geprüft werden können. • Die Transkription bedarf allgemein verbindlicher und transparenter Konventionen, um sicherzustellen, dass gleichartige Phänomene mit denselben Kommentaren bzw. Etiketten benannt bzw. denselben Kategorien zugeordnet werden. • Eine lautsprachliche Beschreibung bzw. Umschreibung der Form einer Gebärde ist unökonomisch und für Suchfunktionen ungeeignet. Sie muss durch eine Gebärdennotation ersetzt werden, mit deren Hilfe Gebärden anhand von Formmerkmalen gesucht und sortiert werden können. • Um unnötige Korrekturen zu vermeiden und die Auswahl der Antworten korpusbasiert vornehmen zu können, kann diese erst nach Abschluss der Transkription erfolgen. Für die Transkription der im Rahmen des Fachgebärdenlexikons Tischler/ Schreiner (TLex, Arbeitsgruppe Fachgebärdenlexika 1998) erhobenen Daten wurde ein Prototyp einer relationalen Datenbank entwickelt (GlossLexer 1). Diese bestand aus vier Listen für Begriffe, Gebärden, Vorkommen und Komponenten. Die Vorkommen entsprachen den elizitierten Antworten, die sowohl mit der Begriffsals auch mit der Gebärdenliste verbunden waren. Die Timecode-Angaben erfassten Anfang und Ende der Antwort, die Einträge aus der Begriffsliste konnten in einem Stimulus- und einem Antwortfeld eingetragen werden. Falls zu einem Begriff als Stimulus Bilder gezeigt wurden, so konnten diese über dieses Eingabe-Fenster aufgerufen werden. In den meisten Fällen waren Stimulus und Antwort-Einträge identisch, es kam jedoch auch vor, dass die Antwort zu einem anderen als dem abgefragten Begriff passte. Die Gebärden wurden als Komponenten dieser Antwort dargestellt. Sie wurden nicht mit eigenen Timecodes erfasst, lediglich die Reihenfolge innerhalb einer Antwort wurde gespeichert. <?page no="114"?> 114 Abbildung 6: GlossLexer 1: Vorkommen-Eingabefenster (TLex) Gebärden als Bestandteile einer Antwort konnten nur eingetragen werden, wenn diese vorher in der Gebärdenliste angelegt wurden. In einem Token- Fenster konnten neben der Gebärde weitere Angaben eingetragen werden: • Ablesewort, • Abweichung von der Grundform (in HamNoSys), • Mimik, • Modifikation, d.h. Veränderung der Form, die durch eine Veränderung der Bedeutung motiviert ist, • Richtung (bei sog. Richtungsgebärden), • Lokation (bei Verortung einer Gebärde im Gebärdenraum). Im Gebärdeneintrag wurden sämtliche Vorkommen aufgelistet, in denen diese Gebärde als Komponente angelegt wurde. Nach der Rohtranskription, in der die Gebärden zu einer Antwort eingetragen und näher annotiert wurden, war es somit möglich, sich sämtliche Token einer Gebärde auflisten zu lassen und die Konsistenz der Token-Type-Zuordnung zu kontrollieren. Dies war jedoch noch sehr zeitintensiv, da die Videofilme nicht als digitalisierte Filme an die Datenbank angebunden waren. Anhand der Timecode-Angaben musste an die entsprechende Stelle des VHS-Videobands gespult werden. In einem Eintrag aus der Begriffsliste wurden alle transkribierten Vorkommen aufgelistet und nach Glossen sortiert. Dadurch war es bei der Auswahl von Antworten für die Studioproduktion leicht festzustellen, welche Antworten gleich, ähnlich oder verschieden sind. <?page no="115"?> 115 Abbildung 7: Begriff und Vorkommen, sortiert nach Glossen (TLex) Die Stärken dieses Prototyps lagen in der Möglichkeit, die Konsistenz der Token-Type-Zuordnung zu kontrollieren, indem alle Verwendungen einer Gebärde aufgelistet und nach Formabweichungen sortiert werden konnten. Ebenso konnte die Auswahl der Antworten auf der Grundlage der Transkription vorgenommen werden. Neben der Tatsache, dass GlossLexer 1 die Segmentierung der Antworten und die Zuordnung zum jeweiligen Fachbegriff, der als Stimulus gezeigt wurde, nicht unterstützte - dazu wurde noch auf syncWRITER zurückgegriffen -, lag der größte Nachteil dieses Prototyps darin, dass die Videofilme nicht an die Datenbank angebunden waren und daher nicht per Mausklick aufgerufen werden konnten. Hinzu kam, dass das Programm als Multi-User-Anwendung zu langsam und zu störanfällig war. Es fehlten Suchfunktionen, die nur außerhalb des Programms nach einem Export der Daten vorgenommen werden konnten. Ebenso wurde die Sichtung der erhobenen Antworten durch die Datenbank nicht unterstützt, sodass sämtliche Antworten der ausgewählten zehn Informanten transkribiert wurden, obwohl einige als nicht angemessen hätten ausgeschlossen werden können. Verweise auf formgleiche oder formähnliche Gebärden konnten nur als Textkommentar im Gebärdenfenster notiert und nicht als Relationen innerhalb von Gebärden angelegt werden. Die Erfahrungen aus der Transkription sprachen dafür, bei der Identifikation von Gebärden und der Token-Type-Zuordnung die Ikonizität von Gebärden stärker zu berücksichtigen und das Zusammenspiel von Ablesewort und Gebärde angemessen abzubilden. All dies führte dazu, dass für die Erstellung des Fachgebärdenlexikons Hauswirtschaft (HLex; Konrad et al. 2000) der Prototyp ersetzt wurde durch einen SQL-Datenbankserver. Für die Eingabe, Veränderung und Abfrage von Daten wurde ein spezielles Eingabeprogramm (Client) entwickelt. GlossLexer 2 umfasst Datenbankserver und Eingabeprogramm. Mit der im Folgenden verwendeten Bezeichnung ‚Datenbank‘ sind immer beide Bestandteile gemeint. <?page no="116"?> 116 Struktur und Funktionalität von GlossLexer 2 sind in Hanke et al. (2001) näher beschrieben. Die für die Transkription und Annotation wichtigsten Funktionen sind: • direkter Zugriff auf die Rohdaten (digitalisierte Filme) per Mausklick, • schneller und gezielter Zugriff auf die Daten durch implementierte Sichten (views), Suchfunktionen (Token- und Type-Suche) sowie durch Abfragen (select statements), • Formgleich- und Formähnlich-Verweise zwischen Gebärden, • zweite Glossenebene (doppelte Glossierung s. Kap 4.1.5.2, Konrad 1999) Der schnelle und direkte Zugriff auf die Rohdaten führte dazu, dass in etwa derselben Zeitspanne wie im vorhergehenden Projekt wesentlich mehr Token transkribiert wurden. Gleichzeitig konnte die Konsistenz der Daten durch die verschiedenen Suchfunktionen und Sichten verbessert werden. In einer Weiterentwicklung (GlossLexer 3) konnten nicht nur die Antworten, sondern auch die Einzelgebärden, aus denen sich die Antworten zusammensetzen, mit Timecode-Angaben versehen werden. Segmentierung und Zuordnung der elizitierten Antworten zu den Fachbegriffen wurden im Fachgebärdenlexikon Sozialarbeit/ Sozialpädagogik (SLex; Konrad et al. 2003) direkt in der Datenbank vorgenommen. Mit der Erweiterung, die Daten mehrerer Projekte innerhalb der Datenbank zu verwalten, wurde der Name geändert von GlossLexer zu iLex, eine Kurzform für „integrated lexicon“ (s. Hanke 2002, Hanke/ Storz 2008). Die Umstellung der Software für den Datenbankserver von Microsoft SQL auf PostgreSQL wurde mit iLex 4 vollzogen. Eine grundlegende Veränderung der Datenbankstruktur und damit verbunden eine Umstellung der Annotationsweise in iLex war die Einführung von Transkripten. Damit wurde die starre Struktur der Vorkommen- und Komponentenliste ersetzt durch eine wesentlich flexiblere Struktur, die es z.B. erlaubt, genau zu notieren, dass Ablesewort und Gebärde zu verschiedenen Zeiten beginnen und enden. Annotation und Transkription erfolgen in iLex 5 immer in einem Transkript, das zu einem Gebärdenfilm angelegt wird. Ein Transkript besteht aus Spuren, die Tags 74 enthalten, d.h. Annotate zu einem bestimmten Zeitabschnitt des vorliegenden Gebärdenfilms. Wie aus Kapitel 3.6.5 schon ersichtlich wurde, gibt es keine klare Unterscheidung zwischen einer Annotation und einem Tag. In der Lautsprachlinguistik hat sich die Bezeichnung ‚Tagging‘ für die automatisierte Annotation der Wortart (Part-of-Speech-Tagging) durchgesetzt. Im Folgenden wird Annotation gleichbedeutend mit Tag verwendet, wobei streng genommen das Tag eine Einheit der Datenbank darstellt, der u.a. Anfangs- und Endzeit der Videosequenz enthält und dem ein bestimmter Wert, das Annotat, zugeordnet wird. Diese Werte können einfache Werte, z.B. freier Text, oder komplexe Werte 74 In der Datenbankstruktur sind Tags Felder in einer Tabelle, wie andere Informationseinheiten auch. Beim Anlegen einer Annotation erscheint im Transkript ein Feld, in das ein bestimmter Wert, z.B. ein Text oder eine Glosse, eingetragen werden kann. <?page no="117"?> 117 sein. Komplexe Werte bündeln Informationseinheiten aus verschiedenen Tabellen der Datenbank. Abbildung 8: Token-Fenster Zum Beispiel werden Gebärden im Transkript als Token-Tags, d.h. Einheiten der Tabelle tokens, angelegt, die über die jeweilige ID mit einer Gebärde aus der Tabelle types und einer Bedeutung aus der Tabelle concepts verbunden sind sowie weitere Informationen enthalten. Den früheren Einträgen in der Vorkommen-Liste entsprechen in der aktuellen Datenbankversion die Antwort-Tags (Tabelle answers), die in Stimulus- und Antwort-Feldern auf den jeweiligen Fachbegriff verweisen sowie zusätzliche Angaben zur Sichtung 75 bündeln. 75 Segmentierung und Sichtung der Rohdaten werden in Konrad (2010a: 23-27) eingehend beschrieben. <?page no="118"?> 118 Abbildung 9: Antwort-Fenster Welche Werte ein Tag enthalten kann, wird durch die Eigenschaft (tier_ kinds) festgelegt, die einer Spur (tiers) zugewiesen wird. Zwischen den Spuren können Abhängigkeiten definiert werden, die festlegen, ob die Timecode- Grenzen, d.h. Beginn und Ende der annotierten Videosequenz, in einem Tag einer anderen Spur übernommen werden sollen oder erweitert bzw. feiner unterteilt werden können. Damit hatte iLex 5 bereits die Funktionalität, die erst später auch in ELAN zur Verfügung stand. ELAN hat aber einen für die empirische Gebärdensprachlexikographie entscheidenden Nachteil: Es unterstützt nicht die Token-Type-Zuordnung, d.h. die konsistente Identifikation gebärdensprachlicher Einheiten durch die Kennzeichnung mithilfe geeigneter Glossen. In ELAN sind alle Annotate reine Texte, auch die Glossen. iLex dagegen kombiniert die Vorteile der Interlinear-Annotation mit der Erstellung einer lexikalischen Datenbank im Prozess der Token-Type-Zuordnung. Zu jedem Type werden Informationen wie Zitierform, konventionelle Verwendungen (s. Kap. 4.1.5.1), zusätzliche Glossierungen (didaktische Glossen), Beziehungen zu formgleichen und formähnlichen Gebärden, eine Beschreibung des zugrunde liegenden Bildes sowie die Analyse der Bilderzeugungstechnik (s. Kap. 4.2.1) festgehalten. Weiterhin können alle Token, die als Vorkommen dieses Types identifiziert wurden, innerhalb des Types aufgelistet und direkt geöffnet werden. In der Datenbank sind ebenso produktive Gebärden und weitere Zeichen wie z.B. indexikalische oder Zahlgebärden angelegt. Die Token-Type-Zuordnung geschieht dadurch, dass eine Gebärde (Type) z.B. per drag & drop in ein Token-Tag eines Transkripts eingetragen wird. Durch diese Verbindung von Token zu einem Type ist es möglich, alle Token einer Gebärde aufzulisten und z.B. nach den vorhandenen Formabweichungen, in HamNoSys notiert, zu sortieren. Dieser Bearbeitungsschritt <?page no="119"?> 119 wird nach Abschluss der Transkription im Rahmen der Lemmarevision 76 durchgeführt. Dabei werden alle Token eines Types anhand der Annotationen (Formabweichung, Ablesewort oder Mundgestik, Bedeutung) miteinander verglichen. Weiterhin wird, ausgehend von den Token-Informationen, die Abgrenzung verschiedener Types (Ausführungsvarianten) und ihrer Ausprägungen (Modifikationen) untereinander geprüft. Dadurch soll einerseits eine Unterdifferenzierung in der Token-Type-Zuordnung korrigiert werden, indem entsprechend dem Bottom-up-Ansatz aufgrund der Beleglage z.B. Token als Variante oder Modifikation eines Types identifiziert werden, andererseits eine mögliche Überdifferenzierung auf der Type- Ebene, z.B. indem eine Variante angelegt wurde, die sich als idiosynkratische oder lexikalisch nicht relevante Abweichung herausstellt. 77 Durch die fortlaufende Lemmatisierung und Annotation immer neuer Daten bestätigt sich entweder eine getroffene Entscheidung, indem die Beleglage für eine Gebärde immer größer wird, oder die Token-Type-Zuordnung muss im Rahmen der Lemmarevision korrigiert werden. Im folgenden Beispiel zeigen die sechs unten stehenden, markierten Token eine Formabweichung (Abwärtsbewegung der Hand zur Mitte hin, die gleichzeitig mit dem Schließen der Hand ausgeführt wird), die entweder als Modifikation der Gebärde oder als eigenständiger Type interpretiert werden kann. Abbildung 10: Token der Gebärde Z ANGE - DRÜCKEN 2, sortiert nach HamNoSys-Abweichung 76 Eine detaillierte Beschreibung der Lemmarevision findet man in Konrad (2010a: 93-96). 77 Zur Token-Type-Zuordnung in iLex sowie zum Wechsel zwischen Bottom-up- und Topdown-Ansatz beim Aufbau einer lexikalischen Datenbank s. Konrad/ Langer (2009) und König et al. (2010). <?page no="120"?> 120 Eine Änderung z.B. der Glossierung oder der Notation der Zitierform einer Gebärde bewirkt, dass in den jeweiligen Token-Tags die betreffenden Angaben automatisch aktualisiert werden. ELAN dagegen ist rein dokumentenzentriert. Wie Crasborn/ Sloetjes (2010: 61) erwähnen, wurde der Vorläufer von ELAN noch als Client- Server-Lösung konzipiert. Diese Idee wurde jedoch aufgegeben zugunsten einer Stand-alone-Lösung, d.h. eines Annotationsprogramms, das keiner weiteren Hardware oder Zusatzprogramme bedarf. Damit ist ELAN ideal geeignet für Einzelpersonen, die ein relativ überschaubares Korpus annotieren oder transkribieren. Große Korpusprojekte sind jedoch darauf angewiesen, dass möglichst viele Videoaufnahmen in möglichst kurzer Zeit lemmatisiert und weiter annotiert werden können. Dazu müssen mehrere Personen gleichzeitig auf den aktuellen Datenbestand zugreifen können. Die von Crasborn/ Sloetjes (2010) beschriebenen Verbesserungen sind Versuche, das Stand-alone-Konzept teamfähig zu machen. Sie sind für die Autoren selbst nicht zufriedenstellend, da sie den Designfehler, der in der Konzeption von ELAN als Stand-alone-Anwendung liegt, nicht beheben. The development of a more systematic use of the concept ‘user’ could further facilitate the use of ELAN in teams. Perhaps the possibility of choosing a serverclient setup where information about user actions can be systematically stored and conflicts between actions of different users can be prevented would merit consideration again. The iLex tool uses this type of design sucessfully. (Crasborn/ Sloetjes 2010: 64) Auffallend ist, dass die Autoren auf die Frage, wie ELAN die konsistente Token-Type-Zuordnung in einem Multi-User-System unterstützen könnte, nicht eingehen. Auch in dem Beitrag von Ormel et al. (2010) wird dies nicht thematisiert. Die Änderungen der Glossierungskonventionen, u.a. die Einführung von sogenannten Regenschirm-Glossen („umbrella glosses“; s. Ormel et al. 2010: 188 f.), wodurch die Praxis der in Kapitel 4.1.5.2 beschriebenen doppelten Glossierung übernommen wird, ändert nichts an der Tatsache, dass Glossen in ELAN bei jeder Annotation in der Glossenspur als reiner Text eingetragen werden. Da ELAN als Einzelanwendung nicht an eine Datenbank angebunden ist, gibt es für die einzelnen Benutzer keine Möglichkeit, auf den aktuellen Glossenbestand aller Transkripte eines Projekts zuzugreifen. Die Konsistenz der Glossierung kann nur durch Erstellen von Listen, die wiederum exportiert und mit anderen Programmen weiterverarbeitet werden können, oder durch Suchabfragen sichergestellt werden. Systematische Änderungen der Glossierung im Zuge der Überarbeitung und Fehlerkorrektur eines Transkripts können ebenso nur über manuell erstellte Suchen-und-Ersetzen-Befehle durchgeführt werden. <?page no="121"?> 121 3.9 Zusammenfassung In der Linguistik hat sich seit den 1990er-Jahren die Tendenz durchgesetzt, Hypothesen und Aussagen zum Sprachsystem anhand authentischer empirischer Daten zu verifizieren oder diese nur noch aus diesen Daten abzuleiten. Entscheidend beeinflusst wurde diese Entwicklung durch die Bestrebungen in der Lexikographie, den tatsächlichen Sprachgebrauch (language in use) wiederzugeben und Wörter bzw. Lexeme nicht isoliert zu beschreiben, sondern ihre Bedeutungen und Verwendungen im Kontext zu untersuchen und darzustellen. Vertreter dieses Ansatzes hatten schon früh die Korpuslinguistik zum Mainstream in der Linguistik erklärt (vgl. Svartvik 1996). Während für die einen Korpuslinguistik eine interdisziplinäre Methode darstellt, die nur durch die fortschreitende technische Entwicklung und die enge Zusammenarbeit mit Informatikern und Computerlinguisten möglich geworden ist, plädieren Linguisten wie Teubert oder Tognini-Bonelli dafür, Korpuslinguistik als eigenständige Teildisziplin zu etablieren, die sich klar von der Kognitiven Linguistik und der logischen Semantik abgrenzt und sich zu dem Form-Bedeutungs- Prinzip des Strukturalismus bekennt. Die allgemeine Bedeutung des adjektivisch gebrauchten Partizips ‚korpusbasiert‘ im Sinne von „auf der Grundlage eines Korpus“ wird dementsprechend ausdifferenziert. Hinsichtlich der Funktion von Korpora für die Theoriebildung wird unterschieden zwischen einem korpusvalidierenden bzw. korpusvalidierten und einem korpusgesteuerten Ansatz, hinsichtlich der Datengrundlage zwischen einem korpusgestützten und einem korpusgebundenen Ansatz. Parallel zu dem wachsenden Bedarf an sprachtechnologischen Instrumenten in der Linguistik und Lexikographie entwickelte sich in der Computer- und Angewandten Linguistik ein stärkerer Bedarf an natürlichsprachlichen Korpora. Sprachliche Daten, Werkzeuge zu deren Verarbeitung sowie Methoden und praktische Anwendungen wurden unter dem Begriff ‚Language Resources‘ zusammengefasst, deren Entwicklung und Verfügbarkeit auch institutionell gefördert wurde. Große Korpora können mit speziellen Softwareprogrammen und mathematisch-statistischen Methoden automatisiert ausgewertet und weiterverarbeitet werden. Dadurch können in relativ kurzer Zeit zuverlässige Daten erzeugt werden. Die Interpretation dieser Daten ist somit objektivierbar und verifizierbar. Diese Vorteile werden jedoch durch eine Reduktion und Abstraktion der Daten erkauft, die mit jedem weiteren Verarbeitungsschritt zunimmt. Diese Reduktion ist unvermeidlich und hängt mit der flüchtigen Natur sprachlicher Daten zusammen, die durch die Archivierung und Dokumentation festgehalten werden müssen, um Gegenstand linguistischer Beschreibung zu werden. Sie sind nicht „gegeben“, sondern werden dadurch erst geschaffen. Durch die Aufnahme werden sprachliche Handlungen reduziert auf akustische und visuelle Signale, die nicht den komplexen Gegenstand dialogischer Interaktion wiedergeben können. Durch die Transkription werden diese Signale wiederum reduziert auf schriftliche Ein- <?page no="122"?> 122 heiten. Diese erst sind die Primärdaten, die zur Verarbeitung in der Korpuslinguistik herangezogen werden. Die implizite wie explizite Aufforderung, Sprache als Korpus bzw. Sprache als Text zu betrachten (vgl. Sinclair 1994, Teubert 1999), sollte daher nicht unhinterfragt bleiben. Sind die Originaldaten schriftsprachliche Texte, dann ist die Reduktion gering bzw. nicht gegeben, bei gesprochener Sprache jedoch sollte immer die Frage mit bedacht werden: „Can we trust the text? “ (Weigand 2004: 301) Die Gültigkeit korpusbasierter Analysen und davon abgeleiteter generalisierter Aussagen über das Sprachsystem ist von der Repräsentativität des Korpus und der Zuverlässigkeit der Primärdaten, d.h. bei gesprochener Sprache der Transkription und Annotation, abhängig. Bei einem Referenzkorpus sind die Zusammensetzung der Stichproben und die Größe entscheidend für seine Repräsentativität. Korpora geschriebener Sprache können in relativ kurzer Zeit zusammengestellt werden und umfassen einige Milliarden Textwörter. Korpora gesprochener Sprache sind durch die notwendige Transkriptionsarbeit immer noch sehr aufwendig in der Erstellung. Selbst große Korpora gesprochener Sprache umfassen nur einige Millionen Textwörter, d.h. sie sind um den Faktor 1000 kleiner als große schriftsprachliche Korpora. Die größten Gebärdensprachkorpora umfassen 100000 Gebärden (Token), da der Transkriptionsaufwand noch beträchtlich größer ist als bei Lautsprachen. Dennoch ist die Bereitstellung authentischer Korpora für die Gebärdensprachforschung und -lexikographie unverzichtbar. Die besondere soziolinguistische Situation von Gebärdensprachgemeinschaften macht die Notwendigkeit linguistischer Korpora noch dringender als bei Lautsprachen. Dadurch dass Gehörlose als sprachliche Minderheit in einer hörenden Welt leben, weist ihre Sprache besondere Sprachkontaktphänomene auf, insbesondere die Verwendung von Ablesewörtern. Durch die Integrationspolitik und die medizinische Versorgung gehörloser Kinder mit einem Cochlea-Implantat nimmt die Zahl der Sprecher nationaler Gebärdensprachen dramatisch ab, sodass einige Gebärdensprachen bereits zu den bedrohten Sprachen gezählt werden müssen. Hinzu kommt eine Schieflage in Bezug auf die Repräsentativität der Gebärdensprache der native signer, die nur ca. 5 % der Gehörlosen ausmachen, deren Sprache jedoch bisher im Zentrum der Gebärdensprachforschung stand. Neben der Spracharchivierung und -dokumentation, beides Aufgaben, die im Zusammenhang mit der Erstellung eines Korpus bedacht werden müssen, bietet sich der korpuslinguistische Ansatz an, da er dem Kontext einen hohen Stellenwert einräumt. Insbesondere die Bedeutung von Gebärden, die Raumnutzung zur Markierung syntaktischer Bezüge und semantischer Rollen sowie die Funktion nonmanueller Signale wie Blickrichtung sind nur im Zusammenhang mit dem Äußerungskontext ermittelbar. Frequenzanalysen helfen, die Frage nach der Konventionalität von Gebärden zu klären, und sind ein notwendiges Korrektiv zur Intuition Gehörloser. <?page no="123"?> 123 Zu den Anforderungen an ein Gebärdensprachkorpus gehört, dass der Zugriff auf die jeweilige Textstelle in den Rohdaten immer gewährleistet ist, d.h. dass die Annotationen (zeit-)aligniert sind. Dazu stehen mittlerweile leistungsfähige Transkriptionswerkzeuge zur Verfügung. Ohne die Möglichkeit, von den Primärdaten auf die Rohdaten zuzugreifen, ist eine sinnvolle Validierung der Interpretation gebärdensprachlicher Phänomene nicht möglich. Dies ist umso wichtiger, als Gebärdensprachen keine Schriftform besitzen, in der sie notiert werden können und somit die Gefahr besteht, dass Kategorien der Beschreibungssprache auf gebärdensprachliche Phänomene übertragen werden. Die Kategorien der Lautsprache sind jedoch Abstraktionen, die aus der Erforschung der geschriebenen Sprache abgeleitet wurden. Die Alphabetschrift wiederum ermöglichte erst die Segmentierung und Klassifikation sprachlicher Einheiten. Diese mit den Stichworten written language bias und ‚Skriptizismus‘ bezeichnete Verschiebung birgt gleichzeitig eine Wertung in sich, indem eine Einteilung in sprachlich/ verbal - das Segmentierbare und durch die Schrift Darstellbare - und nichtsprachlich/ nonverbal/ parasprachlich vorgenommen wird. Durch die Transkription wird die Dynamik sprachlicher Handlungen reduziert auf statische Einheiten. Dies ist notwendig, um im Zuge der Token-Type-Zuordnung, auch Lemmatisierung genannt, die lexikalischen Einheiten einer Äußerung zu identifizieren, kann jedoch nie die Komplexität einer sprachlichen Handlung vollständig repräsentieren. Die Lemmatisierung steht im Mittelpunkt der Transkription von gebärdensprachlichen Texten und ist die Voraussetzung für die weitere Verarbeitung und Auswertung des Korpus. Sie setzt entweder voraus, dass die Lexeme einer Gebärdensprache bekannt und z.B. in einem Wörterbuch beschrieben sind, oder sie erfordert den parallel zur Transkription verlaufenden Aufbau einer lexikalischen Datenbank, die die bereits identifizierten lexikalischen Einheiten verzeichnet. Um die Konsistenz der Transkription, z.B. durch eine eindeutige Glossierung, zu gewährleisten, bedarf es eines Transkriptionswerkzeugs, das nicht nur die Alignierung der Annotate ermöglicht, sondern auch die Identifikation von Gebärden durch die konsistente Etikettierung der Token durch Glossen kontrolliert hält. Um zu verhindern, dass gleiche Formen verschieden glossiert oder verschiedene Formen gleich glossiert werden, müssen alle Transkribenten auf den aktuellen Bestand einer lexikalischen Datenbank zugreifen können. Die Datenbank, als Client-Server-Lösung konzipiert, ermöglicht wiederum den Zugriff auf alle Token eines Types, was für die Überprüfung der Transkripte und der Lemmarevision notwendig ist. Zurzeit werden diese Funktionen nur in iLex realisiert, ein Transkriptionsprogramm, das die Funktionalität multimodaler Annotationswerkzeuge mit einer Datenbank kombiniert und so transkript- und projektübergreifend eine größtmögliche Qualitätskontrolle der Transkription bietet. <?page no="124"?> 124 4 Die Auswirkungen von Ablesewörtern und Ikonizität auf die lexikalische Struktur von Gebärdensprachen Die Schwierigkeiten bei der Token-Type-Zuordnung und der Lemmaselektion in der lexikalischen Datenbank, die sich mit Beginn der Transkription für das Fachgebärdenlexikon Tischler/ Schreiner (Arbeitsgruppe Fachgebärdenlexika 1998; TLex; 1996-1998) zeigten, soll im Folgenden anhand einiger Einträge im Gebärdenverzeichnis des TLex illustriert werden. Die Gebärde P ROD .K EIL 101 1 ( ! '( ) ; s.u. Tab. 5) wird als produktive Gebärde ausgewiesen. Ausschlaggebend dafür waren zwei Gründe: Dieselbe Form wird für verschiedene Bedeutungen verwendet: „Senker“, „Krauskopf“ und „Versenker“. Die spitz zulaufende Bewegung der beiden Flachhände, die sich am Ende mit den Handkanten der Kleinfingerseite berühren, zeichnen einen spitz zulaufenden Gegenstand nach. Dieses Bild ist eine schematische Darstellung der Form der Gegenstände, die mit dieser Gebärde benannt werden. Die Bedeutungsunterscheidung wird durch das jeweils dem Begriff entsprechende Ablesewort erreicht, das zeitgleich mit der Gebärde artikuliert wird. Diese Tatsache widerspricht der Beobachtung von Johnston/ Schembri (1999: 136), dass produktive Gebärden im Unterschied zu konventionellen Gebärden weniger häufig zusammen mit Ablesewörtern artikuliert werden. Man kann dies als Artefakt interpretieren, der durch die Methode der Elizitation zustande kommt. Viel grundsätzlicher ist jedoch das dieser ungewöhnlichen Kombination zugrunde liegende Prinzip der Aufgabenteilung zwischen manueller Form und Ablesewort: Über das Ablesewort versucht der Informant, den Bezug zum Fachwort zu halten, während die Gebärde die Möglichkeiten der Visualisierung nutzt, oder anders gesagt: Während die Gebärde das typische Merkmal des Gegenstands visualisiert, wird im Ablesewort die spezifische Bedeutung ausgedrückt. Im Unterschied zu den o. g. Bedeutungen ist die Gebärde P ROD .K EIL 101 für die Bedeutung „Keil“ konventionalisiert 2 , ebenso wie die formähnliche Gebärde P ROD .K EIL 100 ( ! " * ), bei der die Flachhände nach vorne spitz zulaufen und sich die Fingerspitzen berühren. Glossiert sind diese konventionalisierten Verwendungen im Gebärdenverzeichnis des TLex als K EIL 1A und K EIL 1B. Im Eintrag wird jeweils auf die formgleiche produktive Ge- 1 Da die Daten aus der damals als Prototyp entwickelten Datenbank (GlossLexer 1; s. Kap. 3.8.4) nicht in die aktuelle Datenbank übernommen wurden, beziehen sich die folgenden Glossierungen auf die Produktionsglossen im Gebärdenverzeichnis des TLex. 2 Weitere Bedeutungen, die jedoch nicht im Rahmen des TLex erhoben wurden, sind „Trichter“, „(Kaffee-)Filter“, „Krater“ und „Kerbe“. <?page no="125"?> 125 bärde verwiesen. Der Formunterschied zwischen beiden Gebärden wird als phonologische Variation eingestuft, da beide Gebärden einen spitz zulaufenden Gegenstand visualisieren, bei P ROD .K EIL 100 zeigt die Spitze nach vorne, bei P ROD .K EIL 101 nach unten. Einen Zusammenhang zwischen der Ausrichtung der Spitze in der Gebärdenform und den gezeigten Abbildungen bei den Begriffen ‚Keilwinkel‘ und ‚Keilzinken‘ gibt es nicht, d.h. die Gebärdenform ist keine analoge Abbildung dessen, was in der Illustration zu diesen Begriffen gezeigt wurde. P ROD . KEIL 100 ist formähnlich zu einer weiteren Gebärde, die konventionell für die Bedeutungen „Ecke“ ( ECKE ) und „Winkel“ ( WINKEL 5A) verwendet wird. Ihre Form unterscheidet sich nur durch den wiederholten Kontakt der Fingerspitzen. Diese Gebärde wird ebenfalls für die Bedeutungen „Delta“ (als Teil der DGS- Übersetzung von Deltaschleifer), „Gehrung“ und „Kante“ (als Teil der DGS- Übersetzungen von Kantholz und Kantenschleifmaschine) verwendet. Weiterhin gibt es eine zu P ROD . KEIL 101 formähnliche Gebärde PROD . KEIL 102, bei der die Bewegung nicht bis zum Kontakt der Handkanten ausgeführt wird, sondern kurz davor stoppt. Die Gebärde zeichnet die Form eines Schwalbenschwanzes nach, das ist eine schwalbenschwanzförmige Aussparung, in die der Zinken bei einer gezinkten Eckverbindung genau passt. Zur Übersicht werden in folgender Tabelle Glossen, Form, Ablesewörter, Fachbegriffe und im TLex gezeigte Illustrationen zu den Fachbegriffen aufgelistet: <?page no="126"?> 126 Glosse (TLex) Form Ablesewort Verwendung (Fachbegriff) Illustration P ROD . KEIL 101 ! '( ) senker, krauskopf, versenker Senker, Krauskopf, Versenker K EIL 1B ! '( ) keil Keilwinkel P ROD . KEIL 100 ! " * keil Keilwinkel [s. K EIL 1B] K EIL 1A ! " * keil Keilwinkel [s. K EIL 1B] E CKE ! " + eck-, delta, gehrung, kant Eckverbindungen, Deltaschleifer, Gehrungssäge, Kantholz (Deltaschleifer) W INKEL 5A ! " + winkel Winkel P ROD . KEIL 102 ! '( ) schwalbenschwänze Schwalbenschwänze Tabelle 5: Ausschnitt: TLex-Gebärden und ihre Verwendungen Die damals vorgenommene Glossierung zeigt das Bemühen, die Beziehungen zwischen den Gebärden hinsichtlich Form, zugrunde liegendem Bild und Bedeutung deutlich zu machen. Dies wurde damals jedoch noch nicht konsequent umgesetzt. Dass es sich bei P ROD .K EIL 101 und K EIL 1B um dieselbe Gebärdenform handelt, die jedoch für verschiedene Bedeutungen verwendet wird, wurde im Gebärdenverzeichnis dadurch deutlich ge- <?page no="127"?> 127 macht, dass beim Eintrag K EIL 1B ein Verweis auf die formgleiche produktive Gebärde P ROD .K EIL 101 steht. Es handelt sich jedoch um dieselbe Gebärde, die je nach ihrer Verwendung verschieden glossiert wurde. Im Eintrag P ROD .K EIL 101 werden die konventionellen Verwendungen in der Bedeutung „Keil“ getrennt von den anderen Verwendungen aufgelistet. Weiterhin findet man eine Beschreibung des zugrunde liegenden Bildes der Gebärde sowie Verweise auf formgleiche oder formähnliche Gebärden. Im Vorwort (Arbeitgruppe Fachgebärdenlexika 1998: 5) wird auf die unterschiedliche Bedeutung dieser beiden Gebärden im Sinne von Johnston/ Schembri (1999) eingegangen. Während P ROD .K EIL 101 zur ersten Stufe der Konventionalisierung zählt (s. Kap. 2.3, Abb. 1) und die allgemeine Bedeutung: „ein keilförmiger, nach unten spitz zulaufender Gegenstand oder das Nachfahren der Form dieses Gegenstands mit flachen Händen“ hat, ist die Bedeutung „Keil“ lexikalisiert, d.h. es handelt sich um ein Lexem, das zur zweiten Stufe der Konventionalisierung zählt. Dies trifft auch auf die formgleichen Gebärden E CKE und W INKEL 5A zu. Beides sind Lexeme, d.h. sie haben eine Bedeutung, die spezifischer ist als die allgemeine, durch das Bild ausgedrückte Bedeutung „zwei in einem Winkel aufeinanderstoßende Flächen“. Das zugrunde liegende Bild dieser Gebärden ist jedoch gleich. Die Hände stehen für zwei Flächen, die eine Ecke bilden. Die Gebärde E CKE wird ebenso wie P ROD .K EIL 101 mit verschiedenen Ablesewörtern (‚delta‘, ‚gehrung‘, ‚kant‘) verwendet. Die Form der Gebärde variiert insofern, als die Wiederholung wegfällt, wenn die Gebärde nicht zur Übersetzung des zweisilbigen Wortes ‚Ecke‘, sondern dessen einsilbiger Stammform ‚Eck-‘ in Komposita wie ‚Eckverbindung‘ verwendet wird. Hier wurde jedoch vergessen, eine produktive Gebärde anzulegen, unter der die konventionelle und die verschiedenen produktiven Verwendungen dieser Gebärde aufgelistet werden, analog zu P ROD .K EIL 101. Der Eintrag E CKE enthält weiterhin einen Verweis auf die formgleiche Gebärde W INKEL 5A. Diese Beispiele sollen deutlich machen, dass das Kriterium der Konventionalität von (manueller) Form und Bedeutung und das Prinzip der spezifizierten Bedeutung nicht ausreichen, um einen strukturellen Zusammenhang zwischen K EIL 1B und P ROD .K EIL 101 herzustellen. Die Möglichkeit, konventionelle Gebärden mit verschiedenen Ablesewörtern zu kombinieren, um so spezifische Bedeutungen auszudrücken, und die Auswirkungen auf die Struktur des Lexikons, d.h. auf die Lemmaselektion, wurden noch nicht berücksichtigt. Dazu ist es notwendig, den Status der Ablesewörter zu klären sowie den Grad der Konventionalität von Gebärde-Ablesewort- Kombinationen. Weiterhin kann der durch die Gebärdenform gegebene Zusammenhang zwischen den Gebärden P ROD .K EIL 101 und P ROD .K EIL 102 nicht erklärt werden. Dies ist nur möglich, wenn das zugrunde liegende Bild der Gebärden und die Bilderzeugungstechnik in der Analyse berücksichtigt werden. Bei der Gebärde P ROD .K EIL 102 steht die analoge, wenn auch nicht maßstabsgetreue Darstellung der Form des Schwalbenschwanzes, der sich <?page no="128"?> 128 ebenfalls verjüngt, jedoch nicht in einer Spitze endet, im Vordergrund. Es handelt sich um eine produktive Gebärde im Sinne von Johnston/ Schembri (1999). Bei P ROD .K EIL 101 dagegen handelt es sich um eine grobe, schematische Skizzierung der Form des Gegenstands. Die Tatsache, dass diese Gebärde konventionalisiert in der Bedeutung „Keil“ verwendet wird und lediglich das Ablesewort ausgewechselt wird, um eine der o.g. Bedeutungen auszudrücken, spricht gegen die Klassifizierung dieser Verwendungen als produktive Gebärde. Die spezifische Bedeutung wird allein durch das Ablesewort vermittelt. Es gibt keine phonologischen oder morphologischen Merkmale, anhand derer der Bedeutungsunterschied festzumachen wäre. Ebenso verhält es sich mit den verschiedenen Bedeutungen, die mithilfe der Kombination der konventionellen Gebärde E CKE und dem entsprechenden Ablesewort ausgedrückt werden. Die Konsequenzen, die wir aus dem unbefriedigenden Ansatz im TLex gezogen haben, sind in Konrad (1999) skizziert. Die theoretischen und praktischen Entscheidungen, die getroffen wurden, um Probleme der Identifikation lexikalischer Einheiten und deren lexikalischer Analyse zu lösen, beziehen sich im Wesentlichen auf die beiden genannten Aspekte, die bei der Beschreibung des Lexikons der DGS nicht außer Acht gelassen werden können: das mit der Gebärde gleichzeitig lautlos artikulierte Ablesewort und die Ikonizität von Gebärden. Welche Auswirkungen dies auf die Token- Type-Zuordnung und die Organisation des Lexikons der DGS bzw. deren Modellierung in der lexikalischen Datenbank hat, wurde anhand konkreter Beispiele aus dem SLex-Projekt in König et al. (2008) skizziert. Die Einteilung ikonischer Gebärden anhand der Bilderzeugungstechnik wird in Langer (2005) eingehend beschrieben. Im Folgenden werde ich zunächst auf die Rolle der Ablesewörter (Kap. 4.1), dann auf die der Ikonizität (Kap. 4.2) näher eingehen. 4.1 Zur Rolle der Ablesewörter bei der Identifikation lexikalischer Einheiten 4.1.1 Nonmanuelle Elemente und Ablesewörter In der lexikalischen Beschreibung von Gebärdensprachen stehen die manuellen Handzeichen im Vordergrund. Diese werden jedoch häufig zusammen mit nonmanuellen Zeichen verwendet, das sind mimische und gestische Elemente, die durch Bewegungen im Gesicht (Augenbrauen, Augen (Öffnungsgrad, Blickrichtung), Wangen, Mund, Lippen), mit dem Kopf, den Schultern oder dem gesamten Oberkörper ausgedrückt werden. Diese nonmanuellen Elemente können lexikalische und syntaktische Funktionen haben. Haben sie lexikalische Funktion wie z.B. das Kopfschütteln, um die Bedeutung einer Gebärde zu verneinen, dann werden diese Bewegungen meist zeitgleich mit der Gebärde ausgeführt. In syntaktischer Funktion <?page no="129"?> 129 können sich diese Bewegungen wie z.B. das Heben der Augenbrauen und das Öffnen der Augen, um eine Frage auszudrücken, über mehrere Gebärden erstrecken. Da die Gesichtsbewegungen im zentralen Blickfeld des Gesprächspartners liegen, spielen sie eine besondere Rolle in gebärdensprachlichen Äußerungen. Der Öffnungsgrad der Augen und die Stellung der Augenbrauen kann neben einer grammatischen auch eine expressive Funktion haben im Zusammenhang mit dem gesamten Gesichtsausdruck. Die Blickrichtung (eye gaze) dient nach Hansen (2007) der morpho-syntaktischen Kodierung und ist nicht als gestisch einzustufen. Nach Cuxac (s. Kap. 4.3.3) ist der Blick das entscheidende Merkmal zur Unterscheidung einer ikonischen und einer nicht ikonischen Verwendung von Gebärden. Die Gesichtsmimik (facial expression), oft wird auch nur von Mimik gesprochen, dient häufig dazu, die Aktionsart von verbal gebrauchten Gebärden auszudrücken, oder sie dient zur Modifikation des Aspekts, der im Deutschen eher durch Adverbien oder Adjektive ausgedrückt wird (vgl. Boyes Braem 1995: 99-104). Im Vordergrund stehen dabei häufig die Mundbewegungen. Mittlerweile hat sich in der Gebärdensprachforschung durchgesetzt, zwischen zwei Arten von Mundbewegungen zu unterscheiden. Ebbinghaus/ Heßmann (1996: 38) sprechen von einem kategorialen Unterschied, der sich sowohl aus der Herkunft als auch der unterschiedlichen Wahrnehmung der Mundbewegungen erklären lässt. Auf der einen Seite gibt es Mundbewegungen, die als expressiv-gestischer Gesichtsausdruck wahrgenommen werden. Entscheidend ist, dass sie sich nicht auf die Artikulation von Wörtern zurückführen lassen. Diese Mundbewegungen werden als Mundgestik oder ‚mouth gestures‘ bezeichnet, hinsichtlich ihrer Funktion auch als „oral adverbials“ (Boyes Braem/ Sutton-Spence 2001: 3). Auf der anderen Seite gibt es Mundbewegungen, die absichtsvoll eingesetzt werden, um (meist) lautlos gesprochene Wörter zu artikulieren, die vom Gegenüber abgelesen werden sollen. Für diese Art der Mundbewegungen hat sich die Bezeichnung ‚Mundbilder‘ mittlerweile durchgesetzt. Diese Bezeichnung ist jedoch irreführend, da die Funktion dieser Mundbewegungen gerade darin besteht, dass sie nicht auf Bilder im Sinne einer analogen oder schematischen, ikonisch motivierten Repräsentation oder eines gestischen Ausdrucksverhaltens zurückgeführt werden können, sondern auf Wörter, d.h. auf arbiträre, nicht ikonische Form-Bedeutungs- Einheiten der Lautsprache. Während Ebbinghaus/ Heßmann (1990: 93) noch von „Mundbildgestalten“ sprechen, verwenden sie später die Bezeichnung ‚Ablesewörter‘ (Ebbinghaus 1998a, Heßmann 2001a). Diese Bezeichnung wird auch in dieser Arbeit verwendet. Im Englischen hat sich die Bezeichnung ‚mouthing‘ durchgesetzt, ab und zu findet man auch die genauere Umschreibung „mouthed words“. Im Deutschen wird alternativ auch die Bezeichnung ‚Wortbild‘ verwendet (Papaspyrou et al. 2008), womit eindeutig auf den Wortbezug dieser Mundbewegungen hingewiesen wird. Da dieser Wortbezug aber gerade dem Bildlichen widerspricht, ganz im <?page no="130"?> 130 Gegensatz zu der bereits etablierten Bedeutung von Wortbildern als mit Wörtern gemalte bzw. graphisch dargestellte Bilder, ist auch diese Bezeichnung eher unglücklich gewählt. Sutton-Spence/ Woll (1999: 81) verdeutlichen den Bezug zur Lautsprache durch die Bezeichnung „spoken component“, im Unterschied zu den „oral components“, womit sie die Mundgestik meinen. In diesem Zusammenhang ist die Frage interessant, ob Ablesewörter zu den nonmanuellen Elementen, oft auch als nonmanuelle Komponente bezeichnet, einer gebärdensprachlichen Äußerung gehören. Ebbinghaus/ Heßmann (1996: 38 f.) verneinen dies mit der einsichtigen Begründung, dass Ablesewörter nur in dem trivialen Sinn als nonmanuell bezeichnet werden können, dass Wörter in Lautsprachen typischerweise nicht mit den Händen artikuliert werden. Sie bezeichnen Ablesewörter auch als orale Komponente, im Unterschied zur manuellen und nonmanuellen Komponente. Die Tatsache, dass das Wort ‚oral‘ von Gehörlosen eher mit Oralismus in Verbindung gebracht wird und nicht mit seiner ursprünglichen, aus dem Lateinischen abgeleiteten Bedeutung „auf den Mund bezogen“, verstärkt den Wortbezug, der mit dieser Bezeichnung zum Ausdruck gebracht werden soll. Die orale Komponente entspricht damit der „spoken component“ von Sutton- Spence/ Woll (1999). Deren „oral component“ entspricht der Mundgestik, die Ebbinghaus/ Heßmann (1989) zur nonmanuellen Komponente zählen. Wie manuelle, nonmanuelle und orale Komponenten zeitgleich eingesetzt werden können, um Bedeutung zu kodieren, zeigt die Gebärde Z ITTERN 1 ( , ' + ). Sie wird üblicherweise mit folgenden Ablesewörtern 3 ausgeführt: ‚frieren‘, ‚gefroren‘, ‚erfrieren‘, ‚erfrierung‘, ‚einfrieren‘, ‚frost‘, ‚kalt‘, ‚kälte‘, ‚kühl‘, ‚abkühlen‘, ‚kühlschrank‘, ‚winter‘, ‚zittern‘. Weiterhin kann die Bedeutung unterstrichen werden durch vorgezogene Schultern, die gestisch untermalen, wie sich eine Person vor der Kälte zu schützen versucht. Das Ablesewort kann auch durch eine entsprechend expressive Mundgestik ersetzt werden, um die Bedeutung zu modifizieren im Sinne von beispielsweise „schrecklich kalt“ oder „starker Frost“. Lexikologisch und lexikographisch interessant ist die Frage, ob Mundgestik oder Ablesewörter obligatorischer Formbestandteil einer Gebärde sind, d.h. ob die Kombination der manuellen Form mit einem dieser Formelemente lexikalisiert ist. Da die Ablesewörter im Folgenden noch näher beschrieben werden, werde ich an dieser Stelle kurz auf die Mundgestik eingehen. Einige Gebärden werden besonders häufig mit einer bestimmten Mundgestik ausgeführt wie z.B. die Gebärde B ESITZEN 1 ( -) . ), die von einem Zischlaut, ähnlich der Artikulation des deutschen Zischlauts [ ʃ ], und leicht vorgestülpten Lippen begleitet wird. Im Englischen werden diese Gebärden multi-channel signs genannt, im Deutschen werden sie auch als ‚Spezialgebärden‘ 4 bezeichnet. Ebbinghaus/ Heßmann (2001: 146-149) dis- 3 Ablesewörter werden in dieser Arbeit durchgängig klein geschrieben. 4 Vgl. die Ausführungen zu Spezialgebärden in König et al. (in Vorb.). <?page no="131"?> 131 kutieren anhand dieser Gebärden die Frage, ob es eine Unterscheidung in motivierte und arbiträre Mundgestik gibt und kommen zu dem Schluss, dass eine klare Trennung nicht vorgenommen werden kann. Vergleicht man die verschiedenen Gebärden, die mit derselben Mundgestik ausgeführt werden, dann lässt sich immer der semantische Gehalt der Mundgestik bestimmen. Bei einigen ist dies offensichtlich, bei anderen schwieriger, aber es scheint so, dass jede Mundgestik ihren expressiven Charakter und damit ihre Motiviertheit nie ganz verloren hat. Dass es im Fall der Gebärde B ESITZEN 1 eine vergleichbare Mundgestik mit demselben semantischen Gehalt in der Niederländischen wie in der Britischen Gebärdensprache gibt, lässt vermuten, dass es sich um eine gemeinsame expressive Funktion handelt. Ähnlich wie bei der Bestimmung des ikonischen Gehalts einer Gebärde (s. Kap. 4.2.1) ist die Angabe der Bedeutung expressiver Gestik ein assoziativer Prozess, der stark auf die Intuition angewiesen ist. Im Fall von B ESITZEN 1 ist es nahe liegend, dass sowohl das Fingerspiel als auch der Zischlaut optisch und akustisch die Existenz von etwas Unspezifischem visualisieren. Das Bild der Gebärde kann beschrieben werden mit „viele kleine Dinge oder Lebewesen, die in Bewegung sind“. Dass diese Bewegung auch ein Geräusch erzeugt, ist nur folgerichtig, wenn auch für Gehörlose nicht wahrnehmbar. Dieser Bezug auf akustisch Wahrnehmbares kann als Weltwissen angesehen werden, das in der Sprache konserviert ist, hier im Geräusch des Zischlauts. Aufgrund der ausgewerteten Korpusdaten kommen Ebbinghaus/ Heßmann (2001) zu dem Schluss, dass nur in sehr wenigen Fällen die Mundgestik als obligatorischer Bestandteil der Gebärde belegt werden kann. Während einige Gebärden regelmäßig mit einer bestimmten Mundgestik kombiniert werden, werden andere Gebärden mal mit, mal ohne Mundgestik, mit verschiedenen Mundgestiken oder auch mit einem Ablesewort kombiniert. 4.1.2 Ablesewörter als beobachtbares Phänomen oder als Störfaktor Boyes Braem (1995: 119-121) hat schon früh auf „Mißverständnisse über Mundbilder und Gebärdensprache“ hingewiesen. Sie vermutet, dass durch den Vergleich mit der hoch angesehenen, weil am besten erforschten, Amerikanischen Gebärdensprache (ASL) Gehörlose den Gebrauch von Wörtern in ihrer eigenen Sprache als „falsch“ oder „unecht“ abwerten, da in der ASL weniger Ablesewörter verwendet werden. Dies wiederum liegt jedoch an dem entschieden stärkeren Einsatz des Fingeralphabets in der ASL im Vergleich zu vielen europäischen Gebärdensprachen. Welche Sprengkraft die Tatsache, dass Gehörlose deutsche Wörter benutzen, in der wissenschaftlichen Auseinandersetzung hat, zeigte sich in dem 1998 hauptsächlich zwischen Ebbinghaus (1998a, 1998b) und Leuninger (1998, Leuninger et al. 1997) ausgetragenen „Mundbild-Streit“. Ebbinghaus/ Heßmann (1996, 2001) führten ein DFG-Projekt zur „Integration deutscher Wortformen in gebärdensprachlichen Äußerungen“ durch, <?page no="132"?> 132 das auf der Grundlage eines umfangreichen Korpus 5 die Funktion der Ablesewörter klären sollte und gelangten zu dem Ergebnis, dass Ablesewörter integraler Bestandteil gebärdensprachlicher Äußerungen sind (Ebbinghaus/ Heßmann 1996, 2001; Ebbinghaus 1998a). Leuninger wie auch Happ/ Hohenberger (1998, Hohenberger/ Happ 2001) sind dagegen der Ansicht, dass es sich hierbei um historisch und durch die oral ausgerichtete Gehörlosenpädagogik bedingte Übergangsphänomene handelt, die mit der DGS nichts zu tun haben und daher keinerlei Berücksichtigung bei ihrer linguistischen Erforschung finden sollten. Auslöser des Streits war ein in der Fachzeitschrift Das Zeichen veröffentlichtes Interview mit Leuninger und Pater Amandus (Leuninger et al. 1997; hieraus die folgenden Zitate), in dem Leuninger die Wortbilder als ein „Machtmittel der Hörenden und bloß eine Gewohnheit“ darstellt, die verhindern, dass sich der Wortschatz entfaltet. Das heißt, diese Affäre mit dem Wortbild ist eine historische Angelegenheit und zirkulär: Solange dieser Wortschatz nicht entfaltet ist, brauche ich eine Wortbild. Belasse ich es dabei, entfaltet sich natürlich der gebärdensprachliche Wortschatz nicht. (525) Konsequenterweise wurde bei der Entwicklung eines Wörterbuchs für religiöse Gebärden (Leuninger et al. 2000) auf Ablesewörter verzichtet, denn: „Wir wollen wirklich ein DGS-Lexikon, keinen Mundbild-Ersatz für die Gebärde“ (523). Die Praxis der Frankfurter Katholischen Gehörlosenseelsorge, in Gottesdiensten, die in Gebärdensprache gehalten wurden, ganz auf Ablesewörter zu verzichten, ist in der Gehörlosengemeinschaft sehr heftig diskutiert worden. Die oben skizzierten Positionen polarisierten die Gehörlosen. Die einen hatten das Gefühl, dass man ihnen das Mundbild und damit ihre Art zu gebärden verbieten wolle, die anderen griffen die Argumentation der Ablesewörter als Machtmittel der Hörenden dankbar auf und forderten eine freie Entfaltung ihrer Sprache hin zu der „echten“, d.h. lautsprachfreien DGS. Der eigentliche wissenschaftstheoretische Kern dieser Auseinandersetzung liegt in dem alten Streit zwischen einer empirisch ausgerichteten deskriptiven Linguistik, die ausgehend von den Phänomenen nach Erklärungsansätzen sucht, und einer rational ausgerichteten Systemlinguistik, die Phänomene ausklammert, die nicht in das vorherrschende Erklärungsmodell passen. Leuninger bekennt sich durch folgende Äußerungen deutlich zur zweiten Position: „Ich kann mit keine systematische linguistische Theorie vorstellen, die eine plausible Erklärung für den (phonologischen) Zusammenhang von Wortbild und Gebärde herstellen könnte“ (524), und: „Der Ist-Bestand von DGS kann aus linguistischer Perspektive nicht das Wortbild enthalten, weil DGS eine visuell-motorische Sprache ist, deren Interpretation unabhängig von der Lautsprache ist. So stelle ich mir DGS vor“ (525). Die Auseinandersetzung um die Bewertung und den Stellenwert von Ablesewörtern in Gebärdensprachen hat auf wissenschaftlicher Seite 1998 5 Detaillierte Angaben zum Korpus findet man in Konrad (2010c). <?page no="133"?> 133 zu einem internationalen Workshop geführt, in dem Forschungsergebnisse zu acht europäischen Gebärdensprachen präsentiert und diskutiert wurden. In der Gehörlosengemeinschaft gibt es immer wieder die Tendenz, Ablesewörter als Fremdkörper zu interpretieren, die die Gebärdensprache dominieren (s. Morgenstern 2006). Dagegen melden sich wiederum andere Gehörlose zu Wort, die behaupten: „[D]ie gewöhnlich echten Gehörlosen- Gebärden mit Mundbild, die alle Gl [Gehörlosen] verstehen, ist die lebendige Basissprache“ (GL-C@FE 2008: 7.7.2008). 4.1.3 Positionen zum Status von Ablesewörtern in der Gebärdensprachforschung Die Frage, welchen Stellenwert Ablesewörtern in der Gebärdensprachforschung beigemessen werden sollte, wird sehr unterschiedlich beantwortet. Sie reicht vom Ausblenden bis zur Ausdifferenzierung konventioneller und produktiver Gebärde-Ablesewort-Kombinationen, wie sie in der lexikalischen Analyse im Rahmen der Fachgebärdenlexikographie am IDGS entwickelt wurde. Aus den von Boyes Braem/ Sutton-Spence (2001) veröffentlichten Beiträgen des Workshops lassen sich drei Positionen bestimmen. 4.1.3.1 Ablesewörter als Performanzphänomen Hohenberger/ Happ (2001) betrachten Ablesewörter aus Chomskys systemtheoretischer Sicht als ein Performanzphänomen, das aus der historisch bedingten Situation und Sozialisation Gehörloser inmitten einer von der Lautsprache dominierten Umgebung zu erklären ist. Ablesewörter sind Phänomene des Sprachkontakts und des Sprachwandels, die im Rahmen der Psycholinguistik interessante Untersuchungsobjekte darstellen, für die Beschreibung des Sprachsystems von Gebärdensprachen sind sie jedoch zu vernachlässigen, da sie nicht der Sprachkompetenz zuzurechnen sind. 4.1.3.2 Ablesewörter als Bestandteil der Gebärdenform Bergman/ Wallin (2001), Keller (2001) und Schermer (2001) gehen davon aus, dass Ablesewörter im Prozess der Lexikalisierung in das gebärdensprachliche System integriert werden und ihren in der Lautsprache vorhandenen bedeutungstragenden Charakter verlieren. Dementsprechend sind sie den Formparametern der Gebärde gleichzustellen und bei der Bestimmung von lexikalischen Einheiten zu berücksichtigen. Bergman/ Wallin (2001) beschreiben Mundbewegungen, die ursprünglich aus dem Schwedischen stammen, jedoch im Prozess der Lexikalisierung an die Erfordernisse der visuell-gestischen Kommunikation angepasst wurden und sich durch ein begrenztes Set von Merkmalsausprägungen beschreiben lassen. So umfassen diese Mundbewegungen, die die als Autoren „mouth <?page no="134"?> 134 components“ bezeichnen, maximal drei Segmente und lassen sich nur noch auf visuell sichtbare Phoneme beziehen (Bergman/ Wallin 2001: 61). Schermer (2001) hebt die disambiguierende oder komplementierende Funktion von Ablesewörtern hervor und stellt sie als strukturelles Merkmal anderen Formparametern gleich. This decision followed from the point of view that in these cases the required mouthings are considered to be part of the sign. If a mouthing is part of a sign, it is a separate sign from all other signs, whether it differs with respect to the nonmanual part of the sign or any other parameter. There seems to be no reason to treat signs that differ minimally in the nonmanual part (whether it be mouthings or mouth gestures) differently from signs that differ minimally in handshape, movement or location. (Schermer 2001: 281) Verkürzte Ablesewörter werden als Mundgestik angesehen. Die Veränderung der Wortform wird als Lexikalisierungsprozess interpretiert, ähnlich wie es Schroeder (1985) für die Norwegische Gebärdensprache (NTS) postuliert. Dieser Prozess scheint jedoch in der Niederländischen Gebärdensprache (NGT) noch nicht abgeschlossen zu sein, da nicht einheitlich dieselben verkürzten Wortformen verwendet werden. Weitere Forschung ist notwendig, um genauere Aussagen über den Einfluss der Mundgestik auf die lexikalische Struktur der NGT treffen zu können. Keller (1998: 437) stellt aus kognitiver und informationstheoretischer Sicht „Überlegungen zu einer generalisierten Phonetik und Phonologie von Artikulatoren“ an. Anstatt wie Ebbinghaus/ Heßmann (1989, 1996) eine kategoriale Unterscheidung zwischen Mundgestik und Ablesewörtern zu treffen, sollten Mundbewegungen - Keller verwendet hierzu Mundbilder als Oberbegriff, dem Mundgestik und Wortbilder untergeordnet sind - möglichst theorieneutral anhand ihrer Bewegungs- und Stellungsmerkmale beschrieben werden. Keller greift Alichs (1960) Kinemtheorie auf, ohne jedoch die Kineme den Phonemen gleichstellen zu wollen. Sein Vorschlag ist, eine „‚Bewegungs- und Stellungsphonetik‘“ (Keller 1998: 440) zu entwickeln, aus der eine „‚phonologische‘ Beschreibung von Kinemen“ abgeleitet werden kann. Diese kann, muss aber nicht in Beziehung zu einer lautsprachphonologischen Beschreibung gesetzt werden. Hintergrund dieser Überlegungen ist die seit den 1970er-Jahren durch den McGurk-Effekt bekannte Tatsache, dass auch Hörende Sprache bimodal verarbeiten, d.h. nicht nur die Laute, sondern auch die sichtbaren Artikulationsbewegungen verarbeiten. In der Überarbeitung dieses Artikels weist Keller (2001) auf das methodische Problem hin, dass die intuitiv vorgenommene Unterscheidung zwischen Mundbewegungen, die der Artikulation von Wörtern zuzuordnen sind, und Mundbewegungen, die nichts mit der Artikulation von Wörtern zu tun haben, verhindert, die verschiedenen kinematischen Merkmale von Ablesewörtern zu bestimmen und aufgrund einer breiten Datenbasis Rückschlüsse auf distributionelle Muster und deren Funktionen zu schließen. Eine distributionelle Analyse der phonologischen Merkmalen der Ablesewörter und der kinematischen Merkmalen der manuellen Gebärden mit dem Ziel, <?page no="135"?> 135 das mehr oder weniger zufällige Zusammentreffen dieser kategorial verschiedenen Merkmale systematisch zu erklären, ist unbefriedigend, sowohl in Bezug auf die Beschreibung eines lexikalischen Eintrags als auch im Hinblick auf das Prinzip der Sprachökonomie. Als Argument für eine kinematische Beschreibung von Mundbewegungen führt Keller Spracherwerbsdaten gehörloser Kinder an, die die Schlussfolgerung nahelegen, dass kinematische Merkmale früher erworben werden als phonetische, die der Lautsegmentierung dienen. Ein kinematisches Modell ist erklärungs- und beschreibungsadäquater und hat den Vorteil, dass dadurch sämtliche Mundbewegungen mit einbezogen werden. 4.1.3.3 Ablesewörter als in die Gebärdensprache integrierte Zeichen der Lautsprache Wie bereits erwähnt, vertreten Ebbinghaus/ Heßmann (1989, 1996, 2001) die These, dass Ablesewörter integraler Bestandteil gebärdensprachlicher Äußerungen sind. Neben den manuellen und nonmanuellen Zeichen können Gebärdensprachen über die Ablesewörter auf den Bestand der lexikalischen Einheiten von Lautsprachen zurückgreifen. Dabei werden die syntaktischen Eigenschaften der Wörter vernachlässigt. Lediglich ihre lexikalische Bedeutung wird genutzt. Gebärde und Wort treten in ein dynamisches Verhältnis und kontextualisieren sich wechselseitig. Nach Ebbinghaus/ Heßmann (2001: 134) lässt sich diese Kombination zweier verschiedener Zeichentypen in einem rein technischen Sinn als Alignierung, d.h. eine zeitliche Parallelisierung, beschreiben oder im korpuslinguistischen Sinn als „simultane Kollokation“, d.h. als zeitliches Zusammentreffen zweier bedeutungstragender sprachlicher Einheiten. Wie bei Kollokationen lassen sich bei der Kombination von Gebärde und Ablesewort statistisch häufig vorkommende von vereinzelt vorkommenden Kombinationen unterscheiden. Angaben über konventionalisierte und selten oder nie vorkommende Gebärde-Ablesewort- Kombinationen sollten Teil der lexikographischen Beschreibung von Gebärden sein (s. Kap. 4.1.5). Als Modell, mit dem sich die beobachteten Regelmäßigkeiten erklären lassen, greifen Ebbinghaus/ Heßmann (1996) auf das der „dual representation language“ von Macken et al. (1993) zurück. Wie zwischen den konventionellen und den Klassifikatorgebärden, die Macken et al. (1993) als „richly grounding symbols“ bezeichnen, besteht auch zwischen Gebärden und Ablesewörtern eine Art Arbeitsteilung: What can be shown by richly grounding symbolism need not be put into word, provided that the referential identity of the actors or objects being shown to be involved in some action is beyond doubt. In contrast, if referential clarity is sought, the denoting power of words comes into its own, even within a sign language context. (Ebbinghaus/ Heßmann 1996: 49) Dies erklärt ein für gebärdensprachliche Äußerungen typisches Muster, das aus einem steten Wechsel zwischen referenziellen und prädikativen Ausdrücken besteht. Werden Redegegenstände benannt, z.B. wenn sie neu <?page no="136"?> 136 eingeführt werden, dann steht die Funktion der Denotation im Vordergrund. Diese Gebärden werden üblicherweise zusammen mit einem Ablesewort ausgeführt. Wird dieser Redegegenstand oder seine Handlung näher beschrieben, dann steht die Funktion der Anschauung im Vordergrund. Alles, was anschaulich gezeigt werden kann, muss nicht mithilfe von Ablesewörtern zusätzlich benannt werden. Dieser Wechsel zwischen Benennung und Anschauung (Ebbinghaus/ Heßmann 2000: 56-62), in dem die Ablesewörter vor allem die Funktion der Benennung übernehmen, entspricht den von Cuxac (2000: 29) beschriebenen „continuels passages“ zwischen einer nicht ikonischen und einer ikonischen Darstellung. Die nicht ikonische Darstellung wird von konventionellen Gebärden 6 übernommen, deren ikonisches Potenzial in diesem Kontext nicht abgerufen wird. Dies deckt sich mit der Beschreibung von Ebbinghaus/ Heßmann (2000) insofern, als diese Gebärden häufig mit Ablesewörtern kombiniert werden, die die referenzielle Funktion übernehmen. Die Gebärden treten in den Hintergrund und dienen lediglich als geeignetes Kontextualisierungsmittel, um das Ablesen zu erleichtern und abzusichern. Bei der ikonischen Darstellung stellt der Gebärdende bewusst die Bildhaftigkeit der Gebärden in den Vordergrund im Sinne der Anschauung. Diese Gebärden werden selten mit Ablesewörtern kombiniert. Die erste Position misst den Ablesewörtern keine Relevanz für die linguistische Beschreibung von Gebärdensprachen zu, d.h. sie sind für eine lexikologische und lexikographische Beschreibung zu vernachlässigen. Die zweite Position hat zur Konsequenz, dass Gebärden, deren manuelle Form identisch ist und die sich nur im Ablesewort unterscheiden, verschiedene lexikalische Einheiten darstellen, da sie sich in Form und Bedeutung unterscheiden. Dies hat zur Folge, dass damit ein Großteil des lautsprachlichen Wortschatzes auf das Lexikon der jeweiligen Gebärdensprache übertragen wird. Zu demselben Schluss kommt Heßmann (2001a: 46-51), der seine Bemühungen, die im Korpus enthaltenen Gebärden als Token eines Types zu identifizieren, mit dem pragmatischen Vorgehen, von der Lautsprache auszugehen und nach DGS-Entsprechungen zu suchen, das für die Erstellung der sogenannten Blauen Bücher (Starcke/ Maisch 1977, Maisch/ Wisch 1988-1994) gewählt wurde, kontrastiert. Er kommt zu dem Schluss, dass dieses Verfahren auf eine Projektion des deutschen Wortschatzes auf dafür geeignet scheinende Gebärden hinaus[läuft]. […] Über den empirischen Status einzelner Handzeichen und die immanente Strukturierung des Lexikons der Deutschen Gebärdensprache kann auf diesem Weg jedoch kein Aufschluß gewonnen werden“ (Heßmann 2001a: 47). 6 Cuxac (2000) spricht noch von Standardgebärden („signes standards“), in Cuxac/ Pizzuto (2010: 44) wird diese Bezeichnung korrigiert in „Wort-Gebärden“ („signesmots“; s. Kap. 4.3.3). <?page no="137"?> 137 Fasst man Mundbewegungen als Teil des phonetischen Inventars von Gebärden auf, so muss man bei formgleicher manueller und oraler Artikulation bei unterschiedlicher Bedeutung von Homonymen ausgehen. Weiterhin muss man bei diesem Ansatz zwischen obligatorischen und fakultativen Mundbewegungen unterscheiden, was nicht zuletzt didaktische Konsequenzen nach sich zieht. Zusammenhänge zwischen Gebärden mit derselben manuellen Form müssten durch geeignete Glossierung oder Verweise hergestellt werden. Unterschiede in der Häufigkeit der Kombination von manueller Gebärdenform und Ablesewort wären irrelevant. Die dritte Sichtweise wird oft aus emotionalen und sprachpolitischen Gründen abgelehnt, weil sie von einer regelmäßigen Integration lautsprachlicher Elemente in das gebärdensprachliche Kommunikationssystem ausgeht. Sie widerspricht dem von Erlenkamp (1998: 100) benannten „Bedürfnis von Minderheitensprachgemeinschaften nach deutlicher Abgrenzung gegen die umgebende Mehrheitensprache.“ Hinzu kommt die Sorge, dass dieser Beschreibungsansatz als Argument gegen die Eigenständigkeit und damit auch gegen die Vollwertigkeit von Gebärdensprachen missbraucht werden könnte. Padden (1990, 1991), Johnston (1991) und Ebbinghaus/ Heßmann (z.B. 1994a: 481), Ebbinghaus (1998c) hingegen sehen Gebärdensprachen als hinreichend legitimiert an und plädieren dafür, die beobachtbaren Phänomene, auch wenn sie aus der Lautsprache stammen wie Fingeralphabet und Ablesewörter, auf einer empirischen Datengrundlage wissenschaftlich vorurteilsfrei und angemessen zu beschreiben. Die Annahme, dass Gebärdensprachen wie die DGS verschiedene Zeichensysteme in dynamischer und produktiver Weise miteinander kombinieren, erlaubt es, mithilfe korpuslinguistischer Methoden die Konventionalisierung von Gebärden sowie den Grad der Konventionalisierung von Gebärde-Ablesewort-Kombinationen empirisch zu untersuchen. Gleichzeitig unterstreicht die These der wechselseitigen Kontextualisierung von Gebärde und Ablesewort die Rolle der Ikonizität und ihren Einfluss auf die Struktur des Lexikons. Ebbinghaus/ Heßmann (1991: 57), die sich gegen eine „‚Linguistisierung‘“ gebärdensprachlicher Phänomene aussprechen, stellen im Zusammenhang mit der Beschreibung ikonischer Zeichenprozesse wie der Modellierung fest: „Beschreibungen, die keinen Bezug auf die ikonischen Zeichenprozesse von Gebärdensprachen herstellen, dürften dem Phänomen selbst letztlich äußerlich bleiben.“ Der im Rahmen der Erstellung von Fachgebärdenlexika entwickelte Ansatz der lexikologischen und lexikographischen Beschreibung der DGS ist der Versuch, die These der wechselseitigen Kontextualisierung von Gebärde und Ablesewort zu konkretisieren. Im Folgenden wird diese These von Ebbinghaus & Heßmann näher vorgestellt, bevor die Konsequenzen für die Identifikation lexikalischer Gebärden im Detail beschrieben werden. <?page no="138"?> 138 4.1.4 Wechselseitige Kontextualisierung von Wort und Gebärde Als Gegenentwurf zu den o.g. ersten beiden Positionen haben Ebbinghaus/ Heßmann (1989, 1996, 2001) die These der wechselseitigen Kontextualisierung von Wort und Gebärde aufgestellt, gestützt auf die Daten des von ihnen durchgeführten empirischen Forschungsprojekts zur Funktion von Ablesewörtern in der DGS. Das Ablesen von den Lippen, bei dem es nicht darauf ankommt, bestimmte Wortformen zu erkennen, sondern Lexeme, auf die diese Ablesegestalten verweisen, kann nur gelingen, wenn es ausreichend kontextuelle Informationen gibt, die auf die Bedeutung dieser Lexeme hinweisen. Gebärden sind, was immer sie sonst sein mögen, unter anderem auch hervorragende Kontextualisierungsmittel für Ablesewörter. Sie sind visuell gut zugänglich, häufig von großer ikonischer Aussagekraft und nicht zuletzt verfügen sie zumindest in ihrem Kernbestand über eine konventionalisierte Bedeutung. Eine Gebärde kann deshalb den Sinnhorizont eröffnen, der die Frage nach der Identität einer visuellen Wortgestalt unmittelbar auf einige wenige Alternativen einschränkt. (Ebbinghaus 1998a: 446) Ebbinghaus betont, dass die primäre Funktion der Kontextualisierung darin besteht, die Wahrnehmung zu erleichtern, indem die Zeichenkonstellation stabilisiert und die intendierte Bedeutung abgesichert wird. Syntaktische und semantische Beziehungen zwischen Ablesewort und Gebärde sind gegenüber der Wahrnehmungserleichterung und damit der Absicherung und dem Gelingen der Kommunikation nachgeordnet. Der einfachste Fall, dass das Ablesewort die konventionalisierte Bedeutung einer Gebärde wiedergibt und Gebärde und Wort somit semantisch identisch sind, wird oft als redundant im Sinne von „überflüssig“ abgetan. Im nachrichtentechnischen und informationstheoretischen Sinn hat Redundanz jedoch eine signalverstärkende Funktion. Da das Ablesen störanfällig ist, ist die Absicherung der Kommunikation durch „verdoppelnde“ Ablesewörter umso nahe liegender. Hinzu kommt, dass Redundanz auch in natürlichen Sprachen allgegenwärtig ist, gewissermaßen als Gegengewicht zu der im Prinzip stets vorhandenen Mehrdeutigkeit natürlichsprachlicher Äußerungen. Semantische Identität scheint nach Ebbinghaus jedoch eher der Sonderfall zu sein, der entweder in der Struktur des deutschen Wortschatzes begründet liegt oder in außersprachlichen Gegebenheiten. Der Normalfall ist die produktive Kombination von Wort und Gebärde, die mehr oder weniger gut vorhersehbar ist. Dass sich Gebärde und Wort wechselseitig kontextualisieren, heißt, dass jedes der beiden Zeichen eine spezifische Funktion übernimmt. Die Gebärde stellt einen geeigneten Kontext bereit, der das Ablesen in die richtige Richtung lenkt. Dies gelingt entweder durch die konventionalisierte Bedeutung einer Gebärde oder ihren ikonischen Gehalt. Das Wort wiederum spezifiziert eine von vielen Bedeutungen, die aufgrund des ikonischen Potenzials der Gebärde realisiert werden kann. Dieses trifft insbesondere auf Gebärden <?page no="139"?> 139 zu, die eine relativ unspezifische Form haben, deren ikonischer Gehalt mit den verschiedensten Bedeutungen assoziiert werden kann. Ein Beispiel ist die Gebärde F LACH 1A ( ! " #$% & ), die in unserer lexikalischen Datenbank häufig mit folgenden Ablesewörtern vorkommt: ‚basis‘, ‚boden‘, ‚bühne‘, ‚erdgeschoss‘, ‚feld‘, ‚fläche‘, ‚fußboden‘, ‚grund‘, ‚grundlage‘, ‚land‘, ‚platte‘, ‚platz‘, ‚prinzip‘, ‚pult‘, ‚teppich‘, ‚tisch‘. Zusätzlich gibt es folgende produktiven Gebärde-Ablesewort-Kombinationen: ‚auf‘ <PVC-Fußboden> 7 , ‚auslegen‘, ‚bank‘ <Fensterbank>, ‚basal‘ <Basale Stimulation>, ‚basieren‘, ‚beet‘ <Anstaubewässerung>, ‚belag‘ <Fußbodenbelag>, ‚belegen‘, ‚bett‘, ‚blech‘ <Backformen>, ‚bottom‘ <Bottom-up>, ‚brett‘ <Ärmelbrett>, ‚desktop‘, ‚dielen‘ <Holzdielen>, ‚erde‘, ‚existenz‘ <Existenzminimum>, ‚fach‘ <Integrationsfachdienst>, ‚fächer‘ <Fächerbesen>, ‚fliesen‘, ‚folie‘ <Alufolie>, ‚form‘ <Auflaufform>, ‚fundament‘, ‚glas‘ <Fensterglas>, ‚graben‘ <Grabenbrücke>, ‚hektar‘, ‚küche‘ <Küchenunterschrank>, ‚lage‘ <Lebenslage>, ‚lager‘ <Lagerpflanzen>, ‚lagerung‘ <Kühllagerung>, ‚leinen‘, ‚linoleum‘ <PVC-Fußboden>, ‚mittel‘ <Einweichmittel>, ‚rasen‘ <Fertigrasen>, ‚schicht‘ <Ausgleichsschicht>, ‚schrank‘ <Unterschrank>, ‚sofa‘ <absaugen>, ‚stahl‘ <Edelstahl(spüle)>, ‚standard‘ <Lebensstandard>, ‚unten‘ <Unterschrank>, ‚unterlegen‘ <auslegen>, ‚vlies‘ <Wurzelschutzvlies>, ‚wasser‘ <Wasserbad>, ‚zeile‘ <Küchenzeile>. Die Vielfalt der Verwendungsmöglichkeiten lässt sich nicht durch die unmittelbare semantische Verwandtschaft der Ablesewörter erklären. Was man als ihre gemeinsamen abstrakten Bedeutungsmerkmale ausmachen kann, entspricht vielmehr genau dem, was die Gebärdenform ikonisch abbildet. Das klassenbildende Merkmal, das die Assoziation verschiedener Wörter mit einer Gebärde erlaubt, geht also auf den gemeinsamen bildlichen Gehalt der Referenzobjekte zurück, den die Gebärde aufgreift. Der für unterschiedliche Deutungen offene ikonische Gehalt solcher Gebärden erlaubt dementsprechend die Verbindung mit all den Wörtern, die einen Gegenstand bezeichnen, der die in der Gebärde erfaßten allgemeinen Gestaltmerkmale aufweist. (Ebbinghaus 1998a: 595) In einigen Kombinationen zeigt sich, dass es nicht nur eine paradigmatische Beziehung zwischen Gebärde und Ablesewort gibt, bei der der relativ unspezifische Bedeutungskern der Gebärde ersetzt wird durch die spezifische Bedeutung des Ableseworts, sondern auch eine syntagmatische. In diesen Fällen wird die Bedeutung der Gebärde nicht ersetzt, sondern ergänzt. Dies ist bei ‚linoleum‘ <PVC-Fußboden> - die Bedeutung der Gebärde F LACH 1A ist „Fußboden“, das Ablesewort ergänzt diese zu „Linoleumfußboden“ - und „stahl“ <Edelstahl(spüle)> - die Bedeutung der Gebärde F LACH 1A ist „Spüle“, das Ablesewort ergänzt diese zu „Spüle aus (Edel-) stahl“ - der Fall. Das von Ebbinghaus angeführte Beispiel ist H AAR / blond in der Bedeutung „blondes Haar“. Die paradigmatische Ersetzung ist jedoch wesentlich häufiger als die syntagmatische Ergänzung. 7 In spitzen Klammern ist der dazu abgefragte Begriff bzw. das vollständige Wort notiert. <?page no="140"?> 140 Diese Beobachtungen machen deutlich, dass das Ablesewort „kein Doppelgänger der Gebärde“ und die Gebärde „kein visuelles Pendant des lautsprachlichen Wortes“ ist (Ebbinghaus 1998a: 596). Vor diesem Hintergrund ist die Gleichsetzung von Wort und Gebärde, die implizit und explizit in der Gebärdensprachforschung und insbesondere in der Lexikographie vorgenommen wird (s. Kap. 2.3), äußerst problematisch. Denn im Unterschied zu den Wörtern einer Lautsprache tritt bei der paradigmatischen Ersetzung die lexikalische Bedeutung der Gebärde zurück zugunsten einer durch das Ablesewort spezifizierten Bedeutung. Die Funktion der Gebärde besteht darin, auf diese intendierte Bedeutung zu verweisen. Heßmann (1996: 228) hat in seiner Untersuchung zu Eigennamen in der DGS auf diese Verweisfunktion des Handzeichens und seine verschiedenen Motivierungen aufmerksam gemacht. Die verweisende Funktion des Handzeichens tritt hervor, wo nicht auf ein konventionelles Zeichen zurückgegriffen werden kann und semantische oder formale Bezüge zwischen Gebärde und gesprochenem Wort ausgenutzt werden. Verweise lassen sich in diesen Fällen als objektbezogene, wortassoziative oder graphemorientierte Motivierung des manuellen Zeichens realisieren. Eine wortassoziative Motivierung ist z.B. in den Kombinationen der Gebärde F LACH 1A mit den Ablesewörtern ‚lager‘ <Lagerpflanzen> und ‚lagerung‘ <Kühllagerung> enthalten. Die Wörter ‚Lager‘ und ‚Lagerung‘ werden mit ‚Lage‘ assoziiert, das semantisch mit ‚liegen‘ in Verbindung steht und dadurch wiederum mit dem ikonischen Gehalt der Gebärde übereinstimmt. Weitere Verweisfunktionen werden in Kap. 4.1.5.3 genannt. Nimmt man die von Heßmann vorgetragene Funktionsweise von Gebärden in Kombination mit Ablesewörtern ernst, dann hat dies radikale Konsequenzen für die Frage, was die Bedeutung dieser Gebärden ist. Nach Heßmann tritt in diesen Beispielen die Bedeutung der Gebärde zurück hinter ihre Verweisfunktion. Sie ist lediglich als Handlungsanweisung zu verstehen, die zur möglichst eindeutigen Identifizierung des Ableseworts führen soll. Die Handlungsanweisung bei der Verwendung von F LACH 1A in Kombination mit einem Ablesewort wäre demnach: Suche das Ablesewort unter den Wörtern, die im weitesten Sinn mit einer Fläche, einem flachen Gegenstand oder dem Ausbreiten eines Gegenstands auf einer Fläche zu tun haben. Führt dies nicht zum Ziel, dann helfen möglicherweise Wortassoziationen weiter, ausgehend von den konventionalisierten Bedeutungen dieser Gebärde. Dies trifft auch auf die Fremdwörter ‚bottom‘ und ‚Desktop‘ sowie die Lehnwörter ‚basal‘ und ‚basieren‘ zu, deren deutsche Entsprechungen ‚Boden‘, ‚Schreibtisch‘ und ‚grundlegend‘ bzw. ‚sich auf einer Grundlage befinden‘ eine indirekte Ablesehilfe darstellen. Ebbinghaus (1998a: 198) gibt die Quantität des Auftretens von Ablesewörtern für einen natürlichsprachlichen DGS-Text mit 1: 2 an, d.h. dass durchschnittlich jede zweite Gebärde zusammen mit einem Ablesewort ausgeführt wird. Wird eine Gebärde ohne Ablesewort ausgeführt, dann <?page no="141"?> 141 lässt sich dies aus dem Kontext heraus erklären: Es handelt sich entweder um einen bestimmten Gebärdentyp (deiktische, produktive, expressive Gebärden oder gebärdensprachliche Verben) oder das Ablesewort wird durch mehrere Gebärden kontextualisiert wie z.B. im o.g. Beispiel, bei der die Gebärde F LACH 1A ( ! " #$% & ) zusammen mit dem Ablesewort ‚wasser‘ artikuliert wird; tatsächlich wird jedoch das Ablesewort gestreckt über die Gebärden W ASSER 1 ( ! / 01 234 01 234 ) und F LACH 1A, die zweite Gebärde tritt in illustrierender Funktion hinzu, indem sie die Wasseroberfläche nachzeichnet, unter die die Wäsche gedrückt wird. Weiterhin kann es sein, dass die Rollenbenennung durch nonmanuelle Mittel ausreichend klargestellt ist oder dass bei einer mehrfachen Benennung die zusätzliche Absicherung durch das Ablesewort kontextuell überdeterminiert wäre. Aus den genannten Beobachtungen und Überlegungen heraus kommt Ebbinghaus zu dem Schluss, dass zumindest für eine Gebärdensprache wie die DGS Ablesewörter notwendige Bestandteile dieser Sprache sind, die sich insbesondere auf das gebärdensprachliche Lexikon auswirken. Dieses unterschiedet sich von dem Lexikon gesprochener Sprachen in den folgenden vier Punkten: 1. Eine Gebärdensprache verfügt über einen vergleichsweise kleinen Bestand konventioneller Zeichen; 2. Eine Gebärdensprache verfügt über einen umfangreichen ‚Ad-hoc-Wortschatz‘; 3. Gebärden erscheinen kategorial wenig festgelegt; 4. Die Gebärdensprache toleriert einen nicht unerheblichen Grad an Unbestimmtheit der manuellen Form. (Ebbinghaus 1998a: 607) Weiterhin weist Ebbinghaus (1998a: 610) auf die Spezifik von Gebärdensprachen hin, die sich daraus für eine morphologische und lexikalische Analyse zwangsläufig ergibt: Das Auftreten von Ablesewörtern erlaubt Gebärden im Vergleich zu Wörtern, weitere und vagere Bedeutungsspektra abzudecken, flexiblere Modifikationen, eine größere kategoriale Unbestimmtheit und den weitgehenden Verzicht auf Lexikalisierung ihrer spontan gebildeten Formen. 4.1.5 Konsequenzen für die Identifikation lexikalischer Einheiten 4.1.5.1 Theoretische und terminologische Konsequenzen Die Gleichsetzung von Wort und Gebärde ist insofern nicht falsch, als auch für konventionelle Gebärden eine begrenzte Anzahl von Bedeutungen bestimmt werden kann. Die Anzahl der Kontexte, in denen eine konventionelle Gebärde verwendet werden kann, ist jedoch viel größer als bei Wörtern. Die Tatsache, dass bestimmte Ablesewörter häufig zusammen mit einer Gebärde ausgeführt werden, andere wiederum eher selten, macht es schwer, die Frage nach der Bedeutung konventioneller ikonischer Gebärden zufriedenstellend zu beantworten. Davon hängt jedoch die Frage <?page no="142"?> 142 ab, was als Lexem angesehen werden soll und einen eigenständigen Eintrag in der lexikalischen Datenbank bzw. einem Wörterbuch erhält. Diese Entscheidung, die im Rahmen der Lemmaselektion getroffen wird, bestimmt wiederum die Token-Type-Zuordnung. Nach der in Kap. 4.1.3 vorgestellten Position, die das Ablesewort als Bestandteil der Gebärdenform ansieht, d.h. als phonologisch relevante Merkmale, müssten für die o.g. Verwendungen der Gebärde F LACH 1A verschiedene Einträge angelegt werden, sobald sich die Artikulationsformen der Ablesewörter voneinander unterscheiden, d.h. es müssten weit über 50 Einträge angelegt werden. Die verschiedenen Ausführungen können, auch wenn sie sich in der Form nur minimal unterscheiden, nicht als Varianten angesehen werden, da sich die Bedeutung voneinander unterscheiden. Verfährt man nach dem Prinzip der spezifizierten Bedeutung (Johnston/ Schembri 1999: 146), dann sind die besonders häufigen, d.h. konventionalisierten Gebärde-Ablesewort-Kombinationen geeignete Kandidaten für eine lexikalische Einheit. Unter semantischen Aspekten könnte man verwandte Bedeutungen, die in demselben Wortfeld liegen, als Polyseme auffassen und würde sie unter demselben Eintrag auflisten, so z.B. bei der Gebärde F LACH 1A die Bedeutungen „Boden“, „Grund“, „Feld“, „Fläche“, „Fußboden“, „Land“ und „Platz“. Die Bedeutungen „Basis“, „Prinzip“ und „Grundlage“ sind metaphorische Ableitungen der genannten Bedeutungen und würden einen weiteren Eintrag erfordern. Die weiteren Bedeutungen („Bühne“, „Erdgeschoss“, „Platte“, „Pult“, „Tisch“, „Teppich“) würden ebenso weitere Einträge erfordern, da sie semantisch nicht voneinander abgeleitet werden können. Dieses Vorgehen würde acht Einträge erfordern, die jeweils dieselbe Gebärdenform mit den verschiedenen Bedeutungen auflisten. Ein aktuelles Beispiel eines Gebärdensprachwörterbuchs, das das semantische Kriterium für die Lemmaselektion anwendet, ist in Troelsgård/ Kristoffersen (2008: 656) beschrieben. „In the Danish Sign Language dictionary project, we allow only meanings that are semantically closely related from a synchronous point of view (as well as their transparent figurative uses) to occur together in one entry.“ Dieses Verfahren erlaubt es jedoch nicht, die weiteren 43 Verwendungen dieser Gebärde den acht Einträgen zuzuordnen, da sie semantisch zu weit voneinander entfernt sind. Das Problem dieses Beschreibungsansatzes liegt darin, dass das dynamische Verhältnis zwischen Gebärde und Ablesewort gewissermaßen eingefroren und bestimmte Kombinationen dieser verschiedenen Zeichentypen als eigenständige Einheit des gebärdensprachlichen Lexikons angesehen werden. Ebbinghaus/ Heßmann (2001) dagegen plädieren dafür, diese Kombinationen als simultane Kollokationen anzusehen. Anstatt verschiedene Lexeme anzulegen, sollten in einem gebärdensprachlichen Eintrag die regulären Kombinationsmöglichkeiten angegeben werden bzw. das Spektrum der Kombinationsmöglichkeiten, das von regulären Gebärde- Ablesewort-Kombinationen bis zu wortunabhängigen Verwendungen der Gebärde reicht. <?page no="143"?> 143 Some such combinations occur with greater regularity than others and can be regarded as simultaneous collocations. Information about regular collocations with nonmanually produced units should be part of the lexicographic description of the manual lexicon of a sign language, though pairs of simultaneously related signals should not be reduced to the status of single signs. (Ebbinghaus/ Heßmann 2001: 134) Dadurch kann die Trennung in produktive und konventionelle Gebärden aufrechterhalten werden, ohne dass ein Zuordnungsproblem für produktive Gebärde-Ablesewort-Kombinationen entsteht. Weiterhin wird eine künstliche Ausdehnung des lexikalischen Bestands vermieden sowie die teilweise problematische Abgrenzung von Lexemen aufgrund ihrer semantischen Eigenschaften. Konventionelle ikonische Gebärden, die durch ihren ikonischen Gehalt einen Hinweis auf das abzulesende Wort geben, bringen ebenso wie produktive Gebärden eine allgemeine, aus dem ikonischen Gehalt der Gebärdenform bestehende Bedeutung mit ein, entsprechend der ersten Stufe der Konventionalisierung (Johnston/ Schembri 1999). Im Unterschied zu produktiven Gebärden wird die spezifische Bedeutung nicht durch den Äußerungskontext, sondern das zeitgleich artikulierte Ablesewort realisiert, auf das die Gebärde verweist. Ein weiterer Unterschied besteht darin, dass für konventionelle Gebärden mindestens eine spezifische Bedeutung angegeben werden kann, die diese Gebärde unabhängig vom Kontext und vom ikonischen Gehalt ausdrückt, d.h. sie sind auf der zweiten Stufe der Konventionalisierung einzuordnen. Das Prinzip der spezifizierten Bedeutung ist geeignet, produktive von konventionellen Gebärden zu unterscheiden. Diese haben eine zweite Stufe der Konventionalisierung durchlaufen, d.h. sie haben zumindest eine lexikalische Bedeutung, die spezifischer ist als die allgemeine Bedeutung, die sich aus den ikonisch oder metaphorisch motivierten Formbestandteilen der Gebärde ergibt. Die Verwendung konventioneller Gebärden lässt sich jedoch nicht darauf reduzieren, nur diese Bedeutung auszudrücken. In der dynamischen Kombination mit Ablesewörtern tritt in vielen Fällen diese spezifische, konventionalisierte Bedeutung in den Hintergrund und der ikonische Gehalt kommt wieder zum Tragen als Kontextualisierungsmittel und Verweis auf die Bedeutung des abzulesenden Wortes. Bezogen auf ihre Bedeutung fallen sie gewissermaßen wieder auf die erste Stufe der Konventionalisierung zurück (s. Kap. 4.1.5.2). Gebärden wie F LACH 1A sind besonders geeignet, um die vielfältigsten Bedeutungen auszudrücken, da ihre Form einen relativ einfachen ikonisch motivierten Bedeutungskern wiedergibt, auf den sich die Bedeutungen der Ablesewörter beziehen lassen. Dass diese Gebärden semantisch unterspezifiziert sind (vgl. Becker 2003: 175), ist eine verkürzte und ungenaue Redeweise. Die „mangelnde Spezifizität“ (Ebbinghaus 1998a: 595) dieser Gebärden bezieht sich auf ihre allgemeine Bedeutung, d.h. ihren ikonisch oder metaphorisch motivierten Bedeutungskern, der wiederum durch ihre relativ einfache Form symbolisiert wird. Hätten diese Gebärden jedoch keine <?page no="144"?> 144 spezifizierte Bedeutung, die ebenfalls konventionalisiert ist, dann müssten sie als produktive Gebärden eingestuft werden. Alle Bedeutungen, die mit konventionellen oder produktiven Gebärde-Ablesewort-Kombinationen ausgedrückt werden können, lassen sich wiederum sinnvoll auf das zugrunde liegende Bild der Gebärde beziehen. Aus diesen Überlegungen heraus haben wir eine weitere Unterteilung innerhalb der konventionellen Gebärden vorgenommen. Reguläre oder usuelle Gebärde-Ablesewort-Verbindungen werden als konventionelle Verwendungen einer konventionellen Gebärden angesehen, ungewöhnliche oder okkasionelle Verbindungen als produktive Verwendungen. Damit ist das Kriterium der Bedeutung nur noch insofern ausschlaggebend für die Lemmaselektion, als dass es mindestens eine konventionelle Verwendung einer Gebärde geben muss, um sie als konventionelle Gebärde einzustufen, d.h. als lexikalischen Eintrag in der Datenbank bzw. im Wörterbuch. Durch diese Unterscheidung können die unterschiedlichen Verwendungsweisen konventioneller Gebärden erfasst und die Token entsprechend zugeordnet werden (s. Kap. 4.1.5.2). Wie bei der Unterscheidung zwischen produktiven und konventionellen Gebärden ist erneut die Frage nach dem Grad der Konventionalisierung ausschlaggebend, diesmal jedoch in Bezug auf die Gebärde-Ablesewort-Kombination. Sie ist jedoch schon bei der Bestimmung konventioneller Gebärden mit entscheidend, denn ein wesentliches Merkmal für die Bestimmung der Konventionalität ist bei vielen Gebärden die signifikant häufige Kombination mit einem bestimmten Ablesewort, das in den meisten Fällen einer konventionalisierten Bedeutung entspricht. Durch die Einteilung in konventionelle und produktive Verwendungen wird deutlich, dass Gebärde-Ablesewort-Kombinationen nicht auf eine lexikalische Einheit reduziert werden können, sondern dass es sich um ein äußerst produktives Verfahren der Bedeutungserzeugung handelt, das Gehörlose insbesondere bei der Übersetzung von Fachbegriffen ausnutzen. Damit erübrigt sich auch die Frage, ob ein Ablesewort obligatorischer Bestandteil einer Gebärde ist oder nicht, da diese Frage nur Sinn macht, wenn man Gebärde und Ablesewort reduzieren möchte auf ein lexikalisches Zeichen. Johnston/ Schembri (1999: 178), die diese Unterscheidung nicht treffen, bestätigen jedoch auch für Auslan, dass die Integration des Wortschatzes der umgebenden Lautsprache bei der Bedeutungserzeugung eine wesentliche Rolle spielt, die weit über das hinausgeht, was allgemein üblich unter Entlehnung verstanden wird. Sign language users, of course, draw on sources other than the established lexicon to expand their meaning-making potential. Besides the obvious enormous role that the productive lexicon (including proform, handle, and tracing signs) plays in meaning creation in sign languages, account must also be made of the vast store of lexical items that can be borrowed from the surrounding community’s spoken language through fingerspelling and other means. Indeed, <?page no="145"?> 145 the core or basic vocabulary of the community spoken language can be so well integrated into the language system of signers that ‘lexical borrowing’ may be an inappropriate word to describe the phenomenon. [Fett R.K.] Dass der Bestand konventioneller Zeichen in Gebärdensprachen wesentlich kleiner ist als in Lautsprachen, ist unter anderem auf die Rolle der Wörter in gebärdensprachlichen Äußerungen zurückzuführen. 4.1.5.2 Auswirkungen auf die Modellierung: doppelte Glossierung Der Einteilung von Johnston/ Schembri (1999) folgend haben wir es bei ikonischen konventionellen Gebärden immer mit zwei Ebenen der Bedeutungskonstitution zu tun: Auf der ersten Stufe der Konventionalisierung werden die Formbestandteile einer Gebärde als Visualisierung von Formeigenschaften oder Aktivitäten eines außersprachlichen Referenten interpretiert. Diese allgemeine Bedeutung setzt sich aus der Summe der Bedeutung der verschiedenen Formparameter zusammen und macht den ikonischen Gehalt der Gebärde aus. Dass diese Gebärden bereits einen Konventionalisierungsprozess durchlaufen haben, zeigt sich zum einen daran, dass nicht alle diese Gebärden vollkommen transparent sind (vgl. Klima/ Bellugi 1980a; zur methodischen Kritik s. Holzinger/ Dotter 1997: 126 f.), zum anderen sind die Form-Bedeutungs-Beziehungen sprach- und kulturabhängig, was sich besonders deutlich an den sogenannten semantischen Klassifikatoren zeigt. Auf der zweiten Stufe der Konventionalisierung gibt es eine Form-Bedeutungs-Beziehung, die unabhängig vom ikonischen Gehalt der Gebärde ist. Dies betrifft jedoch nur die konventionellen Verwendungen konventioneller Gebärden. Bei den produktiven Verwendungen tritt die konventionalisierte Bedeutung der Gebärde in den Hintergrund zugunsten des ikonischen Gehalts der Gebärde, die als Verweis bzw. Kontextualisierungsmittel zum Ablesen dient. Zu den produktiven Verwendungen zählt weiterhin die wortbezogene Kontextualisierung (s. Kap. 4.1.5.3.1), bei der die Gebärde auf ein ähnlich geschriebenes Wort verweist (vgl. Lage Lager). Die folgende Tabelle zeigt, wie das Modell von Johnston/ Schembri (1999) erweitert wird, indem bei konventionellen Gebärden zwischen zwei verschiedenen Arten der Verwendung unterschieden wird. Bei der produktiven Verwendung ikonischer Gebärden tritt die konventionelle Bedeutung in den Hintergrund, der ikonische Gehalt der Gebärde dient in der Regel der Kontextualisierung des Ableseworts. <?page no="146"?> 146 Art der Gebärde Form Bild Bedeutung Verwendung 1. Stufe der Konventionalisierung produktive Gebärde Ausführung im Kontext ikonischer Gehalt jedes Parameters (häufig) ohne Ablesewort durch Kontext spezifiziert [passive Ikonizität] mit/ ohne Ablesewort durch Konvention festgelegt konventionell 2. Stufe der Konventionalisierung konventionelle Gebärde Zitierform, Modifikation, Variation ikonischer Gehalt der Gebärde: Kontextualisierung mit Ablesewort durch Ablesewort spezifiziert produktiv Tabelle 6: Differenzierung von Gebärden und deren Verwendungen unter Berücksichtigung des ikonischen Gehalts von Gebärden Um die gewünschte Unterscheidung zwischen konventionellen und produktiven Verwendungen in der Token-Type-Zuordnung vornehmen zu können, wurde eine doppelte Glossierung eingeführt, d.h. es gibt zwei Ebenen der Glossierung. Die untere Ebene dient dazu, die verschiedenen konventionellen Verwendungen einer konventionellen Gebärde, d.h. usuelle Gebärde- Ablesewort-Kombinationen, zu unterscheiden. Die übergeordnete Ebene fasst die verschiedenen Verwendungen einer konventionellen Gebärde zusammen. Auf der unteren Ebene, in der Datenbank „Lexeme“ genannt, werden die verschiedenen konventionellen Verwendungen einer Gebärde durch Glossen unterschieden, die meistens dem Ablesewort entsprechen, das mit dieser Gebärde häufig zusammen artikuliert wird. Die Bedeutung dieser Gebärden wird in den meisten Fällen durch das Ablesewort spezifiziert. Auf der übergeordneten Ebene, in der Datenbank „Gebärden“ genannt, werden die verschiedenen „Lexeme“ unter einem zweiten Glossennamen zusammengefasst. Als Glossenname wird eine am ikonischen Gehalt der Gebärde angelehnte Bezeichnung gewählt. Zum Beispiel werden die „Lexeme“ B ASIS 1, B ODEN 1A, F ELD 3A, T ISCH 1 etc. alle unter der „Gebärde“F LACH 1A 8 zusammengefasst. Je nachdem, ob es sich beim Token um eine konventionelle oder produktive Verwendung einer Gebärde handelt, wird das Token 8 Um Gebärden und Lexeme auch anhand des Glossennamens unterscheiden zu können, wurde die Konvention eingeführt, dass Glossen für Gebärden immer mit dem Suffix ‚ -$S AM ‘ enden (im Sinne von „Sammelglosse“). Dadurch wird sofort ersichtlich, dass es sich bei F LACH 1A-$S AM um eine Gebärde, bei F LACH 1A jedoch um eine konventionalisierte Gebärde-Mundbild-Kombination („Lexem“) dieser Gebärde handelt. Aus Gründen der Lesbarkeit wird hier darauf verzichtet. <?page no="147"?> 147 entweder dem entsprechenden „Lexem“ oder der „Gebärde“ zugeordnet. Im Token-Tag wird die jeweilige Glosse angezeigt. Abbildung 11: Lexeme der Gebärde F LACH 1A Die Lexem-Ebene wurde eingeführt, um konventionelle Verwendungen einer Gebärde unterscheiden und die Token entsprechend zuordnen zu können. So können die konventionalisierten Gebärde-Ablesewort-Kombinationen unterschieden und quantifiziert werden. Die „Lexeme“, die die verschiedenen konventionalisierten Bedeutungen einer Gebärde unterscheiden, sind immer einer „Gebärde“ zugeordnet. Für die Unterscheidung von Gebärden gilt die Regel: gleiche Form, gleiches zugrunde liegendes Bild = gleiche Gebärde. Dadurch wird deutlich, dass für die Unterscheidung der lexikalischen Einheiten das zugrunde liegende Bild ikonischer Gebärden die entscheidende Rolle spielt und nicht die häufig durch das Ablesewort spezifizierte Bedeutung. Die Bezeichnung ‚Lexeme‘ steht verkürzt für lexikalisierte, d.h. konventionalisierte Bedeutungen von Gebärden. Die lexikalischen Einheiten der DGS, d.h. die Lexeme, die als Einträge in einem DGS-Wörterbuch vorkommen sollten, sind jedoch die „Gebärden“. Das Vorhandensein mindestens einer konventionalisierten Bedeutung ist wichtig für die Identifikation lexikalischer Gebärden in Abgrenzung zu den produktiven Gebärden. Daraus folgt, dass jeder „Gebärde“ mindestens ein „Lexem“ zugeordnet sein muss, in dem die konventionalisierte Bedeutung eingetragen ist. Die doppelte Glossierung wurde 1998 mit der Transkription der Gebärden für das Fachgebärdenlexikon Hauswirtschaft (HLex) eingeführt (Konrad 1999). Die <?page no="148"?> 148 Unterscheidung zwischen konventionellen und produktiven Verwendungen schlägt sich in den verschiedenen Projekten zahlenmäßig wie folgt nieder: Gebärden (gesamt) Gebärden verwendeter Lexeme Lexeme/ Token aller konventioneller Verwendungen Gebärden/ Token aller produktiven Verwendungen Gebärden mit konv. Verw. (in % der Gebärden) Gebärden mit prod. Verw. (in % der Gebärden) Token prod. Verw. (in % der Token) HLex 1798 1582 2313/ 19022 718/ 3593 88 40 16 SLex 1431 1078 1429/ 13104 712/ 2054 75 50 14 GLex 3123 1933 2464/ 16461 2058/ 7085 62 66 30 GaLex 2810 1412 1883/ 11806 2041/ 7355 50 73 38 gesamt 9 6814 4444 6564/ 60393 4504/ 20087 65 66 25 Tabelle 7: Anzahl der Types (Zitierform inkl. Modifikationen) und Token konventioneller und produktiver Verwendungen pro Projekt Die Zahlen beziehen sich nur auf die Transkriptionen der elizitierten Antworten. Die zweite Spalte gibt die Gesamtzahl der Gebärden wieder, denen Token zugeordnet wurden. Die dritte Spalte enthält die Zahl der Gebärden, denen die „Lexeme“ zugeordnet sind. In der vierten Spalte sind die „Lexeme“ und die Gesamtzahl der Token, die diesen „Lexemen“ zugeordnet sind, d.h. alle konventionellen Verwendungen, aufgeführt. Die fünfte Spalte enthält die Zahl der Gebärden und die Gesamtzahl der Token, die diesen Gebärden direkt zugeordnet sind, d.h. alle produktiven Verwendungen. Die sechste Spalte zeigt den Anteil der Gebärden, denen konventionelle Verwendungen zugeordnet sind, an allen Gebärden des Korpus eines Projekts, die vorletzte Spalte den Anteil der Gebärden, die produktiv verwendet werden. In der letzten Spalte wird entsprechend der Anteil der produktiven Verwendungen an allen Token eines Projekts aufgeführt. Im Durchschnitt macht der Anteil der produktiven Verwendungen 25 % aller transkribierten Token konventioneller Gebärden aus. Die Verteilung innerhalb der einzelnen Projekte ist jedoch recht unterschiedlich. Der geringste Anteil produktiver Verwendungen findet sich mit 14 % im SLex. Dies ist zum einen durch den Fachwortschatz zu erklären, der vorwiegend aus den Sozialwissenschaften, dem juristischen und dem Verwaltungsbereich stammt und weniger Fremdwortanteile enthält als zum Beispiel im medizinischen und Gesundheitsbereich. Zum anderen nahmen an der Erhebung 9 Die Gesamtzahlen der Gebärden und Lexeme, die in allen vier Projekten verwendet werden, sind kleiner als die jeweilige Summe der Zahlen aus den einzelnen Projekten, da zahlreiche Gebärden bzw. Lexeme in mehreren Projekten verwendet werden. Sie sind daher kursiv hervorgehoben. <?page no="149"?> 149 etliche Informanten teil, die an dem zuvor gerade abgeschlossenen Modellprojekt PotsMods an der Fachhochschule Potsdam teilgenommen hatten (s. Henke/ Heßmann 1995, Danielzik 2003). Dadurch hatten diese Informanten über die dreijährige, mit Dolmetschern begleitete Ausbildung zum Sozialarbeiter/ Sozialpädagogen hinweg stets Umgang mit den Fachbegriffen. Dies hat vermutlich zu einer stärkeren Konventionalisierung der DGS-Entsprechungen geführt. Der hohe Anteil produktiver Verwendungen im GaLex mag auf den ersten Blick überraschen. Dies liegt an dem hohen Anteil modifizierter Gebärden, die zusammen mit einem nicht üblichen Ablesewort verwendet werden. Werden die Modifikationen nicht berücksichtigt, so dreht sich das Verhältnis zwischen der Anzahl der Gebärden, die konventionell verwendet werden, und der Anzahl der Gebärden, die produktiv verwendet werden, um. Die Anzahl der produktiven Verwendungen ist dann fast genauso hoch wie beim GLex. Sieht man sich die Verteilung der „Lexeme“, die einer Gebärde zugeordnet sind, im Vergleich zu der Anzahl der Token, die als produktive Verwendungen dieser Gebärde zugeordnet sind, an, dann bestätigt sich die zuvor gemachte Aussage, dass relativ unspezifische Formen ein sehr hohes ikonisches Potenzial haben, da der ikonische Gehalt dieser Gebärden mit den verschiedensten Bedeutungen assoziiert werden kann. Die Gebärden V IER- ECK 1, B EREICH 1A, F LACH 1A und R UND 2 haben sowohl eine sehr hohe Anzahl konventioneller Verwendungen (= Anzahl der „Lexeme“) als auch produktiver Verwendungen (= Anzahl der Token bzw. Anzahl der verschiedenen Ablesewörter). Tabelle 8 zeigt die Gebärden mit der höchsten Anzahl an „Lexemen“, Tabelle 9 die Gebärden mit der höchsten Anzahl an verschiedenen Ablesewörtern. Die absolute Zahl der Token ist nur ein Anhaltspunkt, jedoch nicht aussagekräftig, da nicht deutlich wird, wie viele verschiedene Bedeutungen dadurch ausgedrückt werden. Gebärde Form Lexeme Token verschiedene Ablesewörter V IERECK 1 '5"5 6& + 27 106 61 B EREICH 1A - " 8 19 294 121 F LACH 1A ! " #$% & 16 182 68 B EHÄLTER 3 ! ) & 15 81 56 R UND 2 - - " 5 9 15 114 53 M ATERIAL 2A : " $: ; 32 14 43 30 S CHMAL 1A <'" & 14 74 51 M ATERIAL 1A =/ '( ) 14 27 19 Tabelle 8: Gebärden, sortiert nach der Anzahl der Lexeme <?page no="150"?> 150 Gebärde Form Lexeme Token verschiedene Ablesewörter B EREICH 1A - " 8 19 294 121 F ÜHLEN 1A =/ )(. 12 133 83 F LACH 1A ! " #$% & 16 182 68 V IERECK 1 '5"5 6& + 27 106 61 B EHÄLTER 3 ! ) & 15 81 56 R UND 2 - - " 5 9 15 114 53 S CHMAL 1A <'" & 14 74 51 Tabelle 9: Gebärden, sortiert nach der Anzahl der verschiedenen Ablesewörter In der Datenbank werden die Bedeutungen beim „Lexem“ eingetragen, d.h. es werden Relationen zu Einträgen der Konzept-Tabelle angelegt, die im „Lexem“-Fenster sichtbar sind. Die Bedeutungen werden durch deutsche Wörter, Mehrwort-Ausdrücke oder auch Phrasen wiedergegeben. Die Bedeutung wird unabhängig von der Wortart der deutschen Wörter eingetragen. Wenn eine Gebärde sowohl nominal als auch verbal verwendet wird, dann werden auch die entsprechenden Wortarten eingetragen. „Lexeme“ dienen dazu, die verschiedenen Wortarten und unter Umständen auch abgeleitete Wortformen, die eine gemeinsame, eng umschriebene Bedeutung haben, zu bündeln und sie einer konventionellen Verwendung einer Gebärde zuzuweisen. Unabhängig von den deutschen Wörtern kann bei der „Gebärde“ eingetragen werden, welcher lexikalischen Klasse diese zuzuordnen ist bzw. welche syntaktischen Funktionen sie übernehmen kann. Da die Gebärden die lexikalischen Einheiten darstellen und nicht die „Lexeme“, werden Verweise auf formgleiche und formähnliche Gebärden nur zwischen „Gebärden“ angelegt. In der Datenbank wird die hierarchische Struktur zwischen „Gebärde“ und „Lexem“ dadurch realisiert, dass beim Anlegen eines Types ein Wert für die Hierarchie-Ebene eingetragen wird. Weiterhin werden Parent-Child- Relationen eingetragen. Eine Restriktion beim Anlegen eines neuen „Lexems“ (= Child) ist, dass es einer „Gebärde“ (= Parent) zugeordnet sein muss. Diese Datenbankstruktur dient dazu, die Token einer Gebärde in produktive und konventionelle Verwendungen zu trennen. Token, die als produktive Verwendungen einer Gebärde eingestuft werden, erhalten den Glossennamen der „Gebärde“; Token, die eine konventionelle Verwendung darstellen, werden mit dem Glossennamen des „Lexems“ etikettiert. Dadurch, dass die konventionalisierten Bedeutungen beim „Lexem“ eingetragen werden, machen sich die durch das Deutsche bedingten Unterschiede zwischen Nomen, Verb oder Adjektiv nicht bemerkbar. Durch die Zuordnung eines Tokens zu einem „Lexem“ wird lediglich die allgemeine <?page no="151"?> 151 Aussage getroffen, dass eine dieser Bedeutungen auf die Gebärde zutrifft. Ob es sich jedoch um eine verbale oder nominale Verwendung der Gebärde handelt, wird dadurch nicht festgelegt. Der Nachteil der doppelten Glossierung besteht darin, dass die Glossierungskonventionen auf Gebärden- und Lexem-Ebene angewendet werden müssen. Dies erfordert einen Mehraufwand bei der Rohtranskription als auch bei der Lemmarevision, um die Konsistenz der Glossierung zu gewährleisten. Alternativ dazu wäre ein stärker bottom-up-ausgerichtetes Vorgehen denkbar mit nur einer Ebene, bei dem in jedem Token die Gebärde und die jeweilige Kontextbedeutung eingetragen werden. Weiterhin müsste die Art der Verwendung der Gebärde angegeben werden, z.B. als Merkmalsausprägung der Beziehung zwischen Token und Bedeutung. Im Rahmen der Lemmarevision könnte aufgrund dieser Angaben entschieden werden, welche konventionellen Form-Bedeutungs-Beziehungen mit einer Gebärde realisiert werden. Die Praxis der doppelten Glossierung wird in Ormel et al. (2010) aufgegriffen. Da in den ersten Transkripten des NGT-Korpus-Projekts 10 gleiche Gebärden, die mit verschiedenen Ablesewörtern ausgeführt werden, verschieden glossiert wurden, geht die Information verloren, dass es sich um dieselbe Gebärde handelt, die verschiedene kontextuelle Bedeutungen ausdrücken kann. Um ein lemmatisiertes Korpus zu erreichen, in dem gleiche Formen gleich glossiert sind, ausgenommen Homonyme (s. Kap. 4.2.2.4), wird für die Überarbeitung der ELAN-Transkripte eine zusätzliche Glossenspur eingefügt, in die sogenannten Regenschirm- Glossen („umbrella glosses“) eingetragen werden. We refer to part of those identical sign forms with related meanings (polysemes) by adding what we call an ‘umbrella gloss’ to the more specific gloss (examples will be discussed below). Signs that have an identical manual form can thus be labeled with a more general name, while keeping the information about the meaning in context. (Ormel et al. 2010: 188) Eine Entscheidung, welcher Status einer Gebärde-Ablesewort-Kombination zukommt, die wiederum Auswirkungen auf die Lemmaselektion hat, wird auf einen späteren Überarbeitungsschritt vorschoben. Einen Hinweis auf die kontextuelle Bedeutung liefert lediglich das Ablesewort, das ebenfalls annotiert wird. Die Einführung der doppelten Glossierung in iLex hat zu zwei sich voneinander wegbewegenden Tendenzen geführt: Auf der Lexem-Ebene steht die konventionalisierte Bedeutung, die häufig durch das Ablesewort spezifiziert wird, im Vordergrund, während auf der Gebärden-Ebene, unabhängig von der Bedeutung, die strukturellen, auf dem ikonischen Gehalt einer Gebärde beruhenden Zusammenhänge und Ableitungsverhältnisse zwischen Gebärden dokumentiert werden. Dies führt dazu, dass Bedeutung und ikonischer Gehalt bei der Bestimmung von Modifikationen und Varianten 10 S. Crasborn et al. (2008); Projekt-Homepage s. URL: http: / / www.ru.nl/ corpusngt/ . <?page no="152"?> 152 unterschiedlich gewichtet werden. Auf der Gebärden-Ebene ist eine Modifikation die Veränderung des zugrunde liegenden Bildes, die auf der Lexem- Ebene zu einer absichtsvollen Veränderung der Bedeutung führen kann. Auf der Lexem-Ebene ist eine Modifikation immer eine Bedeutungsveränderung, die sich auf die im „Lexem“ eingetragene Bedeutung beziehen lässt. Da das ikonische Potenzial einer konventionellen Gebärde nicht genutzt werden muss, kommt es vor, dass die Glossierung auf der Lexem-Ebene die Token als Varianten ausweist, während auf der Gebärden-Ebene die verschiedenen Formen als Grundform bzw. Modifikation glossiert sind. In der Datenbank trifft dies auf über 320 Fälle zu von über 5500 Gebärden (nur Zitierformen). Ein Beispiel sind die verschiedenen Varianten für die Bedeutung „Operation“ (medizinischer Eingriff). Gebärde Lexem Form ikonischer Gehalt S CHNEIDEN 2D O PERATION 1A ,) $! # Schneiden am Handrücken S CHNEIDEN 217D O PERATION 1B ,' & Schneiden, waagerecht nach rechts (Objekt nicht spezifiziert) S CHNEIDEN 220D O PERATION 1C ," $! > % & Schneiden an der Handinnenfläche S CHNEIDEN 218D O PERATION 1D ,' ? ) Schneiden, senkrecht nach schräg unten (Objekt nicht spezifiziert) S CHNEIDEN 219D O PERATION 1E @,) A B mehrfaches Schneiden, senkrecht nach schräg unten (Objekt nicht spezifiziert) Tabelle 10: Varianten auf Lexem-Ebene, Modifikationen auf Gebärden-Ebene am Beispiel von O PERATION Der ikonische Gehalt der unterschiedlichen Gebärdenformen kann genutzt werden, um z.B. einen Schnitt am Handrücken oder ein mehrfaches Schneiden an einem (nicht sichtbaren, d.h. in der Gebärdenform nicht visualisierten, aber gedanklich ergänzten) Objekt auszudrücken. Diese Formen sind jedoch konventionalisiert für die Bedeutung „Operation“, unabhängig davon, ob die Operation, d.h. der Schnitt, am Handrücken oder an der Handinnenfläche ausgeführt wird. Dieses Beispiel zeigt weiterhin, dass die Bestimmung der Zitierform relativ willkürlich ist, ähnlich wie in Lautsprachen. Bei S SCHNEIDEN 2D wurde diejenige Form als Zitierform ausgewählt, bei der das Bild am deutlichsten erkennbar ist. Weiterhin wird die Häufigkeit der Vorkommen berücksichtigt. In anderen Fällen dient die strukturell einfache bzw. unspezifische Form als Zitierform wie z.B. bei M ASS 2A ( ) ). Die Modifikation <?page no="153"?> 153 M ASS 27A ( / ) & ) ist konventionalisiert in der Bedeutung „lang“ und auf Lexem-Ebene als L ANG 1B glossiert. Der Versuch, strukturelle Ähnlichkeiten zwischen Gebärden, die auf ähnlichen Bildern und Bilderzeugungstechniken beruhen, durch die Wahl eines gemeinsamen Glossennamens als Modifikationen des zugrunde liegenden Bildes oder als Formvarianten zu beschreiben, kann auf die Bedeutungen, die durch diese Gebärden ausgedrückt werden, nicht ganz verzichten. In König et al. (2008) haben wir darauf hingewiesen, dass die kontextuellen Bedeutungen die Interpretation des zugrunde liegenden Bildes steuern, indem sie zusätzliche Informationen liefern, die aus der Gebärdenform nicht ersichtlich sind, aber gedanklich ergänzt werden. Sie legen damit den Grad der Abstraktionsebene fest, auf der das Bild interpretiert wird. Die Zügelhand, die nach vorne bewegt wird, kann bedeuten, dass ein Geldschein weitergereicht oder ein Messer in diese Richtung bewegt wird. Die Interpretation wird durch den Kontext gesteuert. Am Bankschalter wird es eher der Geldschein sein, beim Braten, der aus dem Ofen geholt wird, eher das Messer. Die durch das Bild visualisierte allgemeine Bedeutung „einen Gegenstand festhalten und nach vorne bewegen“ trifft für beide Kontexte zu, ist jedoch ungeeignet für die Unterscheidung zweier völlig verschiedener Handlungsszenarien. Während in dem gegebenen Beispiel die beiden Formen fast identisch aussehen könnten, sind die typischen Handlungen, die man mit Geldscheinen vornimmt, doch recht verschieden von der Handhabung eines Messers. 11 Daher ist es sinnvoll, von zwei verschiedenen Gebärden auszugehen, denen diese Token zugeordnet werden. Während es bei Gebärden, die mit der manipulativen Technik (s. Kap. 4.2.1.2) erzeugt werden und Handlungen visualisieren, noch relativ einfach ist, die verschiedenen Kontexte zu unterscheiden, ist es bei skizzierenden Gebärden in einigen Fällen recht schwer, die z.T. sehr ähnlichen Gebärden sinnvoll gegeneinander abzugrenzen. Die zu Beginn des 4. Kapitels dargestellte Einteilung (s. Tab. 5) im Gebärdenverzeichnis des Fachgebärdenlexikons Tischler/ Schreiner (Arbeitsgruppe Fachgebärdenlexika 1998; TLex) sieht unter Berücksichtigung der doppelten Glossierung folgendermaßen aus: 11 Zur Bedeutung der Modifikationen für die Unterscheidung verschiedener Gebärden s. Kap. 4.2.2.5. <?page no="154"?> 154 Glosse (TLex) Gebärde Form Lexeme Ablesewort Verwendung (Fachbegriff) P ROD .K EIL 101 senker, krauskopf, versenker produktiv (Senker, Krauskopf, Versenker) K EIL 1B S PITZ 22A ! '( ) K EIL 1B keilkonventionell (Keilwinkel) P ROD .K EIL 100 K EIL 1A S PITZ 21A ! " * K EIL 1A keilkonventionell (Keilwinkel) delta, gehrung, kantproduktiv (Deltaschleifer, Gehrungssäge, Kantholz) E CKE E CKE 1 eckkonventionell (Eckverbindungen) W INKEL 5A W INKEL 1 ! " * W INKEL 1 winkel konventionell (Winkel) P ROD .K EIL 102 $ MAN - SCHWALBEN - SCHWANZ 10 ! '( ) schwalbenschwänze (Schwalbenschwänze) Tabelle 11: Ausschnitt: TLex-Gebärden nach Einführung der doppelten Glossierung Die Token der produktiven Verwendungen werden direkt den Gebärden (S PITZ 22A, W INKEL 1) zugeordnet, die Token der konventionellen Verwendungen den „Lexemen“ (K EIL 1B, K EIL 1A, E CKE 1, W INKEL 5A). Da die „Lexeme“ E CKE 1 und W INKEL 1 der Gebärde W INKEL 1 zugeordnet sind, sind die Token der beiden „Lexeme“ Belege für diese Gebärde, ebenso wie die Token der produktiven Verwendungen, die direkt dieser Gebärde zugeordnet werden. In Abgrenzung zur Gebärde S PITZ 22A ist die DGS-Übersetzung des Fachbegriffs ‚Schwalbenschwänze‘ nicht als Gebärde, sondern als produktive Gebärde ausgewiesen, da es keine konventionalisierte Bedeutung gibt, die mit dieser Gebärdenform ausgedrückt wird. Dass dennoch ein Ablesewort dazu artikuliert wird, ist untypisch für die Verwendung produktiver Gebärden im natürlichsprachlichen Kontext und als Elizitationseffekt zu werten. Die Gebärde W INKEL 1 wird hier nicht als stilisierte Form der Gebärde S PITZ 21A interpretiert, sondern als eigenständige Gebärde, die nicht skizzierend die Bedeutung visualisiert, sondern <?page no="155"?> 155 mithilfe der substitutiven Bilderzeugungstechnik: Die Hände stellen zwei Flächen dar, die in einem bestimmten Winkel aufeinandertreffen. 12 Warum die Lemmaselektion nicht trivial ist, zeigt sich erst, wenn man sich die Umgebung der Gebärden, d.h. die Gebärden mit demselben Glossennamen einschließlich der ersten Ziffer, genauer anschaut: Gebärde Form Konventionelle Verwendungen (Lexeme) S PITZ 2A ! CD A BITUR 1, D ACH 1B, K IRCHE 1A, P YRAMIDE 1C, S PITZ 2A S PITZ 2B ! C? D ACH 1A S PITZ 2C ! ) C? D ACH 1C, P YRAMIDE 1A S PITZ 21A ! " * K EIL 1A, S PITZ 21A S PITZ 22A ! )( K EIL 1B O BEN -O FFEN 1 ! )( E F ILTER 1, M ESSBECHER 1 W INKEL 1 ! " * E CKE 1, W INKEL 1 Tabelle 12: Gebärde S PITZ 2A und Glossenumgebung sowie formähnliche Gebärden Das Bild eines spitz zulaufenden Gegenstands, dessen Spitze nach oben zeigt, wird auf drei verschiedene Arten mit der skizzierenden Technik realisiert. Die Variation liegt in der Fingeransatzrichtung (nach vorne bei S PITZ 2C oder nach schräg oben bei S PITZ 2A und S PITZ 2B) und in der Bewegungsrichtung (nach schräg unten bei S PITZ 2C oder nach schräg oben bei S PITZ 2A). Das zugrunde liegende Bild wird durch diese Ausführungsvariationen nicht verändert. Anders dagegen bei S PITZ 21A („nach vorne spitz zulaufend“) und S PITZ 22A („nach unten spitz zulaufend“). Während sich bei S PITZ 2A und S PITZ 2B die Umkehrung der Bewegungsrichtung nicht auf den ikonischen Gehalt auswirkt, scheint dies, zumindest anhand der bisherigen Beleglage, bei S PITZ 22A und O BEN -O FFEN 1 der Fall zu sein. Während für die Bedeutung „Filter“ die Betonung des Formaspekts nicht auf der Öffnung des Filters, sondern auf der Filterspitze liegt, ist es bei den Bedeutungen „Messbecher“ und „Spritzbeutel“ genau umgekehrt. 4.1.5.3 Arten der Verweisfunktion des Ablesewortes Die im Rahmen der verschiedenen Fachgebärdenprojekte elizitierten Daten eignen sich insbesondere dafür, die These der wechselseitigen Kontextualisierung von Gebärde und Ablesewort zu konkretisieren. Bei der Erhebung, die nicht auf die deutschen Fachbegriffe verzichten kann, ist der Einfluss 12 Dieselbe Interpretation nehmen Holzinger/ Dotter (1997: 130) in Bezug auf die ÖGS- Gebärde D ACH vor, bei der die sich mit den Fingerspitzen berührenden Flachhände die Dachflächen darstellen. <?page no="156"?> 156 der Lautsprache auf die elizitierten Antworten nicht zu vermeiden. Die Folge ist, dass der Anteil der Gebärden, die zusammen mit einem Ablesewort artikuliert werden, deutlich höher ist als in der Alltagskommunikation. Während in den von Ebbinghaus/ Heßmann (1996, 2001) untersuchten natürlichsprachlichen Daten jede zweite Gebärde zusammen mit einem Ablesewort ausgeführt wird, werden 92 % der elizitierten Antworten mit einem Ablesewort ausgeführt, lediglich 6 % der Antworten enthalten eine Mundgestik. In Langer et al. (2002) haben wir versucht darzustellen, welchen Anteil die Gebärde an der Äußerungsbedeutung hat. Hintergrund war die Notwendigkeit, im Rahmen der Transkription auch die Bedeutung der Gebärden anzugeben, da die Antworten nicht immer identisch mit dem Fachbegriff sind, sondern auch Umschreibungen, inhaltliche Erklärungen, Teilantworten oder andere Bedeutungen enthielten. Die Zuordnung einer Antwort zum elizitierten Fachbegriff reicht in diesen Fällen als Bedeutungsangabe nicht aus. Im Rahmen der Transkription der Daten für die Fachgebärdenlexika Hauswirtschaft (Konrad et al. 2000; HLex) und Sozialarbeit/ Sozialpädagogik (Konrad et al. 2003; SLex) haben wir neben der Äußerungsbedeutung, die häufig mit dem Fachbegriff oder dem Ablesewort übereinstimmt, auch die Bedeutung der Einzelgebärden anzugeben versucht. Dies erwies sich jedoch insbesondere bei Antworten, in denen mithilfe mehrerer Gebärden ein Fachbegriff übersetzt wurde, als schwierig. Wir gingen von der Annahme aus, dass jede Gebärde einen eigenständigen Beitrag zur Äußerungsbedeutung leistet, und haben die konventionalisierten Bedeutungen der Gebärde und ihr ikonisches Potenzial in Bezug zur Bedeutung des Ableseworts bzw. des Fachbegriffs gesetzt. Wir teilten die in den Antworten realisierten Kombinationsmöglichkeiten in verschiedene Gruppen ein, die die Bedeutungen von Ablesewort bzw. Wortteil und Gebärde, die Funktion der Gebärden und die zeitliche Parallelisierung von Gebärde und Ablesewort in den Mittelpunkt der Interpretation stellen. In einer längeren Stellungnahme 13 zu Langer et al. (2002) bezeichnete Heßmann dieses Prinzip, alle Kontextualisierungsmittel einzusetzen, die irgendwie dazu beitragen, die Bedeutung des Ableseworts zugänglich zu machen, als „Anything-goes-Verfahren“. Dieses Verfahren bringt die Vielfalt der Kombinationsmöglichkeiten hervor, die insbesondere in den elizitierten Antworten dokumentiert ist und bereits in Konrad/ Bentele (1998) thematisiert wurde. In der überwiegenden Mehrheit der Fälle tritt die Bedeutung der Gebärde in den Hintergrund, die Gebärde übernimmt lediglich eine Verweisfunktion. Sie verweist entweder auf das abzulesende Wort bzw. einen Wortteil oder auf einen inhaltlichen Aspekt der Wortbedeutung, der durch den ikonischen Gehalt der Gebärde oder einen ihrer Formparameter motiviert ist. Ausnahmen davon sind die syntagmatische Ergänzung (s. Kap. 4.1.4) und Fälle, in denen ein unspezifisches Ablesewort wie z.B. ‚zu‘ 13 Persönliche Kommunikation. <?page no="157"?> 157 zusammen mit einer Gebärde artikuliert wird und die Gebärde die Bedeutung spezifiziert, z.B. auf welche Art und Weise etwas „zugemacht“ (geschlossen, verschlossen, abgeschlossen, zugebunden, verriegelt …) wird. Im Folgenden werde ich die wichtigsten Beobachtungen exemplarisch erläutern und quantifizieren. Falls nicht näher spezifiziert, beziehen sich die Angaben auf über 18000 transkribierte Antworten, die über 37800 Token konventioneller Gebärden enthalten. In den folgenden Beispielen übernimmt die Gebärde die Funktion der Ablesehilfe in einem weiten Sinn, d.h. als Kontextualisierungsmittel, das die Bedeutung des Ableseworts erschließen hilft. In den meisten Fällen ist es eindeutig bestimmbar, ob die Gebärde einen Bezug zum Wort oder zum Inhalt des Wortes, seiner Bedeutung, herstellt. Im Folgenden werden daher die Beispiele in wort- und inhaltsbezogene Kontextualisierungen sowie in Kombinationen aus wort- und inhaltsbezogener Kontextualisierung eingeteilt. 4.1.5.3.1 Wortbezogene Kontextualisierung Bei der wortbezogenen Kontextualisierung besteht die Funktion der Gebärde lediglich darin, auf das deutsche Wort zu verweisen, die spezifische Bedeutung wird aus dem Kontext erschlossen. Die Interpretation der Gebärde-Ablesewort-Kombination verläuft in zwei Schritten: Zunächst wird über die konventionalisierte Bedeutung der Gebärde das abzulesende Wort kontextualisiert, dann wird die Bedeutung des Wortes im Kontext interpretiert. Hat das Ablesewort nur eine Bedeutung, dann liegt eine semantische Identität vor. Im Falle polysemer Wörter muss die intendierte Bedeutung aus dem Äußerungskontext erschlossen werden. Die Funktion der Gebärde besteht darin, auf diese in der Regel überschaubare Menge von Bedeutungen zu verweisen. Die unterschiedlichen Bedeutungen eines polysemen Wortes können auch lexikalisiert sein. So können mit der Gebärde D REHEN 24 ( @ F 2 G H ) sowohl die gegenständliche Bedeutung „Rolle“ (kleines Rad, Walze) als auch die abstrakten Bedeutungen „Rolle (eines Schauspielers)“ und „(soziale) Rolle" ausgedrückt werden. Die Identität zwischen Gebärde und Ablesewort kann sich auf Wörter wie auf Wortteile, auch Vorsilben wie ‚ab-‘ oder ‚nach-‘, beziehen. In der Datenbank trifft diese Art der wortbezogenen Kontextualisierung auf über 32100 Token konventioneller Gebärden zu. Der Verweis auf ein Wort kann auch als Hilfestellung für eine Wortassoziation gemeint sein, die erst zu der intendierten Bedeutung führt. So wurde die Gebärde K ÜSSEN 1 ( =/ I + ) zusammen mit dem Ablesewort ‚guss‘ dazu verwendet, auf den Wortteil ‚Guss‘ des Fachbegriffs ‚Gussglas‘ zu verweisen. Diese Wortassoziationen sind eine besondere Form der Lehnübersetzung. Eine konventionalisierte Gebärde wird dazu verwendet, auf ein ähnlich geschriebenes bzw. artikuliertes Wort zu verweisen. Solche Wortassoziationen können auch lexikalisiert sein wie bei E NKEL / enkel, eine konventionelle Verwendung der Gebärde F LÜGEL 1 ( ! ' 6J K ), die <?page no="158"?> 158 durch die Flügel der Engel motiviert ist, oder A USSCHUSS 1A/ ausschuss, eine konventionalisierte Verwendung der Gebärde S CHIESSEN 11 ( L " M$2I B N ), die motiviert ist durch die Handlung des Schießens mit einem Gewehr. Becker (2003: 103) bezeichnet diese lexikalisierten Gebärden als „‚Pseudo‘-Übersetzungen“, Mandel schlägt in seinem Beitrag zur Homophonie-Diskussion in Gebärdensprachen in der slling-list (24.2.1997) die Bezeichnung „homophone calques“ vor, da es sich nicht um reine Lehnübersetzungen handelt, sondern diese Gebärden die phonologische Ähnlichkeit von Wörtern ausnutzen. Als Beispiel für die ASL erwähnt er H UNGRY / hungary. In den Erhebungen für das HLex und SLex gibt es 62 Antworten mit dieser Art des Verweises. Zur wortbezogenen Kontextualisierung gehört auch der Einsatz des Fingeralphabets, indem entweder Wörter oder Wortteile vollständig gefingert werden oder aber nur einzelne Buchstaben. Fingeralphabet und konventionelle Gebärden können auch kombiniert werden wie z.B. bei $A L- PHA 1: H + A USDEHNEN 11B 14 ( -' E -O )/ hefe 15 . Diese Art der Kombination kommt in 32 Antworten vor. Der doppelte Verweis auf das Ablesewort findet sich auch in der Kombination von zwei konventionellen Gebärden, die jede für sich die intendierte Bedeutung ausdrücken kann wie in K URBELN 1A 16 ( ," $, ; P 8 ) + T RINKEN 1B 17 ( Q" 0 )/ kaffee, die beide konventionaliert sind für die Bedeutung „Kaffee“. Diese Art der Kombination kommt in 134 Antworten vor. 4.1.5.3.2 Inhaltsbezogene Kontextualisierung Der typische Fall der inhaltsbezogenen Kontextualisierung ist die produktive Verwendung einer konventionellen ikonischen Gebärde (s. Kap. 4.1.5.1). Die Bedeutung des Ableseworts wird durch den ikonischen Gehalt der Gebärde motiviert. 18 Dieser steckt den Bedeutungsrahmen ab, innerhalb dessen das abzulesende Wort zu suchen ist. So eignet sich die Gebärde B EHÄLTER 2A ( ! )>5 ER ) dazu, an die Form einer Spüle zu erinnern, die Gebärde A UFLÖSUNG ( O / "( & =/ ) visualisiert z.B. die Eigenschaft von Schmalz, der sich beim Kochen auflöst. In den elizitierten Antworten zum HLex und SLex gibt es zusammen knapp 5800 Gebärden, die produktiv verwendet werden. 14 Konventionell verwendet für „aufgehen“ (Masse), „sich ausdehnen“, „quellen“, „Hefe“, „Hefeteig“ und „Teig“. 15 Das Ablesewort erstreckt sich in diesem wie in den folgenden Beispielen über beide Gebärden. 16 Konventionell verwendet für „Hauswirtschaft“, „Kaffee“, „Koch“, „kochen“, „kurbeln“, Küche“ und „mahlen“. 17 Konventionell verwendet für „Kaffee“, „Tasse“, „Tee“ und „Wein“. 18 Die Bezeichnung ‚Teilidentität‘, die wir in Langer et al. (2002) verwendeten, ist missverständlich, da es nicht darum geht, dass die Gebärde hinsichtlich ihrer Bedeutung mit einem Wortteil identisch ist, sondern dass die Bedeutung des Wortes oder Wortteils Teil der Bedeutungen ist, die durch den ikonischen Gehalt der Gebärde abgedeckt werden. <?page no="159"?> 159 Als doppelter Verweis kann die produktive Verwendung einer konventionellen Gebärde mit einer zusätzlichen illustrierenden Gebärden kombiniert werden, um die intendierte Bedeutung möglichst gut abzusichern. Diese Kombination kommt nur 26 Mal vor. Lassen sich bei der Kontextualisierung einer Bedeutung durch mehrere Gebärden Wort bzw. Wortteile und Gebärden nicht mehr direkt aufeinander beziehen, dann liegt die Verweisfunktion der Gebärden oft darin, dass sie eine Art Bedeutungserklärung des Ableseworts darstellen. Mit ihren lexikalisierten oder „wörtlichen“ Bedeutungen bilden die Gebärden eine eigenständige inhaltliche Umschreibung 19 , die mit dem Ablesewort zeitlich parallelisiert wird. Wenn zum Ablesewort ‚emaille‘ die Gebärden H ART 1E ( : ">$! > % ) und $M AN -M ULDE 10 ( ! ) ESR ; )/ emaille gebärdet werden, dann ist die wörtliche Bedeutung der Gebärden „etwas Hartes, das die Innenseite eines Gefäßes oder eines Behälters auskleidet“. Dies ist eine treffende Umschreibung für Emaille. Die Gebärden umschreiben gewissermaßen „mit eigenen Worten“ die Bedeutung des Ablesewortes, ähnlich wie es auch in Bedeutungserklärungen in der Alltagskommunikation üblich ist. Zutaten sind all die Dinge, die man z.B. zum Backen eines Kuchens braucht, insofern ist die Antwort B RAUCHEN 1 ( Q'( ) R UND 2 20 ( - -" 5 9 ), in diesem Fall mit den Ablesewörtern ‚brauchen‘ und ‚alles‘, eine treffende Umschreibung des Wortes ‚Zutaten‘. Die Beziehung zwischen Gebärde und Ablesewort kann am besten als Kontinuum beschrieben werden, das von Übereinstimmung bis zum unabhängigen Nebeneinander reicht. Diese Umschreibungen stellen das andere Ende des Kontinuums dar. Während bei der Identität zwischen Gebärde und Ablesewort beide Zeichen unmittelbar aufeinander bezogen werden können, handelt es sich im Fall der inhaltlichen Umschreibung um zwei Äußerungen, die mit den jeweils eigenen sprachlichen Mitteln dieselbe Bedeutung ausdrücken. Die Verweisfunktion der Gebärden besteht darin, die Bedeutung des Wortes durch eine gebärdensprachliche Umschreibung zu doppeln. Gebärden und Wortteile lassen sich nicht mehr direkt aufeinander beziehen, durch das Ablesewort wird jedoch der Bezug zum Fachbegriff gehalten. Umschreibungen kommen in den Erhebungen zum HLex und SLex 298 Mal vor. 4.1.5.3.3 Kombination aus wort- und inhaltsbezogener Kontextualisierung Ein Wort oder auch Wortteil kann durch zwei Gebärden kontextualisiert werden, von denen eine Gebärde den Wortbezug, die andere einen inhaltlichen Bezug herstellt. Ist durch den Kontext die Bedeutung ausreichend abgesichert, so kann eine Gebärde auch entfallen. In den meisten Fällen ist 19 In Langer et al. (2002) wurden diese Kontextualisierungen „freie Übersetzung“ genannt. 20 Konventionell verwendet für „alles“, „allgemein“, „Ball“, „Erde“, „ganz“, „gesamt“, „global“, „Globus“, „Kohl“, „komplex“, „Komplexität“, „Kugel“, „Menge“, „Schale (Obst)“, „universal“ und „Welt“. <?page no="160"?> 160 abgesichert, so kann eine Gebärde auch entfallen. In den meisten Fällen ist die zusätzliche zweite Gebärde eine skizzierende Gebärde, die einen Formaspekt des Gemeinten visualisiert. Zum Beispiel wird die Gebärde V IERECK 1 ( '5"5 6& + ) zusammen mit anderen Gebärden verwendet, um die Bedeutung „Papier“, „Zettel“ oder „Fliese“ zu illustrieren. Diese zweite Gebärde tritt insbesondere dann hinzu, wenn kein kohärenter Äußerungskontext vorhanden ist wie z.B. bei den von uns durchgeführten Elizitationen, bei denen der Kontext lediglich darin besteht, dass ein Stimulus gezeigt wird. Nach Becker (2003: 160) kommen solche sequenziellen Kombinationen vor allem dann vor, wenn der Gebärdende den Eindruck hat, „dass eine Gebärde nicht genügt, um den Gesprächspartner zu den richtigen Assoziationen zu führen, [und] das Verstehen durch eine zweite ikonische Gebärde ab[sichert]“. In einer früheren Veröffentlichung weist Becker (2001: 161) darauf hin, dass dies auch der Grund ist, warum z.B. die Gebärde P ERSON 1 ( 6 ) so häufig in Gebärdensammlungen vorkommt. Ihre Funktion besteht darin, „die Bedeutung einzukreisen oder [...] die Zugehörigkeit zu einer Wortklasse zu kennzeichnen, die durch das lautsprachliche Wort vorgegeben wird“. Zur Illustration bzw. im Sinne eines eindeutigen Verweises auf die Bedeutung kann auch eine weitere konventionelle Gebärde verwendet werden wie z.B. in T RINKEN 11A 21 ( " 0 ) + I NHALT 1A ( ! / " $ / ; T 2 T 2U )/ alkohol, um zu verdeutlichen, dass es nicht um das Alkoholtrinken geht, sondern um den Alkohol als Inhaltsstoff von Getränken. Darauf hat auch Ebbinghaus (1998a: 599 f.) hingewiesen. Im Fall von Ü BER 1 22 ( ! 5 V ) + E SSEN 1B ( =/ '>W )/ nachtisch wird zusätzlich zur produktiven Verwendung von E SSEN 1B auf die Vorsilbe „nach- “ verwiesen. Im Kontext reicht meistens die produktive Verwendung der Gebärde E SSEN 1B aus, um die Bedeutung „Nachtisch“ auszudrücken. Bei $A LPHA 1: A + R ECHNEN 1 ( - 6 . )/ arithmetisch wird der Anfangsbuchstabe durch das Fingeralphabet kontextualisiert, um das Ablesen in die richtige Richtung zu lenken. Die produktive Verwendung der Gebärde R ECHNEN 1 ist eine geeignete Kontextualisierung des Ableseworts arithmetisch. Die Bedeutung „Kalklöser“ wurde von einer Informantin mit folgenden drei Gebärden wiedergegeben: $A LPHA 1: K + S CHÜTTEN 1A ( X ) + A UFLÖSUNG 1A ( O / "( & =/ )/ kalklöser. Während das Fingeralphabet den Anfangsbuchstaben des abzulesenden Wortes wiedergibt, betten die beiden folgenden Gebärden die Bedeutung in einen Handlungskontext ein, der wiederum als Bedeutungserklärung interpretiert werden kann: „Kalklöser ist eine Substanz, die ich (in die Waschmaschine) gebe, damit sich der Kalk auflöst.“ 21 Konventionell verwendet für „Alkohol“, „Alkoholismus“ und „Getränke“. 22 Konventionell verwendet für „außen“, „danach“, „nach“, „Rest“, „über“ und „übrig“. <?page no="161"?> 161 4.1.6 Zusammenfassung Johnston/ Schembri (1999) räumen zwar ein, dass der Einfluss der Wörter der umgebenden Lautsprache auf das gebärdensprachliche Lexikon beträchtlich ist, in ihrer Einteilung findet diese Feststellung jedoch keine Berücksichtigung. Ihre der lautsprachlichen Tradition folgende Definition eines Lexems als konventionalisierte Form-Bedeutungs-Einheit und die Betonung des Prinzips der spezifizierten Bedeutung grenzen sowohl die dynamischen Beziehungen zwischen Gebärde und Ablesewort als auch die strukturellen Zusammenhänge zwischen Gebärden, die sich durch die Berücksichtigung der Ikonizität ergeben, aus der lexikographischen Beschreibung konventioneller Gebärden aus. Dies ist letztendlich der Preis für die Gleichsetzung von Wort und Gebärde (s. Kap. 2.3). Folgerichtig wird Produktivität fast ausschließlich mit der ikonischen Zeichengenerierung im Bereich des produktiven Lexikons in Beziehung gesetzt. Ablesewörter werden als Fremdkörper angesehen, die die Struktur des Lexikons von Gebärdensprachen nicht beeinflussen und als Sprachkontaktphänomen, bedingt durch eine Diglossie-Situation, erklärt werden bzw. aus Sicht der Sprachproduktion als code mixing oder code switching 23 . Dagegen bietet die von Ebbinghaus/ Heßmann (1996, 2001) vertretene These, dass dynamische Beziehungen zwischen Wörtern und Gebärden systematisch genutzt werden, die Möglichkeit, die Produktivität dieser Kombination verschiedener Zeichentypen phänomenorientiert zu beschreiben, indem man unterscheidet zwischen konventionellen und produktiven Verwendungen konventioneller Gebärden. Dadurch, dass diese Kombinationen nicht auf eigenständige Einheiten des gebärdensprachlichen Lexikons reduziert werden, besteht auch nicht die Notwendigkeit, zwischen obligatorischen und fakultativen bzw. optionalen Ablesewörtern zu unterscheiden. Durch die Modellierung dieser verschiedenen Verwendungsarten mithilfe der doppelten Glossierung können konventionelle und produktive Verwendungen von Gebärden quantifiziert werden. Konventionelle Verwendungen werden „Lexemen“ zugeordnet. Diese „Lexeme“ dienen dazu, Token verschiedenen konventionalisierten Gebärde-Ablesewort-Kombinationen zuzuordnen. „Lexeme“ sind immer einer „Gebärde“ zugeordnet, die die eigentlichen lexikalischen Einträge darstellen. Produktive Verwendungen, d.h. Token nicht konventionalisierter Gebärde-Ablesewort-Kombinationen, werden direkt einer „Gebärde“ zugeordnet. In den elizitierten Antworten der verschiedenen Fachgebärdenlexikon- Projekte wird die Möglichkeit, konventionelle Gebärden mit einem unüblichen Ablesewort zu kombinieren, d.h. produktiv zu verwenden, unterschiedlich stark genutzt. Die Anzahl aller Token, die als produktive Verwendungen identifiziert wurden, schwankt zwischen 14 % und 40 %, im Durchschnitt sind es 25 % aller Token. Weiterhin lässt sich durch diese 23 Zur Kritik an diesen Erklärungsversuchen s. Ebbinghaus (1998a: 607-609, in Vorb.). <?page no="162"?> 162 differenzierte Token-Type-Zuordnung quantitativ belegen, dass Gebärden mit einer relativ einfachen Form besonders geeignet sind, eine Vielzahl von verschiedenen, semantisch nicht zusammenhängenden Bedeutungen zu kontextualisieren. Diese Gebärden sind in dem Sinne semantisch unterspezifiziert, als sie auf der ersten Stufe der Konventionalisierung eine allgemeine Bedeutung ausdrücken, die als gemeinsamer Bedeutungskern aller mit dieser Gebärde realisierten Bedeutungen gelten kann. Diese ikonisch oder metaphorisch motivierte Bedeutung dient als Kontextualisierungsmittel und Verweis auf die Bedeutung des Ableseworts. Analog zum steten Wechsel zwischen konventionellen Gebärden, die vorwiegend zur Benennung eingesetzt werden, und produktiven Gebärden, die zur Anschauung dienen, findet auch innerhalb der Verwendung konventioneller Gebärden ein Wechsel zwischen den beiden Bedeutungsebenen statt. Bei der produktiven Verwendung treten die lexikalisierten Bedeutungen der zweiten Stufe der Konventionalisierung in den Hintergrund zugunsten der allgemeinen Bedeutung, die durch das zugrunde liegende Bild motiviert ist. Die Verweisfunktion der Gebärde kann unterschieden werden in eine inhalts- und eine wortbezogene Kontextualisierung. Der typische Fall der inhaltsbezogenen Kontextualisierung ist die produktive Verwendung einer konventionellen ikonischen Gebärde. Das zugrunde liegende Bild der Gebärde wird genutzt, um auf die intendierte Bedeutung zu verwiesen, indem sie einen Aspekt der Wortbedeutung visualisiert. Bei der wortbezogenen Kontextualisierung besteht die Funktion der Gebärde lediglich darin, auf das deutsche Wort zu verweisen, unabhängig von dessen Bedeutung. Die Bedeutung wird aus dem Kontext erschlossen. Dieses Verfahren wird auch genutzt, um Wortbestandteile wie Präfixe oder Suffixe zu kontextualisieren. Einige dieser Verwendungen sind anscheinend lexikalisiert, da sie nur in dieser Bedeutung verwendet werden. Die Beziehung zwischen Gebärde und Ablesewort kann am besten als Kontinuum beschrieben werden, das von Übereinstimmung bis zum unabhängigen Nebeneinander von Gebärden und Ablesewort reicht, d.h. von der semantischen Übereinstimmung bis zu einer eigenständigen inhaltlichen Umschreibung der Wortbedeutung, die mit dem Ablesewort parallelisiert wird. 4.2 Zur Rolle der Ikonizität bei der Identifikation lexikalischer Einheiten Die doppelte Glossierung führt zu zwei auseinanderlaufenden Tendenzen. Während auf der Lexem-Ebene die Bedeutung im Vordergrund steht und eine Modifikation immer eine Spezifizierung der Lexembedeutung darstellt, stehen auf der Gebärden-Ebene die strukturellen, auf dem ikonischen Gehalt einer Gebärde beruhenden Zusammenhänge und Ableitungsverhältnisse zwischen Gebärden im Vordergrund. Die Abgrenzung zwischen Gebärden und eine weitere Differenzierung in Modifikationen und Vari- <?page no="163"?> 163 anten beruht auf der Analyse des zugrunde liegenden Bildes. In der Transkriptionspraxis über die Jahre hinweg hat sich die Einteilung der Gebärden in verschiedene Arten der Bilderzeugung bewährt. 4.2.1 Analyse ikonischer Gebärden: Bilderzeugungstechniken In den vorangehenden Ausführungen wurde an verschiedenen Stellen betont, dass nach unserer Ansicht die Ikonizität der Gebärden in der lexikologischen und lexikographischen Analyse und Beschreibung von Gebärdensprachen angemessen berücksichtigt werden muss. Das einer Gebärde zugrunde liegende Bild ist neben Form und Bedeutung ein wesentliches Kriterium für die lexikalische Analyse. Daher wurde die Beschreibung des ikonischen Gehalts von Gebärden, die zunächst nur bei produktiven Gebärden vorgenommen wurde, seit dem Fachgebärdenlexikon Gesundheit und Pflege (Konrad et al. 2007; GLex) auf alle Gebärden ausgeweitet. Neben der Darstellung der Vorgehensweise in den Hintergrundtexten des jeweiligen Fachgebärdenlexikons findet man in Langer (2005) eine umfassende Darstellung der verschiedenen Bilderzeugungstechniken. In König et al. (2008) werden die Konsequenzen für die lexikalische Analyse exemplarisch dargestellt. Die folgenden Ausführungen beruhen im Wesentlichen auf diesen Veröffentlichungen sowie auf den Hintergrundinformationen des GLex (s. Langer et al. 2007). Neben der inhaltsbezogenen Kontextualisierung von Ablesewörtern kommt das ikonische Potenzial von Gebärden insbesondere bei produktiven Gebärden, Modifikationen ikonischer konventioneller Gebärden und Neologismen zum Tragen. Die auf Diskursebene im steten Wechsel mit der Benennung vorkommenden Gebärden oder Äußerungsabschnitte, die Formeigenschaften von Objekten oder Personen, räumliche Verhältnisse und Bewegungsabläufe anschaulich darstellen, beruhen auf der absichtsvollen Ausnutzung der ikonischen Motivierung von Bedeutung. Liegt eine strukturelle Ähnlichkeit zwischen Eigenschaften des Referenzobjekts und der Form der Gebärde vor, so kann die Gebärdenform den verschiedenen Gegebenheiten angepasst und so die Bedeutung entsprechend modifiziert werden. Bei einer wortbezogenen Kontextualisierung (s. Kap. 4.1.5.3.1), bei der das zugrunde liegende Bild der Gebärde dazu dient, das Ablesewort zu erfassen und sich nicht direkt auf den Inhalt des Wortes beziehen lässt, ist diese Art der Modifikation nicht gegeben. Dass die visuelle Repräsentation in vielen Fällen keine 1: 1-Wiedergabe der visuell-räumlichen Situation, sondern eine schematische Darstellung einiger relevanter Bildaspekte ist, hat Cogill-Koez (2000a, 2000b) klar herausgearbeitet. Die verschiedenen Möglichkeiten, mithilfe der Hand etwas visuell wiederzugeben, können in sechs Bilderzeugungstechniken eingeteilt werden. Das Unterscheidungskriterium ist die Funktion der Hand bei der Bilderzeugung. Der Vorteil dieser Einteilung liegt darin, dass eine eindeutige Zuordnung getroffen wird, da die Hand nur eine der sechs Funktionen ausüben <?page no="164"?> 164 kann. Eine Mehrfachzuordnung ist nicht möglich, da sich die Kriterien gegenseitig ausschließen. Nur in wenigen Fällen lässt der Kontext eine alternative Interpretation des zugrunde liegenden Bildes zu. In diesen Fällen kann in der Datenbank eine alternative Bildbeschreibung und -analyse eingetragen werden. Die Bilderzeugungstechnik wird für die dominante und nichtdominante Hand getrennt angegeben, da sich bei zweihändigen Gebärden verschiedene Techniken miteinander kombinieren lassen. Dass sich in den Bilderzeugungstechniken Bezeichnungen und Einteilungen finden, die Mandel (1977) und Johnston/ Schembri (1996) für produktive Gebärden verwendet haben, ist nicht verwunderlich. Im Unterschied zu diesen Ansätzen beanspruchen die Bilderzeugungstechniken keinen theoretischen Status oder die Etablierung lexikalischer Klassen. Sie sind aus der Transkriptionspraxis entwickelte Kriterien für die Lemmaselektion und die Lemmatisierung (s. Kap. 4.2.2), die sich in der lexikographischen Arbeit bewährt haben. Weiterhin gehen wir, ähnlich wie Cuxac (2000; s. Kap. 4.3.3.2), davon aus, dass das Wissen um diese Bilderzeugungstechniken zur metasprachlichen Kompetenz eines Muttersprachlers gehören. 4.2.1.1 Substitutive Technik Bei der substitutiven Technik 24 wird die Hand stellvertretend für einen Gegenstand eingesetzt (Hand als Gegenstand). Dabei werden durch die Konfiguration der Hand Eigenschaften des Gegenstands visualisiert. Wie bei den sogenannten Klassifikatorgebärden sind diese Handformen konventionalisiert entsprechend der ersten Stufe der Konventionalisierung (s. Kap. 2.3, Abb. 1). Zum Beispiel wird eine Flachhand, mit der Handinnenfläche nach unten, in der DGS als Fahrzeugklassifikator verwendet, allerdings nur für zwei- oder mehrachsige Fahrzeuge. Fahrzeuge mit zwei Rädern werden durch eine Flachhand mit der Kleinfingerseite nach unten repräsentiert. In Langer (2005) dient ein Fisch zur Illustration der verschiedenen Techniken. Die Flachhand, die frei im Gebärdenraum bewegt werden kann, steht stellvertretend für den Fisch, die Bewegungen der Hand geben, oft in verkleinertem Maßstab, die Bewegungen des Fisches wieder. Dies kann je nach Intention schematisch oder sehr wirklichkeitsnah geschehen. Ausrichtung und Orientierung geben die Lage und Position des Fisches wieder. Die Hand kann auch im Gebärdenraum durch eine kurze Bewegung nach unten platziert werden und erzeugt dadurch ein unbewegtes Bild, indem sie die Position des Fisches entweder im Rahmen einer szenischen Darstellung an einem bestimmten Ort im Gebärdenraum oder in Bezug auf die nichtdominante Hand repräsentiert. 24 S. Mandel (1977: 65): „substitutive depiction“, Johnston/ Schembri (1996: 4): „substitutive handshapes“. <?page no="165"?> 165 Abbildung 12: Illustration der substitutiven Technik (s. Langer 2005: 258) 4.2.1.2 Manipulative Technik Bei der manipulativen Technik wird die Hand nicht stellvertretend für etwas anderes verwendet, sondern die Hände ahmen die Anordnung, die Bewegungen und Formen der Hände einer Person nach. Die Hand wird in einem weiten Sinn als Hand verwendet. Im Unterschied zu den Manipulator-Handformen („handle classifiers“) werden auch Tätigkeiten von Händen, die nicht mit einem Gegenstand interagieren, indem sie diesen z.B. festhalten oder bearbeiten, zu der manipulativen Technik gezählt. Bei der aus einer Geste entstandenen Gebärde Z ITTERN 1 ( , ' + ) ahmen die Hände die Fäuste nach, die durch die Bewegung der Arme vor dem Körper hin- und herbewegt werden. Sie bearbeiten keinen Gegenstand und werden auch nicht als Modell (s.u.) eingesetzt, um eine Bedeutung zu visualisieren. Anders als Johnston/ Schembri (1996: 5), von denen wir die Bezeichnung entlehnt haben (dort: „‘manipulator handshapes’“; in Johnston/ Schembri (1999): „interacting handshapes“), zählen wir jedoch die skizzierenden Gebärden nicht zu dieser Technik, da die Bewegung der Hände nicht Teil der Bedeutung ist. Nicht dass die Hand etwas zeichnet, sondern was sie zeichnet, ist von Bedeutung. Die Bewegung dient lediglich dazu, die Form eines Gegenstands in die Luft zu zeichnen. Es entsteht ein unbewegtes Bild, das erst am Ende der Bewegung fertiggestellt ist. In Abbildung 13 ahmen die Hände zwei Hände nach, die einen Fisch festhalten (linke Hand), um mit einem Messer die Schuppen zu entfernen (rechte Hand). Die intendierte Bedeutung erschließt sich aus dem Kontext, d.h. die Gegenstände werden gedanklich ergänzt. <?page no="166"?> 166 Abbildung 13: Illustration der manipulativen Technik (s. Langer 2005: 259) 4.2.1.3 Skizzierende Technik Bei der skizzierenden Technik 25 wird die Form eines Gegenstands in die Luft gezeichnet. Die Hand wird als Zeichenwerkzeug verwendet. Die Ausdehnung des Gegenstands wird durch die Wahl der Handform visualisiert. Die Zeigefingerhand zeichnet Linien oder Punkte in die Luft, die Flachhand zweidimensionale Flächen, die gebogene Flachhand, die gespreizte, gebogene Fünffingerhand oder die O-Hand sind dazu geeignet, die Umrisse und Ausdehnung dreidimensionaler Körper zu zeichnen. Die Hand dient als Zeichenwerkzeug, die Bewegungen der Hand sind, im Unterschied zur substitutiven und manipulativen Technik, nicht Teil der Bedeutung, sondern Zeichenbewegungen, die eine ein-, zwei- oder dreidimensionale Spur hinterlassen. Neben Form und Ausdehnung können auch Position und Lage des Gegenstands in der Ausführung der Gebärde integriert werden. In Abbildung 14 zeichnet die Zeigefingerhand die Form der Schwanzflosse des Fisches in die Luft. Je nach Intention kann dies sehr schematisch geschehen oder aber detailgetreu. Abbildung 14: Illustration der skizzierenden Technik (s. Langer 2005: 260) 25 S. Mandel (1977: 67): „sketching“, Johnston/ Schembri (1996: 5): „tracing“. <?page no="167"?> 167 4.2.1.4 Stempelnde Technik Bei der stempelnden Technik 26 wird die Hand als Stempel benutzt, der einen Abdruck auf einer Unterlage hinterlässt. Dieser Abdruck visualisiert Formaspekte des Gemeinten. Die Handform wird der Form des Abdrucks angepasst. So eignen sich z.B. die Fingerspitzen dazu, Punkte im Gesicht zu visualisieren. Diese wiederum sind geeignete Kontexualisierungen der Bedeutungen „Akne“, „Masern“, „Pickel“, „Poren“, „Pubertät“, „Röteln“ und „Windpocken“. Im Unterschied zur indizierenden Technik dient die Bewegung nicht dazu, auf Punkte im Gesicht zu zeigen. In Abbildung 15 wird der durch Daumen und Zeigefinger geschlossene Kreis dazu benutzt, das ringförmige Muster des Fisches zu visualisieren, indem die Hand mehrfach an verschiedenen Stellen des gedanklich ergänzten Fischkörpers platziert wird. Abbildung 15: Illustration der stempelnden Technik (s. Langer 2005: 260) Typisch für diese Technik ist die kurze, stempelnde Bewegung. Diese ist auch in der Gebärde S TEMPEL 1A ( , '" $! > % ) vorhanden, die dominante Hand ist jedoch der manipulativen Technik zuzuordnen, da sie eine Hand repräsentiert, die einen Stempel festhält und diesen auf eine Unterlage (nichtdominante Hand; substitutive Technik) drückt. 4.2.1.5 Maßanzeigende Technik Bei der maßanzeigenden Technik 27 wird die Hand bzw. werden die Hände als Begrenzungsanzeiger verwendet. Die Handform wird in Abhängigkeit von der räumlichen Ausdehnung gewählt. Für große, dreidimensionale Gegenstände oder große Abstände werden die Flachhände verwendet, für kleine, dünne oder feine Gegenstände oder kurze Abstände die Zeigefinger bzw. Daumen und Zeigefinger. Durch die Bewegung kann entweder eine variable Größe bzw. ein variabler Abstand oder eine Vergrößerung oder Verringerung der Ausdehnung visualisiert werden. Diese spezifische Kombination mit einer bedeutungsrelevanten Bewegung wird in Langer (2005) auch „bewegtes Maß“ genannt. Ähnlich wie bei der substitutiven Technik kann die Bewegung der Hand auch nur eine platzierende Bewegung hin zu einer bestimmten Begrenzungslinie sein wie z.B. bei der 26 S. Mandel (1977: 67): „stamping“. 27 S. Mandel (1977: 69): „measuring“. <?page no="168"?> 168 Gebärde K LEIN 3 ( ! " ), deren konventionelle Verwendungen „klein“, „Kind“, „Kindheit“ und „kindlich“ sind. Durch den Abstand der beiden Hände wird in Abbildung 16 die Länge des Fisches angezeigt. Abbildung 16: Illustration der maßanzeigenden Technik (s. Langer 2005: 261) Um welche Art der Ausdehnung es sich handelt (Größe, Länge, Breite, Höhe, Tiefe, Abstand etc.), hängt vom Kontext ab. Ebenso muss die Bedeutung der mit dieser Technik ausgeführten Gebärde in Relation zum bezeichnenden Gegenstand interpretiert werden. Die in der Abbildung gezeigte Gebärde kann „groß“ bedeuten, wenn damit die Länge eines Stichlings gemeint ist, sie kann „klein“ bedeuten, wenn es sich um einen Haifisch handelt. Diese Bedeutungsunterschiede können durch eine entsprechende Mundgestik konkretisiert werden. 4.2.1.6 Indizierende Technik Bei der indizierenden Technik 28 wird die Hand als Zeiger oder Wegweiser eingesetzt, die in die Richtung des gemeinten Gegenstands zeigt oder ihn auch berührt. Letzteres ist besonders häufig beim Zeigen auf eine bestimmte Stelle am eigenen Körper der Fall. In der DGS werden dazu die Zeigefingerhand und die Flachhand verwendet. Als Variante zur Zeigefingerhand wird auch die Mittelhand benutzt, bei der nur der Mittelfinger im Grundgelenk abgewinkelt ist, die übrigen Finger sind gestreckt wie bei der Fünfhand. Die Bewegung kann einfach oder wiederholt sein, in einigen Fällen kann sie auch ganz wegfallen oder nur als Übergangsbewegung vorhanden sein. In Abbildung 17 zeigt die Zeigefingerhand auf das Bild mit dem Fisch, das in der Mitte zwischen zwei anderen Bildern hängt und lenkt wie ein Hinweisschild oder Pfeil die Aufmerksamkeit auf dieses Bild. 28 S. Mandel (1977: 64): „indexical presentation“. <?page no="169"?> 169 Abbildung 17: Illustration der indizierenden Technik (s. Langer 2005: 262) Im Unterschied zur einfachen zeigenden Bewegung kann beim bewegten Index die Bewegung des Objekts mit der zeigenden Funktion kombiniert werden. Die Hand vollzieht die Bewegung des Objekts nach, z.B. kann die Zeigefingerhand die Bewegung einer Fliege im Raum visualisieren. Im Unterschied zur skizzierenden Gebärde ist der Fokus nicht auf der gezeichneten, imaginären Spur, die die Fliege hinterlässt, sondern auf der Bewegung der Fliege selbst als Agens der Äußerung. Im Kontext lässt sich dieser Unterschied meistens leicht feststellen. Die Gebärde wird in der Bedeutung „so hat sich die Fliege bewegt“ ausgeführt, und nicht „so sah der Weg der Fliege aus, als sie sich durch den Raum bewegt hat“. 4.2.1.7 Kombinationen, Misch- und Sonderformen Bei zweihändigen Gebärden können beide Hände zusammen einen gemeinsamen Gegenstand visualisieren, z.B. zeichnen bei R UND 2 ( - -" 5 9 ) beide Hände die Form eines runden, dreidimensionalen Gegenstands nach, oder aber zwei verschiedene Gegenstände bzw. Handlungen wie im o.g. Beispiel zur manipulativen Technik, in dem beide Hände mit derselben Technik verschiedene Handlungen ausführen. Bei der Gebärde S TEMPEL 1A ( , '" $! > % ) werden zwei verschiedene Bilderzeugungstechniken miteinander kombiniert (passive Hand = substitutive Technik, aktive Hand = manipulative Technik). Eine Kombination aus indizierender und skizzierender Technik ist die indizierende Skizze (Langer 2005), die in Langer et al. (2007) auch ausgedehnter Index genannt wird. Die Verweisfunktion der Handform wird dabei kombiniert mit einer skizzierenden Bewegung. Dies ist besonders häufig bei Gebärden, die den Körper als Modell verwenden wie z.B. bei der Gebärde M UND 1 ( / W Y ). Durch die Bewegung wird die ungefähre Form des Munds nachgezeichnet. Dabei kann auch eine für die skizzierende Technik seltenere Handform verwendet werden wie z.B. bei der Gebärde H ALS 2A ( < Z [ ). Ein weiteres Beispiel für diese Technik ist die mit der Flachhand ausgeführte Gebärde B EREICH 1A, die sowohl im Gebärdenraum als auch am Körper positioniert ausgeführt werden kann. Die Verteilung der Gebärden im GLex mag der Grund gewesen sein, warum in der Bezeichnung dieser Kombination der beiden Techniken die <?page no="170"?> 170 indizierende Technik im Vordergrund stand, denn die meisten Gebärden werden am Körper ausgeführt, der als Modell dient. Sie stehen daher in enger Verwandtschaft zu anderen indizierenden Gebärden, die lediglich auf die entsprechende Körperstelle zeigen. Bei der Ausführung am Körper geht die Körperstelle direkt in die Bedeutung ein. Dies muss jedoch nicht immer der Fall sein, wie die Gebärde W EISS 1A ( / 0 & ) zeigt, bei der eine prototypische Eigenschaft der Zähne, ihre weiße Farbe, auf das Farbspektrum übertragen wird. Bei der Gebärde M ONAT 1 ( ' ) ist kein Körperbezug vorhanden. Hier scheint das skizzierende Moment, das Nachfahren einer Spalte auf einem nicht sichtbaren Kalender mit dem Zeigefinger, im Vordergrund zu stehen. Im Unterschied zur manipulativen Technik, bei der die Hand als Hand verwendet wird, die etwas tut oder an einer Handlung beteiligt ist, kann die passive Hand auch als Modell verwendet werden, d.h. sie repräsentiert eine Hand oder den Teil einer Hand, auf den gezeigt oder an dem etwas skizziert oder platziert wird. Zum Beispiel zeigt bei der Gebärde H AND 1A ( ! '" $! \ %1 ]2^_4 % ) die aktive Hand (= Index) auf die passive Hand (= Modell). In einigen Fällen dient die passive Hand lediglich als Fokus, um ähnlich wie bei der indizierenden Technik die Aufmerksamkeit auf die eigentlich bedeutungsrelevante Körperstelle zu lenken. Dies ist z.B. bei der Gebärde G ELENK 5B ( , $ \ T 21 `4a ) der Fall. Übergänge zwischen Gebärden können dazu führen, dass eine Hand aus der vorangegangenen Gebärde weiterhin gehalten wird, während die aktive Hand bereits eine andere Gebärde ausführt. In den Transkriptionskonventionen (Konrad 2010b) wird diese passive Hand oft als „H OLD “ bezeichnet. Für die Analyse der Bilderzeugungstechnik kann dies bedeuten, dass dieselbe Hand in der ersten Gebärde, z.B. bei der Gebärde B EHÄL- TER 2A ( ! )>5 ER ), als skizzierende Gebärde analysiert wird, in der nachfolgenden Gebärde, bei der die nichtdominante Hand stehen bleibt und die dominante Hand z.B. die Gebärde R ÜHREN 1 ( ,2Nb c H ) ausführt, als substitutive Gebärde, die den Rand des Gefäßes darstellt, in dem gerührt wird. Um den Zusammenhang zur vorhergehenden Gebärde auch in der Analyse der zugrunde liegenden Bilder deutlich zu machen, kann man in diesem Fall die gehaltene Hand auch als gehaltene Skizze bezeichnen. Obwohl in der Alltagskommunikation der Gebärdende auf eine bestimmte Darstellungstechnik zurückgreift und nicht, wie in der Gebärdensprachpoesie, bewusst die Mehrdeutigkeit der eingesetzten sprachlichen Mittel in den Vordergrund stellt, ist es für den Betrachter in einigen Fällen nicht immer zweifelsfrei möglich, die Funktion der Hände bei der Bilderzeugung eindeutig einer Technik zuzuordnen, da die Anwendung verschiedener Techniken zu formgleichen Gebärden führen kann. Zum Beispiel kann eine Flachhand, Handinnenfläche nach unten, die sich nach oben bewegt, eine sich verändernde Begrenzung anzeigen (maßanzeigende Technik) oder eine sich nach oben bewegende Oberfläche (substitutive <?page no="171"?> 171 Technik). Die sich nach unten bewegende C-Hand kann interpretiert werden als „(ein Glas) hinstellen“ (manipulative Technik), „ein Glas (, das da steht)“ (substitutive Technik mit platzierender Bewegung) oder aber als skizzierende Technik, die die Form und Ausdehnung des Glases zeigt. Reichen die Kontextinformationen nicht aus, so hilft der Vergleich mit ähnlichen Gebärden, in denen dieselbe Handform mit einer bestimmten Technik benutzt werden. Weiterhin ist entscheidend, ob die Bewegung als Bewegung des Objekts interpretiert wird und dementsprechend verändert werden kann, oder ob sie wie bei der skizzierenden, maßanzeigenden und stempelnden Technik nur zur Beschreibung der Form und Ausdehnung eines Objekts dient. Da bei einer Modifikation einer konventionellen Gebärde die strukturellen Ähnlichkeiten zwischen Gebärdenform und Referenzobjekt genutzt werden, um eine spezifische Bedeutung auszudrücken, ist es hilfreich, die möglichen Modifikationen auszutesten und von einem native signer auf ihre Plausibilität hin prüfen zu lassen. Die Übergänge von einer detailgetreuen, realistischen zu einer schematischen oder gar stilisierten Darstellung sind fließend. Absichtsvolle detaillierte Darstellungen werden als Reikonisierung konventioneller Gebärden bezeichnet. Häufig handelt es sich um Modifikationen oder um eine pantomimische Darstellung im Rahmen eines repräsentierenden ganzheitlichen Körperausdrucks 29 . Auf der anderen Seite führen Prozesse der Lexikalisierung, z.B. eine stilisierte Ausführung von Gebärden, und Grammatikalisierung zu einer Deikonisierung 30 . Dadurch gehen strukturelle Ähnlichkeiten zwischen der Gebärdenform und dem Referenzobjekt verloren, das zugrunde liegende Bild lässt sich nur noch teilweise oder nicht mehr bestimmen. Stilisierungen sind erkennbar durch die Ersetzung einer Handform durch eine einfachere, d.h. unmarkierte Handform, die Anpassung der Handform der nichtdominanten Hand an die dominante Hand, das Hinzunehmen oder Weglassen der zweiten Hand, Verschleifungen von komplexen Bewegungen zu einfachen Bewegungen, zusätzliche einfache Bewegungsmuster wie z.B. die Wiederholung einer Drehbewegung, die Übertragung von Bewegungen der Augen, des Kopfes oder des Körpers auf die Hände und die Verschiebung von ursprünglich ikonisch motivierten Ausführungsstellen. Der Anteil konventioneller Gebärden, bei denen kein zugrunde liegendes Bild oder Bildelemente bestimmt werden konnten, betrug bei den im Gebärdenverzeichnis des Fachgebärdenlexikons Gesundheit und Pflege (Konrad et al. 29 Diese Bezeichnung für die analoge oder szenische Darstellung eines Geschehens, in dem der Gebärdende in die Rolle eines Aktanten schlüpft, wurde von Ebbinghaus/ Heßmann (1994b) übernommen und wird auch als Rollenübernahme oder constructed action (CA) bezeichnet. Weiterführende Erläuterungen findet man in Konrad (2010a: 61-63). 30 Frishbergs (1975, 1980) Studien zu Prozessen der Deikonisierung und Stilisierung in der Amerikanischen Gebärdensprache (ASL) wurden als Argumente für die Nichtbeachtung ikonischer Strukturen in Gebärdensprachen benutzt, denn sie zeigten aus sprachhistorischer Perspektive, dass das Kriterium der Arbitrarität sprachlicher Zeichen auch in Gebärdensprachen erfüllt ist. Zur Kritik an dieser Sichtweise s. Kap. 4.3. <?page no="172"?> 172 2007; GLex) enthaltenen Gebärden 28 %. Insgesamt wurde bei 78 % der ca. 1200 Gebärden, die bei der Transkription für das GLex und das Fachgebärdenlexikon Sozialarbeit/ Sozialpädagogik (Konrad et al. 2003; SLex) identifiziert wurden, eine Bildanalyse vorgenommen. Lediglich bei 11 % dieser über 930 Gebärden konnte das Bild nicht bestimmt werden. Alle sechs beschriebenen Bilderzeugungstechniken können allein oder kombiniert produktiv eingesetzt werden, um neue Gebärdenzeichen zu bilden. Im GLex kommen bei den produktiven Gebärden für die dominante Hand vor allem die skizzierende (40 %) und die substitutive Bilderzeugungstechnik (39 %) vor, gefolgt von der indizierenden (12 %) und der manipulativen (8 %). Der Anteil der maßanzeigenden und der stempelnden Technik ist im GLex zu vernachlässigen. 64 % aller produktiven Gebärden werden mit einem inhaltlich begründeten Bezug zu einem Körperteil ausgeführt. Diese Verteilung erklärt sich durch das Sachgebiet und kann daher nicht verallgemeinert oder auf andere Bereiche übertragen werden. 4.2.2 Konsequenzen für die Identifikation lexikalischer Einheiten Ich habe bereits darauf hingewiesen, dass es unserer Ansicht nach nicht ausreicht, die Auswirkungen der Ikonizität nur im Bereich der produktiven Gebärden zu beschreiben. Dass das zugrunde liegende Bild einer konventionellen Gebärde bei der produktiven Kombination mit Ablesewörtern als Kontextualisierungsmittel eingesetzt wird, wurde in den Kapiteln 4.1.4 und 4.1.5 ausführlich dargelegt. Im Folgenden wird exemplarisch die Bedeutung der Ikonizität für die Lemmaselektion, insbesondere für die Unterscheidung von Synonymen und Homonymen sowie von Zitierform, Modifikation und Variante erläutert. Vergleicht man die zugrunde liegenden Bilder formgleicher und formähnlicher Gebärden, so ergibt sich ein Netzwerk struktureller Gemeinsamkeiten und Ableitungsverhältnisse, das unseres Erachtens grundlegend ist für die lexikalische Struktur von Gebärdensprachen. Grundlegend insofern, als es die Voraussetzungen schafft für die vielfältigen Verwendungsmöglichkeiten ikonischer Gebärden und damit für die sprachliche Kodierung von Bedeutung. Grundlegend auch im wörtlichen Sinn, da diese ikonischen Strukturen mit einem unterirdischen Pilzgeflecht vergleichbar sind (s. Abb. 18), das auf den ersten Blick nicht sichtbar ist. Legt man es frei, dann sieht man die Zusammenhänge zwischen den verschiedenen konventionalisierten Bedeutungen, den aus dem Boden gewachsenen Pilzen. Ein semantisches Netzwerk der konventionalisierten Bedeutungen würde lediglich den oberflächlich sichtbaren, lexikalisierten Teilausschnitt zeigen und die Möglichkeiten der Reaktivierung des ikonischen Potenzials konventioneller Gebärden sowie die fließenden Übergänge zum produktiven Lexikon ausblenden. <?page no="173"?> 173 Abbildung 18: Vergleich zwischen Gebärden mit ihren ikonischen Strukturen und Pilzen mit Pilzgeflecht 4.2.2.1 Verschiedene Formen, verschiedene Bilder: verschiedene Gebärden oder Synonyme Nach der Regel gleiche Form, gleiches zugrunde liegendes Bild = gleiche Gebärde werden verschiedene konventionalisierte und produktive Verwendungen einer Gebärde zugeordnet. Dies bedeutet im Umkehrschluss, dass verschiedene Formen, die auf verschiedene Bilder zurückgeführt werden können, auch verschiedene lexikalische Einheiten darstellen und in der Datenbank verschiedene Gebärdeneinträge erfordern. Haben diese Gebärden dieselbe konventionalisierte Bedeutung, dann handelt es sich um Synonyme, die mit demselben Glossennamen, aber einer unterschiedlichen ersten Ziffer, oder mit einem anderen Glossennamen, der an das der Gebärde zugrunde liegende Bild erinnert, etikettiert. Eine Bedeutung, für die es besonders viele synonyme Gebärden sowie einige phonologische Varianten gibt, ist „Brot“: <?page no="174"?> 174 Gebärde Bedeutungen Form Bildbeschreibung BROT2A Brot ! d>$! > % ) BROT2B Brot ! ">$! > e % d BROT2C Brot ! "($ / > % B ) Eine Klinge schneidet in oder über einen Gegenstand (linke Hand). BROT4 Brot , F 6 &9 6 Eine Klinge schneidet den vor dem Oberkörper gehaltenen Brotlaib (nicht sichtbar; stilisiert). BROT6A Brot / S f 3 G Kein Bild erkennbar; Bildelemente mit möglichen Assoziationen: Handform: Klinge (stilisiert). BROT6B Brot / S,) G Kein Bild erkennbar; Bildelemente mit möglichen Assoziationen: Handform: Klinge. BROT8 Brot ,F $, ; P g ( Eine Klinge schneidet in einen Gegenstand (linke Hand). ESSEN1A Brot, Ernährung, essen, Essen, Gericht, Kantine, Kost, Lebensmittel, Menü, Mittag, Mittagessen, Nahrung, Nähr-, Speise, Verpflegung N W Essen festhalten und zum Mund führen (stilisiert). SCHMIE- REN1A Brot, bunt, Butter, Farbe, färben, farbig, Margarine, Marmelade, März, einpinseln, Pinsel, Schmalz, streichen (etwas bestreichen), bestreichen, schmieren ! K $! )> h^ ! / b M i Etwas auf eine Unterlage (linke Hand) schmieren oder streichen. SCHNEI- DEN52C Brot, halb, Hälfte, Eierschneider, schneiden ! " $! > % B Eine Klinge schneidet in einen Gegenstand (gedanklich ergänzt) auf einer Unterlage (linke Hand). SCHNEI- DEN55C Brot, Hälfte, halb, Teil ! " $! ; P B '" SCHNEI- DEN515C Brot ! / F $! / P "> j Eine Klinge schneidet einen anderen Gegenstand (linke Hand) mitten durch. VIER- ECK22B Attest, Ausweis, Bild, Brot, Diskette, Fliese, Foto, Kassette, Rezept, Schein, Bescheinigung, Ticket, Zettel <O'" & k Ein rechteckiger Gegenstand (vertikal ausgerichtet). Tabelle 13: Synonyme Gebärden und Ausführungsvarianten für die Bedeutung „Brot“ <?page no="175"?> 175 4.2.2.2 Verschiedene Formen, gleiches Bild, verschiedene Bilderzeugungstechniken: Synonyme Dasselbe zugrunde liegende Bild kann durch verschiedene Bilderzeugungstechniken visualisiert werden. Dadurch entstehen Gebärden, deren Formen verschieden sind. Auch wenn die konventionalisierte Bedeutung gleich ist, werden diese Gebärden ebenso wie andere synonyme Gebärden, die auf verschiedenen Bildern beruhen, als Synonyme gekennzeichnet. Ein Beispiel sind die Gebärden K RIPPE 2 ( ! l ) und K RIPPE 3 ( ! ' ( " l ). Das zugrunde liegende Bild beider Gebärden ist eine auf einem Holzgestell stehende Futterkrippe. In K RIPPE 2 wird das Bild mithilfe der substitutiven Technik - die Arme stehen für zwei über Kreuz stehende Stangen des Gestells -, in K RIPPE 3 mithilfe der skizzierenden Technik erzeugt. 4.2.2.3 Ähnliche Form, gleiches Bild, gleiche Bilderzeugungstechnik: phonologische Varianten Formähnliche Gebärden, deren Form durch dasselbe zugrunde liegende Bild motiviert ist und die für dieselbe Bedeutung verwendet werden, sind phonologische Varianten, auch Ausführungsvarianten genannt, da sie lediglich eine leicht verschiedene Form der Artikulation einer Gebärde darstellen. Zum Beispiel wird die Bedeutung „Dose“ durch drei Gebärden ausgedrückt, die alle die Form einer Dose nachzeichnen (skizzierende Technik), sich in der Ausführung jedoch leicht voneinander unterscheiden. Während B EHÄLTER 1A und B EHÄLTER 1B sich nur in der nichtdominanten Hand unterscheiden, sind bei B EHÄLTER 1A und B EHÄLTER 1E die Handform und Handstellung der dominanten Hand verschieden. Dieses Beispiel zeigt, dass eine harte Regel, die nur die Veränderung eines Parameters zulässt (s. Troelsgård/ Kristoffersen 2008: 659-662), um verschiedene Ausführungen als phonologische Varianten zu klassifizieren, nicht sinnvoll ist. In diesem Fall würde dies bedeuten, dass die beiden letztgenannten Ausführungen als Synonyme behandelt werden müssten, obwohl sie mit derselben Technik dasselbe Bild visualisieren. Gebärde Bedeutungen Form Bildbeschreibung B EHÄLTER 1A Becher, Dose, Flasche " $! > % m B EHÄLTER 1B Becher, Dose, Flasche, Behälter, Konserve, Glas, Pokal " $ ; P m B EHÄLTER 1E Dose(n), Konserve(n) -" $! > % m B EHÄLTER 1C Behälter, Eimer, Topf " m B EHÄLTER 1D Behälter, Eimer, Tonne L " Zylinderförmiger Gegenstand oder Behälter Tabelle 14: Phonologische Varianten der Gebärde B EHÄLTER 1 Mit dem Glossennamen B EHÄLTER sind in der Datenbank zwei weitere Formen als phonologische Varianten eingetragen, die sich lediglich in der Anordnung der beiden Hände zueinander bzw. bei B EHÄLTER 1D auch in <?page no="176"?> 176 der Bewegungsrichtung von B EHÄLTER 1B unterscheiden. Diese beiden Varianten wurden in den Token, die für die Fachgebärdenlexika erhoben wurden, in der Bedeutung „Dose“ nicht verwendet. Die Verteilung der konventionellen Verwendungen einer Gebärde auf die verschiedenen Ausführungsvarianten bleibt eine interessante Fragestellung, die durch ein Referenzkorpus der DGS, wie es zurzeit im Rahmen des DGS-Korpus- Projekts (s. Anhang 1) erstellt wird, beantwortet werden kann. 4.2.2.4 Gleiche Form, verschiedene Bilder: Homonyme Formgleiche Gebärden, die sich in ihren zugrunde liegenden Bildern unterscheiden, sind Homonyme. Bei dieser Vorgehensweise wird nicht die Bedeutung, die eine Gebärde in ihrer konventionalisierten oder produktiven Verwendung hat, berücksichtigt, sondern die allgemeine Bedeutung, die durch das zugrunde liegende Bild motiviert ist. Dieses Bild wird als Ursprung betrachtet, auf den die Bedeutungen, die eine Gebärde ausdrücken kann, zurückgeführt werden. Zwei formgleiche Gebärden, die durch verschiedene Bilder motiviert sind, können nicht voneinander abgeleitet sein oder einen gemeinsamen Ursprung haben. Da das Bild den Rahmen festlegt, innerhalb dessen die verschiedenen Bedeutungen liegen, die mit dieser Gebärde ausgedrückt werden, sind auch die konventionalisierten Bedeutungen der Gebärden verschieden. Werden die Bilder mit einer verschiedenen Technik erzeugt, dann ist auch das Modifikationsverhalten verschieden. Homonyme sind in der DGS relativ selten. Im Rahmen der Transkription der Daten zu den Projekten HLex, SLex, GLex und GaLex wurden nur 31 Homonymie-Paare dokumentiert. In Langer et al. (2007: 992) wurden die Gebärden K RABBELN 1A und Z ERFRESSEN 1 als Beispiele angeführt, in König et al. (2008) die Gebärden M ELKEN 1A und K ONKURRENZ 1. Gebärde Bedeutungen Form Bildbeschreibung M ELKEN 1A Milch K ONKUR- RENZ 1 Kandidat, Konkurrenz, Meisterschaft / S@," 1 m 4 Abwechselnd an den Zitzen eines Euters ziehen (stilisiert); mögliche Assoziation: Zwei Dinge oder Personen konkurrieren um den Spitzenplatz (stilisiert). K RABBELN 1A Bakterien, tierisch, Virus, Viren Kleine Lebewesen krabbeln voran. Z ERFRESSEN 1 Rost, Säure L-O) V. Mögliche Assoziation: Etwas (gedanklich ergänzt) wird zersetzt, zerfressen oder zerstört. Bildelement mit möglichen Assoziationen: Fingerspiel: Aktivität, zersetzen, brodeln, bröseln. Tabelle 15: Homonyme Gebärden mit konventionellen Verwendungen und Bildbeschreibung <?page no="177"?> 177 Die stilisierte Handlung des Melkens in der Gebärde M ELKEN 1A führt dazu, dass diese Ausführung formgleich ist mit der Gebärde K ONKURRENZ 1, bei der die mit dem Daumen ausgeführte Eins-Handform wie bei einigen anderen Gebärden als Klassifikator-Handform für eine Person verwendet wird. Bei der Gebärde K RABBELN 1A repräsentieren die Finger die Bewegungen der Insektenbeine. Diese Bildanalyse wird gestützt durch die phonologische Variante K RABBELN 1B ( -F $no ]# +. ), bei der die sich bewegenden Finger die Beine eines Insekts darstellen, das über eine Fläche läuft. Die formgleiche Gebärde Z ERFRESSEN 1 visualisiert dagegen eine Aktivität, die auf die Bewegung einer Substanz oder einen Prozess auf einer Oberfläche zurückzuführen ist, ein Brodeln oder Blubbern bzw. ein Zersetzungsprozess. 4.2.2.5 Bedeutungsrelevante Veränderung des zugrunde liegenden Bildes: Modifikation In der vorausgegangenen Darstellung wurde an den entsprechenden Stellen die Rolle der Ikonizität bei der Modifikation einer Gebärde betont. Eine Modifikation ist eine bedeutungsrelevante Formveränderung einer konventionellen Gebärde, die auf einer Veränderung, d.h. einer Spezifizierung oder Erweiterung des ihr zugrunde liegenden Bildes beruht. Das veränderte Bild motiviert wiederum eine entsprechende Veränderung der Bedeutung, d.h. die strukturelle Ähnlichkeit wird ausgenutzt, um durch die Veränderung des zugrunde liegenden Bildes eine Bedeutungsveränderung zu erreichen. Es handelt sich hierbei um eine absichtsvolle Bedeutungsveränderung, die vom Gebärdenden jedoch nicht immer bewusst vorgenommen wird. Das Wissen um das ikonische Potenzial von Gebärden sowie die Möglichkeiten, wie dieses Potenzial genutzt werden kann zur Kodierung von Bedeutung, ist Teil seiner metasprachlichen Kompetenz. Die Modifikation einer konventionellen Gebärde ist immer eine Reikonisierung dieser sprachlichen Einheit und kann im Rahmen der Möglichkeiten, die die jeweilige Bilderzeugungstechnik zulässt, genutzt werden, um eine bestimmte Bedeutung auszudrücken. Die Grenzen zu produktiven Gebärden, die auf denselben Prinzipien beruhen, ist fließend und führt zu Abgrenzungsproblemen. Da der Fokus der Transkription auf der Identifikation lexikalischer Einheiten liegt, besteht eher die Tendenz, Token als Modifikationen konventioneller Gebärden zu identifizieren und nicht als produktive Gebärden. Die doppelte Glossierung führt dazu, dass sich auf der Gebärden-Ebene die auf dem ikonischen Gehalt der Gebärden beruhenden Zusammenhänge und Ableitungsverhältnisse bereits in der Glossierung niederschlagen. Wird das zugrunde liegende Bild einer Gebärde als Veränderung des Bildes einer anderen Gebärde interpretiert und kann diese Veränderung als Motivierung einer Bedeutungsveränderung verwendet werden, dann wird auf Gebärden-Ebene eine Modifikation eingetragen. Da diese Bedeutungsveränderung nicht realisiert werden muss, kann es sein, dass auf Lexem- <?page no="178"?> 178 Ebene eine phonologische Variante eingetragen ist, da mit dieser modifizierten Gebärde lediglich dieselbe Bedeutung wie mit der nicht modifizierten Gebärde ausgedrückt wird (s. Kap. 4.1.5.2). Auf der Lexem-Ebene steht die konventionalisierte Bedeutung, die häufig durch das Ablesewort spezifiziert wird, im Vordergrund. Eine Modifikation ist immer eine Bedeutungsveränderung, die sich auf die im „Lexem“ eingetragene Bedeutung beziehen lässt. Dabei lassen sich grammatische Modifikationen von semantischen Modifikationen unterscheiden. Zur grammatischen Modifikation zählen Pluralbildung oder die Ausrichtung und Verortung im Gebärdenraum, um syntaktische Bezüge herzustellen. Bei der semantischen Modifikation, Becker (2003: 186, 190) nennt diese Art der Modifikation auch unsystematisch oder ikonisch, werden die durch die Bilderzeugungstechnik vorgegebenen Möglichkeiten genutzt, um die Bedeutung des „Lexems“ zu spezifizieren oder zu erweitern. Zum Beispiel kann zu einer einhändig ausgeführten Zitierform die nichtdominante Hand hinzukommen, um die Bedeutung zu erweitern. So wird bei der Gebärde Q UELLE 14A ( =" $! % -O ) durch die Hinzunahme der Flachhand die Bedeutung „Dampf“, eine konventionelle Verwendung der Gebärde Q UELLE 1A ( ="> m -O'" ), zur Bedeutung „Dampf tritt aus der Unterseite des Bügeleisens (linke Hand) aus“ erweitert. 4.2.2.6 Verweise auf formgleiche und formähnliche Gebärden: ikonisches Netzwerk Homonyme Gebärden werden in der Datenbank dadurch gekennzeichnet, dass ein Verweis zwischen zwei formgleichen Gebärden angelegt und die Art der Bildbeziehung auf der Grundlage des Vergleichs der zugrunde liegenden Bilder eingetragen wird. Die Bilder homonymer Gebärden haben keinen gemeinsamen Ursprung, es handelt sich um verschiedene Bilder. Darüber hinaus gibt es viele Gebärden, die formgleich oder formähnlich sind und deren zugrunde liegenden Bilder gleich oder ähnlich sind oder gemeinsame Merkmale aufweisen. Verweise auf formgleiche und formähnliche Gebärden werden schon im Verlauf der Rohtranskription in der Datenbank angelegt. Die Beziehung der zugrunde liegenden Bilder wird zunächst als „ungeprüft“ gekennzeichnet. Um redundante Informationen zu vermeiden und den Aufwand zu reduzieren, werden keine Verweise von Modifikationen auf ihre Zitierform (formähnlich: ähnliche Bilder) sowie auf Varianten untereinander (formähnlich: gleiches Bild) angelegt, da diese Beziehungen bereits über die Glossierungskonventionen dokumentiert sind. 31 Bei der Lemmarevision werden die zugrunde liegenden Bilder dieser Gebärden miteinander verglichen und die Art der Beziehung der zugrunde liegenden Bilder mit 31 Eine ausführliche Beschreibung der Transkriptionskonventionen und der Unterscheidung zwischen Modifikation und Variation lexikalischer Gebärden findet man in Konrad (2010a: 31-80). <?page no="179"?> 179 insgesamt sieben verschiedenen Werten gekennzeichnet. Die folgende Tabelle bezieht sich auf alle Gebärden, die in den vier Fachgebärdenlexikonprojekten (HLex, SLex, GLex, GaLex) erhoben und transkribiert wurden. Sie zeigt die Art der Formbeziehung, die Werteliste, mit denen die Beziehung der zugrunde liegenden Bilder gekennzeichnet wird, die Konsequenzen für die Lemmaselektion bzw. für weitere Bearbeitungsschritte, ein Beispielpaar sowie die Anzahl der Formgleich- und Formähnlich- Verweise, die mit den entsprechenden Werten in der Datenbank eingetragen sind. Die Token wurden insgesamt über 3130 Gebärden zugeordnet, davon haben 40 % einen Verweis auf formgleiche oder formähnliche Gebärden. Zwischen diesen Gebärdenpaaren besteht ein Zusammenhang, der auf den zugrunde liegenden Bildern beruht (gleiches Bild, ähnliches Bild, gemeinsame Bildmerkmale, verschiedene Teile eines gemeinsamen Bildes, umgekehrtes Bild). <?page no="180"?> 180 Formbeziehung formgleich formähnlich Bildbeziehung Auswirkung auf die Lemmaselektion bzw. → Prüfschritt Beispiele Anzahl der Verweise √ verschiedene Gebärden: Homonyme L-O) V. ( K RABBELN 1A , Z ERFRESSEN 1 ) 43 √ verschiedene Bilder verschiedene Gebärden 405 √ → Korrektur der Lemmaselektion: gleiche Form, gleiches Bild = gleiche Gebärde 4 √ gleiches Bild verschiedene Gebärden oder phonologische Varianten 91 √ → Korrektur des Verweises oder der Lemmaselektion 13 √ ähnliche Bilder verschiedene Gebärden oder Modifikationen 926 √ verschiedene Teile eines gemeinsamen Bildes verschiedene Gebärden ! )( ( S PITZ 22A ) ! )( E ( O BEN -O FFEN 1 ) 4 √ gemeinsame Bildmerkmale → Korrektur des Verweises oder der Lemmaselektion 9 √ gemeinsame Bildmerkmale verschiedene Gebärden oder Varianten 467 √ umgekehrtes Bild verschiedene Gebärden: Antonyme ! )( E ( O BEN -O FFEN 1 ) ! ) C? ( S PITZ 2C ) 34 √ Bildbeziehung unklar → Klärung durch Informantenbefragung oder andere Quellen 57 √ Bildbeziehung unklar → Klärung durch Informantenbefragung oder andere Quellen 315 √ sonstige → Erweiterung der Werteliste 2 √ sonstige → Erweiterung der Werteliste 5 Tabelle 16: Verweise auf formgleiche und formähnliche Gebärden und Auswirkungen auf die Lemmaselektion <?page no="181"?> 181 Diese Verweise bieten beim Transkribieren eine zusätzliche Hilfe bei der Suche nach einer Gebärde. Darüber hinaus wird deutlich, dass Gebärden zur Motivation verschiedener Bedeutungen auf gemeinsame Bildmerkmale zurückgreifen oder verschiedene Teile eines gemeinsamen Bildes fokussiert werden. Häufig ist es die Umkehrung der Bewegungsrichtung, die dazu führt, dass das Bild der Gebärde in gewisser Weise umgekehrt wird und für eine antonyme Bedeutung verwendet werden kann. Dies können entgegengesetzte Handlungen sein (Öffnen und Schließen einer Tür), das Zeigen in entgegengesetzte Richtungen (z.B. nach oben: „Himmel“, „Gott“, „Norden“, nach unten: „Hölle“, „Süden“) oder aber wie bei O BEN -O FFEN 1 und S PITZ 2C das Skizzieren der Umrisse eines Gegenstands, wobei durch die umgekehrte Bewegungsrichtung auch das Bild umgekehrt wird. Während sämtliche homonymen Gebärdenpaare durch Formgleich- Verweise dokumentiert werden, machen Gebärdenpaare, die formähnlich sind und deren zugrunde liegenden Bilder entgegengesetzte oder komplementäre Bedeutungen motivieren, nur einen Teil der antonymen Gebärden aus. Gegensätzliche Bedeutungen können auch durch dieselbe Gebärde, kombiniert mit verschiedenen Ablesewörtern, ausgedrückt werden. Zum Beispiel kann die Gebärde A NFASSEN 1B ( / O)( =/ ) sowohl „trocken“ als auch „feucht“ und „nass“ bedeuten. Das zugrunde liegende Bild „etwas mehrmals prüfend anfassen, um mit den Fingerspitzen zu fühlen (stilisiert)“ motiviert beide Bedeutungen. Die folgende Abbildung ist aus Konrad et al. (2004) entnommen und zeigt das ikonische Netzwerk, das um die Gebärden O BEN 2A 32 ( ! / 6 m ) und U NTERSCHIED 1A 33 ( S / @! ) 1m 4 ) herum entsteht, wenn man die zugrunde liegenden Bilder der Gebärden miteinander vergleicht. Allein aus den Glossierungen wird deutlich, dass sich diese Zusammenhänge nicht aus einem semantischen Netzwerk ergeben würden. Eine Herausforderung für die empirische Gebärdensprachlexikographie besteht darin, auf der Grundlage der ikonischen Verwandtschaftsverhältnisse, wie sie durch derartige Verweise dokumentiert werden, ikonische Netzwerke zu erstellen und diese mit den semantischen Netzen zu vergleichen, die sich aus den konventionalisierten Bedeutungen der Gebärden ergeben. Das daraus entstehende komplexe Bild der lexikalischen Struktur der DGS ist der Gegenentwurf zur traditionellen Gebärdensprachlexikographie, die auf der Gleichsetzung von Wort und Gebärde basiert. 32 Für die damalige Veröffentlichung wurde die Glosse H OCH in Anlehnung an die konventionellen Verwendungen „hoch“ und „Höhe“ gewählt. 33 Varianten werden in der Abbildung mit einem Stern (*) gekennzeichnet, Modifikationen mit einem Hochkomma (‘). <?page no="182"?> 182 Abbildung 19: Ikonisches Netzwerk (aus Konrad et al. 2004) 4.2.3 Zusammenfassung Das einer Gebärde zugrunde liegende Bild ist neben Form und Bedeutung ein wesentliches Kriterium bei der Lemmatisierung und Lemmaselektion. Die Identifikation lexikalischer Einheiten, die Unterscheidung von Synonymen, Homonymen und Ausführungsvarianten sowie die weitere Differenzierung in Modifikationen beruht auf der Analyse des zugrunde liegenden Bildes einer Gebärde. In der Transkriptionspraxis über die Jahre hinweg hat sich die Einteilung der Gebärden in sechs verschiedene Arten der Bilderzeugung bewährt. Das entscheidende Kriterium ist die Funktion der Hand, die bei der Visualisierung zum Tragen kommt. Der Vorteil dieses Kriteriums ist, dass sich die sechs Bilderzeugungstechniken gegenseitig ausschließen, da die Hand nicht gleichzeitig mehrere Funktionen übernehmen kann. Die Bezeichnungen dieser Bilderzeugungstechniken wurden in Anlehnung an Mandel (1977) und Johnston/ Schembri (1996) gewählt, beanspruchen jedoch keinen theoretischen Status. Diese Analyse lässt sich auf alle Gebärden anwenden und macht die gemeinsamen strukturellen Eigenschaften zwi- <?page no="183"?> 183 schen Gebärden, unabhängig davon, ob sie als konventionelle oder produktive Gebärden eingestuft werden, deutlich. Gleichzeitig lässt sich durch die Beschreibung des zugrunde liegenden Bildes und der Analyse der Bilderzeugungstechnik die Annahme quantifizieren, dass die meisten Gebärden ikonisch sind. Die sechs Bilderzeugungstechniken sind: • substitutive Technik: Die Hand wird stellvertretend für einen Gegenstand eingesetzt; • manipulative Technik: Die Hand ahmt die Bewegung und Form der Hand einer Person nach; • skizzierende Technik: Die Hand wird als Zeichenwerkzeug verwendet, das die Form eines Gegenstands in die Luft zeichnet; • stempelnde Technik: Die Hand wird als Stempel benutzt, der einen Abdruck auf einer Unterlage hinterlässt. Dieser Abdruck visualisiert Formaspekte des Gemeinten; • maßanzeigende Technik: Die Hand bzw. die Hände werden als Begrenzungsanzeiger verwendet. Die Handform wird in Abhängigkeit von der räumlichen Ausdehnung gewählt, die damit visualisiert werden soll; • indizierende Technik: Die Hand wird als Zeiger oder Wegweiser eingesetzt, der in die Richtung des gemeinten Gegenstands zeigt oder ihn auch berührt. Die für die Token-Type-Zuordnung in Lautsprachen geltende Regel gleiche Form, gleiche Bedeutung = gleiches Lexem greift zu kurz, da Gebärden auch zur Kontextualisierung von Wörtern eingesetzt werden (s. Kap. 4.1.4 und 4.1.5). Durch das Ablesewort wird in den meisten Fällen die kontextuelle Bedeutung der Gebärde spezifiziert. Dadurch können sie wesentlich größere Bedeutungsspektra abdecken als Wörter. Eine Lemmaselektion, die sich darauf beschränkt, Form und kontextuelle Bedeutungen von Gebärden zu vergleichen, läuft Gefahr, den Wortschatz der Lautsprache auf das gebärdensprachliche Lexikon zu übertragen. Eine lexikalische Datenbank oder ein Wörterbuch würde viele Einträge enthalten mit formgleichen manuellen Zeichen, deren Bedeutung verschieden ist. Der Schlüssel zur Beschreibung der Struktur des gebärdensprachlichen Lexikons ist die Ikonizität. Die lexikalische Struktur von Gebärdensprachen erschließt sich erst durch den Vergleich formgleicher und formähnlicher Gebärden und ihrer zugrunde liegenden Bilder. Anhand der Regel gleiche Form, gleiches Bild, gleiche Bilderzeugungstechnik = gleiche lexikalische Gebärde können die lexikalischen Einheiten sowie die formseitigen und semantischen Beziehungen zwischen Gebärden bestimmt werden: • Synonyme unterscheiden sich in der Form, dem zugrunde liegenden Bild oder der Bilderzeugungstechnik und werden mit derselben konventionalisierten Bedeutung assoziiert. • Homonyme sind formgleiche Gebärden mit verschiedenen konventionalisierten Bedeutungen, die sich in den zugrunde liegenden Bildern unterscheiden. <?page no="184"?> 184 • Antonyme können durch die Umkehrung des zugrunde liegenden Bildes motiviert sein - die Gebärden sind dann formähnlich - oder auch durch dasselbe Bild - die Gebärden sind dann formgleich. • Phonologische Varianten sind formähnliche Gebärden, die durch dasselbe zugrunde liegende Bild motiviert sind und für dieselben Bedeutungen verwendet werden. • Die Modifikation einer Gebärde ist immer durch die Veränderung des zugrunde liegenden Bildes motiviert. Grundform und modifizierte Form sind daher immer formähnlich und lassen sich auf ähnliche Bilder zurückführen. Durch den Vergleich der zugrunde liegenden Bilder von Gebärden wird ein Netzwerk struktureller Gemeinsamkeiten und Ableitungsverhältnisse freigelegt, das letztendlich auf den ikonischen Formbestandteilen der Gebärden beruht und wie ein unterirdisches Pilzgeflecht die verschiedenen konventionalisierten und nicht konventionalisierten Formen verbindet (s. Kap. 4.2.2, Abb. 18). Das Wissen um das ikonische Potenzial dieser Formbestandteile sowie die Techniken der Bilderzeugung gehören zum metasprachlichen Wissen eines native signer, das durch diese Analyse explizit gemacht wird. 4.3 Ikonizität: vom Störfaktor zum strukturierenden Prinzip In der bisherigen Darstellung wurde die Rolle der Ikonizität für die Identifikation lexikalischer Einheiten im Rahmen der Token-Type-Zuordnung und der Lemmaselektion beim Aufbau einer lexikalischen Datenbank herausgearbeitet. Im Folgenden werde ich zunächst aus einer wissenschaftssoziologischen Perspektive auf den Stellenwert der Ikonizität in der Gebärdensprachforschung eingehen. Anschließend werde ich Ikonizität im Kontext der Begriffe Motiviertheit, Arbitrarität und Konventionalität diskutieren, wobei ich die Ikonizität und Konventionalität von Gebärden der Motiviertheit und Arbitrarität von Wörtern gegenüberstelle. Da Cuxac (2000) eine vom vorherrschenden Denkstil abweichende Position einnimmt, indem er die Ikonizität als das strukturierende Prinzip von Gebärdensprachen in den Mittelpunkt seiner Forschung stellt und damit die Gebärdensprachforschung der letzten 15 Jahre in Frankreich entscheidend geprägt hat, werde ich seinen theoretischen Ansatz näher darstellen. Ikonizität ist in Gebärdensprachen ein allgegenwärtiges Phänomen, ihr Stellenwert wurde in der frühen Gebärdensprachforschung jedoch, abgesehen von einigen Ausnahmen, heftig bestritten. In ihrer Magisterarbeit untersuchte Emde (2005) die Positionen, die gegenüber der Ikonizität eingenommen wurden, aus wissenschaftssoziologischer Sicht. Der methodische Rahmen ihrer Arbeit ist die von Fleck (1980) verfasste Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und <?page no="185"?> 185 Denkkollektiv. Emde zeigt anhand des von Klima & Bellugi 1979 herausgegebenen Buchs The Signs of Language (Klima/ Bellugi 1980a), eines der einflussreichsten Werke der Gebärdensprachforschung, wie der herrschende Denkstil durch soziale und historische Bedingungen an ein Denkkollektiv gebunden ist, das sich festgelegt hat auf die strukturalistische bzw. generativistische Sichtweise, nach der sprachliche Elemente als diskrete Einheiten definiert sind, die eine doppelte Gliederung aufweisen und arbiträr sein müssen. Das Anliegen dieser Wissenschaftler, Gebärdensprache als eigenständigen Untersuchungsgegenstand innerhalb der Linguistik zu etablieren, schien nur zu dem Preis durchsetzbar zu sein, die Bedeutung der Ikonizität, wenn auch allgegenwärtig im gebärdensprachlichen Diskurs, in ihrer sprachwissenschaftlichen Beschreibung zu minimieren. Dem widersprechende Ansichten, vertreten durch Veröffentlichungen von DeMatteo und Mandel in dem zwei Jahre zuvor von Friedman (1977) herausgegebenen Band On the other hand: New perspectives on American Sign Language, wurden nicht wahrgenommen bzw. ausgeschlossen aus dem Forschungsparadigma, das sich auf die Gemeinsamkeiten von Laut- und Gebärdensprachen und die Anwendbarkeit von linguistischen Konzepten auf die Gebärdensprache konzentrierte. Wie offensichtlich die Absicht von Klima/ Bellugi (1980b) ist, die Rolle der Ikonizität herunterzuspielen, lässt sich an den Kapitelüberschriften ihres Beitrags ablesen. Dieser Beitrag leitet den ersten Abschnitt des Buches ein, der überschrieben ist mit „The two faces of sign“, eine verkürzte Wiederaufnahme eines Aufsatztitels von 1976 (Bellugi/ Klima 1976: Two Faces of Sign: Iconic and Abstract). Die Abfolge der Stichwörter in den Kapitelüberschriften - „iconicity“, „degree of iconicity“, „submergence of iconicity“, „insignificance of iconicity“, „suppression of iconicity“ - legt die Intention der Autoren offen. Ausgehend von den zwei Gesichtern einer Gebärde, ihrer vordergründigen Ikonizität und ihrer arbiträren Eigenschaften, die durch die linguistische Analyse erst freigelegt werden, wird Schritt für Schritt dargelegt, warum die Ikonizität unbedeutend ist für eine formale Beschreibung der ASL mit sprachwissenschaftlichen Mitteln. Die aus wissenschaftssoziologischer Sicht interessante Frage ist, warum es den Autoren so wichtig ist, die Rolle der Ikonizität zu negieren. Ikonizität wurde als Störfaktor angesehen, der der Gleichsetzung von Laut- und Gebärdensprache im Wege stand und damit die Legitimität des eigenen Tuns in Frage stellte. Denn nur wenn Gebärden als sprachliche Zeichen und damit Gebärdensprachen als natürliche Sprachen beschrieben werden können, sind Gebärdensprachen ein legitimer Untersuchungsgegenstand der Linguistik. Dies impliziert, dass Gebärdensprachen mit denselben theoretischen und analytischen Werkzeugen untersucht und beschrieben werden können wie Lautsprachen. Diese Entscheidung für das herrschende Forschungsparadigma und gegen den Untersuchungsgegenstand führt nach Cuxac (2000: 313 f.) dazu, dass der Untersuchungsgegenstand amputiert und zurechtgeschnitten werde, um in das Prokrustesbett der vorherr- <?page no="186"?> 186 schenden Konzepte zu passen. Letztendlich verfehle der Forscher aber sein Objekt. Wer sich jedoch für den Untersuchungsgegenstand entscheide, verfehle in gewisser Weise die Disziplin, die keine passenden Werkzeuge für ihn bereithält. Er sei gezwungen, die zentralen Konzepte aufzuweichen und sich zu isolieren. Erst 20 Jahre später scheint es eine Trendwende zu geben (s. Pizzuto/ Volterra 2000, Cogill-Koez 2000a, 2000b, Cuxac 2000, Wilcox 2000a, Taub 2001, Pietrandrea 2002, Liddell 2003, Wilcox 2004). Ikonizität wird nicht mehr als Störfaktor angesehen, sondern als willkommener Anlass, um über einige bisher als universal geltende Prinzipien wie die Arbitrarität sprachlicher Zeichen oder die Trennung zwischen Verbalem und Nonverbalem neu nachzudenken. Wichtige Anstöße für die Neubewertung der Ikonizität kommen aus der Kognitiven Linguistik. Die von allen Seiten behauptete Ikonizität von Gebärden wird bei kognitivistischen Beschreibungsansätzen als ein Hindernis ganz anderer Art angesehen: Die vereinfachende Sichtweise, dass Gebärden bildhaft sind, d.h. mit dem Bild verbunden in dem Sinn, dass sie nur Formen oder Eigenschaften von konkreten Dingen oder Handlungen darstellen können, verdeckte lange Zeit die kognitiven Prozesse, die der Verwendung manueller Zeichen als sprachliche Symbole zugrunde liegen. Wilcox (2000b: 36) überschreibt das zweite Kapitel ihrer Arbeit über Metaphern in der Amerikanischen Gebärdensprache (ASL) mit „Removing the shroud of iconicity“. Während für diejenigen, die in der frühen modernen Gebärdensprachforschung ASL als eigenständige Sprache und damit als legitimen Untersuchungsgegenstand der Linguistik nachzuweisen suchten, die Ikonizität ein Störfaktor war und zugunsten der Arbitrarität von Gebärden klein geredet wurde, versuchen seit den 1990er-Jahren Forscher aus dem Gebiet der Kognitiven Linguistik das Leichentuch von der Ikonizität zu nehmen und Ordnung zu schaffen in den Beziehungsverhältnissen zwischen sprachlichem Zeichen, außersprachlichem Referenten und sprachunabhängigen Konzepten. In der Gebärdensprachlexikographie führt die Ikonizität der Gebärden jedoch immer noch ein Schattendasein. Sie kommt meistens nur als mnemotechnische Beigabe vor, die es (hörenden) L2-Lernern erleichtern soll, sich die Form einer Gebärde herzuleiten bzw. besser zu merken (s. dazu Holzinger/ Dotter 1997: 133-137). Ikonizität als analytisches Werkzeug bzw. theoretisch wichtiger Bestandteil der lexikalischen Analyse wird, abgesehen von Cuxac (2000), der von Cuxac beeinflussten und stark etymologischen lexikographischen Arbeit von Bonnal-Vergès (2005) und dem hier vorgestellten Ansatz weder eingefordert noch eingesetzt. 4.3.1 Motiviertheit und Arbitrarität von Wörtern Nicht die Ikonizität, sondern die Motiviertheit als Oberbegriff, unter den auch die ikonische Motiviertheit fällt, bildet den Gegenpol zur Arbitrarität. Motiviertheit wird auch Motivierung oder Durchsichtigkeit genannt. Ist ein <?page no="187"?> 187 Zeichen motiviert, dann kann seine Form, seine Bedeutung, seine Funktion oder seine Verwendung abgeleitet werden von sprachlichen oder außersprachlichen Elementen. Meistens wird Motiviertheit im Zusammenhang mit der Form oder der Bedeutung eines sprachlichen Zeichens verwendet. Die Form eines sprachlichen Zeichens ist motiviert, wenn phonologische oder morphologische Eigenschaften auf außer- oder innersprachliche Einflüsse zurückgeführt werden können. Die meisten Wörter der Lautsprache sind nicht motiviert, d.h. arbiträre Zeichen. Ein kleiner Teil, die sogenannten Onomatopoetika, sind phonetisch motiviert, da die Lautung eine direkte Beziehung zur Bedeutung hat wie z.B. bei den Wörtern ‚miauen‘ oder ‚Kuckuck‘. Ebenfalls phonetisch motiviert sind Phänomene, die als Phonästheme oder Lautsymbolismus bezeichnet werden. Zum Beispiel wird der Vokal / i/ mit dem Merkmal Kleinheit in Verbindung gebracht, wogegen / a/ eher mit Größe assoziiert wird. Zusammensetzungen oder abgeleitete Wörter, deren Bedeutung aus den Teilbedeutungen herleitbar ist, sind morphologisch motiviert. Dabei wird unterschieden zwischen voll motivierten Wörtern wie z.B. ‚Armband‘ - „ein Band, das man am Arm trägt“ -, teilmotivierten Wörtern wie z.B. Handtuch - die Umschreibung „ein Tuch zum Abtrocknen für die Hände“ trifft nicht vollständig zu - und Wörtern, die synchron als unmotiviert gelten, da die Teilbedeutungen nur noch mithilfe der Etymologie entschlüsselt werden können wie z.B. bei ‚Schornstein‘. Kann die Bedeutung eines sprachlichen Zeichens von etwas abgeleitet werden, dann handelt es sich um eine semantische Motiviertheit. Als semantisch motiviert werden Wörter mit einer übertragenen Bedeutung, d.h. metaphorisch verwendete Ausdrücke, bezeichnet. Bedeutungsaspekte des Ausgangsworts werden übertragen auf einen anderen Bereich und dadurch verändert wie z.B. beim Wort ‚Flaschenhals‘. Die Lage und Position des Halses, der den Körper nach oben hin verengt und ihn mit dem Kopf verbindet, werden übertragen auf die äußere Form einer Flasche, deren oberer Teil sich wie der Hals verjüngt. Auch metonymische Verwendungen, bei denen ein Ausdruck durch einen anderen ersetzt wird, der mit diesem in einer sachlichen oder geistigen Beziehung steht wie z.B. in ‚ein Glas trinken‘, zählen zur semantischen Motiviertheit. Diese verschiedenen Arten der Motiviertheit werden auch als lexikalische Motiviertheit bezeichnet. Der Gegenbegriff zur Motiviertheit ist die Arbitrarität, auch Willkürlichkeit oder Beliebigkeit genannt, die das entscheidende Merkmal des sprachlichen Zeichens bei Saussure ist. Das Zeichen, das Saussure noch als psychische Einheit ansieht, hat wie eine Medaille zwei Seiten, das Bezeichnende („image acoustique“, „signifiant“, Lautbild) und das Bezeichnete („concept“, „signifié“, Vorstellung). Die Beziehung zwischen Bezeichnendem und Bezeichnetem ist nach Saussure notwendigerweise arbiträr. Saussure (1967: 79 f.) hat die Arbitrarität jedoch nur negativ definiert als Unmotiviertheit. Das Band, welches das Bezeichnete mit der Bezeichnung verknüpft, ist beliebig; und da wir unter Zeichen das durch die assoziative Verbindung einer Bezeich- <?page no="188"?> 188 nung mit einem Bezeichneten erzeugte Ganze verstehen, so können wir dafür auch einfacher sagen: das sprachliche Zeichen ist beliebig. […] Das Wort ‚beliebig‘ erfordert hierbei eine Bemerkung. Es soll nicht die Vorstellung erwecken, als ob die Bezeichnung von der freien Wahl der sprechenden Person abhinge [...]; es soll besagen, dass es unmotiviert ist, d. h. beliebig im Verhältnis zum Bezeichneten, mit welchem es in Wirklichkeit keinerlei natürliche Zusammengehörigkeit hat. Obwohl Saussure (1967: 156 und 158) einräumt, dass nur ein Teil der Zeichen einer Sprache völlig arbiträr ist und von einer relativen Arbitrarität spricht, ist die Arbitrarität des sprachlichen Zeichens zum Dogma der strukturalistischen Sprachwissenschaft geworden und wird von Hockett (1960) als eines der wichtigsten Kennzeichen menschlicher Sprache postuliert. Diese phonozentrische Sichtweise blendete bei der Formulierung sprachlicher Universalien die akustisch-auditive Modalität der Lautsprache aus und untersuchte Sprache oft nur in ihrer geschriebenen Form, entgegen dem von Saussure behaupteten Primat der gesprochenen Sprache. Saussure sah den Zweck der Schrift lediglich darin, das Gesprochene zu repräsentieren. 34 Bei der Untersuchung gesprochener Sprachen ist sie das notwendige Übel, um das Flüchtige zu fixieren, führt jedoch, da lange Zeit der direkte Bezug der in Schriftform vorliegenden Primärdaten zu den Rohdaten nicht hergestellt werden konnte bzw. nicht hergestellt wurde, zu einer durch die Schrift bedingten Verschiebung, der written language bias (Linell 2005; s. Kap. 3.6.2), die sich durch die gesamte linguistische Forschung zieht. Die Notwendigkeit der Fixierung durch die Schrift führte so zu einer Fixierung auf die Schrift, die letztendlich auch zum Unterscheidungskriterium zwischen Verbalem und Nonverbalem wurde: Alles, was durch die Schrift fixierbar war, zählte zum Verbalen, d.h. Sprachlichen, alles andere wurde als nicht dem Sprachsystem zugehörig angesehen. Die Linguistik erlag so der scheinbaren Objektivierung durch die Schrift, die Türcke (2005: 110) treffend kritisiert: In den Buchstaben objektiviert sich das lebendige Gedächtnis; aber die Objektivierung ist zugleich Entäußerung, Veräußerlichung des Aufbewahrten. Das Gedächtnis gerät in der Schrift außer sich. Damit nicht genug. Das außer sich seiende Gedächtnis wirkt auf seine Leser, als sei es das innere, authentische. Von der Schrift geht ein Sog aus, und wer ihm erliegt, den führt - verführt - sie zur Verwechslung von äußerem Aufbewahren mit lebendigem Erfassen, von Scheinwissen mit Wissen. Türcke (2005: 120; kursiv i.O.) bezieht dieses Missverhältnis zwischen Gesprochenem und Geschriebenem, zwischen Flüchtigem und Fixiertem, direkt auf die Beziehung des Menschen zur Wahrheit. Die Schrift eignet sich in hervorragender Weise dazu, die Wahrheit festzustellen, allerdings nur ihren „armseligen Schatten“: 34 Zur Kritik dieser Ausgrenzung der Schrift aus der Sprachwissenschaft s. Derrida (1992: 49-129). <?page no="189"?> 189 Man kann der Wahrheit teilhaftig, aber nicht habhaft werden, man kann sie erschauen, aber nicht ergreifen, sie erleben, aber nicht feststellen. Platon denkt sie als das Ewige, Immergleiche, in Bezug auf die Menschen aber als das Flüchtigste. Wo man dieses Flüchtige in Worte faßt, ist es nicht mehr es selbst. Im gesprochenen logos wird es zu einer Folge von Stimmlauten auseinandergezogen, in den Buchstaben wird es gar totgestellt. Aber gerade deshalb legt Platon so großen Wert auf die Buchstaben. Einerseits sind sie am weitesten von der Wahrheit entfernt. Sie buchstäblich feststellen heißt ihr jegliche Lebendigkeit und Aktualität nehmen. Andrerseits können Sterbliche zur Wahrheit gar nichts anderes haben als ein Mißverhältnis. Sie hätten rein gar nichts von ihr, wenn sie nicht einmal Anstalten machten, sie festzustellen. Und nirgends läßt sie sich besser fest- und nachstellen als in der Schrift. Was man darin von der Wahrheit hat, ist zwar nur ihr armseliger Schatten, aber man hat ihn dort immerhin so fest und dauerhaft, daß man ihn vor sich stellen, ihn sich vorstellen und an ihm erahnen lernen kann, was Wahrheit wäre. Und mehr als eine Ahnung ist Sterblichen ohnehin nicht beschieden. Während sich die frühe Gebärdensprachforschung an den behaupteten sprachlichen Universalien abarbeiten musste und versuchte, die in Gebärdensprachen allgegenwärtige Ikonizität als Randerscheinung, analog zum Nonverbalen, darzustellen, hat sich die Sichtweise mittlerweile relativiert. Seit Mitte der 1990er-Jahre nahm in der Sprach- und Literaturwissenschaft das Interesse an der Ikonizität stark zu, sodass Nöth (2001: 25) schon davor warnte, nicht von einem Dogma ins andere zu verfallen und von einer Allgegenwärtigkeit der Ikonizität auszugehen: „Language is both iconic and arbitrary, and it is our task to specify to which degree and in which respect language consists of iconic and of symbolic signs“. Ungerer (2002: 379) weist auf wirkungs- und sprecherorientierte Sichtweisen in der Lexikologie hin, die die auf Ikonizität beruhende Motivation sprachlicher Zeichen stärker mit einbeziehen und von der Annahme ausgehen, „dass trotz seiner grundsätzlichen, beobachtbaren Arbitrarität die ikonische Natur des sprachlichen Zeichens im Bewusstsein des Sprechers über die Arbitrarität dominiert“. Auf die Notwendigkeit dieser sprecherorientierten Sichtweise in der Lexikographie hat schon Augst hingewiesen, der im Rahmen eines DFG- Projekts ein Familienwörterbuch der deutschen Sprache erstellte (Augst 1998). Seiner Ansicht nach reicht es nicht aus, die Ableitung und etymologische Herleitung von Wörtern festzustellen. Auch die Phänomene der Ummotivierung, Demotivierung und Neumotivierung müssen bei der semantischen Motiviertheit berücksichtigt werden. Diese Sekundärmotivation vollzieht sich implizit und wird, anders als das Aushandeln von Bedeutung (s. Teubert 1999), selten in der Kommunikation explizit gemacht. Sie als sogenannte Volksetymologie abzuwerten gegenüber der wissenschaftlichen etymologischen Herleitung, basiert nach Augst auf einem grundsätzlichen Missverständnis: Für das synchrone Funktionieren einer Sprache ist es belanglos, welche Etymologie ein Wort hat - das ist extrakommunikatives Wissen -, wichtig und bedeut- <?page no="190"?> 190 sam ist aber seine semantische Motiviertheit, d.h. die mögliche Spannung zwischen Motivbedeutung und Funktionsbedeutung - das ist kommunikatives und metakommunikatives Wissen. (Augst (1996: 19) Die Motivbedeutung entspricht z.B. bei Komposita der Umschreibung, die sich aus den Wortteilen ableiten lässt, die Funktionsbedeutung der lexikalischen Bedeutung, auf die ein Wort z.B. in seiner denotativen Funktion verweist. Dieses metakommunikative Wissen findet seine Parallele in dem Wissen Gehörloser um den ikonischen Gehalt von Gebärden und dem Rückgriff auf ihr ikonisches Potenzial, sei es in der Reikonisierung und Modifikation konventioneller Gebärden, in ihrer Verwendung zur Kontextualisierung von Ablesewörtern (s. Kap. 4.1.4) oder in der Ad-hoc-Bildung neuer produktiver Gebärden. Folgende Abbildung zeigt den Unterschied zwischen der Motivierung von Wörtern und Gebärden. Während Wörter eher von sprachlichen und selten von außersprachlichen Elementen motiviert sind, ist fast jede Gebärde bzw. sind ihre Formbestandteile ikonisch motiviert. Diese Motivierung kommt bei der Kontextualisierung von Ablesewörtern zum Tragen. Abbildung 20: Motivierung von Wörtern und Gebärden Die von Augst erwähnte Spannung zwischen Motivbedeutung und Funktionsbedeutung ist übertragbar auf die beiden Stufen der Konventionalisierung von Gebärden. Der große Unterschied zwischen Lautsprachen und Gebärdensprachen liegt darin, dass viele Gebärden zwar konventionalisiert sind und als fertige Form-Bedeutungs-Einheiten dem Sprachbenutzer zur Verfügung stehen, die ikonische Motivierung bei vielen konventionellen Gebärden jedoch ständig neu reaktiviert wird, die Motivbedeutung gewissermaßen parallel zur Funktionsbedeutung verwendet wird und beide je nach Kommunikationssituation und Kontext gegenseitig ausgetauscht werden. Die Remotivierung findet ständig statt, Ummotivierung und Neumotivierung sind vermutlich wesentlich häufiger als in Lautsprachen, <?page no="191"?> 191 was nicht zuletzt den in Gebärdensprachen zu beobachtenden schnellen Sprachwandel begünstigt. Anstatt einer Spannung, die ab und an zu einer Entladung, sprich einer Re-, Um- oder Neumotivierung, führt, hat man es in Gebärdensprachen bildlich gesprochen mit einem ständigen Flackern, einem Oszillieren zu tun, das auf der breiten Grundlage einer allgegenwärtigen visuellen Motiviertheit ständig wechselnde oder neue Form- Bedeutungs-Beziehungen hervorbringt. Eine sprecherorientierte Sichtweise in der Gebärdensprachlexikographie kann sich nicht mit der Beschreibung lexikalischer Einheiten zufriedengeben, sondern muss die sublexikalischen Strukturen freilegen, die neben den Bilderzeugungstechniken zum metasprachlichen Wissen kompetenter Sprecher einer Gebärdensprache gehören. Diese ikonischen Strukturen bilden das Substrat, das wie ein Pilzgeflecht (s. Kap. 4.2.2, Abb. 18) die semantische Struktur des Lexikons durchzieht. Die Formparameter einer lexikalischen Gebärde (Handform, Handstellung, Ausführungsstelle und Bewegung) sind immer auch bedeutungstragend, da sie ikonisch motiviert sind und im Kontext jederzeit mit neuen Bedeutungsaspekten aufgeladen werden können. Eine phonologische Beschreibung lexikalischer Gebärden abstrahiert von diesen Zusammenhängen, sie trennt, um im Bild zu bleiben, den Pilz vom Pilzgeflecht und interessiert sich nur für die Form und Struktur des Pilzes, indem sie ihn mit anderen Pilzen vergleicht. Sie erliegt damit, wie Türcke (2005: 110) es für die Schrift formuliert, dem Sog der Objektivierbarkeit und verwechselt das äußere Aufbewahren mit dem lebendigen Erfassen. Die von Augst vorgenommene Rehabilitierung der Volksetymologie als eines aktiven Prozesses, der Ausdruck der metasprachlichen Kompetenz der Sprecher ist, gibt gleichzeitig den Sprachbenutzern ihre aktive Rolle als „Herren des Verfahrens“ (Augst 1996: 20) zurück. Denn weder wird Sprache durch ihre linguistische Beschreibung erfunden, noch benötigen die Sprachbenutzer diese für ihr sprachliches kommunikatives Handeln. 4.3.2 Ikonizität und Konventionalität von Gebärden Sutton-Spence/ Woll (1999: 165 f.) sehen es als gesicherte Tatsache an, dass die Arbitrarität ein „design feature“ lautsprachlicher Zeichen ist, da es mit sequenziellen Lauten schwierig ist, Ähnlichkeiten zwischen der lautlichen Form und dem Bezeichneten herzustellen. Umgekehrt wäre es unnatürlich, wenn Gebärdensprachen als visuell-gestische Sprachen die Möglichkeiten der visuellen Repräsentation von Bedeutung nicht nutzen würden. Dass die meisten Gebärden motiviert sind, hindert uns nicht daran, sie wie Wörter als Symbole zu verwenden. Cuxac (2000) weist auf den Irrtum hin, der darin besteht, die Nicht-Ikonizität von Zeichen zur Voraussetzung für das Funktionieren von Sprache zu machen (s. Kap. 4.3.3). Die Lexikalisierung bzw. Idiomatisierung (Johnston/ Schembri 2010) führt dazu, dass Gebärden auf der zweiten Stufe der Konventionalisierung <?page no="192"?> 192 (s. Kap. 2.3, Abb. 1) zu fertigen Form-Bedeutungs-Einheiten werden und ohne Rückgriff auf ihre ikonische Motiviertheit verwendet werden können. Dabei können verschiedene Aspekte des Gemeinten in der Form der Gebärde aufgegriffen werden. Ob es das Bestreichen einer Brotscheibe, das Abschneiden vom Brotlaib oder das Essen von Brot ist, jede dieser konkreten Handlungen ist geeignet, die Bedeutung „Brot“ zu motivieren. Die Wahl des Bildaspekts zur Motivierung der Bedeutung ist innerhalb einer Gebärdensprache in gewisser Weise beliebig (arbiträr) und zufällig (vgl. z.B. Pietrandrea 2002), im Vergleich verschiedener Gebärdensprachen ist sie bestimmt durch kulturelle Praktiken oder kulturspezifische Wahrnehmungsmuster. 35 Die Vielfalt ikonischer Bezüge begünstigt die Entstehung synonymer Gebärden und damit die lexikalische Variation. Gleichzeitig ist die ikonische Motivation von Gebärden ein Grund für die Vielfalt der Ausführungsvarianten. Ob mit der nichtdominanten Hand das Brot festgehalten, seine Lage oder Ausdehnung in der Höhe oder Tiefe gezeigt wird oder wie die dominante Hand die verschiedenen Arten, Brot zu schneiden, visualisiert (s. Kap. 4.2.2.1, Tab. 13) - teils sehr detailgetreu, teils stilisiert - ist zweitrangig. Alle diese Visualisierungen motivieren die Bedeutung „Brot“ bzw. „Brot schneiden“. Diese relative Beliebigkeit der Ausführung einer Gebärde führt im Prozess der Lexikalisierung dazu, dass verschiedene Ausführungsvarianten nebeneinander existieren. Durch die Erstellung großer, lemmatisierter Korpora kann erstmalig empirisch überprüft werden, wie groß die phonetische Variation ist und wie stark sich das Prinzip der Homonymievermeidung (vgl. z.B. Boyes Braem 1981: 44, Cuxac 2000: 152-155) auf den lexikalischen Bestand einer Gebärdensprache tatsächlich auswirkt. Dass Gebärden ikonisch sind, besagt zunächst nichts weiter, als dass man ihnen etwas ansehen kann. Die einfachste Definition von Ikonizität ist die der Ähnlichkeitsbeziehung. Es besteht eine Ähnlichkeit zwischen der Form der Gebärde, dem Bezeichnenden, und Eigenschaften des Bezeichneten. Das Ausmaß der Übereinstimmung struktureller oder inhaltlicher Eigenschaften ist graduell verschieden. Nach Peirce (1992-1998) werden drei verschiedene Arten von Ikonizität unterschieden, abhängig davon, auf welchen Beschreibungsebenen gemeinsame Eigenschaften festgestellt werden: 1. bildhafte Ikonizität: Übereinstimmung zwischen der Form des sprachlichen Zeichens und den strukturellen Eigenschaften des Bezeichneten, z.B. bei onomatopoetischen Ausdrücken; 2. diagrammatische Ikonizität: Übereinstimmung der Beziehungen zwischen morphologischen und syntaktischen Einheiten und der Beziehungen zwischen Aspekten des Bezeichneten, z.B. wenn die 35 Vgl. Klima/ Bellugi (1980b: 21), die zur Illustration die Gebärden für „Baum“ in drei nationalen Gebärdensprachen zeigen. <?page no="193"?> 193 Abfolge der Wörter eine zeitliche Abfolge der dadurch benannten Ereignisse wiedergibt wie in „veni, vidi, vici“ 36 ; 3. metaphorische Ikonizität: Parallelisierung von Eigenschaften des Bezeichneten in dem Bereich, aus dem das sprachliche Zeichen entnommen wurde, mit Eigenschaften des Bezeichneten in dem Bereich, in den das sprachliche Zeichen übertragen wurde. Zum Beispiel wird beim Wort ‚Flaschenhals‘ die Lage (oben) und Formeigenschaft (dünn) des anatomischen Halses übertragen auf die Form einer Flasche. Die dritte semantische Eigenschaft der Verbindung zwischen Körper und Kopf wird bei ‚Flaschenhals‘ nicht beansprucht, wohl aber beim Wort ‚Kellerhals‘, das den Zugang zum Keller bezeichnet und damit die Verbindung zwischen dem Haus und dem Keller. Aus Sicht der Kognitiven Linguistik, die sich insbesondere durch die Arbeiten von Taub (2001), Liddell (2003) und Wilcox (2004, 2007) in der Gebärdensprachforschung etabliert hat, funktionieren diese Arten der ikonischen Motiviertheit in Gebärdensprachen nur deshalb, weil es in der Vorstellung der Gebärdensprachbenutzer zu einem Zur-Deckung-Bringen (mapping) zwischen Formeigenschaften der Gebärde und des durch sie Bezeichneten, d.h. ihrer Bedeutung, kommt: „Iconicity is not an objective relationship between image and referent; rather, it is a relationship between our mental models of image and referent“ (Taub 2001: 19). Ikonizität lässt sich nach Taub definieren als ein kognitiver Prozess, bei dem Strukturähnlichkeiten zwischen Form und Bedeutung hergestellt werden, als „the existence of a structure-preserving mapping between mental models of linguistic form and meaning“. Perniss (2007: 17-26), die einen informativen Überblick über die verschiedenen Theorien und Verwendungen von Ikonizität in Laut- und Gebärdensprache gibt und sich auf Taubs kognitives Modell stützt, weist darauf hin, dass es in der Gebärdensprachforschung, insbesondere bei der Beschreibung produktiver Gebärden, eine uneinheitliche Zuordnung zu den verschiedenen Arten von Ikonizität gibt. Während Cuxac (2000) und auch Russo (2004) diese Phänomene der bildhaften Ikonizität zuordnen, betont Cogill-Koez (2000a, 2000b) die schematische visuelle Repräsentation dieser Gebärden und ordnet sie eher der diagrammatischen Ikonizität zu. Perniss (2007: 24) selbst geht davon aus, dass zur Beschreibung dieser Gebärden beide Arten der Ikonizität berücksichtigt werden müssen: My own standpoint on this issue is that the correct analysis of classifier predicates combines both imagistic and diagrammatic iconic components, and that the visual-spatial modality affords signers the possibility of gradient modification (of location, orientation, and form, in particular). In König et al. (in Vorb.) verwenden wir Ikonizität gleichbedeutend mit ikonischer Motiviertheit und unterscheiden zwischen einer direkten Bezie- 36 „Ich kam, ich sah, ich siegte“, ein Julius Caesar zugeschriebenes Zitat. <?page no="194"?> 194 hung zwischen Bildelementen, die in der Gebärdenform visualisiert werden, und der Bedeutung und den indirekten metonymischen und metaphorischen Beziehungen zwischen dem zugrunde liegendem Bild einer Gebärde und ihrer Bedeutung. Die direkte Beziehung entspricht der bildhaften Ikonizität, die bei der Visualisierung von konkreten Objekten oder Handlungen zur Anwendung kommt. Ein Beispiel für die vollständige Entsprechung zwischen Strukturmerkmalen der Gebärdenform und Strukturmerkmalen des damit bezeichneten Gegenstands ist die Gebärde B UCH 1 ( ! ' > ). Form, Anordnung und Bewegung der Hände entsprechen den Buchdeckeln oder -seiten, die an der Längsseite miteinander verbunden sind und auf- oder zugeklappt werden können. Eigenschaften von Gegenständen und Personen können hinsichtlich ihrer Form, ihrer Lage und Position im Raum und ihres Verhaltens visualisiert werden. Darauf haben schon Mandel 37 und DeMatteo 38 hingewiesen. Bei der Bestimmung der Bilderzeugungstechnik ikonischer Gebärden hat sich die Unterscheidung in Form-, Raum- und Verhaltensikonizität als hilfreich erwiesen, da bei jeder Technik eine andere Art der Ikonizität im Vordergrund steht, wie folgende Tabelle zeigt: Formikonizität Raumikonizität Verhaltensikonizität Substitutive Technik + ++ ++ Manipulative Technik + (+: Ausführung an spezifischer Lokation) ++ Skizzierende Technik ++ + - Stempelnde Technik + (+: Ausführung an spezifischer Lokation) - Maßanzeigende Technik - + - Indizierende Technik - ++ - (++: nur bewegter Index) Tabelle 17: Verteilung von Form-, Raum- und Verhaltensikonizität auf die Bilderzeugungstechniken Bei der indirekten Beziehung zwischen Bildelementen und Bedeutung lassen sich metonymische und metaphorische Beziehungen unterscheiden. Bei der metonymischen Beziehung wird in der Gebärdenform ein typisches Merkmal des Referenten visualisiert, zum Beispiel der Schnabel eines Vogels oder die Barthaare einer Katze. Häufig sind metonymische Beziehungen bei Namensgebärden. Weiterhin werden oft Handlungen dazu 37 Mandel (1977: 80-82) spricht von „locative iconicity and shape iconicity“. 38 „The iconicity of a sign can vary along two parameters, namely, 1) the degree to which the form of the sign mimics or resembles its denotation, and 2) the degree to which the behavior of the sign mimics or resembles its denotation.“ (DeMatteo 1977: 116) <?page no="195"?> 195 benutzt, um auf Gegenstände oder Personen zu referieren. Zum Beispiel wird die Bedeutung „Auto“ durch das Bewegen eines (nicht sichtbaren) Lenkrads visualisiert. Metonymisch verwendete Gebärden sind nicht verhaltensikonisch. Durch das schnelle Hin- und Herbewegen der Hände, die ein (nicht sichtbares) Lenkrad halten, kann nicht die schnelle Bewegung des Autos visualisiert werden. In diesem Beispiel kann durch die Vergrößerung des Abstands zwischen den Händen ein großes Lenkrad und damit indirekt auch ein Bus oder LKW visualisiert werden, d.h. diese Gebärde ist formikonisch modifizierbar. Dies ist jedoch abhängig von der Bedeutung. Zum Beispiel können bei der Gebärde R ÜHREN 1 ( ,2Nb c H ) durch eine größere Bewegung die Bedeutungen „Kochlöffel“ und „Eintopf“ verändert werden zu „großer Kochlöffel“ und „eine große Menge Eintopf“. Diese Modifikation kann jedoch nicht für die Bedeutungen „großer Koch“ oder „große Küche“ verwendet werden. Auch abstrakte Bedeutungen können durch metonymisch verwendete Gebärden visualisiert werden wie z.B. „Ehe“ durch das Anstecken des Rings. Die auf der Metonymie beruhende ikonische Motivation kann auch durch einzelne Formparameter erreicht werden, z.B. durch die Ausführungsstelle. Gebärden, die am Kopf, an der Stirn oder in Schläfennähe ausgeführt werden, decken ein breites Bedeutungsspektrum ab, das mit kognitiven Prozessen wie Denken, Gedächtnis, Vorstellung und Fantasie verbunden ist. Konkrete Bilder werden, ähnlich wie in Lautsprachen, zur Visualisierung abstrakter Bedeutungen verwendet. Es handelt sich hierbei um eine metaphorische Beziehung zwischen Bild und Bedeutung wie z.B. bei der Gebärde F AUST -Z EIGEN 1 ( , 6JV ), die für die Bedeutungen „Kommunismus“ und „Fan“ verwendet wird. Die Unterscheidung zwischen bildhafter, metonymischer und metaphorischer Ikonizität findet sich auch in Wilcox (2007) wieder, der darauf hinweist, dass diese Beziehungen in komplexer Weise miteinander kombiniert werden, unabhängig von der Textsorte. Stilisierung als eine Form der Deikonisierung kann dazu führen, dass strukturelle Ähnlichkeiten zwischen der Gebärdenform und dem Referenzobjekt verlorengehen und das zugrunde liegende Bild nur noch teilweise oder nicht mehr bestimmt werden kann. Frishbergs (1975, 1980) Studien zur ASL wurden als Argument für eine allgemeine Entwicklung von Gebärdensprachen hin zu arbiträren Zeichen interpretiert. Dagegen steht die These von Cuxac (2000: 141), dass ikonische Elemente beibehalten werden und durch den Sprachwandel nicht gänzlich verloren gehen. Die Untersuchungen von Cogill-Koez (2000b: 230) zum Status von Klassifikatorgebärden stützen dieses Prinzip der Beibehaltung der Ikonizität. Gebärden, deren ikonisches Potenzial häufig reaktiviert wird, z.B. bei Modifikationen und Reikonisierungen, sind vom Verlust der Ikonizität nicht betroffen. Davon betroffen sind vor allem Gebärden mit einem geringen Potenzial zur visuellen Repräsentation. Da Cuxac eine entschiedene Gegenposition zum vorherrschenden Mainstream einnimmt, indem er die Ikonizität nicht als Störfaktor, sondern als das <?page no="196"?> 196 strukturierende Prinzip von Gebärdensprachen ansieht, von der jegliche sprachwissenschaftliche Beschreibung auszugehen hat, werde ich im Folgenden seine Positionen kurz darstellen und insbesondere auf die Auswirkungen dieser Sichtweise auf das gebärdensprachliche Lexikon eingehen. 4.3.3 Cuxac: Strukturen der Ikonizität Cuxac hat sich ebenso wie andere Linguisten darum bemüht, aus wissenschaftlicher Sicht nachzuweisen, dass die Gebärdensprache, hier die Französische Gebärdensprache (LSF), eine natürliche Sprache ist, die den Lautsprachen in nichts nachsteht. Er hat sich jedoch, anders als seine amerikanischen Kollegen, dafür entschieden, die Ikonizität nicht auszuklammern oder ihre Bedeutung für das Sprachsystem zu negieren, sondern sie in das Zentrum seiner Forschung zu stellen. Die Bezeichnung ‚Strukturen der Ikonizität‘, die Cuxac (1996) für den Titel seiner Dissertation gewählt hatte, bringt den erkenntnistheoretischen Anspruch zum Ausdruck, den er an seine Forschung stellt: den Gegensatz zwischen Ikonizität und sprachlichen Strukturen aufzuheben und den Nachweis zu erbringen, dass in Gebärdensprachen sprachökonomische Prinzipien herrschen, die nur über die Ikonizität zu erklären sind. Im Unterschied zu Ebbinghaus/ Heßmann (1991), die die Grenzen der linguistischen Beschreibung einräumen und in den komplexen Möglichkeiten der Bedeutungskodierung in Gebärdensprachen eine Herausforderung für die Semiotik sehen, besteht Cuxac auf einer Beschreibung dieser ikonischen Strukturen im Rahmen der Linguistik. Ähnlich wie Jouison (1995) die Rolle des Körpers mit sprachwissenschaftlichen Mitteln zu fassen suchte („penser ‘linguistiquement’ le corps“), so suchte Cuxac nach Möglichkeiten, die Ikonizität in die Sprachwissenschaft zu integrieren („penser ‘linguistiquement’ l’iconicité“; Garcia 2000: 412). Das bedeutet, Position zu beziehen gegen die strukturalistische Sprachwissenschaft, den behaupteten Widerspruch zwischen Arbitrarität und Ikonizität des sprachlichen Zeichens aufzuheben und der „Diktatur des Verbalen“ (Cuxac 2001: 12) zu widerstehen. Letztere führt Cuxac auf den Einfluss der Schrift zurück (s. Kap. 3.6.2). Alles, was nicht durch die Schrift festgehalten werden konnte, wurde vom Sprachsystem ausgeschlossen und als nonverbal, parasprachlich oder suprasegmental bezeichnet. Durch die Gestenforschung, semiologische Arbeiten zur Bildsprache und Arbeiten zur Kodierung und kognitiven Repräsentation von Bildern wurde nachgewiesen, dass auch nonverbale Mittel zur Kodierung von Bedeutung eingesetzt werden und daher nicht ausgegrenzt werden können aus der sprachwissenschaftlichen Beschreibung. Für Cuxac gehören neben den manuellen Handzeichen insbesondere der Blick und die Mimik - hier in einem weiten Sinn der mimisch-gestischen Darstellung verstanden, zu der insbesondere Mundgestik und Gesichtsmimik, aber auch Körperhaltung gehören - zur Beschreibung von Gebärdensprachen hinzu. Cuxac bezeichnet diese drei Bestandteile einer gebärdensprachlichen Äußerung auch als Parameter, Paradigmen oder Primitive. <?page no="197"?> 197 In seiner Dissertation geht Cuxac (1996: 64-81) auf das Problem der Arbitrarität sehr ausführlich ein, in der Veröffentlichung der Dissertation (Cuxac 2000: 20 f.) fasst er diese Ausführungen auf zwei Seiten zusammen. Der Saussure'sche Begriff der Arbitrarität hat zwei Bedeutungen: 1. Die meisten Wörter sind arbiträr im Sinne von nicht ikonisch, da ihre Form keinen Bezug zum außersprachlichen Referenten hat. Diese Eigenschaft lautsprachlicher Zeichen ist eine direkte Folge des akustischen Mediums. 39 Diese erste Bedeutung ist für Cuxac nicht so wichtig wie die folgende zweite Bedeutung. 2. Die Sprache funktioniert als System von Zeichen, die dekontextualisiert und losgelöst vom Bezeichneten aufeinander bezogen werden. Dabei werden die Zeichen gegeneinander abgegrenzt. Innerhalb des Sprachsystems ist ein Zeichen differenziell und negativ definiert als etwas, was die anderen Zeichen nicht sind. Um die beiden Bedeutungen von Arbitrarität zu unterscheiden, verwendet Cuxac (2000) die Bezeichnung ‚arbitraire‘ nur im Sinne der zweiten Bedeutung, ansonsten spricht er vom „caractère non-iconique“ oder von der „non-iconicité“. Beide Bedeutungen sind nicht aufeinander bezogen, und es gibt keinen Grund, die erste Bedeutung zur Bedingung der zweiten zu machen. Die Fähigkeit, Zeichen zu dekontextualisieren, gegeneinander abzugrenzen und miteinander zu kombinieren, um Bedeutung zu kodieren, ist eine kognitive Fähigkeit, die den Menschen von den Tieren unterscheidet. Diese metasprachliche Fähigkeit ermöglicht es dem Menschen, Zeichen unabhängig vom Grad der Motiviertheit als Einheiten anzusehen, die eine bezeichnende und eine bezeichnete Seite haben, und z.B. paradigmatische Ersetzungen vorzunehmen. Nach Cuxac wurden die beiden Bedeutungen in der von Saussure geprägten strukturalistischen Linguistik nicht sauber voneinander unterschieden. Dadurch ergaben sich zwei aufeinander aufbauende Irrtümer: 1. Das Sprachsystem wurde verwechselt mit der kognitiven, metasprachlichen Fähigkeit, die Wirkung wurde zur Ursache. 2. Die strukturellen Eigenschaften von Lautsprachen und ihren Zeichen (Nicht-Ikonizität, Linearität und doppelte Artikulation) wurden zu Definitionskriterien für Sprache erklärt. Für Cuxac bilden zwei Hypothesen die theoretischen Grundlagen der Beschreibung der ikonischen Strukturen von Gebärdensprachen. Die erste Hypothese besagt, dass in sprachlichen Symbolen durch einen Prozess der Ikonisierung Erfahrungen kodiert werden. Cuxac (2000: 22) nennt dies den „processus d’iconicisation de l’expérience“. Er stützt diese Hypothese auf Studien zu sogenannten Hausgebärden, die gehörlose Kinder und Erwachsene, die isoliert von der Sprachgemeinschaft aufwachsen, entwickeln. 39 „Cet arbitraire des signes linguistiques, autrement dit leur caractère non-iconique, est ramenable, à mon avis, à un effet automatique de l'utilisation du canal audio-oral.“ (Cuxac 2000: 20) <?page no="198"?> 198 Diese Gebärden haben durchweg ikonische Bezüge zu den Gegenständen oder Handlungen, die mit diesen Gegenständen ausgeführt werden. Hinzu kommt, dass Hausgebärden verschiedener Personen, die keinen Kontakt zueinander haben, ähnlich sind. Ebenso weisen die Gebärden gehörloser Kinder, die in Isolation aufwachsen, Formähnlichkeiten mit Gebärden gehörloser Erwachsener auf, die in Isolation leben. Diese Beobachtungen lassen zum einen Rückschlüsse auf eine menschliche Prädisposition zur Kategorisierung und Konzeptualisierung zu, zum anderen lässt sich daraus die weitere Hypothese ableiten, dass es zu einer vorsprachlichen Stabilisierung von Konzepten kommt. Dazu gehört auch die Unterscheidung in Gegenstände und Prozesse, eine vorsprachliche Stufe der Nomen-Verb- Unterscheidung. Dieser primäre Ikonisierungsprozess 40 , ist der Ursprung aller Gebärdensprachen. Die Untersuchungen von Rosenstock (2006) zur Verwendung von Metaphern in geographisch und historisch nicht verwandten Gebärdensprachen weisen in dieselbe Richtung. Ähnliche Gebärden für Konzepte aus den Domänen „Emotionen“ und „Denken“ sind Ergebnisse ähnlich verlaufender Konzeptualisierungsprozesse. Den Grund dafür sieht Rosenstock darin, dass Menschen auf dieselben sensorischen Erlebnisse zurückgreifen. Die zweite Hypothese ist die der Gabelung in eine ikonisch ausgerichtete („visée iconicisatrice“ 41 ) und eine nicht ikonisch ausgerichtete Darstellungsweise („hors visée iconicisatrice“; Cuxac 2000: 23-26). Diese Gabelung in zwei verschiedene Darstellungsweisen lässt sich mit dem gemalten Bild eines Kindes und seiner verbalen Äußerung veranschaulichen. Das gemalte Bild ist in einer realistischen Haltung gemalt, es soll ausdrücken: „So ist es gewesen, und ich zeige dir das jetzt.“ Es handelt sich um ein absichtsvolles Zeigen-Wollen, im Unterschied zu einem konzeptionellen Sagen. Cuxac vergleicht die ikonisch ausgerichtete Darstellung auch mit der kriminologischen Rekonstruktion des Tathergangs, bei der es um die detaillierte Schilderung oder um ein Nachstellen des Tathergangs geht und nicht um ein bloßes Benennen von Dingen oder Handlungen. Diese Gabelung ist nur in Gehörlosengemeinschaften mit einer längeren institutionellen Geschichte zu beobachten, nicht bei isoliert aufwachsenden Gehörlosen. Das Fassen der Erfahrung in sprachliche Konzepte kommt entwicklungsgeschichtlich, sowohl phylogenetisch wie auch ontogenetisch, nach dem Zeigen-Wollen. Dies ist auch der Grund, warum Hörende diese Strukturen schwerer erlernen als die konventionellen Gebärden. Sie verlernen das Zeigen-Wollen in ihrer sprachlichen Entwicklung wieder, da sie lernen, dass ihre Bezugspersonen stärker auf Worte reagieren als auf gesti- 40 „La description de la langue des signes qui va suivre part de l'hypothèse qu'une bifurcation s'est produite dans les langues des signes à histoire institutionnelle longue, selon que cette iconicisation première va se mettre au service d'une visée iconicisatrice ou non.“ (Cuxac 2000: 23) 41 Die Bezeichnung variiert gelegentlich, s. Cuxac (2000: 100): „visée spécificatrice“, Cuxac (2004: 96): „visée illustrative“. <?page no="199"?> 199 sche Darstellungen. Gehörlose Kinder machen die Erfahrung, dass die gehörlosen Bezugspersonen stark auf ihre ikonisch ausgerichtete Darstellung reagieren und diese selbst verwenden. Daher entwickeln sie diese Fähigkeit weiter. Der Ausprägungsgrad und das Talent, mit dem diese Strukturen zum Einsatz gebracht werden, sind von Sprecher zu Sprecher verschieden. Während dieses Zeigen-Wollen in Lautsprachen nur mithilfe zusätzlicher gestischer Mittel oder der Veränderung der Stimme und der Betonung möglich ist, kann es in Gebärdensprachen immer aktiviert werden. Die Gabelung in zwei verschiedene Darstellungsweisen führt zur Ausbildung von zwei verschiedenen Strukturen. Die ikonisch ausgerichtete Darstellungsweise führt zu Strukturen der großen Ikonizität („structures de grande iconicité“; SGI), die nicht ikonische Darstellungsweise zu konventionalisierten lexikalischen Gebärden. In Cuxac (2000) werden diese lexikalischen Einheiten als Standardgebärden („signes standards“) bezeichnet. In ihrem Beitrag zur sprachlichen Variation und Normierung in Gebärdensprachen korrigieren Cuxac/ Pizzuto (2010: 44) diese Bezeichnung in „Wort-Gebärden“ („signes-mots“). Wort-Gebärden zum einen deshalb, weil diese Gebärden in den meisten Gebärdensprachwörterbüchern und wissenschaftlichen Veröffentlichungen mithilfe von Wörtern, den sogenannten Glossen etikettiert werden. Zum anderen soll damit auf die methodologisch fragwürdige Vorgehensweise hingewiesen werden, ausgehend von Wortlisten nach isolierten Einzelgebärden zu suchen. Cucac & Pizzuto sind nicht die einzigen, die dieses Vorgehen kritisieren 42 , ihre Kritik reicht jedoch weit über die lexikographische Praxis hinaus. Die von Stokoe begründete Phonologie der Gebärdensprache sei nur möglich gewesen, weil sie von isolierten lexikalischen Einzelgebärden ihren Ausgang nahm. Die Relevanz dieser Gebärden für die Struktur von Gebärdensprachen wurde jedoch nicht hinterfragt. Diese Methodologie, die die Anfangshypothese einer Gebärdensprachphonologie ermöglicht und gleichzeitig den zentralen Status dieser ‚Wort-Gebärden‘ bekräftigt, dient ebenso als Basis für die Erstellung von Wörterbüchern und legt damit eine (Über-)Norm fest, die sich sowohl auf die Phonologie als auch auf das Lexikon bezieht. (Cuxac/ Pizzuto 2010: 43 f.; Übers. R.K.) 43 Den Prozess der Konventionalisierung bezeichnet Cuxac als Stabilisierung einer Form, die im Vergleich zu anderen, konkurrierenden Formen am ehesten die prototypische Bedeutung wiedergibt. Genau wie Johnston/ Schembri (1999) beschreibt Cuxac (2004: 107) den Unterschied zwischen einer konventionellen Gebärde und einer Gebärde, die in illustrativer 42 S. Brien/ Turner (1994); in Johnston/ Schembri (1999: 179) unter dem Stichwort lemma dilemma wieder aufgegriffen. 43 „Cette méthodologie qui permet de déboucher sur l’hypothèse d’une phonologie des LS tout en renforçant le statut central de ces «signes-mots» est du même coup à la base de l’élaboration des dictionnaires, définissant ainsi une (sur)norme à la fois phonologique et lexicale.“ <?page no="200"?> 200 Absicht hervorgebracht wird - einer produktiven Gebärde - durch die Spezifizierung der Bedeutung. Sind diese Gebärden stabilisiert, dann entspricht die Bedeutung dieser Formen, im Gegensatz zu den Strukturen der großen Ikonizität, nicht mehr der Summe der Bedeutungen ihrer morphologischen Bestandteile: P ONT bedeutet dann nicht mehr ‚diese längliche, schmale, flache und leicht gewölbte Form über …‘, sondern ganz einfach ‚Brücke‘ mit seiner generischen Bedeutung und den verschiedenen semantischen Ausprägungen. (Übers. R.K.) 44 Damit entsprechen Gebärden, die in der Absicht des Zeigen-Wollens ausgeführt werden, den produktiven Gebärden. Sie werden häufig mit mimischen und gestischen Elementen artikuliert, der Blick ist auf die Hände gerichtet oder begleitet die Bewegung. Ihre Bedeutung entspricht der Bedeutung, die sie auf der ersten Stufe der Konventionalisierung haben und setzt sich zusammen aus den Einzelbedeutungen, die ihre Formparameter annehmen können. Im Unterschied zu anderen Gebärdensprachlinguisten spricht Cuxac jedoch nicht von produktiven Gebärden oder Klassifikatorgebärden, sondern von Transfers, in die er die SGI nach funktionalen Kriterien einteilt. Den Begriff ‚Proform‘ zur Bezeichnung der Handkonfiguration erwähnt Cuxac (2001: 21) zunächst nur in einer Fußnote, in Cuxac (2004: 103) wird er wieder aufgenommen. Zuvor hatte schon Sallandre (2003: 81-82) die Verwendung des Begriffs thematisiert und ihn abgegrenzt von Slobin et al. (2003). In ihrer Verwendung bezeichnet Proform (le proforme) eine Handform, die die Form eines außersprachlichen Referenten wiedergibt, und nicht das Objekt selbst. Daher könne man auch das Kriterium der Wohlgeformtheit auf die Transfers nicht anwenden, da eine Form nicht besser sei als die andere. Die Ausprägung hänge davon ab, welchen Formaspekt der Gebärdende in seiner Darstellung fokussiert. Im Folgenden werde ich zunächst auf Cuxacs Klassifizierung der SGI eingehen, um danach seine Beschreibung des gebärdensprachlichen Lexikons und das Zusammenspiel zwischen Standardgebärden und den SGI zu diskutieren. 4.3.3.1 Strukturen der großen Ikonizität (SGI) Die ersten Überlegungen zu einer funktionalen Klassifizierung der verschiedenen Formen der ikonisch ausgerichteten Darstellung hat Cuxac bereits 1985 formuliert. Das Datenmaterial, das er für seine Dissertation untersuchte, waren vorwiegend monologische Erzählungen, vor allem von einem bekannten Pariser Gehörlosen. Cuxac begründet die Wahl der Textsorte damit, dass darin besonders viele sogenannter pantomimischer Äußerungen ent- 44 „Une fois qu’elles sont stabilisées, le sens de ces formes, contrairement aux structures de grande iconicité, ne correspond pas à la somme des sens de leurs composants morphémiques: P ONT n’est plus «cette forme longiligne et mince et plate se déployant en léger arrondi au dessus de …» mais tout simplement un «pont» avec toute sa généricité et ses multiples valeurs signifiées.“ <?page no="201"?> 201 halten sind. Die SGI sind Diskursstrategien, die der Gebärdende bewusst wählt, um etwas anschaulich zu machen. Cuxac (2001: 28) verwendet auch die Wendung ‚donner à voir‘ (etwas zum Sehen geben), die er für passender hält zur Beschreibung der Funktion der SGI als den Ausdruck ‚montrer‘ (zeigen) bzw. ‚dire en montrant‘ (etwas sagen, indem man es zeigt). Die drei Grundeinheiten der SGI sind die Transfers. Damit soll zum Ausdruck gebracht werden, dass es sich um Übertragungen realer oder fiktiver Erfahrungen in den dreidimensionalen Raum des Diskurses, den Gebärdenraum, handelt. Diese Übertragungen können sehr präzise sein, beinhalten aber auch eine leichte Verzerrung des ikonisch Dargestellten durch die Anpassung an die zur Verfügung stehenden Artikulatoren. Anhand der drei Parameter manuelle Form, Blick und Mimik lassen sich drei verschiedene Transfers unterscheiden: Transfer der Größe und/ oder der Form („transfert de taille et/ ou de forme“; TTF), Transfer der Situation („transfert situationnel“; TS) und Transfer der Person („transfert de personne“; TP). Die Funktionen der Transfers charakterisiert Cuxac durch zwei Umschreibungen: 1. Etwas so zeigen, wie es aussieht („comme ça“; TTF) oder wie es sich bewegt (TS). Dabei modifizieren Mimik und Bewegung die Form und Ausdehnung, während der Blick, der auf die Gebärde gerichtet ist, diese als Referent der sprachlichen Äußerung markiert und es dem Sprecher ermöglicht, etwas zu sagen, indem er es zeigt. Die entscheidende Rolle des Blicks liegt darin, den Wechsel zwischen der nicht ikonischen (durch konventionelle Gebärden) und ikonischen Darstellungsweise (durch Transfers) zu markieren. In vielen Fällen ist die Blickrichtung das einzige formseitige Kriterium, das eine Unterscheidung zwischen einem Transfer und einer Standardgebärde rechtfertigt. Die anderen Unterscheidungskriterien sind semiotischer und pragmatischer Natur (Cuxac 2004: 101). 2. Sich so verhalten, als ob („comme si“) eine Person etwas tut oder erlebt (TP). Beim TP schlüpft der Gebärdende in die Rolle eines Protagonisten und verhält sich so, als ob eine Person etwas tut oder erlebt. TS und TP lassen sich kombinieren zu einem doppelten Transfer („double transfert“; DT), bei dem sich mehrere Darstellungsebenen überlagern. Es ist nicht überraschend, dass zwei dieser Transfers ihre Entsprechungen in zwei der drei wichtigsten Bilderzeugungstechniken haben. Die als TTF bezeichneten Gebärden entsprechen produktiven Gebärden, die mit der skizzierenden Technik erzeugt werden. In früheren Arbeiten nannte Cuxac diese Formen noch „spécificateurs“ bzw. „spécifications“, eine Bezeichnung, die an die size and shape specifiers (SASS), eine Gruppe von Klassifikatorgebärden, erinnert. Werden mehrere TTF hintereinander ausgeführt, um einen Gegenstand oder eine Person zu beschreiben, dann fasst Cuxac diese Gebärden als „descripteurs“ zusammen. In Erzählungen kommen diese <?page no="202"?> 202 Gebärden immer dann vor, wenn eine Person oder ein Objekt neu eingeführt wird. Im Unterschied zur generischen Bedeutung einer Standardgebärde, die häufig vor einem TTF ausgeführt wird, beschreibt der TTF das Spezifische und Individuelle eines Gegenstands oder einer Person. In besonders anschaulichen Schilderungen werden die Standardgebärden gänzlich durch die TTF ersetzt. Häufig handelt es sich um zweihändige Gebärden, bei denen die nichtdominante Hand oft passiv ist und als Bezugspunkt oder Zeichengrundlage dient. Obwohl die Darstellung sehr präzise sein kann und ein Kontinuum verschiedener Formen und gradueller Unterschiede zulässt, bilden die Handkonfigurationen, die für den TTF verwendet werden, ein begrenztes Set. Durch den Blick wird die Ausführungsstelle der Gebärde aktiviert. Der Gebärdende schaut auf eine bestimmte Stelle im Gebärdenraum, an dem die Hände die Gebärde formen, er „installiert“ gewissermaßen die Gebärde an diesem Ort. Bis zur vollständigen Ausführung der Gebärde bleibt der Blick auf die Hände gerichtet. Der Blick soll dem Gesprächspartner sagen: „Hier, an diesem Ort, zeige ich dir, wie der Gegenstand oder die Person aussieht.“ Dies geht jedoch nicht, wenn die Beschreibung am Kopf stattfindet und z.B. die Form der Nase oder der Hut auf dem Kopf beschrieben wird. In diesem Fall übernehmen die Mimik und die analoge Darstellung der Form durch die Hände die Funktion der Markierung dieser Gebärde als ikonische Darstellung. Durch die Mimik werden Form und Größe in ihrer Qualität und/ oder Quantität näher beschrieben. Sie hat eine adjektivische Funktion 45 und ergänzt oder präzisiert die ikonische Darstellung der Hände. Cuxac (2000: 35 f.) beschreibt einige Formen der Mundgestik und Gesichtsmimik, ohne jedoch eine Vollständigkeit beanspruchen zu wollen. Die als TS bezeichneten Gebärden entsprechen produktiven Gebärden, die mit der substitutiven Technik erzeugt werden. Cuxac unterscheidet zwischen Gebärden, die die Bewegung eines Aktanten im Gebärdenraum visualisieren, und Gebärden, die unbewegt an der dargestellten Szene beteiligt sind. Diese als „locatif“ bezeichneten Gebärden haben die Funktion eines räumlichen Bezugspunktes und werden in den meisten Fällen mit der nichtdominanten Hand ausgeführt. Im Laufe der ikonischen Darstellung kann es zu einem Wechsel der Funktion der Handkonfiguration von einem TTF zu einem Lokativ kommen, indem die nichtdominante Hand gehalten wird und als Bezugspunkt der dominanten Hand dient, entsprechend einem Wechsel zwischen der skizzierenden und der substitutiven Technik wie in Kapitel 4.2.1.7 beschrieben. Wie beim TTF dient der Blick dazu, zunächst die Gebärde innerhalb der Szene zu installieren. Im Unterschied zum TTF folgt der Blick jedoch nicht der Bewegung der dominanten Hand, sondern nimmt diese vorweg, indem der Gebärdende den Blick vom Ausgangspunkt zum Endpunkt der Bewe- 45 Boyes Braem/ Sutton-Spence (2001: 3) beschreiben in ähnlicher Weise die Funktion der Mundgestik als „oral adverbials“. <?page no="203"?> 203 gung richtet, bevor er die Bewegung mit der Hand ausführt. Weiterhin dient der Blick dazu, ikonische konventionelle Gebärden zu remotivieren, indem er auf die Gebärde gerichtet ist. Dadurch kann z.B. die Gebärde B AUM 2A ( - $! p I^1 q4 >H ) als Lokativ eines TS reaktiviert werden, indem nicht die generische Bedeutung „Baum“ gemeint ist, sondern in der ikonischen Darstellungsweise ein Finger einen Ast repräsentiert, auf den sich z.B. ein Vogel setzt. Die Mimik übernimmt die Funktion, den Aspekt der Bewegung zu spezifizieren und z.B. eine schnelle von einer anhaltenden Bewegung zu unterscheiden. Eine Entsprechung der als TP bezeichneten Gebärden mit produktiven Gebärden, die mit der manipulativen Technik erzeugt werden, gibt es nur in den Fällen, in denen diese Gebärde eingebunden ist in einen repräsentierenden ganzheitlichen Körperausdruck. Die eigentliche Entsprechung zum TP sind gebärdensprachliche Äußerungen, die in der Literatur als constructed action bezeichnet werden. Cuxac bezieht sich nicht auf diese Terminologie und unterscheidet auch nicht zwischen constructed action und constructed dialoque (wörtlicher Rede). Die wörtliche Rede ist logischerweise immer in einen TP eingebettet. Beim TP schlüpft der Gebärdende in die Rolle des Beteiligten, meistens eine Person oder ein Lebewesen. Der TP ist jedoch in Gebärdensprachen die einzige Möglichkeit, auch unbelebte Gegenstände als Aktanten sprachlich zu kodieren, z.B. in Sätzen wie ‚Die Schokolade isst den Jungen‘. Eine Übersetzung dieses Satzes in Gebärdensprache nur mithilfe der Standardgebärden ist nicht möglich bzw. wird von Gehörlosen nicht richtig verstanden. Der Gebärdende wechselt von der Rolle des Erzählers in die eines in der Szene Beteiligten und kann neben der semantischen Rolle des Agens auch die des Patiens oder Benefaktivs einnehmen. Die Beziehung zwischen den an der Szene Beteiligten wird entweder ausschließlich durch den Blick oder durch eine Kombination aus Blickrichtung, Ausrichtung des Gesichts und zusätzlicher Geste ausgedrückt. Sind unbelebte Objekte beteiligt in der Funktion eines Werkzeugs, mit dem eine Handlung ausgeführt wird (Instrumental), so passt sich die Handform entsprechend der Handhabung dieser Gegenstände an die Form des Gegenstands an. An dieser Stelle wird deutlich, dass Cuxac keine lexikographische Beschreibung der Einzelgebärden im Sinn hat, sondern Diskurseinheiten, die mehr oder weniger lange oder kurze Äußerungssequenzen umfassen können. Die in der Funktion des Instrumentals verwendeten Gebärden entsprechen wiederum den manipulativ dargestellten produktiven Gebärden. Das Blickverhalten ist das des an der Szene Beteiligten, daher kann es nicht auf den Gesprächspartner gerichtet sein, da dieser nicht Teil der Szene ist. Der Gebärdende verfolgt entweder seine Handlung oder er richtet seinen Blick auf ein Objekt oder eine an der Szene beteiligte Person, entsprechend der Handlung. Der Rollenwechsel wird durch den Blick, unter Umständen auch durch eine leichte Veränderung der Körperhaltung angezeigt. Dies geschieht in Bruchteilen einer Sekunde, sodass er für Unge- <?page no="204"?> 204 übte kaum wahrnehmbar ist. Hinzu kommt, dass es sich nicht immer um einen vollständigen TP handeln muss, bei dem, wie bei einem repräsentierenden ganzheitlichen Körperausdruck, der Körper des Gebärdenden dem Körper der dargestellten Person vollständig entspricht. Nimmt der Gebärdende den Blickkontakt zu seinem Gesprächspartner wieder auf, dann ist der Transfer beendet. Cuxac hatte ursprünglich eine sehr enge Beschreibung des Blickverhaltens vorgenommen, bei der der Blick unter keinem Umständen im eigentlichen Sinn „aus der Rolle“ fallen durfte. Später hatte er wie auch Sallandre (2001) eingeräumt, dass es auch zu einer kurzen Unterbrechung kommen könne, z.B. um sich der Aufmerksamkeit des Gegenübers zu versichern. Dabei bleiben Hand- und Körperhaltung unverändert und werden gewissermaßen „gespeichert“, um den Transfer wieder aufzunehmen und zum Abschluss zu bringen. Übergänge zwischen den verschiedenen Transfers werden häufig zusätzlich zur Veränderung der Blickrichtung durch ein mehrmaliges Schließen der Augen markiert. Der Blick, der zuvor gerichtet war, schaut für einen kurzen Augenblick in eine unbestimmte Richtung, bevor er zum Blick des Aktanten wird. Die Mimik charakterisiert den Geistes- und Gemütszustand des Aktanten, wobei Cuxac unterscheidet zwischen einer Mimik, die den Zustand während einer Handlung charakterisiert, und einer Mimik, die den Zustand beim oder kurz nach dem Abschluss einer Handlung widerspiegelt. Während beim TP der Gebärdende die Rolle und Haltung des Aktanten übernimmt und dies nicht nur durch die manuelle Form, sondern durch Mimik und Blickrichtung sichtbar ist, gibt es ähnliche manuelle Formen, die sich auf die Handlung oder Haltung eines Aktanten beziehen, aber mit einer neutralen Mimik und einem Blick, der vage ist und auch auf den Gesprächspartner gerichtet sein kann, ausgeführt werden. Häufig werden diese Gebärden im Zusammenhang mit den als „descripteurs“ beschriebenen Gebärden des TTF ausgeführt, um z.B. eine Person näher zu charakterisieren und zu benennen. Ihre Funktion besteht nicht in der Illustration einer Handlung. Diese Gebärden bezeichnet Cuxac als Pseudo-Transfer der Person („pseudo-transfert personnel“). Gebärden, die eine stereotype Körperhaltung oder Mimik zeigen, wie sie auch unter Hörenden zu beobachten ist, z.B. sich auf die Lippe beißen oder sich am Kinn reiben, und ebenfalls die Funktion der Charakterisierung und Benennung übernehmen, ordnet Cuxac dem stereotypen Transfer der Person zu („stéréotype de transfert personnel“). Diese Gebärden sind dem TP sehr ähnlich, oft genügt auch nur eine bestimmte Mimik, was ihre Identifikation erschwert. Entscheidend ist ihre Funktion, den mentalen, emotionalen oder körperlichen Zustand eines Aktanten zu illustrieren, ohne dass eine Rollenübernahme vorliegt, ähnlich wie beim Pseudo-Transfer der Person und den Deskriptoren. Diese Ausdrucksweisen sind häufig kulturell bedingt und finden sich in Alltagsgesten, aber auch in der Kunst, z.B. in Comics, Zeichentrickfilmen, Spielfilmen, Gemälden und Plastiken wieder. <?page no="205"?> 205 Sallandre (2003) hat anhand eines größeren Korpus (LS-COLIN 2002) den Beschreibungsansatz von Cuxac weiter ausgebaut, indem sie vor allem bei der Analyse der Transfers der Person die Rollenübernahme stärker berücksichtigt und das Analyseraster um neun TP und fünf DT erweitert hat. Dadurch konnte sie qualitativ und quantitativ die Bedeutung der Strukturen der Ikonizität in der LSF nachweisen, nicht nur in lebhaften Schilderungen und Erzählungen, sondern auch in anderen Textsorten wie der Wiedergabe eines Kochrezepts oder der Darstellung eines linguistischen Themas. Durch die Art der Transkription konnte sie jedoch die Zahl der Standardgebärden im Verhältnis zu den Transfers nicht ermitteln, da die Token entweder einem Transfer oder einer Standardgebärde zugeordnet wurden. Die Möglichkeit der Modifikation von Standardgebärden wurde nicht in Betracht gezogen, Standardgebärden innerhalb eines Transfers wurden nicht erfasst. Weiterhin wurde keine Lemmatisierung vorgenommen. Sterner (2006) hat im Rahmen ihrer Magisterarbeit das von Sallandre erweiterte Analyseraster anhand einer empirischen Untersuchung mit vergleichbaren DGS-Texten, die mit demselben Stimulusmaterial erhoben wurden, erprobt. Sie kommt zu dem Schluss, dass sich in der DGS dieselben Strukturen in ähnlicher Verteilung wiederfinden. Die Transkription zeigt, dass das Analyseraster von Sallandre zum Teil immer noch lückenhaft ist und systematische Unterschiede nicht erfasst. Die Entweder-oder- Entscheidung bei der Zuordnung der Token zu einer Art des Transfers ist ein weiteres Problem der quantitativen Analyse von Strukturen, die als Kontinuum gesehen werden und für die eine Beschreibung, die ein Mehr oder Weniger zulässt, angemessener wäre. Sterner stellte weiterhin fest, dass generalisierende Aussagen zum Blickverhalten im Zusammenhang mit den verschiedenen Transfers durch das empirische Material stellenweise relativiert werden. Cuxac (2000: 97-130) schließt den ersten Teil seiner Darstellung mit einer Beschreibung von 39 Handkonfigurationen und ihrer Verwendung innerhalb der verschiedenen Transfers. Dieser Beschreibung stellt er eine ausführliche Begründung vorweg, warum er die üblichen Bezeichnungen wie classifier oder size and shape specifier ablehnt. Der Begriff ‚Klassifikation‘ beinhaltet, dass ein bestimmtes Merkmal zur Kennzeichnung einer Klasse von Elementen verwendet wird. Bei einem Transfer handelt es sich jedoch um eine globale Darstellungsweise mit der Absicht, etwas zu spezifizieren. Die Handkonfiguration trägt dazu genauso bei wie die Lokation oder die Bewegung und hat wie diese die Funktion, die Bedeutung zu spezifizieren. Damit schließt sich Cuxac Schembris (2000, 2003) Argumentation an, dass Klassfikatoren nicht in erster Linie die Funktion der Klassifizierung haben wie in Lautsprachen, sondern die der Repräsentation. Als ein weiteres Argument gegen die Bezeichnung ‚Klassifikator‘ führt Cuxac das Problem der Trennung zwischen Handform und Handstellung an. Abhängig von der Orientierung der Hand im Raum kann sie zur Visualisierung ganz verschiedener Dinge verwendet werden. Die Beispiele, die Cuxac für die Ver- <?page no="206"?> 206 wendung der Flachhand anführt, illustrieren, dass es Sinn macht, zwischen verschiedenen Verwendungsweisen zu unterscheiden, die jedoch nicht durch die Formparameter festgelegt sind, sondern durch die Funktion der Hand bei der Visualisierung. Dass die Einteilung in drei verschiedene Transfers, die neben der manuellen Form auch oder allein durch den Blick oder die Mimik realisiert werden können, relativ grob ist gegenüber den von uns verwendeten sechs Bilderzeugungstechniken, versteht sich von selbst. Die Auflistung verschiedener Verwendungsweisen der Flachhand zeigt weiterhin, dass die Reduktion auf die Parameter Handform und Orientierung zu grob ist, um eine sinnvolle Einteilung vornehmen zu können. Wie in Kapitel 4.1.5.2 am Beispiel der Zügelhand gezeigt, ist der Grad der Abstraktion des zugrunde liegenden Bildes entscheidend für seine Interpretation. Eine zu grobe Fixierung auf Handform und Orientierung, die den situativen Kontext der Darstellung nicht berücksichtigt, führt zu einer zu großen, heterogenen Menge von Verwendungskontexten. 4.3.3.2 Ikonizität der Standardgebärden Wie bereits deutlich wurde, stehen die Transfers, die die Strukturen der großen Ikonizität ausmachen, für Cuxac im Mittelpunkt seiner Forschung. Dies zeigt sich auch an der ursprünglichen Einteilung der Ikonizität in drei Hierarchiestufen: Zur Ikonizität erster Ordnung zählen die drei Transfers, zur Ikonizität zweiter Ordnung die Standardgebärden. Unter der Ikonizität dritter Ordnung fasst Cuxac (1993) verschiedene Formen manueller Zeichen, des Blicks oder der Mimik, denen nur gemeinsam ist, dass sie nicht zur Visualisierung einer Form im Gebärdenraum verwendet werden. Später hat Cuxac diese Aufteilung aufgegeben. In den Transfers zeigt sich das ikonische Potenzial, das mithilfe der manuellen Formen, der Mimik und dem Blickverhalten in einer visuell-gestischen Sprache entfaltet werden kann, am deutlichsten. Durch die funktionale Beschreibung dieser Strukturen wird der Diskurs in minimale ikonisch ausgerichtete Äußerungseinheiten und nicht ikonisch ausgerichtete Einheiten eingeteilt. Letztere sind die Standardgebärden. Die Hypothese der Gabelung in zwei verschiedene Formen der Darstellung, einer ikonisch ausgerichteten und einer nicht ikonisch ausgerichteten, lässt die Annahme, dass die Standardgebärden eine Folge der ikonischen Ausrichtung sein könnten, nicht zu. Standardgebärden sind diskrete lexikalische Einheiten (Types), deren Verwendung auf die generische Bedeutung dieser Gebärden abzielt. Durch die Bildung von Gehörlosengemeinschaften in den großen Städten und durch die Einrichtung von Gehörlosenschulen seit Mitte des 18. Jahrhunderts wurde der Prozess der Gebärdenbildung, der in der familiären Umgebung beginnt, beschleunigt und führte zu einem beachtlichen Anwachsen des Standardlexikons. Die Frage, wie ein Beschreibungsansatz zu rechtfertigen sei, der von der Ikonizität ausgeht, wenn doch das gebärdensprachliche Lexikon sich aus <?page no="207"?> 207 einer nicht ikonisch ausgerichteten Darstellungsweise heraus entwickelt hat, beantwortet Cuxac (2000: 185) wie folgt: Auf die Gefahr hin, dass ich es immer wieder sage: Die Erklärung oder die Legitimierung der Strukturen durch die Ikonizität - will man vermeiden zu sagen, dass darin der Schlüssel liegt, der alle Türen öffnet - hat nur dann etwas mit Strukturen zu tun, wenn man die ikonisch ausgerichtete Darstellungsweise und die Möglichkeit, im Diskurs zwischen dem Sagen und dem Sagen, indem man es zeigt (so, wie), hin- und herzuwechseln, in Betracht zieht. (Übers. R.K.) 46 Damit stellt sich die Frage, was dieses ständige Wechseln zwischen den beiden Darstellungsweisen erst ermöglicht, die Cuxac (2000: 186) umgehend beantwortet: Ich möchte hinzufügen, dass dieser permanente Rückgriff, mitten in einer Äußerung in LSF, auf die Möglichkeit, etwas durch das Sagen zu zeigen, als Beschränkung wirkt. Da es sich um ein und dieselbe Sprache handelt, (darin liegt das Paradox, dass der gemeinsame Stamm in der Abfolge des Sagens liegt, denn selbst, wenn man etwas zeigt in LSF, hört man nicht auf, etwas zu sagen) ist es notwendig, dass die LSF, die sagt, ohne zu zeigen, ein ausreichendes Quantum an Ikonizität konserviert, um diese ständigen Wechsel des Sagens und Zeigens/ Sagens ohne zu zeigen zu ermöglichen und gleichzeitig dem Ökonomieprinzip, das Sprachen auszeichnet, Rechnung zu tragen. (Übers. R. K) 47 In Cuxac (1997) wird dieses ökonomische Prinzip der Beibehaltung der Ikonizität („contrainte de maintien de l’iconicité“) im Zusammenhang mit zwei weiteren, für alle Sprachen geltenden Prinzipien genannt, dem Prinzip der leichten artikulatorischen Ausführung der Zeichen auf Seiten der Produktion und dem Prinzip der maximalen Markiertheit der Zeichen auf Seiten der Rezeption. Das Anwachsen des Standardlexikons musste mit einer Entwicklung hin zu immer ökonomischeren und systematisierteren Formen mithalten. Diese Systematisierung stützte sich jedoch auf das ökonomische Prinzip der Beibehaltung der Ikonizität, das neben den Prinzipien der optimalen Anpassung an die visuelle Wahrnehmung und der leichten Artikulation besteht. Nach Cuxac folgt diese Entwicklung dem klassischen Schema der ökonomischen Entwicklung von Sprachen, die sich immer um die Konservierung eines ikonischen Kerns herum bewegt und damit der Entwicklung auch Grenzen setzt. Diese Verbindung zwischen Ökonomie und Iko- 46 „Quitte à insister, l’explication ou la légitimation structurale par l’iconicité, si l’on veut éviter que ce soit la clef qui ouvre toutes les portes, n’est affaire de structures que si l’on prend en compte la visée iconicisatrice et la possibilité discursive d’aller et venir du dire au dire en montrant (comme ça).“ 47 „Je voudrais ajouter que l’exploitation permanente de cette possibilité de montrer tout en disant dans le vif des discours en LSF fonctionne comme une contrainte. Comme il s’agit d’une seule et même langue (c’est là le paradoxe, le tronc commun se situe dans l’ordre du dire, car même lorsque l’on montre en LSF on n’en continue pas moins à dire) il est nécessaire que la LSF qui dit sans montrer conserve un quantum d’iconicité suffisant afin que ces passages constants dire [sic] et montrer/ dire sans montrer, continuent à être possibles tout en satisfaisant le fonctionnement économique propre aux langues.“ <?page no="208"?> 208 nizität lässt sich am besten anhand der Entstehung von Neologismen verdeutlichen, die folgende drei Stadien durchläuft: primäre Ikonisierung, Gabelung in Richtung auf das Generische, ökonomische Lösung im begrenzten Rahmen, den das Prinzip der Beibehaltung der Ikonizität absteckt. Eine theoretische Begründung, warum die Ikonizität beibehalten wird, bleibt Cuxac damit jedoch schuldig. Seine Antwort ist pragmatisch: Es funktioniert, und zwar besser als in einer visuellen Sprache, die auf die Ikonizität verzichten müsste. Und sie ist empirisch insofern, als er die in den beiden Bänden des Wörterbuchs der Französischen Gebärdensprache (LSF; Girod 1997) verzeichneten Gebärden nach ikonischen Anteilen untersuchte und zu dem Schluss kommt, dass man bei fast allen Gebärden eine ikonische Motiviertheit zumindest eines der Formparameter findet. Cuxac (2004: 104) relativiert diese Aussage später dahingehend, dass die meisten konventionellen Gebärden der LSF mindestens einen Formparameter enthalten, der als Morphem angesehen werden kann. Cuxac (2000: 141) führt als weitere Beschränkung in der Entwicklung der Standardgebärden noch das Prinzip der ikonischen Verträglichkeit („contrainte de compatibilité iconique“) ein, d.h. dass die einzelnen Parameter nicht im Widerspruch stehen mit der Bedeutung, auf die die Gebärde referiert. Cuxac illustriert dies am Beispiel der LSF-Gebärde A PERITIF 48 (Aperitif). Geht man von der Annahme aus, dass sich die Ikonizität nicht auf die Form der Gebärde auswirkt, dann könnte für die Bedeutung „Aperitif“ jegliche nicht ikonische Gebärde verwendet werden. Die Handkonfiguration, eine 3- Handform mit ausgestrecktem Daumen, Zeige- und Mittelfinger, ist auf den ersten Blick nicht ikonisch motiviert, im Unterschied zur Ausführungshöhe und der Bewegung, die zum Mund hingeht. Dennoch kann diese Handkonfiguration nicht beliebig verändert werden. Würde der Daumen eingeklappt und an dessen Stelle der kleine Finger ausgestreckt werden, was eine Veränderung von der 3-Handform zur 4-Handform bewirkt, dann würde jegliche Ähnlichkeit mit der referenzierten Bedeutung „trinken“ verloren gehen. Bei der Gebärden C OQ (Hahn) hingegen ist es kein Problem, die 3- Handform durch eine 4-Handform zu ersetzen. Beide Handformen visualisieren die im zugrunde liegenden Bild aufgehobene Bedeutung des Hahnenkamms. Ergänzend kann man hinzufügen, dass in der DGS-Gebärde T RINKEN 2 ( , W ) nur der Daumen abgespreizt ist. Die ausgestreckten Zeige- und Mittelfinger in der LSF-Gebärde könnten als eine mögliche phonologische Variante der Gebärde T RINKEN 2 angesehen werden. Das hervorstechende Formelement der Handform in der Gebärde T RINKEN 2 ist der abgespreizte Daumen, in dem der ikonische Bezug zur Bedeutung „Trinken“ konserviert ist. Die Stellung der anderen Finger ist für diese ikonisch motivierte Form irrelevant. Umgekehrt würde durch eine Veränderung der Hand- 48 3-Handform mit abgespreiztem Daumen, Zeige- und Mittelfinger, Handinnenfläche zeigt zur Seite, die Daumenspitze bewegt sich zum Mund. <?page no="209"?> 209 form, die dazu führt, dass der Daumen nicht mehr abgespreizt ist, der ikonische Bezug verlorengehen. Beide Prinzipien stehen im engen Zusammenhang mit Cuxacs Überzeugung, dass das lautsprachliche Modell einer phonologischen Ebene nicht auf Gebärdensprachen übertragen werden kann, denn „es kann keine Phonologie der Ikonizität geben“ 49 (Cuxac 2004: 102, Übers. R.K.). In seinem Aufsatz „‚Phonétique‘ de la LSF: une formalisation problématique“ geht Cuxac (2004) ausführlich darauf ein, warum es eine phonologische Beschreibung konventioneller Gebärden nicht geben kann. Der bereits erwähnte Widerspruch zwischen Ikonizität und Phonologie ist für Cuxac nicht der einzige Grund, warum das phonologische Modell der Lautsprachen nicht auf Gebärdensprachen übertragbar ist. Entscheidender sind die strukturellen Merkmale, die sich in den Standardgebärden finden. Diese sind aus Morphemen zusammengesetzt, vergleichbar den Atomen, die ein Molekül bilden. Diese Atome sind mit Bedeutung aufgeladen, können aber nicht frei existieren, sondern bilden Moleküle. Diese Moleküle entsprechen den konventionellen Gebärden. Ein ähnliches Lexikonmodell hat schon Boyes Braem (1981) vorgeschlagen und die Notwendigkeit einer Ebene morpho-phonemischer Merkmale betont, um die zugrunde liegenden visuellen Metaphern zu repräsentieren. 50 Kooij (2002), die auch auf Boyes Braem Bezug nimmt, weist in ihrer Studie zu phonologischen Kategorien in der Niederländischen Gebärdensprache (NGT) darauf hin, dass die ikonische Motivation der sublexikalischen Einheiten bislang vernachlässigt wurde. Ikonisch motivierte Formelemente wurden auf einer gleichen Stufe mit rekurrenten nicht motivierten Formelementen verglichen. Dies führte dazu, dass eine große Zahl von Formeigenschaften aufgelistet wurde, die nicht rekurrent sind, da die Form-Bedeutungs-Beziehung auf einer Analogie beruht und infolge dessen einzigartig ist. Die phonologische Beschreibung lässt sich, so ihr Vorschlag, dadurch vereinfachen, dass man zusätzlich zu phonetischen auch semantische Implementierungsregeln annimmt, die ikonisch motivierte Formelemente auf die Oberflächenstruktur abbilden. Dadurch wird das Merkmalsset rekurrenter Formen verkleinert. Während Kooij auf den unerwünschten und gegen das Ökonomieprinzip sprechenden Effekt der künstlichen Ausweitung der Formelemente hinweist, beschreibt Cuxac (2001: 31) die Wirkung, die die Anwendung dieser phonologischen Analyse auf die Formelemente selbst hat. Sie entleere die sublexikalischen Einheiten ihrer ikonisch motivierten Bedeutung, die sie ganz offensichtlich haben. Die seit Stokoe (1960) als Grundlage der modernen Gebärdensprachphonologie verwendete Aufteilung der Gebärde in die Parameter Handform, Handstellung (Orientierung), Ausführungsstelle und Bewegung beruhe auf der richtigen Intuition, dass Gebärden aus ver- 49 „[I]l ne peut y avoir une phonologie de l’iconicité“. 50 Auf dieses Modell nimmt auch Wilcox (2000a) Bezug. <?page no="210"?> 210 schiedenen Parametern zusammengesetzt sind. „Der Fehler besteht darin, diesen einen phonematischen Status zuzuschreiben, wo es sich doch um Morpheme handelt.“ 51 (Cuxac (2000: 150; Übers. R.K.) Auch die von Stokoe (1991) beschriebene „semantic phonology“ reiche nicht aus, um der Dimension der Ikonizität Rechnung zu tragen. Cuxac definiert die Standardgebärden als minimale Realisierungseinheiten außerhalb einer ikonisch ausgerichteten Darstellungsweise. Diese Definition trifft jedoch nur auf Gebärden zu, die vollständig auf ein zugrunde liegendes Bild zurückgeführt werden können wie die bereits erwähnte Gebärde B AUM 2A. Cuxac spricht in diesen Fällen von einer globalen Ikonizität, da jeder Formparameter - Handkonfiguration, Lokation, Bewegung und Mimik - ikonisch motiviert ist. Darüber hinaus gibt es Formbestandteile, die nicht ikonisch motiviert sind, denen aber eine Bedeutung zugewiesen werden kann wie z.B. Handformen, die aus dem Fingeralphabet stammen und in eine Gebärde integriert sind (s. D IDAKTIK 1 ( LQ^_f' V )), indizierende Gebärden, die mit der Mittelhand ausgeführt werden und bei denen die Fingerspitze des Mittelfingers etwas berührt, oder eine modifizierende Mimik, die Zweifel, Verneinung oder Frage ausdrückt. Da Cuxac bei seiner Analyse nur von der bildhaften Ikonizität ausgeht, führt er weitere Formparameter auf wie z.B. die Ausführungsstelle an der Stirn, durch die eine ikonisch motivierte metaphorische Beziehung zu mentalen Prozessen hergestellt wird. Die diagrammatische Ikonizität kommt in Gebärdensprachen in der Nutzung des Gebärdenraums zum Tragen, um räumliche und zeitliche Bezüge herzustellen und um semantische Rollen zu kennzeichnen (s. Cuxac/ Sallandre 2008). Die dritte Abstufung sind Formbestandteile, die weder ikonisch motiviert sind noch als Morpheme angesehen werden können, da ihnen keine Bedeutung zugewiesen werden kann. Ihre Funktion besteht nach Cuxac darin, die Wohlgeformtheit einer Gebärde herzustellen. [Ich stelle] die Hypothese auf, dass diejenigen Parameter, aus denen sich eine Gebärde zusammensetzt und die keinen morphemischen Wert haben (sei es ikonisch oder nicht), die Funktion einer ‚phonetischen‘ Einrahmung übernehmen, die notwendig ist, um eine wohlgeformte Gebärde zu bilden. 52 (Cuxac 2004: 104; Übers. R.K.) Ein quantitativer Nachweis, dass die meisten Formparameter konventioneller Gebärden der LSF ikonisch motiviert sind oder ihnen eine andere Bedeutung zugewiesen werden kann, wird zurzeit vorgenommen. Erste Teilergebnisse (Garcia et al. 2008) sprechen für die von Cuxac nicht weiter 51 „L’analyse de Stokoe tire sa force de l’intuition juste qu’il y a bien compositionnalité paramétrique de la structure interne des signes standards: l’erreur est de leur avoir conféré une valeur phonématique alors qu’il s’agissait de morphèmes.“ 52 „[J]e fais l’hypothèse que les éléments paramétriques qui entrent dans la composition d’un signe et qui ne relèvent pas d’une valeur morphémique (qu’elle soit iconique ou non) fonctionnent au titre d’encadrement «phonétique» nécessaire à la réalisation du signe comme bonne forme.“ <?page no="211"?> 211 belegte Aussage. Dass diese Aussage auch auf die DGS übertragbar ist, zeigt sich daran, dass von über 900 konventionellen Gebärden lediglich bei 11 % der Gebärden kein Bild oder Bildelemente erkennbar waren. Cuxac betont, dass gerade in dem gemeinsamen ikonischen Bezug von Gebärden, die im Rahmen eines Transfers verwendet werden, und Standardgebärden das Ökonomieprinzip von Gebärdensprachen begründet liegt. Man hat gesehen, dass in den LSF-Diskursen ein ständiger Wechsel zwischen dem Vorhandensein einer ikonisch ausgerichteten und einer nicht ikonisch ausgerichteten Darstellungsweise herrscht: Nur dadurch kann das Kommen und Gehen zwischen den verschiedenen Darstellungsweisen aufrechterhalten werden, was gleichzeitig sehr ökonomisch ist. So kann aus B OUTEILLE [Flasche] ein TF werden, A RBRE [Baum] ein lokativ verwendeter TS, A VION [Flugzeug] ein Agens des TS, C OURIR [Laufen] ein TP. Und man könnte dies für Hunderte von Gebärden der LSF sagen. Und dies setzt sich in der sehr ökonomischen Überlagerung der Darstellungsweisen fort […]. Nehmen wir an, ein Halb-Transfer der Person «C HOISIR [wählen, auswählen] (mit einer starken Aufmerksamkeit)» wird mit einer Öffnungsbewegung der Hand anstelle einer Greifbewegung mit Daumen und Zeigefinger, die die Bedeutung charakterisiert. Kognitiv ist das durchaus vorstellbar. Aber wenn der Empfänger dieser Nachricht die Standardgebärde nicht kennt und davon ausgeht, dass es sich um einen echten TP hält, dann würde er die Nachricht genau im entgegengesetzten Sinn interpretieren als sie gemeint ist. Wenn es keine Ähnlichkeitsbeziehung oder Motivation zwischen den Standardverben und den Handlungen, die sie repräsentieren, geben würde, wäre ein Kommen und Gehen zwischen den Darstellungsweisen vollständig untergraben. 53 (Cuxac 2004: 104 f.; Übers. R.K.) Dieses Zitat zeigt, dass der von Cuxac eingenommene Standpunkt, die Funktionsweise der LSF ausgehend von den besonders ikonischen Anteilen gebärdensprachlicher Äußerungen im Diskurs zu erklären, die Interpretation der Phänomene und die Klassifikation der sprachlichen Einheiten beeinflusst. So werden konventionelle Gebärden, die in Kombination mit einer bestimmten Mimik oder Blickrichtung ausgeführt werden, als Token eines Transfers identifiziert, da sie durch den Blick remotiviert werden, d.h. die in ihnen vorhandene „schlafende“ Ikonizität wird reaktiviert. Im Unterschied 53 „On a vu que les discours en langue des signes fluctuent constamment entre présence de la visée iconicisatrice et non-présence de cette visée: grâce à cela, le va-et-vient entre les visées est maintenu constamment possible tout en s’effectuant de manière très économique. Ainsi, [ B OUTEILLE ] peut devenir un TF, [ A RBRE ] un locatif de TS, [ A VION ] un agent de TS, C OURIR un TP. Et l’on peut en dire autant pour des centaines de signes de la LSF. Et puis, que deviendrait le très économique recouvrement des visées […]. Supposons qu’un semi TP «[ C HOISIR ] (avec une extrême attention)» soit effectué avec un mouvement d’ouverture de la paume au lieu du mouvement de saisie pouce-index qui le caractérise. C’est bien sûr tout à fait concevable cognitivement. Mais si le destinataire du message ne connaît pas ce signe standard et imagine qu’il s’agit d’un vrai TP, son interprétation du message sera à l’opposé du sens original. S’il n’y avait pas un quelconque lien de ressemblance ou de motivation entre les verbes standard et les actions qu’ils représentent, la possibilité d’un va-et-vient entre visées serait totalement minée.“ <?page no="212"?> 212 dazu lag der Schwerpunkt der Transkription im Rahmen der Fachgebärdenlexikon-Projekte auf der Identifikation lexikalischer Einheiten. Die Richtung der Interpretation und Klassifikation ist daher genau entgegengesetzt zu der von Cuxac. Was Cuxac auf der Diskursebene als Wechsel von einer Standardgebärde zu einem Transfer beschreibt, wird von uns aus lexikalischer Sicht eher als Modifikation einer Standardgebärde interpretiert, da sich ein direkter Bezug zur konventionellen Gebärde herstellen lässt. Unsere Annahme, dass die Modifikation immer mit der Veränderung des zugrunde liegenden Bildes einhergeht, dass also die ikonischen Bezüge zwischen Form und Bedeutung genutzt werden, ist nichts anderes als die von Cuxac beschriebene Remotivierung, bei der das ikonische Potenzial der Standardgebärde reaktiviert wird. Lediglich die Markierung durch den Blick sowie die stärkere Berücksichtigung der Mimik wird von uns (noch) nicht erfasst. Im Zuge der Anpassung unserer Transkriptionskonventionen (Konrad 2010b) an die Erfordernisse einer durchgehenden Lemmatisierung dialogischer und monologischer Gebärdensprachtexte im Rahmen des DGS-Korpus-Projekts (s. Anhang 1) werden Äußerungsabschnitte, die Cuxac als Transfer der Person bzw. andere Autoren als constructed action kennzeichnen, ebenso differenzierter erfasst werden als bisher durch die Etikettierung als repräsentierendes ganzkörperliches Ausdrucksverhalten. Die umgekehrte Richtung von einer ursprünglich ikonisch ausgerichteten Darstellungsweise hin zu einer stabilisierten Form-Bedeutungs-Einheit, die in nicht ikonischer Darstellungsweise verwendet wird, lässt sich am besten anhand der Entstehung von Neologismen erklären (s. Cuxac 2004: 106 f.). Auch hier lässt sich eine Verbindung zwischen Ökonomie und Ikonizität herstellen. Zu Beginn steht immer der primäre Ikonisierungsprozess der Erfahrung, der zu einer ikonisch ausgerichteten Darstellungsweise führt. Dieser kann auf der Grundlage der bildhaften, metonymischen oder metaphorischen Ikonizität beruhen. Im Laufe eines Stabilisierungsprozesses und unter dem Druck der genannten Prinzipien werden die einzelnen Formparameter, die ursprünglich jeder für sich zur Bedeutung der Gebärde beitrugen, „‚phonetisch‘“ geglättet. Dabei gewichtet Cuxac die Prinzipien. Das Prinzip der Beibehaltung der Ikonizität sowie das der Homonymievermeidung, das er in diesem Zusammenhang neu einführt (vgl. dazu ausführlicher Cuxac 2000: 152-155), sind höher zu bewerten als die Prinzipien der maximalen Markiertheit und der leichten artikulatorischen Ausführung. Während des Prozesses der Stabilisierung gibt es mehrere konkurrierende Formen. Die im Laufe dieses Prozesses favorisierte Form passt sich am stärksten dem prototypischen Bild an und kann dadurch für die generische Bedeutung verwendet werden. Die einzelnen Formparameter bringen damit nicht mehr ihre ikonisch motivierte Bedeutung ein. Die generische Bedeutung ist spezifischer als die Summe der Einzelbedeutungen der Formbestandteile. Diese können jedoch jederzeit reaktiviert werden. Die Glättung der Form, die dazu führt, dass einzelne ikonisch motivierte Parameter ihre ikonischen Eigenschaften verlieren, und der Verlust der spezifischen Einzelbedeutungen, die jeder Parameter zu <?page no="213"?> 213 Beginn der Gebärdenneubildung hatte, führen zu einer „degenerierten oder abgeschwächten Ikonizität“ 54 . An dieser Stelle revidiert Cuxac (2004) seine frühere Annahme eines Prinzips der ikonischen Verträglichkeit. Diese Annahme sei überflüssig, da sie sich aus dem Prinzip der Beibehaltung der Ikonizität und der Glättung der Form infolge der leichten Ausführbarkeit und der maximalen Wahrnehmbarkeit ergebe. Die Gewichtung der verschiedenen Prinzipien lässt bereits erkennen, dass die ikonisch-semantischen Prinzipien für Cuxac Vorrang haben vor den artikulatorischen und perzeptiven Beschränkungen. Die Prozesse der Gebärdenbildung zeigen, dass erstere sich auch zeitlich vor letzteren auf die Stabilisierung der Form auswirken. Wollte man von einer doppelten Artikulation in Gebärdensprachen sprechen, dann in einem umgekehrten Sinn: Es handelt sich, wenn man so will, um eine Phonetik, die vollkommen abhängig ist von einer morphosemantischen Organisation, die wiederum vor ihr da ist in dem Sinn, dass die Phonetik notwendigerweise (im Sinne der Substanz) nachgelagert in den Prozess der Stabilisierung der minimalen Formen eingreift. (Cuxac 2004: 108; Übers. R.K.) 55 Der Versuch, das phonetische Modell der Lautsprachen auf Gebärdensprachen zu übertragen, verfehle den Beschreibungsgegenstand und trage dazu bei, dass die Beziehungen der Gehörlosen zu ihrer eigenen Sprache grundlegend gestört werden. Cuxac betont an verschiedenen Stellen die Bedeutung der metasprachlichen Kompetenz Gehörloser, die sie im Laufe des Spracherwerbs entwickeln. Das bedeutet nicht, dass jeder Gehörlose auf Anhieb immer den ikonischen Bezug zwischen Gebärdenform und zugrunde liegendem Bild angeben könnte, aber es ist naheliegend, dass die Gebärdenden die Standardgebärden mehr oder weniger bewusst auswerten im Hinblick auf ihre ikonischen Merkmale, obwohl ihre Verwendung nicht in der Absicht einer ikonischen Reproduktion der Erfahrung geschieht. Dieses Bewusst-Machen der Ikonizität der Standardgebärden zeigt sich in den Angeboten an und Nachfragen nach einer Legitimierung der ikonischen Verbindung zwischen Gebärdenform und Referent, die sich die Gehörlosen, auch die Kinder, gegenseitig geben bzw. stellen, wenn die Art dieser Verbindung ihrer Meinung nach fragwürdig ist. (Cuxac 2000: 143 f.; Übers. R.K.) 56 54 Cuxac (2004: 107): „iconicité dégénérée ou dégradée“. 55 „Il s’agit, si l’on veut, d’une phonétique entièrement dépendante d’une organisation morphosémantique qui lui préexiste en ce sens qu’elle intervient nécessairement (substantiellement) en aval dans le processus de stabilisation des formes minimales.“ 56 „que les locuteurs appliquent aux signes standard des évaluations plus ou moins conscientes concernant leur caractéristique iconique bien que leur utilisation ne s’inscrit pas dans une intentionalité de reproduire iconiquement une expérience. Cette prise de conscience de l’iconicité des signes standards se traduit par les offres et les demandes de légitimation du lien iconique entre forme du signe et référent que les locuteurs sourds, enfants compris, s’adressent mutuellement lorsque la nature de ce lien est, à leurs yeux, problématique.“ <?page no="214"?> 214 Ebenso wie Cuxac gehen wir davon aus, dass Gehörlose über eine metasprachliche Kompetenz verfügen, die sie bewusst oder unbewusst einsetzen, um mithilfe der Bilderzeugungstechniken Gebärden zu bilden, zu modifizieren oder zu reikonisieren. Gleichzeitig wissen sie um die Grenzen, die eine bestimmte Bilderzeugungstechnik für die ikonisch motivierte Bedeutungsgenerierung mit sich bringt. Diese werden in der Alltagskommunikation in der Regel eingehalten, im Rahmen der Gebärdensprachpoesie zur Erzeugung bestimmter Effekte bewusst überschritten. Es ist interessant, dass Cuxac sich einerseits vehement dagegen wehrt, das phonozentrische Modell aus der Lautsprachlinguistik der Gebärdensprache überzustülpen, andererseits immer wieder betont, dass es sich bei den Strukturen der Ikonizität um sprachliche Strukturen handelt, die auf alle Beschreibungsebenen durchschlagen bzw. deren Relevanz in Frage stellen. 57 Dieser Anspruch erlaube es ihm auch nicht, auf eine Terminologie aus der Kinematographie zurückzugreifen. Dass er diese für durchaus geeignet halte, um die narrativen Strukturen der LSF zu beschreiben, zeigen folgende Ausführungen (Cuxac 2003: 22 f.). Die Analogie zwischen dem Transfer der Form und der Nahaufnahme mit geschwenkter Kamera, dem Transfer der Situation und der Übersichtsaufnahme, dem Transfer der Person sowie dem Rollenwechsel 58 und der amerikanischen Einstellungsgröße (von den Knien aufwärts) sowie einer Abfolge dieser Einstellungen auf verschiedene Personen sei verblüffend. Weiterhin seien die Erzähltechniken, die sich in der Gehörlosenkultur ausgebildet haben, vergleichbar mit einer Vielzahl von Skripts, in denen sich eine sehr feine Granularität zeigt und die viel eher den Kamerabewegungen, dem Wechsel der Perspektive und der Einstellungsgröße entsprechen als Bewegungen, die sich innerhalb und zwischen geschriebenen Sätzen ausdrücken lassen. Von Bauman, einem prominenten Vertreter der Literaturwissenschaften und der Gebärdensprachpoesie, der wie Cuxac das phonozentrische Modell ablehnt und eher Sympathien für die Kognitive Linguistik hegt, wird gerade die Sprache des Films als Alternative zum linguistischen Modell angeführt. Aber ich glaube wirklich, dass ich sagen wollte, lasst uns über dieses Modell hinausgehen; dass die Verbindung zwischen der Sprache des Kinos und der Sprache ASL [Amerikanische Gebärdensprache] selbst vom grammatischen Standpunkt aus keine bloße Metapher ist: Da besteht eine homologische, strukturelle Verwandtschaft im visuellen Prozess, die meiner Ansicht nach einen viel besseren Ansatz dafür bieten könnte, über diese Sprache zu diskutieren. Vielleicht wird das letztendlich aufzeigen, dass das linguistische Modell selbst sehr eingeschränkt ist. (Bauman/ Vollhaber 2009: 44) 57 In diesem Sinn kann es auch missverständlich sein, wie Sallandre (2003) von einer „Grammatik der Ikonizität“ zu sprechen, da mit Grammatik die traditionellen Beschreibungsebenen Phonologie, Morphologie und Syntax assoziiert werden. 58 S. auch Fischer/ Kollien (2006: 105), die bei ihrer Untersuchung von contructed action den Blickwinkel als „gebärdliche ‚Kameraeinstellung‘“ bezeichnen. <?page no="215"?> 215 Dass diese Diskussion innerhalb der Gebärdensprachlinguistik schon längst im Gange ist und eine Trendwende hin zur Kognitiven Linguistik stattgefunden hat, zeigen zahlreiche Veröffentlichungen, die im Rahmen dieser Arbeit bereits genannt wurden. Für Cuxac besteht die Herausforderung in der Suche nach geeigneten Beschreibungswerkzeugen, die dem Gegenstand gerecht werden, und das heißt in erster Linie, die die Auswirkungen der Ikonizität auf die sprachlichen und kognitiven Strukturen theoretisch und praktisch greifbar machen. Dreh- und Angelpunkt sind, und darin sieht Garcia (2000: 418 f.) eine weitere Besonderheit der französischen Gebärdensprachforschung, die semiotischen Überlegungen, die im Zentrum der linguistischen Reflexion stehen und zu einer radikalen Infragestellung linguistischer Konzepte und Terminologien führen. Die Konsequenz dieser Vorgehensweise ist die Einführung einer neuen Terminologie - die Transfers, die Dimension des so, wi e und des so, als ob, die sich in der ikonisch ausgerichteten Darstellungsweise manifestiert - und die typologische Einordnung der LSF als „weniger markierte Sprache“ 1 . Damit ist gemeint, dass die LSF kein so stark phonologisch, morphologisch und syntaktisch gegliedertes Formenspektrum benötigt wie z.B. das Französische, da die einzelnen Bestandteile die Bedeutung bereits in sich tragen. Eine semantische Analyse genügt. Diese muss auf verschiedenen Ebenen vorgenommen werden, deren Elemente jeweils in paradigmatischer Beziehung zueinander stehen und am Körper abgelesen werden können: die Ebene des Blicks, der Mimik und der manuellen Zeichen. Letztere wiederum gliedert sich in die Ebenen der vier Formparameter. Die Komplexität liegt demnach nicht in der Gegliedertheit der Formen wie in Lautsprachen, sondern in den semantischen Strukturen, die durch die Kombination der Elemente auf den verschiedenen Ebenen erreicht wird. Die Voraussetzung für das Funktionieren dieses dichten semantischen Netzwerks ist für Cuxac die Ikonizität. Diese Ausführungen entsprechen dem Befund von Ebbinghaus (1998a: 610), der über die Funktion der Ablesewörter in der DGS zu dem Schluss kommt, dass Ablesewörter „Gebärden im Vergleich zu Wörtern […] flexiblere Modifikationen, eine größere kategoriale Unbestimmtheit und den weitgehenden Verzicht auf Lexikalisierung ihrer spontan gebildeten Formen [erlauben]“. Was bei Cuxac jedoch fehlt, da er die lexikalische Ebene in seiner Forschung bisher vernachlässigte, ist eine Antwort auf die Frage, warum konventionelle Gebärden „weitere und vagere Bedeutungsspektra [abdecken]“ können. Eine weitere Entsprechung zwischen Ebbinghaus & Heßmann und Cuxac liegt in der Arbeitsteilung, die zwischen produktiven Gebärden/ Transfers und konventionellen Gebärden/ Standardgebärden herrscht. Während konventionelle Gebärden die Funktion der Benennung übernehmen, dienen die produktiven Formen der Anschauung. Bei Cuxac (2003) führen die Standardgebärden in das Thema ein, das durch die anschließenden Transfers 1 „Une langue moins marquée comme analyseur langagier: l’exemple de la LSF“ (Cuxac 2003). <?page no="216"?> 216 spezifiziert, d.h. fokussiert wird, indem neue Informationen zu diesem Thema gegeben werden. Beide betonen das charakteristische Wechselspiel zwischen Benennung (durch lexikalische Gebärden) und Anschauung (durch Transfers bzw. produktive Gebärden), das den lebendigen Diskurs in Gebärdensprachen ausmacht. Diese Übereinstimmungen sind nicht so überraschend, zieht man die entscheidende Rolle der Ikonizität bei der produktiven Verwendung konventioneller Gebärden in Betracht sowie die Möglichkeit der szenischen Darstellung (Ebbinghaus 1996). Überraschend dagegen ist Cuxacs (2000: 236 f.) Begründung, warum er sich im Rahmen seiner Untersuchungen nicht mit Ablesewörtern beschäftigte. Er habe dieses Phänomen bewusst aus seiner Analyse ausgeschlossen, denn • es gebe Interessanteres in der Erforschung der Gebärdensprache, • er halte es für verkehrt, sich mit der Annahme einer unterscheidenden Funktion durch Ablesewörter zufriedenzugeben, wie es manche „peripheren“ Untersuchungen tun, ohne zuvor genau zu untersuchen, ob es nicht mimische oder rhythmische Aspekte sind, die den Bedeutungsunterschied ausmachen; • es verursache einen von der Theorie ausgehenden Schaden, wenn man an den Mundbewegungen, die für die Gehörlosen gewissermaßen ein offenes Fenster für die Artikulation von Nonverbalem sind, eine relevante Bedeutungsunterscheidung festmacht, und darin die Artikulation von Zeichen sieht, die ausschließlich einer strukturalen Analyse zugänglich sind; • damit mache man es den Verfechtern der total communication leicht, sich gar nicht erst mit den Ergebnissen einer Analyse zu beschäftigen, die auf der Hypothese einer Koartikulation zwischen körperlichen und manuellen Gesten und Mundbewegungen fußt. Ich habe diese auf eine Seite passenden Argumente Cuxacs gegen die Relevanz von Ablesewörtern deshalb so ausführlich wiedergegeben, da sie verschiedene Sichtweisen und Haltungen zum Phänomen der Ablesewörter zum Ausdruck bringen: • die notgedrungene Entscheidung für ein bestimmtes Untersuchungsziel, • die Vorsicht, bestimmte Phänomene nicht vorschnell mit einer plausiblen Erklärung zu belegen und damit möglicherweise andere Faktoren unberücksichtigt zu lassen; • ein, wenn auch nicht ideologischer, blinder Fleck, da sich Mundbewegungen in Gebärdensprachen hervorragend eignen für mimisches Ausdrucksverhalten, Ablesewörter dagegen sich einem Beschreibungsmodell, das von der Ikonizität ausgeht, entziehen; • die sprachpolitische bzw. strategische Haltung, den Gebärdensprachgegnern nicht noch Gründe zu liefern, die sie in ihrer ablehnenden Haltung bestärken könnten. <?page no="217"?> 217 Cuxac sieht sich als Einzelkämpfer, der den französischen Sonderweg eingeschlagen hat, einen Weg der Nicht-Assimilation, 60 womit sowohl seine Haltung als Forscher gegenüber der Mehrheit der Gebärdensprachlinguisten als auch gegenüber dem Untersuchungsgegenstand gemeint ist, den er nicht in das Prokrustesbett der aus der Untersuchung der Lautsprache gewonnenen Theorien und Terminologien stecken will. Auch darin zeigen sich Parallelen zu Ebbinghaus & Heßmann, die der Erforschung der Rolle der Ablesewörter in der DGS ebenfalls eine Außenseiterposition eingenommen haben, die in der internationalen Gebärdensprachforschung lange Zeit kaum Beachtung fand. Als Abschluss seiner ausführlichen Begründung, warum deutsche Wörter wesentliche Bestandteile der DGS sind, betont Ebbinghaus (1998a: 611) die Eigenständigkeit der gebärdensprachlichen Kommunikation und die Unvereinbarkeit eines aus der Lautsprache gewonnenen linguistischen Beschreibungsmodells mit einer visuell-gestischen Sprache. Die der Gebärdensprache verbliebenen Funktionen lautsprachlicher Wörter müssen also nicht zwangsläufig als Indiz der Vergewaltigung einer ursprünglich reinen visuellen Sprache gewertet werden. Es mag näher liegen, die Eigenständigkeit der gebärdensprachlichen Kommunikation, wie sie sich in der systemadäquaten Aneignung der Wörter, in der simultanen Zeichenproduktion und dem Gebrauch manueller, expressiver und räumlicher Mittel zeigt, als Emanzipation der Gehörlosenkommunikation von jenen Zwängen der gesprochenen Sprache zu begreifen, die sich der visuellen Modalität nicht ohne weiteres fügen. Gebärdensprachen sind frei vom Zwang, Bedeutung durch ein hochkomplexes System phonologischer, morphologischer und syntaktischer Strukturen zu kodieren, was Cuxac mit seinem Konzept der „weniger markierten Sprache“ ausdrückt, doch es scheint so, als ob die Linguistik mit ihrem Beschreibungskorsett die Gebärdensprache nicht in diese Freiheit entlassen will, da sie der Ikonizität misstraut (Cuxac 2004: 111). Dies wiederum ist eine verkürzte Darstellung, die zumindest dahingehend nicht mehr aktuell ist, als das Interesse an der Ikonizität und der Kognitiven Linguistik stark zugenommen hat. Das Misstrauen richtet sich nicht gegen die Ikonizität, sondern gegen die eigenen Möglichkeiten, ohne das vertraute Werkzeug, den Rückhalt in der Forschergemeinschaft und den theoretischen Rahmen die Grenzen der Linguistik zu verlassen oder zu erweitern. Aus der Sicht Cuxacs klingt folgende Feststellung von Klima/ Bellugi (1980b: 30) geradezu naiv: „One of the most striking effects of regular morphological operations in signs is the distortion of form so that iconic aspects of the signs are overridden and submerged.“ Zu dem in Kapitel 4.3 dargelegten wissenschaftssoziologischen Problem, dass nicht sein kann, was nicht sein darf, kommt erschwerend hinzu, dass „reguläre morphologische Strukturen“ in die ASL hineingelegt 60 „Et des démarches non assimilatrices comme la mienne“ (Cuxac 2003: 22); s. auch Cuxac/ Pizzuto (2010). <?page no="218"?> 218 werden, die es möglicherweise gar nicht gibt, und somit der Gegenstand doppelt verfehlt wird. Cuxac (2004: 111) zeichnet ein sehr drastisches Bild einer durch die bisherige Forschung entstellten Sprache mit ca. 5000 Lexemen, einer Morphologie, in der es weder Komposition noch Derivation gibt, und der Notwendigkeit, immer stärker auf das Fingeralphabet zurückzugreifen, sobald sich die Inhalte auf einer gedanklich höheren Ebene bewegen. Und er reagiert auf den Vorwurf, eine exotische Vorstellung von Sprache zu haben, mit dem Gegenvorwurf der Kolonisierung der Gebärdensprachen durch hörende Linguisten. 4.3.3.3 Lexikographische Konsequenzen: ein morphemisches Wörterbuch der LSF Ausgehend vom Modell der molekularen Struktur von Gebärden, die sich aus Morphemen, d.h. bedeutungstragenden Atomen, zusammensetzen, stellt Cuxac (2004: 110 f.) Überlegungen für ein morphemisches Wörterbuch der LSF an. Die Einträge bestünden aus den Elementen der o.g. Paradigmen, d.h. auf der Ebene der Gebärden aus den vier Formparametern und ihren verschiedenen Ausprägungen. Als Vorlage verweist Cuxac (2000) auf die Auflistung der 39 Handkonfigurationen der Französischen Gebärdensprache (LSF). Die Handformen sind nummeriert, benannt und als Zeichnung abgebildet. Danach folgt eine Beschreibung der Funktion dieser Handform in den verschiedenen Transfers, hier wiedergegeben am Beispiel der Flachhand (Cuxac 2000: 102 f.). • Beim Transfer der Größe - Cuxac teilt hier den Transfer der Form und/ oder der Größe - kann die Flachhand o als Bezugspunkt dienen (Handinnenfläche nach unten oder zur Seite), an dem die Länge oder Höhe eines Objekts gezeigt wird [substitutive Technik oder maßanzeigende Technik (Bezugspunkt)] 61 , o zusammen mit der dominanten Hand (Handinnenflächen gegenüberliegend) die Größe oder Länge eines Gegenstands anzeigen [maßanzeigende Technik], o eine zeitlichen Bezugspunkt darstellen (Handinnenfläche zur Seite oder gegenüberliegend), von dem aus die dominante Hand einen Zeitpunkt in der Vergangenheit oder in der Zukunft anzeigen kann oder eine Zeitspanne [maßanzeigende Technik]. • Beim Transfer der Form wird diese Handform dazu verwendet, eine Fläche oder eine flache Oberfläche zu beschreiben. Die Bewegungskomponente wird nicht erwähnt, es folgen lediglich Beispiele [skizzierende Technik]. 61 In eckigen Klammern steht die Bilderzeugungstechnik, die wir für die jeweilige Verwendungsart vergeben. <?page no="219"?> 219 • Beim Transfer der Situation und beim doppelten Transfer kann die Hand als Lokativ eingesetzt werden und repräsentiert, wie beim Transfer der Form, flache Gegenstände oder Oberflächen, für die wiederum Beispiele aufgezählt werden [substitutive Technik]. Die Hand repräsentiert ein Objekt in Bewegung, dessen Form oder Formbestandteile als flach beschrieben werden können [substitutive Technik]. • Beim Transfer der Person repräsentiert die Hand die Füße oder sie wird verwendet, um zu zeigen, wie einige Tiere sich fortbewegen [substitutive Technik]. Anschließend werden die Varianten dieser Handform, mit abgespreiztem oder eingelegtem Daumen oder mit dem Abknicken der Finger im Grundgelenk in dieser Weise beschrieben. Dieses Vorgehen lasse sich ebenso auf die anderen Parameter übertragen. Hinzu kommen weitere Angaben zur Verwendung des Fingeralphabets, z.B. bei Initialisierungen, zur metaphorischen Ikonizität etc. Ebenso wird mit der Mimik verfahren. Cuxac (2000: 169) skizziert am Ende der Ausführungen zur Kompositionalität der Standardgebärden ein ähnliches Vorgehen, hier jedoch mit einer zusätzlichen Angabe der Häufigkeit der Verwendungen des jeweiligen Morphems sowie einer Angabe der Kombinierbarkeit bzw. Nichtkombinierbarkeit mit anderen Morphemen. Auffallend an dieser sehr vorläufigen Skizzierung eines lexikographischen Vorgehens ist, dass es die lexikalische Ebene der Standardgebärden als fertige Form-Bedeutungs-Einheiten nicht gibt. Sie wird ersetzt durch die Morpheme als sublexikalische Einheiten. Die Beschreibung der Motiviertheit entspricht der Angabe ihrer allgemeinen Bedeutung wie z.B. „Fläche“ oder „flacher Gegenstand“ - dies entspricht den Bedeutungsaspekten, die Johnston/ Schembri (1999) der Flachhand auf der ersten Stufe der Konventionalisierung zuschreiben -, die Beispiele ihrer Verwendung, d.h. ihrer spezifischen Bedeutung in einem bestimmten Kontext. Zusätzlich können allgemeine Aussagen über die funktionale Verwendung des Morphems folgen. Dieser Vorschlag wurde von Johnston (1989b, 1998a) in Bezug auf die Handform bereits umgesetzt. Dort findet man ähnlich wie bei Cuxac eine Beschreibung der Handform, ihrer Varianten und ihrer Verwendung, allerdings mit einer anderen Terminologie („productive handshape“, „descriptive classifier“, „proform classifier“). Sandler/ Lillo-Martin (2006: 102-104) plädieren im Unterschied zu Cuxac dafür, die Komponenten von Klassifikatorkonstruktionen zusätzlich zu den komplexen lexikalisierten Formen, in denen diese verwendet werden, im Wörterbuch aufzulisten. 4.3.4 Zusammenfassung Obwohl die Ikonizität in Gebärdensprachen ein allgegenwärtiges Phänomen ist, wurde sie in der frühen modernen Gebärdensprachforschung als Störfaktor empfunden und kleingeredet. Aus wissenschaftssoziologischer Sicht ging <?page no="220"?> 220 es den Sprachwissenschaftlern darum, die Legitimität des eigenen Tuns nachzuweisen, indem sie die Amerikanische Gebärdensprache (ASL) als eigenständigen Untersuchungsgegenstand innerhalb der Linguistik etablierten. Dies gelang jedoch nur im Rahmen eines Forschungsparadigmas, das sich auf die Gemeinsamkeiten von Laut- und Gebärdensprachen und die Anwendbarkeit von linguistischen Konzepten auf die Gebärdensprache konzentrierte. Dies führte dazu, dass der Gegenstand ‚Gebärdensprache‘ den aus der Untersuchung von Lautsprachen gewonnenen Beschreibungskategorien angepasst wurde. Die Frage, ob dies die passenden Werkzeuge für die Beschreibung einer visuell-gestischen Sprache sind, stand nicht auf der Agenda. Erst in den 1990er-Jahren wurde die Ikonizität zum Anlass genommen, über bislang als universal geltende Prinzipien wie die Arbitrarität sprachlicher Zeichen oder die Trennung zwischen Verbalem und Nonverbalem neu nachzudenken. In der Gebärdensprachlexikologie und -graphie führt die Ikonizität jedoch immer noch ein Schattendasein. Ikonizität wird häufig als Gegenbegriff zur Arbitrarität und Konventionalität sprachlicher Zeichen gesehen. Arbitrarität, definiert als Nicht- Motiviertheit, und Ikonizität schließen sich aus, nicht jedoch Ikonizität und Konventionalität. Ikonisch motivierte Zeichen können genauso wie arbiträre Zeichen konventionalisiert sein, im Unterschied zu arbiträren Zeichen müssen sie dies jedoch nicht notwendigerweise. Die Auffassung, Konventionalität ginge immer einher mit Arbitrarität, ist einer phonozentrischen Sichtweise geschuldet, die die Lautsprache zur Norm erklärt. Wirkungs- und sprecherorientierte Sichtweisen in der Lexikologie beziehen die Ikonizität als Motivationsbasis sprachlicher Zeichen ein. Motivation wird als „Summe aller Phänomene verstanden, durch die die Existenz eines Wortes linguistisch begründet werden kann” (Ungerer 2002: 378). Während Form und Bedeutung von Wörtern hauptsächlich durch sprachliche Elemente motiviert sind, steht bei Gebärden die bildhafte Ikonizität, d.h. die direkte Beziehung zwischen Bestandteilen der Gebärdenform und außersprachlichen Elementen, im Vordergrund. Diese sublexikalischen Elemente bilden nach Johnston/ Schembri (1999) die erste Stufe der Konventionalisierung. Jeder dieser Formbestandteile kann mit einer relativ allgemeinen Bedeutung assoziiert werden, ihre Summe macht die allgemeine „wörtliche“ Bedeutung einer Gebärde aus. Durch die Aktivierung des ikonischen Potenzials der Formbestandteile einer Gebärde, sei es zur Kontextualisierung von Ablesewörtern oder zur Assoziation mit einer spezifischen Bedeutung im Kontext, entstehen ständig wechselnde oder neue Form-Bedeutungs-Beziehungen. Bei der Bestimmung der Bilderzeugungstechnik ikonischer Gebärden ist die Unterscheidung in Form-, Raum- und Verhaltensikonizität hilfreich, denn die Modifizierbarkeit von Gebärden in Bezug auf Form, Raum oder Verhalten ist bei jeder Technik verschieden. Bei der indirekten Beziehung lassen sich metonymische und metaphorische Beziehungen zwischen den Formbestandteilen einer Gebärde und Eigenschaften des außersprachlichen Referenten unterscheiden. Bekannte <?page no="221"?> 221 metonymische Verwendungen sind Gruppen von Gebärden, die durch die Ausführungsstelle ikonisch motiviert sind, z.B. Gebärden, die am Kopf ausgeführt werden und ein Bedeutungsspektrum abdecken, das mit kognitiven Prozessen zu tun hat. Entgegen der weit verbreiteten Auffassung, dass Gebärden sich im Laufe der Lexikalisierung weg von ikonischen und hin zu arbiträren Zeichen entwickeln, geht Cuxac vom Prinzip der Beibehaltung der Ikonizität aus. Für ihn ist die Ikonizität das strukturierende Prinzip, die jegliche sprachwissenschaftliche Beschreibung von Gebärdensprachen zu berücksichtigen hat, will sie den Gegenstand nicht verfehlen. Dass konventionelle Gebärden ihr ikonisches Potenzial nicht verlieren, ist Voraussetzung für den steten Wechsel zwischen einer ikonisch und einer nicht ikonisch ausgerichteten Darstellungsweise, einem absichtsvollen Zeigen-Wollen und einem konzeptionellen Sagen (ohne zu Zeigen). Erstere führt zu Strukturen der großen Ikonizität (SGI) - damit sind im Wesentlichen die produktiven Gebärden gemeint, aber auch konventionelle Gebärden, die durch den Blick reikonisiert und durch mimische Elemente ergänzt oder präzisiert werden können. Die nicht ikonisch ausgerichtete Darstellungsweise führt zu konventionellen Gebärden, die wie Wörter verwendet werden, d.h. dass ihr ikonisches Potenzial in der konkreten Äußerung genutzt wird. Manuelle Form, Blick und Mimik sind die drei Parameter, nach denen Cuxac die SGI einteilt in drei verschiedene Transfers: : Transfer der Größe und/ oder der Form (TTF), Transfer der Situation (TS) und Transfer der Person (TP). Die Funktion dieser Diskurseinheiten ist es, entweder etwas so zu zeigen, wie es aussieht (TTF) oder sich bewegt (TS), oder sich so verhalten, als ob eine Person etwas tut oder erlebt (TP). Bei einem doppelten Transfer (DT) überlagern sich mehrere Darstellungsebenen. Durch diese Terminologie distanziert sich Cuxac von den gängigen Kategorien wie Klassifikatorgebärden (abgedeckt durch TTF und TS) und constructed action (abgedeckt durch TP). Seine Beschreibung der Handkonfigurationen der Französischen Gebärdensprache (LSF) und ihrer Verwendungsmöglichkeiten innerhalb der verschiedenen Transfers orientieren sich, ähnlich wie bei der Analyse der Bilderzeugungstechnik, an der Funktion der Hand bei der Visualisierung, sind jedoch gröber, da sie nur die Parameter Handform und Orientierung berücksichtigen. Die SGI kommen im gebärdensprachlichen Diskurs im steten Wechsel mit konventionellen Gebärden vor. Für die DGS haben Ebbinghaus/ Heßmann (1996, 2000) eine ähnliche Beobachtung hinsichtlich des Gebrauchs von Gebärden mit und ohne Ablesewörtern gemacht. Erstere übernehmen die Funktion der Benennung; Letztere erzeugen Bedeutung eher durch Anschauung, und nicht selten handelt es sich dabei um produktive Gebärden. Cuxac (2003) charakterisiert die LSF typologisch als „weniger markierte Sprache“, da sie im Unterschied zu Lautsprachen kein oder nur ein schwach ausgeprägtes Formenspektrum auf phonologischer, morphologischer und <?page no="222"?> 222 syntaktischer Ebene besitzt. Im Vordergrund stehen semantische Strukturen, die sich auf der Grundlage einer allgegenwärtigen Ikonizität ausbilden. Cuxac (2004) bestreitet, dass es eine phonologische Ebene bei Gebärdensprachen gibt. Konventionelle Gebärden sind aus Morphemen zusammengesetzt, vergleichbar den Atomen, die ein Molekül bilden. Diese Atome sind mit Bedeutung aufgeladen, können aber nicht frei existieren, sondern bilden Moleküle. Diese Moleküle entsprechen den konventionellen Gebärden. Er teilt die konventionellen Gebärden ein in vollständig ikonische Gebärden, die eine globale Ikonizität besitzen, Gebärden mit nicht ikonisch motivierten Formbestandteilen, denen aber eine Bedeutung zugeschrieben werden kann wie z.B. initialisierte Gebärden, und Gebärden mit Formbestandteilen, die weder ikonisch sind noch mit einer Bedeutung assoziiert werden können. Die Funktion dieser Formbestandteile liegt darin, die Wohlgeformtheit der Gebärde herzustellen bzw. die Form zu stabilisieren. Obwohl Cuxac die strukturierende Funktion der Ikonizität auf allen sprachlichen Ebenen betont, bleibt die lexikalische Ebene in seiner Forschung ein noch zu bestellendes Feld. Er nimmt das Vorhandensein von lexikalischen Gebärden als gegeben hin und beschreibt diese entweder als Einheiten des Diskurses oder als morphologisch komplexe Strukturen. Fragen der Strukturiertheit des Lexikons von Gebärdensprachen, der Lemmatisierung oder des Bedeutungsumfangs von Gebärden werden nicht behandelt, ebenso wenig Ablesewörter. Im Folgenden werde ich auf die Frage eingehen, was eine angemessene Beschreibung des Wortschatzes von Gebärdensprachen berücksichtigen sollte. Grundlage für die Lexikologie wie für die Lexikographie ist der Aufbau lemmatisierter Korpora, die die Erstellung korpusgestützter oder korpusgebundener Gebärdensprachwörterbücher erst ermöglicht. Die entscheidende Frage ist, inwieweit die strukturierende Funktion der Ikonizität in der lexikologischen Beschreibung explizit gemacht wird und in welcher Form die Forschungsergebnisse in Wörterbüchern präsentiert werden sollen. Im Anhang 1 wird das DGS-Korpus- Projekt skizziert, ein am Institut für Deutsche Gebärdensprache (IDGS) der Universität Hamburg im Auftrag der Akademie der Wissenschaften in Hamburg durchgeführtes Projekt, das im Wesentlichen dem in dieser Arbeit vorgestellten Ansatz folgt. <?page no="223"?> 223 5 Zur Frage der Angemessenheit lexikologischer und lexikographischer Beschreibungen von Gebärdensprachen 5.1 Lexikologische Aspekte Ziel der Lexikologie ist es, Theorien und Modelle zu entwickeln, die die Strukturiertheit der lexikalischen Einheiten einer Sprache beschreiben. Die von Lutzeier (2002) erhobene Forderung, dass dies auf einer breiten Datengrundlage geschehen muss, um die Modelle an relevanten Sprachausschnitten möglichst umfassend zu erproben, bedeutet, dass Korpora zur Verfügung stehen oder neu erstellt werden müssen. Tokenisierung und Lemmatisierung der verschriftlichten Rohdaten können jedoch nur dann konsistent vorgenommen werden, wenn die lexikalischen Einheiten bereits in einem Wörterbuch beschrieben sind oder in einer lexikalischen Datenbank zur Verfügung stehen. Da die wenigsten allgemeinsprachlichen Gebärdensprachwörterbücher auf einer breiten empirischen Datenlage beruhen, selbst das Korpus zum Wörterbuch der Neuseeländischen Gebärdensprache (NZSL; Kennedy et al. 1998) ist nicht lemmatisiert, ist die Verwendung von Wörterbüchern nur dann sinnvoll, wenn deren Konsistenz anhand vorher festgelegter Kriterien zur Identifikation lexikalischer Einheiten geprüft wurde. Da sich noch keine eigenständige Gebärdensprachlexikologie entwickelt hat, werden Fragen zum lexikalischen Status von Gebärden bislang von der Lexikographie beantwortet. Das bisher ausgereifteste Modell ist das von Johnston entwickelte Verfahren, analog zur traditionellen Vorgehensweise in Lautsprachen nur Lexeme in ein Wörterbuch aufzunehmen. Die Kriterien zur Unterscheidung zwischen Lexemen und produktiven Gebärden werden in Johnston/ Schembri (1999) ausführlich diskutiert. Das wichtigste Kennzeichen eines Lexems ist seine Konventionalität, die es ermöglicht, ihm eine Zitierform und eine spezifische Bedeutung zuzuordnen, die Informanten auch kontextunabhängig bestimmen können. Semantische Spezifizität meint dabei, dass die Bedeutung der Gebärde nicht aus dem ikonischen Gehalt ihrer Formparameter abgeleitet werden kann. Die von Cuxac verwendete Bezeichnung ist die der generischen Bedeutung, was nichts anderes heißt, als dass die Gebärde außerhalb des Kontexts eine begriffliche Bedeutung hat. Diese Gebärden können anhand morphologischer Regeln modifiziert werden. Johnston/ Schembri (1999) teilen diese Formveränderungen, die eine Bedeutungsveränderung bewirken, in interne und externe Modifikation ein. Weiterhin können Gebärden anhand morphosyntaktischer Regeln im Gebärdenraum ausgerichtet oder lokalisiert werden. Auf die Frage, wie das Lexikon von Gebärdensprachen angemessen beschrieben werden kann, gibt es zwei Antworten, die weit auseinanderlie- <?page no="224"?> 224 gen. Der Ansatz von Johnston & Schembri bildet den einen Pol einer lexikologischen Beschreibung der Struktur des Lexikons von Gebärdensprachen. Die Autoren gehen davon aus, dass Gebärden wie Wörter als diskrete Einheiten beschrieben werden können. Mithilfe morphologischer Regeln können Modifikation erfasst und als Zitierformen und abgeleitete Formen beschrieben werden. Konventionalisierte Formveränderungen, die keine Bedeutungsveränderung bewirken, werden als Varianten erfasst und im Wörterbuch durch einen Verweis auf eine als Ausgangsform bestimmte Gebärde bezogen. Durch den Vergleich der Gebärden anhand ihrer Form und ihrer Bedeutung lassen sich die lexikalischen Einheiten bestimmen. Ihre Ikonizität kommt dabei nicht zum Tragen. Bei diesem Ansatz ist der Blick vom Lexikon auf die Daten gerichtet. Die Lemmatisierung ist, wie in Lautsprachen, deren Vokabular bereits lexikographisch erfasst ist, ein striktes Top-down-Verfahren. Jede Gebärde, die den beiden Konventionalisierungskriterien genügt, wird dem eigentlichen Lexikon zugerechnet und als Ausprägung einer diskreten lexikalischen Einheit beschrieben. Unsystematische ikonische Modifikationen sowie szenische Darstellungen fallen dagegen in den Bereich des produktiven Lexikons. Den anderen Pol bildet die Position von Cuxac, der von Ausprägungen gradueller und analoger Strukturen im gebärdensprachlichen Diskurs ausgeht, den Strukturen der großen Ikonizität, die er in drei verschiedene Transfers einteilt. Die lexikalische Ebene spielt in seinem Ansatz eine untergeordnete Rolle. Im Rahmen seiner Dissertation (Cuxac 1996: 42) äußert er grundsätzliche Zweifel an einer adäquaten Verschriftlichung von Gebärdensprachen: Wer digitale Transkription sagt, sagt auch gleichzeitig begrenztes Inventar diskreter Einheiten, und genau da liegt der Hase im Pfeffer: Weite Teile der LSF bestehen aus der Verwendung kontinuierlicher und analoger Formen, die notwendigerweise entweder in den nebulösen Bereich des Nichtsprachlichen abgedrängt werden (Pantomime) oder gewaltsam unter Anwendung des Systems zu diskreten Einheiten gemacht werden und dadurch ihre ganze Bedeutung verlieren. Ich glaube, dass die Vierdimensionalität der Gebärdensprachen vielmehr einen Rückgriff auf morphodynamische Theorien erfordert als eine Modellierung, die vom zeitlichen und linearen Charakter der Lautsprachen entwickelt wurde. (Übers. R.K.) 1 Cuxac stellt den Wert einer Lemmatisierung gebärdensprachlicher Texte in Frage, die sich auf die Identifizierung lexikalischer Einheiten konzentriert 1 „Qui dit système de transcription digital dit en même temps inventaire limité d’unités discrètes, et c’est là que le bât blesse: des pans entiers de la L.S.F. relèvent de l’utilisation de formes continues et analogiques qui, de ce fait, seront soit rejetées dans une nébuleuse non linguistique (pantomime), soit discrétisées de force au moyen du système mis en place, perdant ainsi toute leur valeur. Je pense que la quadri-dimensionnalité des langues des signes nécessite un recours à des théories morphodynamiques plutôt qu’à une modélisation mise au point à partir du caractère temporel et linéaire des langues orales.“ <?page no="225"?> 225 und Gefahr läuft, kontinuierliche und graduelle Formen entweder nicht zu erfassen oder diskreten Einheiten zuzuschlagen und damit ihr Bedeutungspotenzial zu verfehlen. Es scheint jedoch vielmehr eine Frage der Perspektive bzw. des Forschungsinteresses zu sein, wenn entweder der lexikalische, diskrete oder der diskursive, graduelle und analoge Aspekt von Gebärdensprachen stärker betont wird, ganz nach dem Diktum von Saussure (1972: 23): „[C]’est le point de vue qui crée l’objet.“ Während Johnston & Schembri aus lexikographischer Sicht die diskreten Einheiten im Blick haben und die ikonischen und produktiven Anteile gebärdensprachlicher Äußerungen als gegeben, aber lexikologisch nicht relevant hinnehmen, fokussiert Cuxac seine Forschung auf gerade diese diskursiven Strukturen und nimmt die Standardgebärden als gegeben, aber für die Beschreibung der ikonischen Strukturen als nicht relevant hin bzw. behandelt sie als zweitrangig, u.a. mit dem Argument, dass sie durch Transfers gänzlich ersetzt werden können, was umgekehrt jedoch nicht möglich sei. Eine angemessene lexikologische Beschreibung der Strukturiertheit des Gebärdenbestands einer Gebärdensprache muss, will sie empirisch fundiert sein, von natürlichsprachlichen Korpora ausgehen. Die heutzutage zur Verfügung stehenden Annotationswerkzeuge bieten die Möglichkeiten, gebärdensprachliche Äußerungen auf verschiedenen Ebenen zu beschreiben und gewährleisten durch die Alignierung immer den Bezug zwischen der Annotation und den Rohdaten. Eine konsistente Lemmatisierung, die Vorkommen derselben Art lexikalischen Einheiten oder weiter gefassten lexikologischen Kategorien wie z.B. produktiven oder indexikalischen Gebärden zuordnet, steht nicht im Widerspruch zu einer Identifizierung diskursiver Einheiten, die auch lexikalische Gebärden enthalten können. Die Tatsache, dass der Blick eine Gebärde remotiviert und dadurch zum Teil eines Transfers macht, ist kein Argument gegen die Zuordnung eines solchen Vorkommens zu einer lexikalischen Einheit, solange diese Zuordnung durch formseitige und semantische Kriterien begründet werden kann. Die Zweitrangigkeit konventioneller Gebärden ließe sich empirisch erst dann begründen, wenn umfangreiche lemmatisierte Korpora vorliegen. Solche Korpora sind besonders geeignet, um Gebärden im Kontext zu untersuchen, Kollokationen oder wiederkehrende Muster festzustellen und daraus Rückschlüsse auf die Verwendung, die Bedeutung und die Funktion von Gebärden im Diskurs zu ziehen. Dadurch können zum einen Hypothesen, die in der Gebärdensprachforschung der letzten Jahrzehnte aufgestellt wurden, empirisch überprüft werden, zum anderen eignen sich diese Korpora dafür, Strukturen und funktionale Zusammenhänge zu entdecken, die in der Theoriebildung bislang unberücksichtigt blieben. Voraussetzung ist, dass natürlichsprachliche Diskurse vollständig transkribiert und lemmatisiert werden. Die Lemmatisierung macht aus einer Datensammlung erst ein Korpus im modernen Sinn und stellt die Grundlage für weitere Analysen bereit. Die Annotation auf der Diskursebene ist ein zusätzlicher Bearbeitungsschritt, der nicht im Widerspruch zur Token-Type-Zuordnung steht. <?page no="226"?> 226 Durch ein stufenweises Vorgehen, wie es Johnston/ de Beuzeville (2008) beschreiben, können Transkripte, abhängig vom Forschungsinteresse, immer stärker annotiert werden. Dadurch werden zum einen bestehende Annotationen überprüft, zum anderen neue Informationen festgehalten, die immer komplexere Analysen zulassen (s. Johnston 2010a). Die Ausrichtung des Forschungsinteresses auf ikonische Strukturen des Diskurses wie bei Cuxac ist dann unproblematisch, wenn zunächst möglichst theorieneutral und anhand klarer Kriterien die vorhandenen Gebärden dokumentiert werden, um aufbauend auf einem lemmatisierten Korpus weitere Annotationen vornehmen zu können. Es ist sinnvoll, im Rahmen der Lemmatisierung zwischen produktiven und konventionellen Gebärden zu unterscheiden. Diese Zuordnung, die native signer als Transkribenten im Rahmen der Token-Type-Zuordnung auf der Grundlage eines parallel zur Lemmatisierung aufgebauten Gebärdenlexikons und ihres impliziten sprachlichen Wissens treffen, kann nach Abschluss der Lemmatisierung im Zuge der Lemmarevision (Konrad 2010a: 63-69) überprüft werden. Dabei werden alle Token eines Types miteinander verglichen. Das Ergebnis der Lemmarevision sollte sein, dass alle Token eines Types die Angaben zu Form, Bedeutung und ikonischem Gehalt, die zu diesem Type gemacht werden, bestätigen. Token, die diesen Angaben widersprechen, müssen neu zugeordnet werden. Es kann auch sein, dass dazu neue Types, z.B. Ausführungsvarianten, in der lexikalischen Datenbank angelegt werden müssen. Für die Lemmarevision ist es notwendig, im Rahmen der Basistranskription nicht nur die Token einem Type oder einer lexikalischen Kategorie zuzuordnen, sondern weitere Informationen zu Form und kontextueller Bedeutung zu annotieren. Die vollständige Transkription der Form eines Tokens, z.B. in HamNoSys, hat den Vorteil, dass eine Korrektur der Zitierform des Types diese Transkriptionen nicht betrifft. Sie ist jedoch sehr zeitintensiv. Alternativ dazu ist es für die Lemmarevision ausreichend, Abweichungen zur Zitierform im Transkript zu notieren. Dies hat den Vorteil, dass Unterschiede hervorgehoben und die Token anhand dieser Abweichungen leichter sortiert und gruppiert werden können. Der Nachteil ist, dass eine Korrektur der Zitierform in allen Token nachvollzogen werden muss. Ein wichtiger Anhaltspunkt für die kontextuelle Bedeutung konventioneller Gebärden ist das Ablesewort, das ebenfalls im Zuge der Basistranskription annotiert werden sollte. Einen ersten inhaltlichen Zugang bietet eine grobe Übersetzung der Äußerungen, die zur Sprachdokumentation gehört. Diese Übersetzungen können bereits vor der Basistranskription durchsucht und ausgewertet werden. Wie differenziert morphosyntaktische Informationen und Arten der Modifikation im Rahmen einer anschließenden Detailtranskription annotiert werden, ist abhängig vom Untersuchungsziel. Der Vergleich verschiedener Transkriptionskonventionen (Konrad 2010b) zeigt, wie verschieden stark ausdifferenziert das Annotationsschema sein kann. <?page no="227"?> 227 Gleichzeitig werden die Gemeinsamkeiten deutlich, die trotz unterschiedlicher Forschungsausrichtung bestehen. Um Anhaltspunkte für die Interpretation und Kategorisierung produktiver Gebärden zu haben, ist es sinnvoll, sowohl Informationen zur Form als auch zur kontextuellen Bedeutung zu annotieren. Aufgrund dieser Token-Informationen kann eine weitere Unterteilung in verschiedene, möglichst komplementäre Klassen vorgenommen werden. Wie in Kapitel 4.1 deutlich wurde, reicht es unserer Ansicht nach nicht aus, von einer begrifflichen Bedeutung konventioneller Gebärden auszugehen. Werden Gebärden mit Ablesewörtern kombiniert, dann tritt in der Regel die konventionelle Bedeutung der Gebärde (zweite Stufe der Konventionalisierung) in den Hintergrund zugunsten der Kontextualisierungsfunktion, die die Gebärde übernimmt. Die Kontextualisierung wird häufig dadurch erreicht, dass das ikonische Potenzial (erste Stufe der Konventionalisierung) dazu genutzt wird, ein Bedeutungsfeld abzustecken, innerhalb dessen die Bedeutung des Ableseworts zu suchen ist. Durch die Kombination einer ikonischen, konventionellen Gebärde mit verschiedenen Ablesewörtern kann eine Gebärde wesentlich größere Bedeutungsspektra abdecken als Wörter. Ähnlich wie bei der Unterscheidung zwischen konventionellen und produktiven Gebärden ist es sinnvoll, zwischen konventionellen und produktiven Gebärde-Ablesewort-Kombinationen zu unterscheiden. Die Frage der Konventionalität verdoppelt sich gewissermaßen. Zum einen gilt es zu entscheiden, ob eine Gebärde mindestens eine konventionalisierte Bedeutung hat, zum anderen sollten die verschiedenen Gebärde-Ablesewort-Kombinationen unterschieden werden in konventionelle (usuelle) und produktive (okkasionelle) Verwendungen. Abhängig davon, ob man die Ikonizität und damit die beiden Verwendungsarten einer Gebärde bei der Lemmaselektion berücksichtigt oder nicht, wird der lexikalische Status einer Gebärde wie z.B. F LACH 1A ( ! " #$% & ), die mit verschiedenen Ablesewörtern kombiniert werden kann, unterschiedlich bewertet. Johnston (1998a), der nicht die Ikonizität, sondern die Idiomatizität als Kriterium in den Vordergrund stellt, klassifiziert die zu F LACH 1A formidentische Auslan-Gebärde (Johnston 1998a: Nr. 3301) als „general sign“ und damit den „‘borderline cases’“ (Johnston 1998a: 14) zugehörig, da diese Gebärde von der Mehrheit der Gehörlosen nicht als Lexem eingestuft wird. Dies liegt an dem ikonischen Charakter der Gebärde, die mit einer Klassifikator-Handform gebildet wird und von jedem Gehörlosen sofort interpretiert werden kann im Sinne ihrer allgemeinen Bedeutung, die die Form der Gebärde motiviert. Von einigen Gehörlosen wird diese Gebärde jedoch als Lexem eingestuft in den Bedeutungen „floor“, „ground“, „plain“ und „flat“. Johnstons Entscheidung, semantisch unterspezifizierte Gebärden wie F LACH 1A als „general signs“ zu klassifizieren, die eine Zwischenstellung zwischen lexikalischen und produktiven Gebärden einnehmen, folgt dem Kriterium der Idiomatizität, das für Lexeme erfüllt sein muss. Da Gebärden <?page no="228"?> 228 wie F LACH 1A für viele verschiedene Bedeutungen verwendet werden können (s. Kap. 4.1.5.2, Tab. 8 und 9), greift das Kriterium der spezifizierten Bedeutung nicht. Berücksichtigt man jedoch die Funktion der Kontextualisierung, die Gebärden aufgrund ihrer Ikonizität übernehmen können, dann wirkt sich die Tatsache, dass dieselbe Gebärde für viele verschiedene Bedeutungen verwendet wird, nicht auf deren lexikalischen Status aus. Um eine Gebärde als konventionelle Gebärde einzustufen, reicht es aus, wenn die Form für mindestens eine Bedeutung konventionalisiert ist. Dass sie für weitere Bedeutungen verwendet werden kann, ändert nichts an ihrem lexikalischen Status eines Lexems, im Unterschied zu produktiven Gebärden. Johnston unterscheidet nach dem Kriterium der Bedeutung zwischen zwei Stufen der Konventionalisierung. Die von Cuxac vorgenommene Unterscheidung in eine ikonisch ausgerichtete und eine nicht ikonisch ausgerichtete Darstellungsweise auf der Diskursebene lässt sich auf die lexikalische Ebene übertragen. Die ikonisch ausgerichtete Darstellungsweise entspricht der produktiven Verwendung konventioneller Gebärden als Kontextualisierungsmittel. Sie bringen ihr ikonisches Potenzial und damit auch ihre auf der ersten Stufe der Konventionalisierung angesiedelte allgemeine Bedeutung ein, um ein Ablesewort zu kontextualisieren. Diese Gebärde-Ablesewort-Kombinationen haben jedoch, im Unterschied zu Gebärden in der ikonisch ausgerichteten Darstellungsweise üblicherweise nicht die Funktion der Anschauung, sondern die Funktion der Benennung. In Kapitel 4.2 wurde deutlich gemacht, wie die Analyse ikonischer Gebärden sowohl als Instrument der Differenzierung lexikalischer Gebärden in Synonyme, Homonyme, phonologische Varianten, Zitierformen und Modifikationen als auch zur Dokumentation struktureller Zusammenhänge eingesetzt werden kann. Die Bedeutung tritt als Unterscheidungskriterium in den Hintergrund zugunsten des zugrunde liegenden Bildes und der Bilderzeugungstechnik. Im Unterschied zu Heßmann (2001a: 50 f.) versuchen wir damit nicht, „der Intuition Gehörloser gerecht zu werden, indem sie den etablierten Gebrauch einer Form sowie signifikante semantische Unterschiede zu anderen Formen zu erfassen suchen“, sondern wir setzen auf das Wissen Gehörloser um den ikonischen Gehalt von Gebärden, das Teil ihrer metasprachlichen und metakommunikativen Kompetenz ist. Nach dem Prinzip gleiche Form, gleiches zugrunde liegendes Bild, gleiche Bilderzeugungstechnik = gleiche Gebärde werden Token, unterschieden in konventionelle und produktive Verwendungen, derselben lexikalischen Einheit zugeordnet. Im Unterschied zu Heßmann, der Gebärden wie S PIELEN und T HEATER aufgrund des signifikanten Bedeutungsunterschieds als zwei formgleiche lexikalische Einheiten ansetzt, sind dies nach unserem Vorgehen zwei konventionelle Verwendungen derselben Gebärde S PIELEN 2 ( S / @Q" 1 m4 ). Wir halten das Wissen Gehörloser um die ikonische Motiviertheit von Gebärden für ein wesentlich zuverlässigeres Instrument zur Differenzierung lexikalischer Einheiten, als die Bestimmung eines abstrakten, dekontextualisierten Bedeutungsunterschieds es ein kann. Die Analyse des zugrunde lie- <?page no="229"?> 229 genden Bildes ist das Explizit-Machen eines Wissens, das Gehörlose unbewusst ständig reaktivieren, wenn sie konventionelle Gebärden als Kontextualisierungsmittel von Ablesewörtern verwenden, Gebärden modifizieren und reikonisieren oder neue produktive Gebärden bilden. Die Erfahrungen, die wir in der Transkription mit gehörlosen Mitarbeitern über 15 Jahre hinweg machen konnten, bestätigen dies. Auch wenn der bildliche Gehalt einer Gebärde mehrdeutig oder unklar scheint, haben sie meist eine sichere Intuition, wohingegen sie bei der Bestimmung der begrifflichen Bedeutung eher zurückhaltend sind. Dies mag damit zusammenhängen, dass für Gehörlose Bedeutung immer erst im Kontext, in der konkreten Verwendung von Gebärden entsteht, in der die manuellen Zeichen eingebettet sind in komplexe Verfahren der Bedeutungskodierung. Brien/ Brennan (1995a: 328) weisen darauf hin, dass wir nicht wissen, wie Gehörlose selbst die Bedeutung einer Gebärde definieren würden. „Bisher scheint es, als ob die hörenden Lexikographen dazu neigten, den Gebärdensprach-Wörterbucheinträgen die Erwartung einer objektiven Bedeutung aufzuzwingen.“ Gehörlose Lexikographen würden, so vermuten Brien/ Brennan (1995a, 1995b), andere Formen der Bedeutungserklärung wählen, die stärker die visuellen Grundlagen bei der Kategorisierung berücksichtigen sowie die verschiedenen Möglichkeiten der Motivierung von Gebärden. Die Rolle, die das ikonische Moment in der Wahrnehmung von Gebärden spielt, verweist auf seine strukturierende Funktion auf lexikalischer Ebene, die in der lexikologischen Beschreibung des Wortschatzes von Gebärdensprachen explizit gemacht werden sollte. Ebbinghaus (in Vorb.) weist auf die Schwierigkeiten hin, Einflüsse von Wörtern der Lautsprache auf die jeweilige Gebärdensprache als Prozesse der Entlehnung zu beschreiben. Er bezieht sich dabei auf die Einteilung des Lexikons der Amerikanischen Gebärdensprache (ASL) von Brentari/ Padden (2001) in drei Bestandteile: „native signs“, das sind Gebärden, die ohne Einfluss einer anderen Sprache entstanden sind, „non-native signs“, das sind Gebärden, die durch den Einfluss einer anderen Sprache entstanden sind oder ganz aus dieser Sprache stammen, und eine Schnittmenge dieser beiden Bestandteile des ASL-Lexikons, die den Kernbestand („core signs“) der ASL- Gebärden darstellt. Dieser Kernbestand entspricht dem etablierten Lexikon, das die konventionellen Gebärden enthält. Diese sind im Prozess der Lexikalisierung teils aus produktiven („native“), teils aus Lehngebärden („non-native“) entstanden. Zu den Lehngebärden zählen die Autoren alle Gebärden, die auf das Fingeralphabet zurückgeführt werden können. In Brentari/ Eccarius (2010: 86) werden die drei Bestandteile als „foreign lexicon“, „core lexicon“ und „spatial lexicon“ benannt. <?page no="230"?> 230 Abbildung 21: Bestandteile des ASL-Lexikons (Brentari/ Padden 2001: 89) Die Einteilung der Lehngebärden in vier Untergruppen (1.0, 1.1, 1.2 und 1.3) wird dadurch bestimmt, wie sehr sich die Gebärden den phonologischen Regeln der ASL entziehen. Am weitesten entfernt vom Kernbestand sind vollständig gefingerte Wörter oder Kombinationen aus gefingerten Wörtern und Gebärden: „Forms such as sign+fingerspelled compounds and commonly fingerspelled words constitute the most foreign of all ASL vocabulary.“ (Brentari/ Padden 2001: 116) Näher am Kernbestand (s. Abb. 21: Menge 1.2) sind teilassimilierte Lehngebärden, bei denen drei Buchstaben eines Wortes gefingert werden. Untergruppe 1.1 enthält initialisierte Gebärden, Namensgebärden, Abkürzungen oder Gebärden, die aus zwei gefingerten Buchstaben bestehen. Dem Kernbestand am nächsten sind Gebärden, die keine phonologischen Regeln verletzen und sich verhalten wie lexikalische Gebärden, die sich aus produktiven Gebärden entwickelt haben. Sie unterscheiden sich von diesen lediglich durch Handformen, die nicht zum Kernbestand des Handforminventars der ASL gehören. Wie aus Abbildung 21 hervorgeht, ist die Menge 1.3 am größten, die Menge der vollständig assimilierten Lehngebärden am kleinsten. Es stellt sich die Frage, welchen Stellenwert eine solche Einteilung besitzt, die einen relativ großen Bestand von Gebärden, die in der tatsächlichen Kommunikation verwendet werden und den Einfluss von Wörtern in Form des Fingeralphabets dokumentieren, am äußersten Rand des Lexikons ansiedelt. Die Tatsache, dass sich diese Gebärden den phonologischen (und morphologischen) Regeln entziehen, bedeutet im Umkehrschluss, dass diese Regeln nicht geeignet sind, die strukturellen und funktionellen Zusammenhänge eines großen Teils des Lexikons der ASL zu beschreiben. Die Autoren verfahren mit lautsprachlichen Elementen in Form von Fingeralphabet-Handformen ähnlich wie Klima/ Bellugi (1980b) mit der Ikonizität (s. Kap. 4.3.3.2), wenn sie als Fazit ihrer Studie feststellen: <?page no="231"?> 231 „What this analysis shows is that, although ASL has had intimate contact with English since its beginning, the mechanisms for borrowing English elements into the language - both morphological and phonological - are constrained, systematic, and expressed within the grammar of ASL.” (Brentari/ Eccarius 2010: 117) Auch hier drängt sich der Verdacht auf, dass es nicht darum geht, den Sprachgebrauch adäquat zu beschreiben, sondern an phonologischen Regeln festzuhalten und diese, wenn auch nur auf einen kleinen Bestand von Gebärden zutreffend, zu generalisieren und somit die Auswirkungen des Sprachkontakts auf die ASL zu minimieren. Ebbinghaus weist auf eine in Sandler/ Lillo-Martin (2006: 106) wiedergegebene Äußerung von Padden hin, dass der Einsatz des Fingeralphabets in der ASL funktional dem Einsatz von Ablesewörtern in der DGS entspreche. Dies erklärt den Unterschied zwischen ASL und DGS: In ASL wird mehr gefingert und weniger oral artikuliert, in DGS überwiegen die Ablesewörter und es wird weniger gefingert. Der Versuch, das Lexikon der DGS anhand verschiedener Grade der Entlehnung einzuteilen, ist jedoch weniger nahe liegend als bei Handformen, die dem Fingeralphabet entstammen, „da phonologische Regularitäten der entlehnenden und der entleihenden Sprache sich auf substanziell ganz unterschiedliche Formbestände, die mit dem Mund beziehungsweise mit der Hand hervorgebracht werden, beziehen. Es ist daher nicht ohne weiteres klar, wie die Anpassung einer mit dem Mund artikulierten Form an manualphonologische Parameter aussehen könnte.“ (Ebbinghaus in Vorb.) 5.2 Lexikographische Aspekte Im Folgenden soll kein Modell eines Wörterbuchs entworfen, sondern auf der Grundlage der bisherigen Ausführungen und einiger lexikographischer Arbeiten diskutiert werden, in welcher Form der Bestand lexikalischer Gebärden angemessen dokumentiert und den Sprachbenutzern zur Verfügung gestellt werden kann. Brien/ Brennan (1995a, 1995b) gehen auf einige Kernprobleme der Gebärdensprachlexikographie ein, die sie anhand der klassischen Bereiche der Linguistik, Phonologie, Morphologie, Syntax, Semantik und Pragmatik, diskutieren. Dabei weisen sie einerseits auf einen Nachholbedarf hin, andererseits auf die Besonderheiten von Gebärdensprachen, die andere Beschreibungsansätze erfordern. Sie betonen die zentrale Rolle der Forschung und Analyse in der Lexikographie und setzen darauf, dass die neuen Technologien das Potential dafür bereitstellen, daß die Gehörlosen selbst eine Schlüsselrolle bei der Erstellung von Wörterbüchern übernehmen, weil diese Technologien es ermöglichen, Gebärdensprache nach ihren eigenen Regeln und mit ihren eigenen Mitteln zu präsentieren. (Brien/ Brennan 1995a: 332) <?page no="232"?> 232 Entscheidend ist also nicht in erster Linie die Präsentation der Ergebnisse und die Ausnutzung der Möglichkeiten, die ein elektronisches Informationssystem bietet, sondern die Aufbereitung authentischer Gebärdensprachdaten, an der Gehörlose beteiligt sein müssen, um überhaupt die Chance zu haben, ihre Sicht auf ihre eigene Sprache in der Entwicklung von Analysemethoden einzubringen. Die steigende Zahl von Korpusprojekten (Konrad 2010c) zeigt, dass die Zeit des „Lemma-Dilemmas“ (Johnston/ Schembri 1999: 179) abgelaufen ist, sieht man von einigen Ausnahmen 2 ab. Nicht mehr das lautsprachliche Wort, sondern die Gebärden in ihrem tatsächlichen Verwendungszusammenhang geben den Ton bei der Lemmaselektion an. Statistische Auswertungen von Korpora ermöglichen eine frequenzbasierte Erarbeitung von Grundwortschätzen (s. McKee/ Kennedy 1999) und damit eine empirische Überprüfung der bisher ausgehend von Wortlisten erstellten Gebärdensammlungen und Wörterbüchern. Korpora mit vollständig lemmatisierten Gebärdensprachtexten ermöglichen es, zur Bestimmung der Bedeutung von Gebärden den Kontext sowie weitere Aspekte wie Mimik und Blickverhalten systematisch mit einzubeziehen. Durch die heutigen technologischen Möglichkeiten der Korpuserstellung kann ein Ziel des amerikanischen Strukturalismus, die Bedeutung eines sprachlichen Zeichens ausschließlich durch seine Distribution zu bestimmen, verwirklicht werden. Die Summe aller verschiedenen Kontexte, in denen das Zeichen verwendet wird, entspricht seiner Bedeutung. Die lexikographische Bedeutungsdefinition einer Gebärde, die bislang nur in der Schriftform der jeweiligen Beschreibungssprache oder als Übersetzung angegeben wurde, kann ersetzt werden durch die Menge aller Äußerungsabschnitte, Kollokationen und Phraseologismen, die eine Gebärde in ihren verschiedenen Verwendungen zeigt. Nach Teubert (1999: 312) kann und will der korpuslinguistische Ansatz jedoch noch mehr: Interaktive Verfahren sollen dem anspruchsvollen Benutzer den direkten Zugriff auf die Korpusevidenz ermöglichen und ihm die Interpretation der Sprachdaten überlassen, anstatt dass sie ihm, wie bisher üblich, durch die Brille der Lexikographen vermittelt werden. Eine solche Korpusplattform würde es dem Sprachteilhaber erleichtern, sich informiert an dem fortwährenden gesellschaftlichen Prozess der Aushandlung von Bedeutungen zu beteiligen. Die Erstellung von Korpora als Grundlage einer Gebärdensprachlexikographie hat tatsächlich dazu geführt, dass Gehörlose verstärkt in den Forschungsprozess einbezogen werden. Die Erhebung natürlichsprachlicher Daten wird normalerweise von Gehörlosen durchgeführt, um zu vermeiden, dass sich die gehörlosen Informanten an das Sprachniveau eines Interviewers anpassen, der kein native signer ist. Die Token-Type- Zuordnung kann zwar auch von Hörenden vorgenommen werden, die Gebärdensprachkenntnisse besitzen und in den Transkriptionskonventio- 2 Für die DGS trifft dies noch auf Kestner (2009) zu. <?page no="233"?> 233 nen geschult wurden, bei Fragen der Konventionalisierung (Abgrenzung von konventionellen und produktiven Gebärden, konventioneller und produktiver Verwendung konventioneller Gebärden) sind sie jedoch auf die Intuition des native signer angewiesen. Besonders deutlich zeigt sich die Überlegenheit von Gehörlosen bei der Beschreibung des zugrunde liegenden Bildes sowie der Bestimmung der Bilderzeugungstechnik, da sie auf eine metasprachliche Kompetenz zurückgreifen können, die hörende L2-Lerner nicht haben. Die Möglichkeit, Gebärdensprachwörterbücher in elektronischer Form zu produzieren, d.h. als datenbankgestützte Informationssysteme, befreit weiterhin vom Zwang, eine geeignete Lemmaform zu finden und eine Sortierfolge zu bestimmen entsprechend der alphabetischen Sortierung von Wörtern. Die Suche nach der Gebärdenform, die in verschiedenen elektronischen Gebärdensprachwörterbüchern bereits implementiert ist, macht letztendlich für den Benutzer auch das Erlernen einer Gebärdenschrift überflüssig, da er für jeden Formparameter ein Set von Merkmalen auswählen kann, um eine Gebärde zu suchen. Die Reduktion der Treffermenge auf eine überschaubare Größe ist eine Frage der Granularität der Merkmalsbündel. Eine Notation der Gebärdenform ist allerdings für die Suchfunktion weiterhin erforderlich, zumindest bis die automatische Gebärdenerkennung so weit fortgeschritten ist, dass die relevanten Parameter einer manuellen Form vom System erkannt, kodiert und mit den Parametern bereits erfasster Gebärden verglichen werden können. Dann sind auch Informationssysteme realisierbar, die es dem Benutzer ermöglichen, etwas zu gebärden, das vom System erkannt wird und zu dem das System als Ergebnis einer Suchabfrage eine Treffermenge gleicher oder ähnlicher Gebärden generiert. Unabhängig von den technischen Möglichkeiten ist die Frage, wie stark die Ikonizität bei der lexikalischen Analyse berücksichtigt wird und in welcher Form die Ergebnisse im Wörterbuch präsentiert werden. Die Forderungen nach einer Aufnahme konventionalisierter Morpheme wie der Klassifikator-Handformen wurde bereits in einigen Gebärdensprachwörterbüchern umgesetzt. Weiterhin findet man in einigen Wörterbüchern die Beschreibung des ikonischen Gehalts von Gebärden. Bereits Stokoe et al. (1976: xxiiixxv) haben in ihrem Wörterbuch der Amerikanischen Gebärdensprache (ASL) eine Angabe zur „Natur der Gebärde“, d.h. zu ihrer ikonischen Motiviertheit gemacht. Danach teilen die Autoren die Gebärden ein in pantomimische, imitative, metonymische, indexikalische und initialisierte Gebärden. Eine weitere Gebärdenklasse bilden die Namensgebärden, da sie einige Besonderheiten in der Kombination der Formparameter aufweisen. Die Beschreibung der Gebärde für die Bedeutung „flach“ - die ASL-Gebärde ist formgleich zur DGS- Gebärde F LACH 1A - nennt das Bedeutungspotenzial dieser Gebärde: „[it] has the potential meaning ‘a flat surface at some level or other’“ (Stokoe et al. 1976: 37). Die Wörterbücher zur Britischen Gebärdensprache (BSL; Brien 1992) und Neuseeländischen Gebärdensprache (NSZL; Kennedy et al. 1998) ver- <?page no="234"?> 234 zichten auf solche Angaben im Eintrag. In den Fachgebärdenlexika des IDGS findet man eine Beschreibung des zugrunde liegenden Bildes sowie eine Angabe der Bilderzeugungstechnik für jede Hand. Den von Cuxac skizzierten Ansatz eines morphemischen Wörterbuchs (s. Kap. 4.3.3.3), in dem die Einträge nach den Formparametern geordnet sind und Beziehungen zwischen Gebärden auf der Grundlage der ikonisch motivierten Formelemente hergestellt werden, hat Bonnal-Vergès (2005) konsequent und mit einer bewundernswerten Akribie umgesetzt in einem umfassenden historischen Wörterbuch der LSF (s. auch Bonnal-Vergès 2006). Zusätzlich hat sie ein Probeexemplar eines zweisprachigen Wörterbuchs LSF/ Französisch entworfen, das drei verschiedene Sortiermöglichkeiten vorsieht: nach Ausführungsstelle, Handformen und ikonischen Matrizen bzw. Familien. Abbildung 22: Ausschnitt aus dem Probexemplar eines zweisprachigen Wörterbuchs LSF/ Französisch (Bonnal-Vergès 2005, vol. 2: 219) Ausführungsstellen, insbesondere am Körper, und Handformen sind Morpheme, die als semantische Wurzeln angesehen werden können. Bonnal- Vergès (2005, vol. 1: 388-394) bezeichnet sie als „phylum“, eine „primitive Schicht“, aus der sich im genealogischen Sinn eine ganze Familie von Gebärden entwickelt hat. Das Phylum ist die sprachliche Realisierung einen Ikonons, eines mentalen Bildes, das Bonnal-Vergès auch als „ikonische konzeptuelle Matrize“ bezeichnet. Im Ikonon sind relevante Merkmale des Realen in einem mentalen Bild konserviert. Das Ikonon wird durch das Phylum „in-formiert“, d.h. im wörtlichen Sinn „in Form gebracht“. Analog zur strukturalistischen Zeichendefinition definiert Bonnal-Vergès die Morpheme als Kombinationen aus einem Phylum, dem Bezeichnenden, der sprachlichen Form, und einem Ikonon, dem Bezeichneten, der konzep- <?page no="235"?> 235 tuellen, bildhaften Bedeutung. Das Kennzeichen dieser Morpheme ist die Motiviertheit, im Unterschied zur Nicht-Ikonizität (Arbitrarität) der Wörter. Bei der Visualisierung einer liegenden Person, einer Zunge, der Beine eines Menschen oder der Ohren eines Kaninchens (s. Abb. 22, rechts oben) ist die Wahl der manuellen Mittel nicht frei. Die gebärdensprachliche Form, in diesem Fall die H-Hand, konserviert relevante Aspekte dieser Bilder: paarig angelegte, längliche Strukturen (Beine) oder eine längliche Struktur mit einer gewissen Breite und Dicke (Zunge, Kaninchenohr). Die Morpheme lassen sich in diachroner Perspektive auf gemeinsame Wurzeln zurückführen, analog zu Wortstämmen, die z.B. von einer gemeinsamen indoeuropäischen Wurzel abgeleitet werden können. Durch die Kombination von Ausführungsstelle und Handform lassen sich Gebärdenfamilien bilden, die morphosemantischen Feldern entsprechen. Bonnal-Vergès (2005, vol. 1: 433) betont, ebenso wie Cuxac, die metasprachliche Kompetenz Gehörloser, die sich in der Reaktivierung - Bonnal- Vergès spricht von Remotivierung („rémotivation“) - des ikonischen Potenzials der Gebärden bzw. ihrer Formparameter zeigt. Die Beibehaltung der Ikonizität ist für sie Ausdruck eines internalisierten grammatikalischen Bewusstseins, das dazu führt, dass Gebärden remotiviert werden oder, falls der Bezug zur ursprünglichen Motivation verloren gegangen ist, zu einer sekundären Motivation führt, d.h. die Form wird mit einem neuen Ikonon verbunden. Dies ist die direkte Entsprechung zur Sekundärmotivation von Wörtern, die nach Augst (1996) aus der Spannung zwischen Motivbedeutung und Funktionsbedeutung entstehen kann und Ausdruck des metakommunikativen Wissens der Sprachbenutzer ist (s. Kap. 4.3.1). Die Makro- und Mikrostruktur des elektronischen Wörterbuchs DGS - Deutsch, das auf der Grundlage eines umfangreichen lemmatisierten Korpus erstellt wird, ist im Projektantrag bewusst offen gehalten worden. Die für den Antrag erstellten Beispieleinträge sollten lediglich die unterschiedlichen Arten der Informationseinheiten sowie semantische, ikonische und grammatische Bezüge von Gebärden illustrieren. Die konkrete Realisierung ist zum einen vom Ergebnis einer Benutzerumfrage, zum anderen vom Stand der technischen Entwicklung zum Zeitpunkt der Umsetzung abhängig. <?page no="236"?> 236 6 Zusammenfassung Die Beantwortung der Frage, welche Rolle Ablesewörter in gebärdensprachlichen Äußerungen übernehmen, mag auf den ersten Blick nicht wesentlich für die Beschreibung des Lexikons der DGS sein. Da die meisten bekannten Gebärdensprachen von einer sprachlichen Minderheit gesprochen werden, die von einer hörenden Mehrheit und deren Lautsprache umgeben ist, bieten sich Konzepte wie Diglossie, code mixing und code switching zur Beschreibung von Sprachkontaktphänomenen an. In der internationalen Gebärdensprachlexikographie, die implizit oder explizit Gebärden mit Wörtern gleichsetzt (s. Kap. 2.3), werden diese Phänomene dementsprechend nicht oder nur am Rande berücksichtigt. Ebbinghaus/ Heßmann (1989, 1996, 2001) dagegen bemühen sich um eine funktionale, phänomenorientierte Beschreibung. Sie erklären die Verwendung von Ablesewörtern in der DGS als wechselseitige Kontextualisierung von Gebärden (manuellen Zeichen) und Wörtern und sprechen von einer simultanen Kollokation, d.h. einem zeitlichen Zusammentreffen zweier bedeutungstragender sprachlicher Einheiten, die aus verschiedenen Zeichensystemen stammen. Das Bedeutungsspektrum, das durch diese Kombination einer Gebärde mit verschiedenen Ablesewörtern abgedeckt werden kann, ist wesentlich größer als das von Wörtern. Die lexikologische und lexikographische Konsequenz dieses Ansatzes ist, dass es nicht ausreicht, konventionelle Gebärden lediglich als festgefügte Form- Bedeutungs-Einheiten zu beschreiben und die Abgrenzung zwischen Lexemen durch deren semantischen Abstand zu rechtfertigen (s. z.B. Troelsgård/ Kristoffersen 2008: 656). Die Gebärde F LACH 1A ( ! " #$% & ) kann z.B. mit dem Wort ‚Feld‘ oder dem Wort ‚Erdgeschoss‘ kombiniert werden und somit entweder mit der Bedeutung „Feld“ oder „Erdgeschoss“ assoziiert sein. Angenommen, die Daten, die im Rahmen des DGS-Korpus-Projekts (s. Anhang 1) erhoben werden, enthalten Äußerungen von verschiedenen Informanten, in denen die Gebärde F LACH 1A sowohl mit ‚Feld‘ als auch mit ‚Erdgeschoss‘ kombiniert wird, und man sieht das Ablesewort nicht als Formbestandteil der Gebärde an, dann würde dies zwei Einträge in einem DGS-Wörterbuch erfordern. Es wären Homonyme, d.h. formgleiche manuelle Zeichen, deren Bedeutungen nicht miteinander in Verbindung gebracht werden können, da sie keinem gemeinsamen semantischen Feld zugehören. Es lässt sich auch kein etymologischer Zusammenhang geltend machen. Die Tatsache, dass es sich um dasselbe manuelle Zeichen handelt, würde bei dieser Lemmaselektion keine Berücksichtigung finden. Dieses Beispiel zeigt, dass die Antwort auf die Frage, welchen Status man den Ablesewörtern zuschreibt, entscheidend für die Struktur des Lexikons und damit auch für die Lemmaselektion in der lexikographischen Beschreibung einer Gebärdensprache ist. Sieht man wie Schermer (2001) Ablesewörter als Bestandteil <?page no="237"?> 237 der Gebärdenform an, dann sind gebärdensprachliche Einheiten mit demselben manuellen Zeichen und verschieden artikulierten Ablesewörtern bereits formseitig verschieden und müssen als verschiedene Lexeme angesehen werden. Dies hat zur Folge, dass ein Großteil des lautsprachlichen Wortschatzes auf die Gebärdensprache übertragen wird. Die Zahl der Einträge eines Gebärdenwörterbuchs würde stark ansteigen, „die immanente Strukturierung des Lexikons“ (Heßmann 2001a: 47) würde jedoch weiterhin unklar bleiben. In den Fachgebärdenlexikon-Projekten wurde versucht, die Hypothese der wechselseitigen Kontextualisierung von Gebärden und Wörtern zu konkretisieren. In den Einträgen des Gebärdenverzeichnisses, das für jedes Fachgebärdenlexikon erstellt wurde, wurde konsequent zwischen konventioneller (usueller) und produktiver (okkasioneller) Verwendung konventioneller Gebärden unterschieden, wie es Ebbinghaus/ Heßmann (2001: 134) fordern. Die operationale Voraussetzung dafür war die Einführung einer doppelten Glossierung, die es ermöglichte, im Rahmen der Lemmatisierung Vorkommen entweder einer konventionellen Gebärde-Ablesewort- Kombination oder als produktive Verwendung direkt einer Gebärde zuzuordnen. Die theoretische Voraussetzung ist die umfassende Berücksichtigung der Ikonizität der Gebärden. Ebenso wie zwischen konventionellen und produktiven Gebärden - erstere dienen vor allem der Benennung, letztere der Anschauung - kommt es zu einer Arbeitsteilung zwischen Gebärden und Wörtern. Das zugrunde liegende Bild einer ikonischen Gebärde steckt das Bedeutungsfeld ab, innerhalb dessen das abzulesende Wort liegen muss, und bietet damit einen optimalen Kontextualisierungshinweis, das Wort spezifiziert die intendierte Bedeutung. Bei der wortbezogenen Kontextualisierung handelt es sich in der Regel um konventionelle Gebärde-Ablesewort-Kombinationen. Die Funktion der Gebärde besteht darin, auf das deutsche Wort zu verweisen, das Ablesewort spezifiziert in dieser simultanen Kollokation von Gebärde und Wort die Bedeutung der Gebärde. Dieses Verfahren wird auch genutzt, um Wortteile bei Komposita sowie Präfixe oder Suffixe zu kontextualisieren. Bei der inhaltsbezogenen Kontextualisierung handelt es sich um produktive Gebärde-Ablesewort-Kombinationen. In ihrer Funktion als Kontextualisierungsmittel fallen ikonische Gebärden zurück auf die erste Stufe der Konventionalisierung (Johnston/ Schembri 1999), auf der jeder einzelne Formparameter bedeutungstragend ist und zu einer allgemeinen, „wörtlichen“ Bedeutung der Gebärde beiträgt. Die Bedeutung des Ableseworts ist durch den ikonischen Gehalt der Gebärde motiviert. Wort- und inhaltsbezogene Kontextualisierung können auch miteinander kombiniert werden. Die Beziehung zwischen Gebärde und Ablesewort kann am besten als Kontinuum beschrieben werden, das von der semantischen Übereinstimmung zwischen Gebärde und Wort bis zur eigenständigen inhaltlichen Umschreibung der Wortbedeutung, die mit dem Ablesewort zeitlich parallelisiert wird, reicht. <?page no="238"?> 238 Die Ikonizität ist der Schlüssel zur Beschreibung der Struktur des Lexikons der DGS. In unserer Transkriptionspraxis hat sich die Analyse der Gebärden hinsichtlich der Funktion der Hand, die bei der Visualisierung zum Tragen kommt, bewährt. Diese Funktion der Hand kann einer von sechs Arten der Bilderzeugung zugeordnet werden. Diese Kategorien werden bewusst ‚Bilderzeugungstechniken‘ genannt, um einer vorschnellen Linguistisierung, wie es bei der Bezeichnung ‚Klassifikator‘ der Fall war, vorzubeugen. Der entscheidende Vorteil dieses Kriteriums ist, dass sich die sechs Kategorien gegenseitig ausschließen, da die Hand nicht gleichzeitig mehrere Funktionen übernehmen kann. Dass von über 900 konventionellen Gebärden lediglich bei 11 % der Gebärden kein Bild oder Bildelemente erkennbar war, bestätigt und quantifiziert die Annahme, dass die meisten Gebärden ikonisch sind. Auf diese Analyse des zugrunde liegenden Bildes stützt sich die Lemmaselektion. Wie das o.g. Beispiel F LACH 1A zeigt, greift das für die Token-Type- Zuordnung in Lautsprachen geltende Prinzip gleiche Form, gleiche Bedeutung = gleiches Lexem zu kurz, da es die strukturierende Funktion der Ikonizität ausklammert. Für die Lemmatisierung und die Lemmaselektion ist nicht nur die lexikalische Bedeutung einer Gebärde ausschlaggebend, sondern auch ihr ikonisches Potenzial. Mithilfe der Regel gleiche Form, gleiches Bild, gleiche Bilderzeugungstechnik = gleiche lexikalische Gebärde lassen sich verschiedene Gebärden sowie Beziehungen zwischen Gebärden (Synonyme, Homonyme, phonologische Varianten) bestimmen. Da die Modifikation einer ikonischen Gebärde immer durch die Veränderung des zugrunde liegenden Bildes herbeigeführt wird, ist die Ikonizität auch hier das entscheidende Kriterium. Wird eine modifizierte Form unabhängig von ihrer Stammform verwendet und konventionalisiert sich durch regelmäßigen Gebrauch, dann lässt sich ihre Herkunft stets an ihrem ikonischen Gehalt festmachen. Die lexikalische Struktur von Gebärdensprachen erschließt sich durch den Vergleich formgleicher und formähnlicher Gebärden und ihrer zugrunde liegenden Bilder. Dadurch wird ein Netzwerk struktureller Gemeinsamkeiten und Ableitungsverhältnisse freigelegt, das letztendlich auf den ikonischen Formbestandteilen der Gebärden beruht, die wie ein unterirdisches Pilzgeflecht die verschiedenen konventionalisierten und nicht konventionalisierten Formen verbindet (s. Kap. 4.2.2, Abb. 18). Ein semantisches Netzwerk der konventionalisierten Bedeutungen würde lediglich den oberflächlich sichtbaren, lexikalisierten Teilausschnitt zeigen und die Möglichkeiten der Reaktivierung des ikonischen Potenzials konventioneller Gebärden sowie die fließenden Übergänge zum produktiven Lexikon ausblenden. Eine Aufgabe der empirischen Gebärdensprachlexikologie bleibt es zu zeigen, ob und inwieweit ikonische und semantische Netzwerke zur Deckung gebracht werden können. Zeichen können durch andere Zeichen oder durch Gegebenheiten der realen Welt motiviert sein. Da nur wenige Gegenstände und Sachverhalte akustische Eigenschaften haben, an denen sie eindeutig zu identifizieren <?page no="239"?> 239 sind, gibt es nur vergleichsweise wenige Wörter, bei denen sich eine Motivierung durch akustische Eigenschaften ihrer Referenzobjekte anbietet. Wenn Wörter motiviert sind, dann meist durch andere Wörter, entweder morphologisch wie im Fall von Komposita oder semantisch wie im Fall metaphorischer oder metonymischer Ausdrücke. Dagegen sind die meisten Gebärden ikonisch motiviert, d.h. es lässt sich eine Beziehung der Ähnlichkeit zwischen der Form der Gebärde oder zumindest eines ihrer Formbestandteile und Merkmalen des (außersprachlichen) Referenzobjekts herstellen. Diese Motivierung ist allgegenwärtig, da die sprachliche Kodierung in demselben visuellen Medium erfolgt, in dem die wichtigsten Eigenschaften der Umwelt wahrgenommen werden, was schematisierte und analoge Darstellungsweisen nahelegt. Oder wie Sutton-Spence/ Woll (1999: 166) pointiert formulieren: „It would be unnatural for sign languages not to use visual symbols.“ Neben der direkten Beziehung zwischen Bildelementen, die in der Gebärdenform visualisiert werden, und dem Bedeutungsspektrum einer ikonischen Gebärde gibt es auch indirekte metonymische und metaphorische Beziehungen zwischen dem zugrunde liegenden Bild einer Gebärde und ihrer Bedeutung. Ikonizität wird häufig als Gegenbegriff zur Arbitrarität und Konventionalität sprachlicher Zeichen gesehen. Arbitrarität und Ikonizität schließen sich aus, nicht jedoch Ikonizität und Konventionalität. Arbiträre Zeichen sind notwendigerweise konventionalisiert; ikonische Zeichen können konventionalisiert sein, sind dies aber nicht zwangsläufig. Die Auffassung, Konventionalität ginge immer mit Arbitrarität einher, ist einer phonozentrischen Sichtweise geschuldet, die die Lautsprache zur Norm erklärt. Cuxac (2000) weist auf den Irrtum hin, die Nicht-Ikonizität von Zeichen zur Voraussetzung für ihr Funktionieren als sprachliche Zeichen zu machen. Lautsprache wie Gebärdensprache sind Ausdruck einer kognitiven, metasprachlichen Fähigkeit des Menschen, die es ihm ermöglicht, Zeichen unabhängig vom Grad ihrer Motiviertheit zu dekontextualisieren, gegeneinander abzugrenzen und miteinander zu kombinieren, um Bedeutung zu kodieren. Zur metasprachlichen Kompetenz der native signer gehört es, dass sie Gebärden mehr oder weniger bewusst auswerten im Hinblick auf ihre ikonischen Merkmale. Ebenso dazu gehören nach unserer Ansicht die Bilderzeugungstechniken, mit deren Hilfe native signer Gebärden spontan bilden, konventionelle Gebärden modifizieren oder reikonisieren. Gleichzeitig wissen sie um die Grenzen, die eine bestimmte Bilderzeugungstechnik für die Modifikation von Gebärden mit sich bringt. Wirkungs- und sprecherorientierte Sichtweisen in der Lexikologie beziehen die Ikonizität als Motivationsbasis sprachlicher Zeichen ein. Motivation wird als „Summe aller Phänomene verstanden, durch die die Existenz eines Wortes linguistisch begründet werden kann” (Ungerer 2002: 378). Während Form und Bedeutung von Wörtern hauptsächlich durch sprachliche Elemente motiviert sind, steht bei Gebärden die bildhafte Ikonizität, d.h. der direkte Bezug von Formbestandteilen zu Eigenschaften der bezeichneten Gegen- <?page no="240"?> 240 stände und Sachverhalte, im Vordergrund. Für die Gebärdensprachlexikologie und -lexikographie bedeutet dies, dass sie sich nicht mit der Beschreibung lexikalischer Einheiten zufrieden geben kann, sondern die sublexikalischen Strukturen freilegen muss, die zum metasprachlichen Wissen kompetenter Sprecher einer Gebärdensprache gehören. Die Einheiten dieser sublexikalischen Strukturebene sind jedoch nicht wie in Lautsprachen Phoneme, sondern ikonische Elemente, die mit einer jederzeit aktivierbaren ikonischen Bedeutung aufgeladen sind. Sie bilden nach Johnston/ Schembri (1999) die erste Stufe der Konventionalisierung und haben eine relativ allgemeine „wörtliche“ Bedeutung. Durch die Aktivierung des ikonischen Potenzials der Formbestandteile einer Gebärde, sei es zur Kontextualisierung von Ablesewörtern oder zur Assoziation mit einer spezifischen Bedeutung im Kontext entstehen ständig wechselnde oder neue Form-Bedeutungs-Beziehungen. Auf der zweiten Stufe der Konventionalisierung tritt die Ikonizität in den Hintergrund. Lexikalisierte Gebärden sind wie Wörter feste Form- Bedeutungs-Einheiten. Brennan (1992: 45 f.) spricht von „off the shelf, readymade lexical items“. Johnston/ Schembri (1999: 129 f.) betonen, dass sich die Bedeutung konventioneller Gebärden, im Unterschied zu produktiven Gebärden, nicht aus den Teilbedeutungen ihrer Komponenten zusammensetzt und daher nicht vorhergesagt werden kann. Dieses Mehr an Bedeutung macht ihre Idiomatizität aus. In einer Weiterentwicklung ihres Ansatzes vergleichen Johnston/ Schembri (2010: 31) diese vollständig lexikalisierten Gebärden jedoch nicht mit Wörtern, sondern mit lautsprachlichen Idiomen, der Prozess der Lexikalisierung in Gebärdensprachen entspricht der Idiomatisierung in Lautsprachen (s. Kap. 2.3). Entscheidend ist, dass der Prozess der Lexikalisierung jederzeit umkehrbar ist, d.h. die „wörtliche“ Bedeutung einer ikonischen Gebärde wird reaktiviert. Im Kontext weiß ein kompetenter Sprecher einer Gebärdensprache, ob eine Gebärde in ihrer „wörtlichen“ oder ihrer lexikalisierten, d.h. idiomatischen Bedeutung verwendet wird. Diese Unterscheidung zwischen einer unmotivierten und einer motivierten Verwendung von Gebärden hat ihre Entsprechung in der Motiv- und Funktionsbedeutung von Wörtern, auf die Augst (1996) hinweist (s. Kap. 4.3.1). Der Rückgriff auf die ikonische Motiviertheit findet beim Gebärden jedoch ständig statt, wohingegen es bei Wörtern ab und an zu einer Entladung der Spannung zwischen Motiv- und Funktionsbedeutung kommt, die zu einer Re-, Um- oder Neumotivierung von Wörtern führt. Die Lexikalisierung führt dazu, dass verschiedene konventionelle Gebärden mit derselben Bedeutung nebeneinander verwendet werden. Die Vielfalt ikonischer Bezüge begünstigt die Entstehung synonymer Gebärden und damit die lexikalische Variation. Gleichzeitig ist der ikonische Bezug von Gebärden ein Grund für die Entstehung von Ausführungsvarianten. Solange der Bezug zum Gemeinten durch die ikonische Motiviertheit abgesichert ist, sind leichte Abweichungen in der Ausführung einer Gebärde nicht relevant. Diese können gleichwohl z.B. in Form einer stilisierten Ausführung lexikalisiert sein. Durch die Erstellung umfassender Kor- <?page no="241"?> 241 pora wird es möglich sein, sowohl den Grad der Lexikalisierung einzelner Gebärden näher zu bestimmen als auch die inter- und intraindividuelle Variation in der Ausführung der Gebärden. In diesem Zusammenhang wird es interessant sein zu sehen, wie sich das Prinzip der Homonymievermeidung auf den lexikalischen Bestand einer Gebärdensprache auswirkt. Die Korpuslinguistik eignet sich als methodischer Ansatz besonders zur Erforschung von Gebärdensprachen, da sie darauf ausgerichtet ist, sprachliche Zeichen in ihren spezifischen Verwendungskontexten zu untersuchen. In Gebärdensprachen spielt wiederum der Kontext eine besondere Rolle, da sie als Nähesprachen sehr stark kontextuelle Bezüge nutzen und neben manuellen Zeichen stets auf nonmanuelle Aspekte wie Blick, Mimik und Gestik zurückgreifen. Als visuell-gestische Sprachen sind sie weniger stark auf formal und kategorial festgelegte lexikalisierte Zeichen angewiesen als Lautsprachen. Das ikonische Potenzial von Gebärden kann im Diskurs jederzeit reaktiviert werden, um entweder Ablesewörter zu kontextualisieren oder die Bedeutung einer Gebärde zu spezifizieren. Weiterhin werden lexikalisierte Formen im steten Wechsel mit teillexikalisierten, sogenannten produktiven Gebärden kombiniert, deren Bedeutung nur im jeweiligen Äußerungskontext richtig interpretiert werden kann. Die dabei auftretenden Muster, Regelhaftigkeiten oder Beschränkungen können nur anhand großer Datenmengen mit kontinuierlich lemmatisierten Texten freigelegt werden. Nach Cuxac ist die Ikonizität das strukturierende Prinzip, das von der Diskursebene bis zu den Morphemen als minimale Form-Bedeutungs-Einheiten die Gebärdensprache durchzieht und sich funktional im Sinne der Sprachökonomie auswirkt (s. Kap. 4.3.3). Cuxac weist einerseits darauf hin, dass der Wortschatz von Gebärdensprachen in der Gebärdensprachforschung bisher vernachlässigt wurde, andererseits bietet er jedoch selbst kein Modell an, das die Strukturiertheit von Gebärden als lexikalische Einheiten beschreibt, da er, ausgehend von Einheiten des Diskurses (Transfers), die Beschreibung konventioneller Gebärden nur auf der sublexikalischen Ebene (Morpheme) vornimmt. Die Frage der Konventionalität nimmt Cuxac als gegeben hin, sie ist Teil seiner Hypothese, dass es in Gehörlosengemeinschaften mit einer längeren institutionellen Geschichte zu einer Gabelung in eine ikonisch und eine nicht ikonisch ausgerichtete Darstellungsweise kommt. Letztere führt zur Ausbildung konventionalisierter lexikalischer Gebärden. Diese findet man in Wörterbüchern aufgelistet. Cuxac kritisiert die bisherige lexikographische Praxis, die nach dem Prinzip ein Wort - eine Gebärde vorgeht, d.h. von einer Wortliste ausgeht und nach gebärdensprachlichen Entsprechungen sucht. Dabei werden nur Gebärden als lexikalische Einheiten aufgenommen, für die es auch französische Wörter gibt. Um dieser Kritik auch terminologisch Rechnung zu tragen, korrigieren Cuxac/ Pizzuto (2010: 44) die frühere Bezeichnung ‚Standardgebärden‘ in ‚Wort-Gebärden‘ („signes-mots“). Durch diese Kritik wird die Gefahr eines Zirkelschlusses zwar benannt, aber nicht gebannt. Denn die Annahme, dass eine sprachliche <?page no="242"?> 242 Einheit als lexikalisch gilt, wenn sie im Wörterbuch steht, ist nur dann zulässig, wenn die Einträge des Wörterbuchs durch eine ausreichende Datengrundlage abgesichert sind. Ein erster Schritt in Richtung korpusbasierter Lexikographie der Französischen Gebärdensprache (LSF) wird durch die Erstellung lemmatisierter Korpora im Rahmen des Projekts CREAGEST (2007-2012; Balvet et al. 2010) unternommen, in dem drei Teilkorpora erstellt werden: zum kindlichen Spracherwerb, zu koverbalen Gesten Hörender und Gehörloser und zu Neologismen in der LSF. Insbesondere das dritte Teilkorpus soll dazu dienen, das von Cuxac (1997, 2000) aufgestellte ökonomische Prinzip der Beibehaltung der Ikonizität („contrainte de maintien de l’iconicité“) anhand natürlichsprachlicher LSF- Dialoge zu belegen sowie die metasprachliche Kompetenz der native signer explizit zu machen. Gerade in dem gemeinsamen ikonischen Bezug zwischen einer nicht ikonisch ausgerichteten (Standardgebärden) und einer bewusst ikonisch ausgerichteten Darstellungsweise (Transfers) liegt das Ökonomieprinzip von Gebärdensprachen begründet. Dadurch wird das Kommen und Gehen zwischen den verschiedenen Darstellungsweisen aufrechterhalten. Dieses Kommen und Gehen findet seine Entsprechung in dem von Ebbinghaus/ Heßmann (2000) beschriebenen charakteristischen Wechselspiel zwischen Benennung (durch lexikalische Gebärden) und Anschauung (durch produktive Gebärden), das den lebendigen Diskurs in Gebärdensprachen ausmacht. Weitere Gemeinsamkeiten dieser beiden Beschreibungsansätze sind: • die Überzeugung, dass die aus der linguistischen Beschreibung von Lautsprachen gewonnenen Konzepte und Kategorien nicht geeignet sind, eine visuell-gestische Sprache zu beschreiben, • die Überzeugung, dass eine Beschreibung, die dem Gegenstand ‚Gebärdensprachen‘ gerecht werden will, nur über die Einbeziehung der Ikonizität möglich ist, • die Betonung der Eigenständigkeit der gebärdensprachlichen Kommunikation, die frei ist vom Zwang, Bedeutung durch ein komplexes System phonologischer, morphologischer und syntaktischer Strukturen zu kodieren (s. Cuxacs (2003) typologische Beschreibung der LSF als „weniger markierte Sprache“). Im Unterschied zu Ebbinghaus/ Heßmann (1991), die die Grenzen der linguistischen Beschreibung von Gebärdensprachen einräumen und in den komplexen Möglichkeiten der gebärdensprachlichen Bedeutungskodierung eine Herausforderung für die Semiotik sehen, besteht Cuxac auf einer Beschreibung dieser ikonischen Strukturen im Rahmen der Linguistik. Da Cuxac Ablesewörter bewusst aus seinen Analysen ausklammert und die Ikonizität der Standardgebärden ausschließlich auf der ersten Stufe der Konventionalisierung beschreibt, ist es nicht verwunderlich, dass er Fragen der Lemmaselektion und Lemmatisierung nicht diskutiert und ein morphemisches Wörterbuch der LSF favorisiert, in dem die Formparameter der manuellen Form und ihre verschiedenen Ausprägungen bei Stan- <?page no="243"?> 243 dardgebärden und Transfers sowie die Häufigkeit ihrer Verwendung und ihre Kombinierbarkeit mit weiteren Parametern aufgelistet sind. Ebenso sollten ihm zufolge die verschiedenen Ausprägungen der Mimik und des Blicks aufgeführt werden. Wesentliches Ziel dieser Arbeit ist es zu zeigen, dass korpuslinguistische Ansätze nicht nur praktische und technische Probleme lösen, sondern auch theoretische Fragen beantworten müssen, die die Strukturiertheit des Wortschatzes betreffen. Die im Rahmen der empirischen Fachgebärdenlexikographie entwickelten Verfahren sind der Versuch, den Wortschatz der DGS auf der Grundlage empirischer Daten zu beschreiben und der strukturierenden und funktionalen Bedeutung der Ikonizität umfassend Rechnung zu tragen. Dies führt zu einem Lexikonmodell der DGS, das von den manuellen Handzeichen als grundlegende lexikalische Einheiten ausgeht, diese jedoch nicht mit Wörtern gleichsetzt. Gebärden können wie Wörter lexikalisieren, oder nach Johnston/ Schembri (2010) idiomatisieren. Dadurch kommt ihnen ein Überschuss an Bedeutung zu, der ihre Idiomatizität ausmacht. Dieser Prozess ist jedoch jederzeit wieder umkehrbar. Die Aktivierung des ikonischen Potenzials von Gebärden findet im gebärdensprachlichen Diskurs ständig statt. Durch die Erstellung lemmatisierter Korpora wie z.B. im DGS- Korpus-Projekt (s. Anhang 1) wird es erstmals möglich sein, die spezifischen Verwendungsbedingungen von Gebärden genauer zu untersuchen und empirisch gesicherte Aussagen über den Grad der Konventionalisierung zu machen. Ebenso kann das Bedeutungsspektrum einer Gebärde durch ihre Distribution in verschiedenen Kontexten bestimmt werden. <?page no="244"?> 244 7 Literatur 1 777 Gebärden 1-3. Das Große Lernprogramm für Deutsche Gebärdensprache. 2007. Version 3.0. Guxhagen: Verlag Karin Kestner. [DVD-ROM]. Alich, Georg. 1960: Zur Erkennbarkeit von Sprachgestalten beim Ablesen vom Munde. Bonn. [Dissertation]. Álvarez Sánchez, Patricia / Báez Montero, Inmaculada C. / Fernández Soneira, Ana. 2008: Linguistic, Sociological and Technical Difficulties in the Development of a Spanish Sign Language (LSE) Corpus. In: Crasborn, Onno / Efthimiou, Eleni / Hanke, Thomas / Thoutenhoofd, Ernst D. / Zwitserlood, Inge (eds.). LREC 2008 Workshop Proceedings. W 25: 3rd Workshop on the Representation and Processing of Sign Languages: Construction and Exploitation of Sign Language Corpora. Paris: ELRA, 9-12. [PDF-Dokument im Internet; URL: http: / / www.lrec-conf.org/ proceedings/ lrec2008/ workshops/ W25_Proceedings.pdf]. Arbeitsgruppe Fachgebärdenlexika (Hg.). 1996: Fachgebärdenlexikon Psychologie. 2 Bde. Hamburg: Signum. Arbeitsgruppe Fachgebärdenlexika (Hg.). 1998: Fachgebärdenlexikon Tischler/ Schreiner. 2 Bde. Hamburg: Signum. Atkins, Beryl T.S / Rundell, Michael. 2008: The Oxford Guide to Practical Lexicography. Oxford/ New York: Oxford University Press. Augst, Gerhard. 1996: Motivationstypen und diasystematische Differenzierung der semantischen Motiviertheit. In: Bremer, Ernst (Hg.): Stand und Aufgaben der deutschen Dialektlexikographie: II. Brüder-Grimm-Symposion zur historischen Wortforschung (Beiträge zu der Marburger Tagung vom Oktober 1992), 17-28. Augst, Gerhard. 1998: Wortfamilienwörterbuch der deutschen Gegenwartssprache. Tübingen: Niemeyer. Baker, Charlotte / Cokely, Dennis Richard. 1988: American Sign Language. A teacher’s resource text on grammar and culture. 4. ed. Silver Spring, MD: T.J. Publishers. [1. Aufl. 1980]. Balvet, Antonio / Courtin, Cyril / Boutet, Dominique / Cuxac, Christian / Fusellier- Souza, Ivani / Garcia, Brigitte / L'Huillier, Marie-Thérèse / Sallandre, Marie-Anne. 2010: The Creagest Project: a Digitized and Annotated Corpus for French Sign Language (LSF) and Natural Gestural Languages. In: Calzolari, Nicoletta / Choukri, Khalid / Maegaard, Bente / Mariani, Joseph / Odijk, Jan / Piperidis, Stelios / Rosner, Mike / Tapias, Daniel (eds.). Proceedings of the Seventh conference on International Language Resources and Evaluation (LREC'10). Paris: ELRA, 469-475. [PDF-Dokument im Internet; URL: http: / / www.lrec-conf.org/ proceedings/ lrec2010/ pdf/ 356_Paper.pdf]. 1 Einige der im Folgenden zitierten Quellen liegen (noch) nicht als gedruckte und bibliographisch erfasste Veröffentlichungen vor, sondern sind nur online verfügbar. Andere wiederum sind sowohl gedruckt als auch online verfügbar. Weiterhin enthält die Arbeit Zitate oder Bezüge auf unveröffentlichte Dokumente wie Arbeitspapiere oder Mailing-Listen. Die Angaben wurden nach bestem Wissen und Gewissen möglichst vollständig vorgenommen. Die Gültigkeit der hier und in den Fußnoten angegebenen URLs wurde zum letzten Mal am 21. Februar 2011 überprüft. <?page no="245"?> 245 Bar-Tzur. 1993: Technical/ Specialized Communication: Resources and Strategies for the ASL Interpreter. In: Caccamise, Frank / Newell, William J. / Mitchell, Marilyn / Naiman, Phyllis / Outermans, Laurie / Gustina, Donna / Smith, Nancy / Aron, Brenda / Oglia, Dolores: Technical signs. Manuals 1 and 2: Project overview and reading sign diagrams. 4th ed. Rochester: Rochester Institute of Technology, 32-41. Battison, Robin. 1978: Lexical borrowing in American Sign Language. Silver Spring, MD: Linstok Press. Baude, Olivier (éd.). 2006: Corpus oraux. Guide des bonnes pratiques. Orléans/ Paris: Presses Universitaires d’Orléans/ CNRS ÉDITIONS. Bauman, H-Dirksen L. / Vollhaber, Tomas. 2009: Gebärdensprache als Sprache loslassen und sich an neue Ausdrucksformen wagen. In: Das Zeichen 81, 38-47. Becker, Claudia. 2001: Gebärdenbildungsprozesse in der Deutschen Gebärdensprache. Zur Rolle von Komposita. In: Leuninger, Helen / Wempe, Karin (Hg.): Gebärdensprachlinguistik 2000. Theorie und Anwendung. Hamburg: Signum, 147-167. Becker, Claudia. 2003: Verfahren der Lexikonerweiterung in der Deutschen Gebärdensprache. Hamburg: Signum. [Dissertation]. Bellugi, Ursula / Klima, Edward. 1976: Two Faces of Sign: Iconic and Abstract. In: Annals of the New York Academy of Sciences, vol. 280, 514-538. Bellugi, Ursula / Newkirk, Don. 1981: Formal devices for creating new signs in American Sign Language. In: Sign Language Studies 30, 1-35. Bentele, Susanne. 2002: Zu Leistungen und Grenzen von Gebärdenschriftsystemen. Universität Hamburg. [Unveröffentl. Magisterarbeit]. Bergenholtz, Henning / Pedersen, Jette. 1994: Zusammensetzung von Textkorpora für die Fachlexikographie. In: Schaeder, Burkhard / Bergenholtz, Henning (Hg.): Fachlexikographie. Fachwissen und seine Repräsentation in Wörterbüchern. Tübingen: Narr, 161-176. Bergman, Brita / Pizzuto, Elena. 1999: Overview of tools: some notes taken during the final session. European Science Foundation Network INTERSIGN. Workshop on Text Corpora and Tagging syntax and morphology, Certosa di Pontignano (Siena, Italy), March 12-15, 1999. [Online im Internet; URL: http: / / www.sign-lang.unihamburg.de/ Intersign/ Workshop3/ Penny_wish_list.html]. Bergman, Brita / Wallin, Lars. 2001: A preliminary analysis of visual mouth segments in Swedish Sign Language. In: Boyes Braem, Penny / Sutton-Spence, Rachel (eds.): The hands are the head of the mouth. The mouth as articulator in sign language. Hamburg: Signum, 51-68. Bergman, Brita / Boyes Braem, Penny / Hanke, Thomas / Pizzuto, Elena. 2001: Guest Editors' Preface. In: Sign Language & Linguistics 4, 1/ 2, 3-7. Biber, Douglas. 1994: Representativeness in Corpus Design. In: Zampolli, Antonio / Calzolari, Nicoletta / Palmer, Martha Stone (eds.): Current Issues in Computational Linguistics: in Honour of Don Walker. Dordrecht/ Pisa: Kluwer/ Giardini, 377-408. Bird, Steven / Liberman, Mark. 2001: A formal framework for linguistic annotation. In: Speech Communication 33, 1-2, 23-60. Blanche-Benveniste, Claire. 1987: Le français parlé. Transcription et édition. Paris: Didier Érudition. Blanche-Benveniste, Claire. 2000: Types de corpus. In: Bilger, Mireille (éd.): Corpus. Méthodologie et applications linguistiques. Paris: Champion, 11-25. Bloomfield, Leonard. 1965: Language. Reprint. London: Allen & Unwin. [1. Aufl. 1933]. <?page no="246"?> 246 Bonnal-Vergès, Françoise. 2005: Sémiogenèse de la langue des signes française LSF. Étude critique des signes attestés sur support papier depuis le XVIIIe siècle et nouvelles perspectives de dictionnaires. 2 vol. Toulouse: Université de Toulouse 2. [Unveröffentl. Dissertation]. Bonnal-Vergès, Françoise. 2006: Metalexikographie und „Neolexikographie“ der Französischen Gebärdensprache LSF. In: Das Zeichen 73, 260-275. Boutet, Dominique / Garcia, Brigitte. 2006: Finalités et enjeux linguistiques d’une formalisation graphique de la Langue des signes Française (LSF). In: Glottopol. Revue de sociolinguistique en ligne, n°7, janvier 2006: Les langues des signes (LS): recherches sociolinguistiques et linguistiques (éd. par Richard Sabria), 32-52. Bowker, Lynne / Pearson, Jennifer. 2002: Working with Specialized Language: a practical guide to using corpora. London: Routledge. Boyes Braem, Penny. 1981: Features of the Handshape in American Sign Language. University of California, Berkeley. [Unveröffentl. Dissertation]. Boyes Braem, Penny. 1995: Einführung in die Gebärdensprache und ihre Erforschung. 3. überarb. Aufl. Hamburg: Signum. Boyes Braem, Penny. 2001: Sign language text transcription and analyses using ’Microsoft Excel’. In: Sign Language & Linguistics 4, 1/ 2, 241-250. Boyes Braem, Penny / Sutton-Spence, Rachel (eds.). 2001: The hands are the head of the mouth. The mouth as articulator in sign language. Hamburg: Signum. Brennan, Mary. 1992: The visual world of BSL. An introduction. In: Brien, David (ed.): Dictionary of British Sign Language/ English. London: Faber and Faber, 2-133. Brentari, Diane / Padden, Carol A. 2001: Native and foreign vocabulary in American Sign Language: a lexicon with multiple origins. In: Brentari, Diane (ed.): Foreign vocabulary in sign languages: A cross-linguistic investigation of word formation. Mahwah, NJ: Erlbaum, 87-119. Brentari, Diane / Eccarius, Petra. 2010: Handshape contrasts in sign language phonology. In: Brentari, Diane (ed.): Sign Languages. Cambridge University Press, 284-311. Brien, David (ed.). 1992: Dictionary of British Sign Language/ English. London: Faber and Faber. Brien, David / Brennan, Mary. 1995a: Gebärdensprach-Wörterbücher - Probleme und Entwicklungen. In: Das Zeichen 33, 318-334. Brien, David / Brennan, Mary. 1995b: Sign language dictionaries: Issues and developments. In: Bos, Heleen F. / Schermer, Gertrude M. (eds.): Sign Language Research 1994: Proceedings of the Fourth European Congress on Sign Language Research, Munich, September 1-3, 1994. Hamburg: Signum, 313-338. Brien, David / Turner, Graham H. 1994: Lemmas, dilemmas and lexicographical anisomorphism. Presenting meanings in the first BSL-English dictionary. In: Ahlgren, Inger / Bergman, Brita / Brennan, Mary (eds.): Perspectives on sign language usage. Papers from the Fifth International Symposium on Sign Language Research. Held in Salamanca, Spain, 25-30 May. 1992. Vol. 2. Durham: isla, 391-407. BTS (2001) = The Berkeley Transcription System (BTS) Manual. 2001. [PDF-Dokument im Internet; URL: http: / / ihd.berkeley.edu/ btsmanual2001.pdf]. Bugarski, Ranko. 1970: Writing systems and phonological insights. In: Papers of the Chicago Linguistic Society 1970, 453-458. Burger, Susanne. 1997: Transliteration spontansprachlicher Daten. Verbmobil Technisches Dokument 56. München. Caccamise, Frank. 1978: Selection, standardization, and development of technical signs and fingerspelled words. Rochester, NY: NTID. <?page no="247"?> 247 Caccamise, Frank. 1986: Development and selection of technical signs for use in academic and career environments or how should I sign! ? ! In: Ashmore, Donnell H. (ed.): Proceedings of regional conference on postsecondary education for hearing impaired persons. Knoxville, TN: University of Tennessee, 83-96. Caccamise, Frank. 1987: Technical and invented signs. In: Cleve, John V. van (ed.): Gallaudet encyclopedia of deaf people and deafness. Vol. 3. New York, NY: McGraw-Hill Book Company, 131-134. Caccamise, Frank. 1989: Artificial versus natural sign development: A response to Rasmus & Allen. In: Sign Language Studies 63, 127-143. Caccamise, Frank / Oglia, Dolores. 1989: Overview of technical signs project process and materials for sharing. Rochester, NY: NTID. [Unveröffentl. Manuskript]. Caccamise, Frank / Blasdell, Richard / Bradley, Charles. 1976: The American Sign Language lexicon and guidelines for the standarization and development of technical signs. Rochester, N.Y.: National Technical Institute for the Deaf. Caccamise, Frank / Bradley, Charles/ Battison, Robin / Blasdell, Richard / Warren, Katherine Norton / Hurwitz, Tracy. 1977: A project for standardization and development of technical signs. In: American Annals of the Deaf 1, 44-49. Caccamise, Frank / Ayers, Robert / Finch, Karen L. / Mitchell, Marilyn. 1978a: Signs and manual communication systems: selection, standardization, and development. In: American Annals of the Deaf. 123, 877-902. Caccamise, Frank / Mitchell, Marilyn / Newell, William J. / Forman, Joan / Menkis, Paul / Basile, Mary Lou. 1978b: Update of a process for selection, standardization, and development (SSD) of signs and fingerspelled words (FSW). In: Caccamise, Frank / Hicks, Doin (eds.): ASL in a bilingual, bicultural context. Proceedings of The Second National Symposium on Sign Language Research and Teaching. Coronado, CA: NAD, 291-326. Caccamise, Frank / Newell, William J. / Mitchell-Caccamise, Marilyn. 1981: A nationally based project for collection, evaluation, selection & recording (CESR) of signs & fingerspelled words used in academic & career environments. In: Propp, George (ed.): 1980’s schools. Portals to century XXI. Washington, DC: CAID, 114-126. Caccamise, Frank / Newell, William J. / Mitchell-Caccamise, Marilyn / Naiman, Phyllis / Outermans, Laurie / Pocobello, Donna / Smith, Nancy / Aron, Brenda. 1982: Technical signs 1. Project overview. 2nd. rev. ed. Rochester: Rochester Institute of Technology. Caccamise, Frank / Brewer, Laurie / Meath-Lang, Bonnie. 1983: Selections of signs and sign languages for use in clinical and academic settings. [Unveröffentl. Manuskript]. Caccamise, Frank / Newell, William J. / Mitchell, Marilyn / Naiman, Phyllis / Outermans, Laurie / Gustina, Donna / Smith, Nancy / Liebman Aron, Brenda / Oglia, Dolores. 1993: Technical signs. Manuals 1 and 2: Project overview and reading sign diagrams. 4th ed. Rochester: Rochester Institute of Technology. Caccamise, Frank / Ayers, Robert / Finch, Karen L. / Mitchell, Marilyn. 1997: Signs and Manual Communication Systems. Selection, Standardization, and Development. In: American Annals of the Deaf 142, 3, 90-105. Caccamise, Frank / Newell, William. 2010. SECTION 10. CONNECTING AMERICAN SIGN LANGUAGE (ASL) INSTRUCTION AND THE SIGN LANGUAGE PRO- FICIENCY INTERVIEW (SLPI). February 2010 (19th ed.). [Online im Internet: URL: http: / / www.rit.edu/ ntid/ slpi/ sites/ default/ files/ SLPI_S10.pdf]. <?page no="248"?> 248 Calzolari, Nicoletta. 2007: Corpus-based lexicon building. An overview across projects, problems, approaches. In: Teubert, Wolfgang / Krishnamurthy, Ramesh (eds.): Corpus Linguistics. Critical concepts in Linguistics. Vol. 3. London/ New York: Routledge, 112-139. [Original in: Linguistica Computazionale 16/ 17,1, 2003: Special Issue: Linguistica Computazionale a Pisa/ Computational Linguistics in Pisa (ed. by Zampolli, Antonio / Calzolari, Nicoletta / Cignoni, Laura), 79-116]. Chomsky, Noam. 1957: Syntactic Structures. The Hague/ Paris: Mouton. Clear, Jeremy / Fox, Gwyneth / Francis, Gill / Krishnamurthy, Ramesh / Moon, Rosamund. 1996: COBUILD: The State of the Art. In: International Journal of Corpus Linguistics 1, 2, 303-314. Cogill-Koez, Dorothea. 2000a: A model of signed language ‘classifier predicates’ as templated visual representation. In: Sign Language & Linguistics 3, 2, 209-236. Cogill-Koez, Dorothea. 2000b: Signed language classifier predicates. Linguistic structures or schematic visual representation? In: Sign Language & Linguistics 3, 2, 153-207. Conrad, Reuben 1979: The Deaf School Child. London: Harper & Row. Corpora. Corpus-based language Learning, Language Processing and Linguistics. (ed. by Tony McEnery & Randi Reppen). [Online im Internet; URL: http: / / www.eupjournals.com/ page/ cor/ editorialBoard]. Corpus Linguistics and Linguistic Theory (ed. by Stefan Gries & Anatol Stefanowitsch. [Online im Internet; URL: http: / / www.degruyter.de/ journals/ cllt/ detailEn.cfm]. Coulmas, Florian. 1984: Arbitrariness and double articulation in writing. In: Henderson, Leslie (ed.): Orthographies and Reading. Perspectives from Cognitive Psychology, Neuropsychology, and Linguistics. London u.a.: Erlbaum, 57-66. Crasborn, Onno / Hanke, Thomas. 2003: Additions to the IMDI metadata set for sign language corpora. Agreements at an ECHO workshop, May 8-9, 2003, Nijmegen University. [PDF-Dokument im Internet; URL: http: / / www.let.ru.nl/ sign-lang/ echo/ docs/ ECHO_Metadata_SL.pdf]. Crasborn, Onno / Sloetjes, Han. 2008: Enhanced ELAN functionality for sign language corpora. In: Crasborn, Onno / Efthimiou, Eleni / Hanke, Thomas / Thoutenhoofd, Ernst D. / Zwitserlood, Inge (eds.). LREC 2008 Workshop Proceedings. W 25: 3rd Workshop on the Representation and Processing of Sign Languages: Construction and Exploitation of Sign Language Corpora. Paris: ELRA, 39-43. [PDF-Dokument im Internet; URL: http: / / www.lrec-conf.org/ proceedings/ lrec2008/ workshops/ W25_Proceedings.pdf]. Crasborn, Onno / Sloetjes, Han. 2010: Using ELAN for annotating sign language corpora in a team setting. In: Dreuw, Philippe / Efthimiou, Eleni / Hanke, Thomas / Johnston, Trevor / Martínez Ruiz, Gregorio / Schembri, Adam (eds.). LREC 2010 Workshop Proceedings. 4th Workshop on the Representation and Processing of Sign Languages: Corpora and Sign Language Technologies, 61-64. Crasborn, Onno / Zwitserlood, Inge. 2008a: The Corpus NGT: an online corpus for professionals and laymen. In: Crasborn, Onno / Efthimiou, Eleni / Hanke, Thomas / Thoutenhoofd, Ernst D. / Zwitserlood, Inge (eds.). LREC 2008 Workshop Proceedings. W 25: 3rd Workshop on the Representation and Processing of Sign Languages: Construction and Exploitation of Sign Language Corpora.Paris: ELRA, 44- 49. [PDF-Dokument im Internet; URL: http: / / www.lrec-conf.org/ proceedings/ lrec2008/ workshops/ W25_Proceedings.pdf]. <?page no="249"?> 249 Crasborn, Onno / Zwitserlood, Inge. 2008b: Annotation of the video data in the Corpus NGT. Nijmegen: Radboud University. [Online im Internet; URL: http: / / www.ru.nl/ aspx/ download.aspx? File=/ contents/ pages/ 515436/ corpusngt_annotationconventions.pdf]. Crasborn, Onno / Zwitserlood, Inge / Ros, Johan. 2008: Corpus NGT. An open access digital corpus of movies with annotations of Sign Language of the Netherlands. Centre for Language Studies, Radboud University Nijmegen. [Online im Internet; URL: http: / / www.ru.nl/ corpusngt/ ]. Cremer, Inge / Schulte, Ernst. 2002: Schriftsprachkompetenz Hörgeschädigter im Hinblick auf die berufliche Qualifizierung. In: Hörgeschädigtenpädagogik 1, 4-12. Croft, William. 2001: Radical Construction Grammar. Oxford u.a.: Oxford University Press. Cuxac, Christian. 1985: Esquisse d'une typologie des langues des signes. In: Cuxac, Christian: Autour de la langue des signes. Journée d'études 10, 4.6.1983. Paris: Académie de Paris - Université René Descartes, Sorbonne, 35-60. Cuxac, Christian. 1993: Iconicité des Langues des Signes. In: Faits de Langue 1, 47-56. Cuxac, Christian. 1996: Fonctions et structures de l’iconicité dans les langues des signes; analyse descriptive d’un idiolecte parisien de la Langue des Signes Française. Université de Paris V. [Unveröffentl. Dissertation]. Cuxac, Christian. 1997: Iconicité et mouvement des signes en langue des signes française. In: Le mouvement: des boucles sensorimotrices aux représentations langagières. Actes de la Sixième École d’été de l’Association pour la recherche cognitive organisée par Jean Lorenceau, Arlette Streri, Bernard Victorri et Yves-Marie Visetti, Juillet 1997, 205-218. Cuxac, Christian. 2000: La langue des Signes Française (LSF). Les voies de l’iconicité. Paris: Ophrys. Cuxac, Christian. 2001: Les Langues des signes: analyseurs de la faculté de langage. In: Acquisition et Interaction en Langue Ètrangère (A.I.L.E.) 15, 11-36. Cuxac, Christian. 2003: Une langue moins marquée comme analyseur langagier: l’exemple de la LSF. In: La nouvelle revue de l’AIS, 23,3, 19-30. Cuxac, Christian. 2004: «Phonétique» de la LSF: Une formalisation problématique. In: Silexicales 4. (Linguistique de la LSF: recherches actuelles. Actes du colloque de Villeneuve d’Ascq, 23-24 sept. 2003), 93-113. Cuxac, Christian / Pizzuto, Elena A. 2010: Émergence, norme et variation dans les langues des signes: vers une redéfiniton notionnelle. In: Langage et société, n° 131, mars 2010, 37-53. Cuxac, Christian / Sallandre, Marie-Anne. 2008: Iconicity and arbitrariness in French Sign Language: Highly iconic structures, degenerated iconicity and grammatic iconicity. In: Pizzuto, Elena / Pietrandrea, Paola / Simone, Rafaele (eds.): Verbal and Signed Languages. Comparing Structure, Constructs, and Methodologies. Berlin/ New York, NY: de Gruyter, 13-33. Dalle, Patrice. 2006: AnCoLIn. Logiciel d’annotation de corpus intégrant du traitement d’images. [PDF-Dokument im Internet; URL: http: / / www.lesiris.free.fr/ EetR/ Conf/ TI-LS/ AnCoLin.pdf]. Danielzik, Nicole. 2003: Die hörende Hochschule: Möglichkeiten und Grenzen eines integrierten Studiums für Gehörlose. In: Hillert, Gudrun / Heßmann, Jens (Hg.): Mehr lernen: Gehörlose in der nachschulischen Bildung. Beiträge zur internationalen Fachtagung des EU-Leonardo-da-Vinci-Projekts MAS in Berlin, 6./ 7. September 2002. Magdeburg: Verlag der Erich-Weinert-Buchhandlung, 129-137. DeMatteo, Asa. 1977: Visual imagery and visual analogues in American Sign Language. In: Friedman, Lynn A. (ed.): On the other hand: New perspectives on American Sign Language. New York: Academic Press, 109-136. <?page no="250"?> 250 Derrida, Jacques. 1992: Grammatologie. 4. Aufl. Frankfurt a.M.: Suhrkamp. [Orig. 1967: De la grammatologie]. DGS-Aufbau-Lexikon. 1998. Aachen: Microbooks/ Desire. [CD-ROM]. DGS-Basis-Lexikon. 1998. Aachen: Microbooks/ Desire. [CD-ROM]. DGS-Phrasensammlung. 1998. Aachen: Microbooks/ Desire. [CD-ROM]. Di Renzo, Alessio / Lamano, Luca / Lucioli, Tommaso / Pennacchi, Barbara / Ponzo, Luca. 2006: Italian Sign Language: Can we write it and transcribe it with Sign Writing? In: Vettori, Chiara (ed.): LREC 2006. 5th International Conference on Language Resources and Evaluation. Workshops Proceedings. W15. 2nd Workshop on the Representation and Processing of Sign Languages. Lexicographic Matters and Didactic Scenarios. Sunday 28th May, 2006, Genova, Italy. Paris: ELRA, 11-16. Dittmar, Norbert. 2004: Transkription: ein Leitfaden mit Aufgaben für Studenten, Forscher und Laien. 2. Aufl. Wiesbaden: Verlag für Sozialwissenschaften. Draxler, Christoph. 2008: Korpusbasierte Sprachverarbeitung. Eine Einführung. Tübingen: Narr. Dreuw, Philippe / Efthimiou, Eleni / Hanke, Thomas / Johnston, Trevor / Martínez Ruiz, Gregorio / Schembri, Adam (eds.). 2010: LREC 2010 Workshop Proceedings. 4th Workshop on the Representation and Processing of Sign Languages: Corpora and Sign Language Technologies. [PDF-Dokument im Internet; URL: http: / / www.lrec-conf.org/ proceedings/ lrec2010/ workshops/ W13.pdf]. Ebbinghaus, Horst. 1996: Direktionale Verben in gebärdensprachlichen Handlungsszenarien - Zum Verhältnis von Syntax, Topographie und szenischem Gehalt gebärdensprachlicher Räume. In: Das Zeichen 38, 544-553. Ebbinghaus, Horst. 1998a: Warum deutsche Wörter wesentliche Bestandteile der Deutschen Gebärdensprache sind. Teil 1. In: Das Zeichen 45, 443-451; Teil 2. In: Das Zeichen 46, 594-611. Ebbinghaus, Horst. 1998b: Eine Gebärdensprache ist eine Gebärdensprache ist eine Gebärdensprache. Erwiderung auf die Stellungnahmen zu meinem im vorletzten Zeichen erschienenen Artikel. In: Das Zeichen 45, 420-423. Ebbinghaus, Horst. 1998c: Theoretische Sprachauffassung und sprachliche Wirklichkeit. Anmerkungen zu einem Interview mit Helen Leuninger und Pater Amandus im Zeichen. In: Das Zeichen 43, 84-91. Ebbinghaus, Horst. (in Vorb.): Gebärdensprache und Lautsprache im Kontakt. In: Eichmann, Hanna / Hansen, Martje / Heßmann, Jens: Handbuch Deutsche Gebärdensprache: Sprachwissenschaftliche und anwendungsbezogene Perspektiven. Hamburg: Signum. Ebbinghaus, Horst / Heßmann, Jens. 1989: Gehörlose, Gebärdensprache, Dolmetschen. Chancen der Integration einer sprachlichen Minderheit. Hamburg: Signum. Ebbinghaus, Horst / Heßmann, Jens. 1990: Deutsche Wörter in der Deutschen Gebärdensprache - Theoretische Überlegungen zu einem empirischen Tatbestand. In: Das Zeichen 11, 60-71. Ebbinghaus, Horst / Heßmann, Jens. 1991: Gebärdensprachen Gehörloser als Gegenstand der Semiotik. Von den Grenzen der Nützlichkeit linguistischer Beschreibungsmodelle. In: Das Zeichen 15, 55-65. Ebbinghaus, Horst / Heßmann, Jens. 1994a: Formen und Funktionen von Ablesewörtern in gebärdensprachlichen Äußerungen. Teil I. In: Das Zeichen 30, 480-487. Ebbinghaus, Horst / Heßmann, Jens. 1994b: Identifikation gebärdensprachlicher Einheiten als Problem der Datenaufbereitung. [Unveröffentl. Arbeitspapier]. <?page no="251"?> 251 Ebbinghaus, Horst / Heßmann, Jens. 1996: Signs and words. Accounting for spoken language elements in German Sign Language. In: Edmondson, William H. / Wilbur, Ronnie B. (eds.): International Review of Sign Linguistics 1. Mahwah, N. J.: Erlbaum, 23-56. Ebbinghaus, Horst / Heßmann, Jens. 2000: Leben im Kommunikationskonflikt. Zur Ungleichsprachigkeit Hörender und Gehörloser. In: Hess-Lüttich, Ernest W. B. / Schmitz, H. Walter (Hg.): Botschaften Verstehen. Kommunikationstheorie und Zeichenpraxis. Festschrift für Helmut Richter. Frankfurt a.M.: Lang, 47-66. Ebbinghaus, Horst / Heßmann, Jens. 2001: Sign language as multidimensional communication: Why manual signs, mouthings, and mouth gestures are three different things. In: Boyes Braem, Penny / Sutton-Spence, Rachel (eds.): The hands are the head of the mouth: The mouth as articulator in sign language. Hamburg: Signum, 133-151. Eisenwort, Brigitte / Volmann, Ralph / Willinger, Ulrike / Holzinger, Daniel. 2002: Zur Schriftsprachkompetenz erwachsener Gehörloser. In: Folia phoniatrica et logopaedica 54, 258-268. Emde, Doris. 2005: Ikonizität und der Wandel ihres Stellenwertes innerhalb der neueren Gebärdensprachforschung. Universität Hamburg. [Unveröffentl. Magisterarbeit]. Engelberg, Stefan / Lemnitzer, Lothar. 2001: Lexikographie und Wörterbuchbenutzung. Tübingen: Stauffenburg. Équipe DELIC. 2003: Présentation du Corpus de Référence du français parlé. In: Recherches sur le français parlé 18, 11-42. [Online im Internet; URL: http: / / sites.univ-provence.fr/ veronis/ pdf/ 2004-presentation-crfp.pdf]. Erlenkamp, Sonja. 1998: Lexikographie als Teil einer Minderheitenpolitik - Minderheitenpolitik als Teil einer Lexikographie. In: Das Zeichen 43, 98-105. Erlenkamp, Sonja. 2000: Syntaktische Kategorien und lexikalische Klassen. Typologische Aspekte der Deutschen Gebärdensprache. München: Lincom Europa. [Dissertation]. Fellbaum, Christiane. 2005: Theories of semantic representation of the mental lexicon. In: Cruse, Alan / Hundsnurscher, Franz / Job, Michael / Lutzeier, Peter R. (Hg.): Lexikologie/ Lexikology: Ein internationales Handbuch zur Natur und Struktur von Wörtern und Wortschätzen, 2. Halbband. Berlin: de Gruyter, 1749-1757. Fischer, Renate / Kollien, Simon. 2006: Constructed action in DGS: Roses Aktions= Fragmente. Teil I. In: Das Zeichen 72, 96-106; Teil II. In: Das Zeichen 74, 448-463. Fischer, Renate / Flessa, Simone / Kollien, Simon. 1995: Betreff: Fachgebärdenlexika. Stellungnahme des Zentrums für Deutsche Gebärdensprache. In: Das Zeichen 34, 505-506. Fleck, Ludwik. 1980: Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv. Frankfurt a.M.: Suhrkamp. Fluck, Hans-Rüdiger. 1996: Fachsprachen. 5. Aufl. Tübingen: Francke. Friedman, Lynn A. (ed.). 1977: On the other hand: New perspectives on American Sign Language. New York: Academic Press. Frishberg, Nancy. 1975: Arbitrariness & Iconicity: Historical change in American Sign Language. In: Language 51, 696-719. Frishberg, Nancy. 1980: Historical Change: From Iconic to Arbitrary. In: Klima, Edward S. / Bellugi, Ursula (eds.): The signs of language. 3rd printing. Cambridge, Mass; London: Harvard University Press. Garcia, Brigitte. 2000: Contribution à l’histoire des débuts de la recherche linguistique sur la Langue des Signes Française (LSF). Les travaux de Paul Jouison. 2 Tomes. Université Paris V. [Unveröffentl. Dissertation]. <?page no="252"?> 252 Garcia, Brigitte. 2006a: The Methodological, Linguistic and Semiological Bases for the Elaboration of a Written Form of French Sign Language LSF. In: Vettori, Chiara (ed.): LREC 2006. 5th International Conference on Language Resources and Evaluation. Workshops Proceedings. W15. 2nd Workshop on the Representation and Processing of Sign Languages. Lexicographic Matters and Didactic Scenarios. Sunday 28th May. 2006. Genova - Italy. Paris: ELRA, 31-36. Garcia, Brigitte. 2006b: Welche Schrift für die Gehörlosen? Aspekte einer qualitativen Untersuchung bei den gehörlosen Nutzern der Französischen Gebärdensprache (LSF). In: Das Zeichen 72, 107-117. Garcia, Brigitte. 2010: Sourds, surdité, langue(s) des signes et épistémologie des sciences du language. Problématiques de la scripturisation et modélisation des bas niveaux en Langue des Signes Française (LSF). Vol. 1: mémoire de synthèse. Habilitation à Diriger des Recherches. Paris: Université de Paris 8. Garcia, Brigitte / Boutet, Dominique / Roch, Gaëlle. 2008: The morpho-phonetic structuring of LSF (French Sign Language). In: de Quadros, Ronice M. (ed.): Sign Languages: spinning and unraveling the past, present and future. TISLR9, forty five papers and three posters from the 9th. Theoretical Issues in Sign Language Research Conference, Florianopolis, Brazil, December 2006. Editora Arara Azul. Petrópolis/ RJ. Brazil, 125-139. [Online im Internet; URL: http: / / editora-arara-azul.com.br/ ebooks/ catalogo/ complete.pdf]. Girod, Michel (éd.). 1997: La Langue des Signes. Dictionnaire Bilingue LSF/ Français. Tome 2 et 3. Paris: I.V.T. Edition. Glück, Helmut (Hg.). 2004: Metzler Lexikon Sprache. Berlin: Directmedia Publishing. [CD-ROM]. Goebl, Hans. 1988: Die Sprachatlanten der europäischen Romania: Entstehung, Struktur und Aufbau sowie ihre Leistung für die Wort- und Sachforschung. In: Wörter und Sachen, 249-287. Goldberg, Adele E. 2006: Constructions at Work: The Nature of Generalization in Language. Oxford: Oxford University Press. Grbi ć , Nadja. 2004: Zur Qualität der Fachkommunikation Gehörloser im IT-Bereich. In: Göpferich, Susanne / Engberg, Jan (Hg.): Qualität fachsprachlicher Kommunikation. Tübingen: Narr, 199-217. Grbi ć , Nadja / Andree, Barbara / Grünbichler, Sylvia. 2004: Zeichen setzen. Gebärdensprache als wissenschaftliche und gesellschaftspolitische Herausforderung. Graz: ITAT. Grundgebärden 1. Für Einsteiger. 1999. Hamburg: Verlag hörgeschädigte kinder. [CD-ROM]. Grundgebärden 2. 2000. Hamburg: Verlag hörgeschädigte kinder. [CD-ROM]. Günther, Klaus-Burkhard. 1982: Schriftsprache bei hör- und sprachgeschädigten Kindern. Bedeutung und Funktion für Sprachaufbau und Entwicklung, dargestellt am Beispiel gehörloser Kinder. Heidelberg: Groos. Günther, Klaus-Burkhard. 1990: Zweisprachigkeit von Anfang an durch Gebärden- und Schriftsprache. Neue Perspektiven für die Gehörlosenpädagogik. Teil I. In: Das Zeichen 13, 293-306. Gutjahr, Anna E. 2006: Lesekompetenz Gehörloser: Ein Forschungsüberblick. Universität Hamburg. [Unveröffentl. Hausarbeit]. Halliday, Michael. 1994: An Introduction to Functional Grammar. 2nd ed. London: Edward Arnold. Halliday, Michael. 2004: Lexicology. In: Halliday, Michael / Teubert, Wolfgang / Yallop, Colin / Č ermáková, Anna: Lexicology and Corpus Linguistics. An Introduction. London/ New York: Continuum. <?page no="253"?> 253 Halliday, Michael / Teubert, Wolfgang / Yallop, Colin / Č ermáková, Anna. 2004: Lexicology and Corpus Linguistics. An Introduction. London/ New York: Continuum. Hanke, Thomas. 2001: Sign language transcription with syncWRITER. In: Sign Language & Linguistics 4, 1/ 2, 275-283. Hanke, Thomas. 2002: iLex. A tool for Sign Language Lexicography and Corpus Analysis. In: González Rodriguez, Manuel / Paz Suarez Araujo, Carmen (eds.): Proceedings of the third International Conference on Language Resources and Evaluation. Las Palmas de Gran Canaria, Spain; Vol. III. Paris: ELRA, 923-926. Hanke, Thomas. 2004: HamNoSys. Representing sign language data in language resources and language processing contexts. In: Streiter, Oliver / Vettori, Chiara (eds.): LREC 2004, Workshop proceedings. Representation and processing of sign languages. Paris: ELRA, 1-6. Hanke, Thomas. 2006: Towards a Corpus-based Approach to Sign Language Dictionaries. In: Vettori, Chiara (ed.): LREC. 2006. 5th International Conference on Language Resources and Evaluation. Workshops Proceedings. W15. 2nd Workshop on the Representation and Processing of Sign Languages. Lexicographic Matters and Didactic Scenarios. Sunday 28th May. 2006. Genova - Italy. Paris: ELRA, 70-73. Hanke, Thomas / Prillwitz, Siegmund. 1995: syncWRITER: Integrating video into the transcription and analysis of sign language. In: Bos, Helen / Schermer, Trude (eds.): Sign Language Research 1994: Proceedings of the Fourth European Congress on Sign Language Research, Munich, Sept. 1-3, 1994, 303-312. Hanke,Thomas / Storz, Jakob. 2008: iLex - A Database Tool for Integrating Sign Language Corpus Linguistics and Sign Language Lexicography. In: Crasborn, Onno / Efthimiou, Eleni / Hanke, Thomas / Thoutenhoofd, Ernst D. / Zwitserlood, Inge (eds.): LREC 2008 Workshop Proceedings. W 25: 3rd Workshop on the Representation and Processing of Sign Languages: Construction and Exploitation of Sign Language Corpora. Paris: ELRA, 64-67. [PDF- Dokument im Internet; URL: http: / / www.lrecconf.org/ proceedings/ lrec2008/ workshops/ W25_Proceedings.pdf]. Hanke, Thomas / Meyenn, Alexander von / Zienert, Renate. 1995: HamNoSys. Version 3.0. [Unveröffentl. Manuskript]. Hanke, Thomas / Konrad, Reiner / Schwarz, Arvid. 2001: GlossLexer. A multimedia lexical database for sign language dictionary compilation. In: Sign Language & Linguistics 4, 1/ 2, 171-189. Hanke, Thomas / Storz, Jakob / Wagner, Sven. 2010: iLex: Handling Multi-Camera Recordings. In: Dreuw, Philippe / Efthimiou, Eleni / Hanke, Thomas / Johnston, Trevor / Martínez Ruiz, Gregorio / Schembri, Adam (eds.). LREC 2010 Workshop Proceedings. 4th Workshop on the Representation and Processing of Sign Languages: Corpora and Sign Language Technologies, 110-111. Hansen, Martje. 2007: Warum braucht die Deutsche Gebärdensprache kein Passiv? Verfahren der Markierung semantischer Rollen in der DGS. Frankfurt a.M.: Lang. [Dissertation]. Happ, Daniela / Hohenberger, Annette. 1998: Gebärdensprache und Mundbild. Eine Entgegnung auf Ebbinghaus. In: Das Zeichen 44, 262-267. Harrison, David K. 2007: When Languages Die: The Extinction of the World’s Languages and the Erosion of Human Knowledge. Oxford: Oxford University Press. Helbig, Gerhard. 1998: Zum Verhältnis von Grammatik und Lexikon. In: Barz, Irmhild / Öhlschläger, Günther (Hg.): Zwischen Grammatik und Lexikon. Tübingen: Niemeyer, 1-10. <?page no="254"?> 254 Henke, Margret / Heßmann, Jens. 1995: Schritte aufeinander zu. In: Das Zeichen 32, 170-172. Herbermann, Clemens-Peter. 2002: Das Wort als lexikalische Einheit. In: Cruse, Alan / Hundsnurscher, Franz / Job, Michael / Lutzeier, Peter R. (Hg.): Lexikologie/ Lexikology: Ein internationales Handbuch zur Natur und Struktur von Wörtern und Wortschätzen, 1. Halbband. Berlin: de Gruyter, 14-33. Heßmann, Jens. 1996: Eigennamen in der Deutschen Gebärdensprache. In: Das Zeichen 44, 262-269. Heßmann, Jens. 2001a: GEHÖRLOS SO! Materialien zur Gebärdensprache. Bd. 1: Grundlagen und Gebärdenverzeichnis; Bd. 2: Gebärdensprachtexte. Hamburg: Signum. Heßmann, Jens. 2001b: GEHÖRLOS SO! Materialien zur Gebärdensprache. Hamburg: Signum. [Video]. Himmelmann, Nikolaus. 1998: Documentary and descriptive linguistics. In: Linguistics 36, 161-195. Himmelmann, Nikolaus. 2006: The challenges of segmenting spoken language In: Gippert, Jost / Himmelmann, Nikolaus / Mosel, Ulrike (eds.): Essentials of Language Documentation. Mouton de Gruyter: Berlin/ New York, 253-274. Hockett, Charles F. 1960: The origin of speech. In: Scientific American 203, 88-96. Hoffmann, Lothar / Kalverkämper, Hartwig / Wiegand, Herbert Ernst (Hg.). 1997: Fachsprachen: ein internationales Handbuch zur Fachsprachenforschung und Terminologiewissenschaft - Languages for special purposes. 1. Halbband. Berlin/ New York: de Gruyter. Hoffmann, Lothar / Kalverkämper, Hartwig / Wiegand, Herbert Ernst (Hg.). 1999: Fachsprachen: ein internationales Handbuch zur Fachsprachenforschung und Terminologiewissenschaft - Languages for special purposes. 2. Halbband. Berlin/ New York: de Gruyter. Hohenberger, Annette / Happ, Daniela. 2001: The linguistic primacy of signs and mouth gestures over mouthings. Evidence from language production in German Sign Language DGS. In: Boyes Braem, Penny / Sutton-Spence, Rachel (eds.): The hands are the head of the mouth. The mouth as articulator in sign language. Hamburg: Signum. 153-189. Hoiting, Nini / Slobin, Dan I. 2002: Transcription as a tool for understandig: The Berkeley Transcription System for sign language research (BTS). In: Morgan, Gary / Woll, Bencie (eds.): Directions in sign language acquisition. Amsterdam/ Philadelphia: Benjamins, 55-75. Holzinger, Daniel / Dotter, Franz. 1997: Typologie und Gebärdensprache: Ikonizität. In: Sprachtypologie und Universalienforschung (STUF) 50, 2, 115-142. Hundt, Markus. 2005: Grammatikalität - Akzeptabilität - Sprachnorm. Zum Verhältnis von Korpuslinguistik und Grammatikalitätsurteilen. In: Lenz, Friedrich / Schierholz, Stefan (Hg.): Korpuslinguistik in Lexik und Grammatik. Tübingen: Stauffenburg, 15-40. ICAME Journal (International Computer Archive of Modern and Medieval English; ed. by Merja Kytö & Anna-Brita Stenström). [Online im Internet; URL: http: / / icame.uib.no/ journal.html]. Ickler, Theodor. (o.J.): „DUDEN: Das große Wörterbuch der deutschen Sprache in zehn Bänden. 3., völlig neu bearbeitete und erweiterte Auflage. Herausgegeben vom Wissenschaftlichen Rat der Dudenredaktion. Mannheim u. a. 1999“. [Online im Internet; URL: http: / / rechtschreibung.com/ Seiten2/ Wissenschaft/ 979IcklerFaelscherDuden.html]. IJCL = International Journal of Corpus Linguistics. (Ed. By Michaela Mahlberg, Wolfgang Teubert & Svenja Adolphs). [Online im Internet; URL: http: / / www.benjamins.com/ cgi-bin/ t_seriesview.cgi? series=Ijcl]. <?page no="255"?> 255 IMDI (ISLE Metadata Initiative) 2003: IMDI Metadata Elements for Session Descriptions, Version 3.0.4, MPI Nijmegen. [PDF-Dokument im Internet; URL: http: / / www.mpi.nl/ IMDI/ documents/ Proposals/ IMDI_MetaData_3.0.4.pdf]. Johnston, Trevor. 1989a: Auslan: The sign language of the Australian deaf community. Vol. 1. University of Sydney. [Dissertation]. [Online im Internet; URL: http: / / homepage.mac.com/ WebObjects/ FileSharing.woa/ wa/ default? user= trevor.a.johnston&templatefn=FileSharing5.html&xmlfn=TKDocu-ment.5.xml&sitefn= RootSite.xml&aff=consumer&cty=US&lang=en]. Johnston, Trevor. 1989b: AUSLAN Dictionary. A Dictionary of the Sign Language of the Australian Deaf Community. Maryborough, Victoria: Australian Print Group. Johnston, Trevor. 1991: Transcription and Glossing of Sign Language Texts: Examples from AUSLAN (Australian Sign Language). In: International Journal of Sign Linguistics, 2, 1, 3-28. Johnston, Trevor (ed.). 1998a: Signs of Australia. A new dictionary of Auslan the sign language of the Australian deaf community. Rev. ed. North Rocks, NSW: North Rocks Press. Johnston, Trevor (ed.). 1998b: Signs of Australia on CD-ROM. A Dictionary of Auslan (Australian Sign Language). North Rocks, NSW: Royal Institute for Deaf and Blind Children. [CD-ROM]. Johnston, Trevor. 2001: The lexical database of Auslan (Australian Sign Language). In: Sign Language & Linguistics 4, 1/ 2, 145-169. Johnston, Trevor. 2004: W(h)ither the Deaf Community? Population, Genetics, and the Future of Australian Sign Language. In: American Annals of the Deaf 148, 5, 358-375. Johnston, Trevor. 2008a: Corpus linguistics and signed languages: no lemmata, no corpus. In: Crasborn, Onno / Efthimiou, Eleni / Hanke, Thomas / Thoutenhoofd, Ernst D. / Zwitserlood, Inge (eds.): LREC 2008 Workshop Proceedings. W 25: 3rd Workshop on the Representation and Processing of Sign Languages: Construction and Exploitation of Sign Language Corpora. Paris: ELRA, 82-87. [PDF-Dokument im Internet; URL: http: / / www.lrec-conf.org/ proceedings/ lrec2008/ workshops/ W25_Proceedings.pdf]. Johnston, Trevor. 2008b: Corpus linguistics and signed languages: no lemmata, no corpus. Paper presented at the 3rd Workshop on the Representation and Processing of Sign Languages, June, 1. LREC, Marrakech, Morocco, May 26-June 1, 2008. [Unveröffentl. Handout zum Vortrag]. Johnston, Trevor. 2010a: Adding value to, and extracting of value from, a signed language corpus through secondary processing: implications for annotation schemas and corpus creation. In: Dreuw, Philippe / Efthimiou, Eleni / Hanke, Thomas / Johnston, Trevor / Martínez Ruiz, Gregorio / Schembri, Adam (eds.). LREC 2010 Workshop Proceedings. 4th Workshop on the Representation and Processing of Sign Languages: Corpora and Sign Language Technologies, 137-142. Johnston, Trevor. 2010b: Guidelines for annotation of the video data in the Auslan Corpus. [Manuskript in ständiger Überarbeitung, Stand: Nov. 2010; aktuelle Version online im Internet; URL: http: / / www.auslan.org.au/ about/ annotations/ ]. Johnston, Trevor. 2010c: From archive to corpus: Transcription and annotation in the creation of signed language corpora. In: International Journal of Corpus Linguistics, 15, 1, 106-131. <?page no="256"?> 256 Johnston, Trevor / de Beuzeville, Louise. 2008: The Auslan corpus: background and guidelines for annotators. [Manuskript in ständiger Überarbeitung, Stand: Mai 2008; aktuelle Version online im Internet; URL: http: / / www.auslan.org.au/ about/ annotations/ ). Johnston, Trevor / Ferrara, Lindsay. 2010: Lexicalization in signed languages: when is an idiom not an idiom? Paper presented at the 3rd UK Cognitive Linguistics Conference, University of Hertfordshire, 6-8 July 2010. Johnston, Trevor / Schembri, Adam. 1996: On Defining and Profiling Lexis in AUSLAN (Australian Sign Language). [Unveröffentl. Manuskript]. Johnston, Trevor / Schembri, Adam. 1999: On Defining Lexeme in a Signed Language. In: Sign Language & Linguistics 2, 2, 115-185. Johnston, Trevor / Schembri, Adam. 2005: The use of ELAN annotation software in the Auslan Archive/ Corpus Project. Presentation at the Ethnographic Research Annotation Conference. University of Melbourne, Feb. 15-16, 2005. Johnston, Trevor / Schembri, Adam. 2006: Issues in the creation of a digital archive of a signed language. In: Barwick, Linda / Thiesberger, Nicholas (eds.): Sustainable data from digital fieldwork. Sydney: Sydney University Press, 7-16. Johnston, Trevor / Schembri, Adam. 2010: Variation, lexicalization and grammaticalization in signed languages. In: Langage et société n° 131, mars 2010, 19-35. Johnston, Trevor / de Beuzeville, Louise / Schembri, Adam / Goswell, Della. 2007: On not missing the point: Indicating verbs in Auslan. Paper presented at the 10th International Cognitive Linguistics Conference, Kraków, Poland (15-20 July). Jouison, Paul. 1995: Ecrits sur la Langue des Signes Française. Paris: L’Harmattan. Kallmeyer, Werner / Zifonun, Gisela (Hg.). 2007: Sprachkorpora. Datenmengen und Erkenntnisfortschritt. Berlin/ New York: de Gruyter. Keller, Jörg. 1998: Mundbilder und Sprachkontakt. Prolegomena zu einer Kinematik und Phonologie von Mundbildern in der Deutschen Gebärdensprache. In: Das Zeichen 45, 424-442. Keller, Jörg. 2001: Multimodal representations and the linguistic status of mouthings in German Sign Language DGS. In: Boyes Braem, Penny / Sutton-Spence, Rachel (eds.): The hands are the head of the mouth. The mouth as articulator in sign language. Hamburg: Signum. 191-230. Keller, Jörg / Zienert, Heiko. 2000: Grundkurs Deutsche Gebärdensprache. Stufe I. Vokabel CD-ROM. Hamburg: Signum. [CD-ROM]. Keller, Jörg / Zienert, Heiko. 2002: Grundkurs Deutsche Gebärdensprache. Stufe II. Vokabel-Video. Hamburg: Signum. [Video]. Kennedy, Graeme. 1996: Designing a dictionary of New Zealand Sign Language. In: Kennedy, Graeme (ed.): Topics in New Zealand Sign Language Studies. Wellington, New Zealand: Victoria University Wellington, 27-48. Kennedy, Graeme. 1998: An introduction to corpus linguistics. London/ New York: Longman. Kennedy, Graeme / Arnold, Richard / Dugdale, Pat / Moskovitz, David. 1998: A dictionary of New Zealand Sign Language. Auckland: Auckland University Press. Kestner, Karin. 2009: Das große Wörterbuch der Deutschen Gebärdensprache. Der umfassende Gebrauchswortschatz in DGS mit 18000 Begriffen und Videos. Guxhagen: Verlag Karin Kestner. [DVD-ROM]. King, Cynthia M. / Quigley, Stephen P. 1985: Reading and deafness. San Diego, CA: College-Hill Press. Klein, Wolfgang. 1985: Gesprochene Sprache - geschriebene Sprache. In: Zeitschrift für Literaturwissenschaft und Linguistik 59 (Schriftlichkeit, hg. v. Wolfgang Klein), 9-35. <?page no="257"?> 257 Klima, Edward S. / Bellugi, Ursula (eds.). 1980a: The signs of language. 3rd printing. Cambridge, MA/ London: Harvard University Press. [1. Aufl. 1979]. Klima, Edward S. / Bellugi, Ursula. 1980b: Iconicity in Signs and Signing. In: Klima, Edward S. / Bellugi, Ursula (eds.): The signs of language. 3rd printing. Cambridge, MA/ London: Harvard University Press. [1. Aufl. 1979], 9-34. Klosa, Annette. 2007: Korpusgestützte Lexikographie: besser, schneller, umfangreicher? In: Kallmeyer, Werner / Zifonun, Gisela (Hg.): Sprachkorpora. Datenmengen und Erkenntnisfortschritt. Berlin/ New York: de Gruyter, 105-122. Koch, Peter / Oesterreicher, Wulf. 1985: Sprache der Nähe - Sprache der Distanz. Mündlichkeit und Schriftlichkeit im Spannungsfeld von Sprachtheorie und Sprachgeschichte. In: Romanistisches Jahrbuch 36, 15-43. Koch, Peter / Oesterreicher, Wulf. 1994: Schriftlichkeit und Sprache. In: Günther, Hartmut / Ludwig, Otto (Hg.): Schrift und Schriftlichkeit. Ein interdisziplinäres Handbuch internationaler Forschung. Berlin/ New York: de Gruyter, 587-604. König, Susanne / Reiner Konrad / Gabriele Langer. 2008: What's in a sign? Theoretical lessons from practical sign language lexicography. In: Quer, Josep (ed.): Signs of the time. Selected papers from TISLR 2004. Hamburg: Signum, 379-404. König, Susanne / Konrad, Reiner / Langer, Gabriele / Nishio, Rie. 2010: How Much Top-Down and Bottom-Up do We Need to Build a Lemmatized Corpus? Poster presented at the Theoretical Issues in Sign Language Research Conference (TISLR 10), Sept 30 - Oct 2, 2010 at Purdue University, Indiana, USA. König, Susanne / Konrad, Reiner / Langer, Gabriele (in Vorb.): Lexikon - Der Wortschatz der DGS. In: Eichmann, Hanna / Hansen, Martje / Heßmann, Jens: Handbuch Deutsche Gebärdensprache: Sprachwissenschaftliche und anwendungsbezogene Perspektiven. Hamburg: Signum. Konrad, Reiner. 1992: Zur Verschriftlichung der Französischen Gebärdensprache. Problematisierende Gegenüberstellung verschiedener Notationssysteme. Universität Hamburg. [Unveröffentl. Magisterarbeit]. Konrad, Reiner. 1999: Eine Gebärde ist eine Gebärde ist eine Gebärde - In der Gebärdensprachlexikographie nichts Neues? In: Das Zeichen 50, 654-657. Konrad, Reiner. 2010a: Die Erstellung von Fachgebärdenlexika am Institut für Deutsche Gebärdensprache (IDGS) der Universität Hamburg (1993-2010). Universität Hamburg. [Online im Internet; URL: http: / / www.sign-lang.uni-hamburg.de/ projekte/ mfl/ konrad_2010_fachgeblexika.pdf]. Konrad, Reiner. 2010b: Transkriptionskonventionen im Vergleich. Universität Hamburg. [Online im Internet; URL: http: / / www.sign-lang.uni-hamburg.de/ projekte/ mfl/ transkrkonv_vergleich.pdf]. Konrad, Reiner. 2010c: Gebärdensprach-Korpora. Universität Hamburg. [Online im Internet; URL: http: / / www.sign-lang.uni-hamburg.de/ dgs-korpus/ index.php/ gs-korpora.html]. Konrad, Reiner / Bentele, Susanne. 1998: Anything goes? oder die Qual der Wahl. Chancen und Risiken einer empirischen Gebärdensprachlexikographie. In: Das Zeichen 43, 92-97. Konrad, Reiner / Langer, Gabriele. 2009: Synergies between transcription and lexical database building: The case of German Sign Language (DGS). In: Mahlberg, Michaela / González-Díaz, Victorina / Smith, Catherine (eds.): Proceedings of the Corpus Linguistics Conference (CL2009). University of Liverpool, UK, 20-23 July 2009. [Online im Internet; URL: http: / / ucrel.lancs.ac.uk/ publications/ cl2009/ 346_FullPaper.doc]. <?page no="258"?> 258 Konrad, Reiner / Hanke, Thomas / Schwarz, Arvid / Prillwitz, Siegmund / Bentele, Susanne. 2000: Fachgebärdenlexikon Hauswirtschaft. 2 Bde. Hamburg: Signum. Konrad, Reiner / Schwarz, Arvid / König, Susanne / Langer, Gabriele / Hanke, Thomas / Prillwitz, Siegmund. 2003: Fachgebärdenlexikon Sozialarbeit/ Sozialpädagogik. Seedorf: Signum. Konrad, Reiner / König, Susanne / Langer, Gabriele / Schwarz, Arvid / Heßmann, Jens. 2004: Gebärde - Bild - Wort: Einsichten aus der praktischen Fachgebärden- Lexikographie. Poster, vorgestellt auf dem 5. Gebärdenworkshop der RWTH Aachen, 29. Okt. 2004. Konrad, Reiner / Langer, Gabriele / König, Susanne / Schwarz, Arvid / Hanke, Thomas / Prillwitz, Siegmund (Hg.). 2007: Fachgebärdenlexikon Gesundheit und Pflege. 2 Bde. Seedorf: Signum. Konrad, Reiner / Langer, Gabriele / König, Susanne / Hanke, Thomas / Rathmann, Christian (Hg.). 2010: Fachgebärdenlexikon Gärtnerei und Landschaftsbau. 2 Bde. Seedorf: Signum. Kooij, Els van der. 2002: Phonological categories in sign language of the Netherlands. The role of phonetic implementation and iconicity. Utrecht: Lot. Kowal, Sabine / O’Connel, Daniel. 1995: Notation und Transkription in der Gesprächsforschung. In: KODIKAS/ CODE: Ars Semiotica 18,1, 113-138. Krausmann, Beate. 1998/ 1999: „anders, nicht selten sehr eigenwillig“ - Schriftsprachliche Kommunikation erwachsener Gehörloser zwischen Normverstößen und Selbstbewußtsein. Teil 1 in: Das Zeichen 46, 581-591; Teil 2 in: Das Zeichen 47, 68-75. Krohn, Dieter. 1992: Grundwortschätze und Auswahlkriterien. Metalexikographische und fremdsprachendidaktische Studien zur Struktur und Funktion deutscher Grundwortschätze. Göteborg: Acta Univ. Gothoburgensis. Kyle, Jim. 1980: Reading development of deaf children. In: Journal of Research in Reading 3, 86-97. Labov, William. 1969: The logic of non-standard English. In: Georgetown Monographs on Language and Linguistics 22. [Reprinted in: Giglioli, Pier Paolo (ed.). 1992: Language and Social Context. London: Penguin]. Lalouschek, Johanna / Menz, Florian. 2002: Empirische Datenerhebung und Authentizität von Gesprächen. In: Brünner, Gisela / Fiehler, Reinhard / Kindt, Walther (Hg.): Angewandte Diskursforschung. Band 1: Grundlagen und Beispielanalysen. Radolfzell: Verlag für Gesprächsforschung, 48-68. Langacker, Ronald W. 1987: Foundations of cognitive grammar. Vol. 1: Theoretical prerequisites. Stanford, CA: Stanford University Press. Langer, Gabriele. 2005: Bilderzeugungstechniken in der Deutschen Gebärdensprache. In: Das Zeichen 70, 254-270. Langer, Gabriele, Bentele, Susanne / Konrad, Reiner. 2002: Entdecke die Möglichkeiten. Zum Verhältnis von Mundbild und Gebärde in Bezug auf die Bedeutung in der DGS. In: Das Zeichen 59, 84-97. Langer, Gabriele / König, Susanne / Konrad, Reiner. 2007: Hintergrundinformationen. In: Konrad, Reiner / Langer, Gabriele / König, Susanne / Schwarz, Arvid / Hanke, Thomas / Prillwitz, Siegmund (Hg.): Fachgebärdenlexikon Gesundheit und Pflege. 2 Bde. Seedorf: Signum, 968-1006. LaSasso, Carol J. / Metzger, Melanie A. 1998: An alternate route for preparing deaf children for bibi programs. The home language as L1 and cued speech for conveying traditionally-spoken languages. In: Journal of Deaf Studies and Deaf Education 4, 3, 265-289. <?page no="259"?> 259 Lefebvre-Albaret, François / Gianni, Frederick / Dalle, Patrice. 2008: Toward an computer-aided sign segmentation. In: Crasborn, Onno / Efthimiou, Eleni / Hanke, Thomas / Thoutenhoofd, Ernst D. / Zwitserlood, Inge (eds.). LREC 2008 Workshop Proceedings. W 25: 3rd Workshop on the Representation and Processing of Sign Languages: Construction and Exploitation of Sign Language Corpora. Paris: ELRA, 123-128. [PDF-Dokument im Internet; URL: http: / / www.lrec-conf.org/ proceedings/ lrec2008/ workshops/ W25_Proceedings.pdf]. Lehmann, Christian. 2004: Data in linguistics. In: The Linguistic Review 21, 3/ 4, 275-310. Lemnitzer, Lothar / Zinsmeister, Heike. 2010: Korpuslinguistik. Eine Einführung. 2. Aufl. Tübingen: Narr. Lenz, Friedrich (Hg.). 2005: Corpuslinguistik in Lexik und Grammatik. Tübingen: Stauffenberg. Lessen-Kloeke, W. U. S. van / Vater, Heinz. 1987: Einführung in die Phonologie. In: Kölner Linguistische Arbeiten Germanistik 16. Leuninger, Helen. 1998: Strukturalismus, DGS und Lexikon. Zwei Antworten. In: Das Zeichen 44, 254-257. Leuninger, Helen / Pater Amandus / Wempe, Karin. 1997: Nur wo Abschied genommen wird, gibt es Platz für neues Leben. In: Das Zeichen 42, 516-526. Leuninger, Helen / Happ, Daniela / Feldmann, Achim. 2000: Relex. Religiöses Gebärden- Lexikon. Frankfurt a.M.: Landesverband der Gehörlosen Hessen. [CD-ROM und Begleitbuch]. Levelt, Willem J. 1989: Speaking: from intention to articulation. Cambridge, MA/ London: MIT Press. Liddell, Scott K. 2003: Grammar, gesture and meaning in American Sign Language. Cambridge: Cambridge University Press. Linell, Per. 1979: Psychological Reality in Phonology: A Theoretical Study. Cambridge: Cambridge University Press. Linell, Per. 1982: The written language bias in linguistics. Linköping: University of Linköping. [Online im Internet; URL: http: / / langs.eserver.org/ linell/ ]. Linell, Per. 2005: The Written Language Bias in Linguistics: its nature, origins and transformations. London: Routledge. List, Gudula / Kelter, Stephanie / Limbach, Asta / Pufahl, Klaus-Günther. 1995: Gehörlose und Schrift. Untersuchungen zum Problem eines schwierigen Zugangs zum Lesen. In: Sprache und Kognition 14, 1, 3-15. Louis-Nouvertné, Ulla. 2001: Zwischen Defizit und Besonderheit - Probleme bei der Messung der Schriftsprachkompetenz Gehörloser. In: List, Günther / List, Gudula (Hg.): Quersprachigkeit: Zum transkulturellen Registergebrauch in Laut- und Gebärdensprachen. Tübingen: Stauffenburg, 301-318. LS-COLIN. 2002: Rapport de fin de recherche. Projet nº: LACO 39: Langues des signes: analyseurs privilégiés de la faculté de langage. Apports croisés d’études linguis-tiques, cognitives et informatiques (traitement et analyse d’image) autour de l’iconicité et de l’utilisation de l’espace. [PDF-Dokument im Internet; URL: http: / / www.irit.fr/ ACTIVITES/ EQ_TCI/ EQUIPE/ dalle/ cognitique/ rapportLSColin.pdf]. LS-SCRIPT. 2008: Projet RIAM 2005-2007. Toulouse: webSOURD [DVD-ROM]. Lucas, Ceil. 2003: The Role of Variation in Lexicography. In: Sign Language Studies 3, 3, 322-340. Lucas, Ceil / Bayley, Robert / Valli, Clayton. 2001: Sociolinguistic Variation in American Sign Language. Washington, DC: Gallaudet University Press. <?page no="260"?> 260 Lüdeling, Anke. 2007: Das Zusammenspiel von qualitativen und quantitativen Methoden in der Korpuslinguistik. In: Zifonun, Gisela / Kallmeyer, Werner (Hg.): Jahrbuch des Instituts für deutsche Sprache 2006. Berlin: de Gruyter, 28-48. Lüdeling, Anke / Kytö, Merja (eds.). 2008-2009: Corpus Linguistics. An International Handbook. Vol. 1 and 2. Berlin/ New York: Walter de Gruyter. Lüdtke, Helmut. 1969: Die Alphabetschrift und das Problem der Lautsegmentierung. In: Phonetica 20, 147-176. Lutzeier, Peter R. 1995: Lexikologie: ein Arbeitsbuch. Tübingen: Stauffenberg. Lutzeier, Peter R. 2002: Der Status der Lexikologie als linguistische Disziplin. In: Cruse, Alan / Hundsnurscher, Franz / Job, Michael / Lutzeier, Peter R. (Hrsg.): Lexikologie/ Lexikology: Ein internationales Handbuch zur Natur und Struktur von Wörtern und Wortschätzen, 1. Halbband. Berlin: de Gruyter, 1-14. Lyons, John. 1980: Semantik I. München: Beck. Maas, Utz. 1986: „Die Schrift ist ein Zeichen für das, was in dem Gesprochenen ist“. Zur Frühgeschichte der sprachwissenschaftlichen Schriftauffassung: das aristotelische und nacharistotelische (phonographische) Schriftverständnis. In: Kodikas/ Code 9, 247-292. Maas, Utz. 1989: Grundzüge der deutschen Orthographie 2. Aufl. Osnabrück: Universität Osnabrück. Macken, Elizabeth / Perry, John / Haas, Cathy. 1993: Richly grounding symbols in ASL. In: Sign Language Studies 81, 375-394. MacWhinney, Brian. 1999: The CHILDES system. In: Ritchie, William C. / Bhatia, Tej K. (eds.): Handbook of child language acquisition. New York: Academic Press, 457-494. MacWhinney, Brian. 2000: The CHILDES Project: Tools for Analyzing Talk. 3rd ed. Vol. 1: Transcription format and programs; Vol. 2: The database. Mahwah, NJ: Erlbaum. MacWhinney, Brian. 2008: The CHILDES Project: Tools for Analyzing Talk - Electronic Edition. Part 1: The CHAT Transcription Format. Carnegie Mellon University. [Aktuelle Version online im Internet: URL: http: / / childes.psy.cmu.edu/ manuals/ chat.pdf]. Maisch, Günter / Wisch, Fritz-Helmut. 1988-1994: Gebärdenlexikon. 4 Bde. Hamburg: Verlag hörgeschädigte kinder. [Bd. 1. 1988. Grundgebärden; Bd. 2. 1988. Mensch; Bd. 3. 1989. Natur; Bd. 4. 1994. Aufbaugebärden]. Mandel, Mark A. 1977: Iconic devices in American Sign Language. In: Friedman, Lynn A. (ed.): On the other hand. New perspectives on American Sign Language. New York: Academic Press, 57-107. Mayer, Mercer. 1969: Frog, where are you? New York: Dial Press. McEnery, Tony / Wilson, Andrew. 2001: Corpus Linguistics. 2nd ed. Edinburgh: Edinburgh University Press. [1. Aufl. 1996]. McKee, David / Kennedy, Graeme. 1999: A List of 1,000 Frequently-used Signs in New Zealand Sign Language. In: Kennedy, Graeme (Hg.): New Zealand Sign Language: Distribution, Origins, Reference. (Deaf Studies Research Unit, Occasional Publication 2), 17-25. McKee, David / Kennedy, Graeme. 2006: The Distribution of Signs in New Zealand Sign Language. In: Sign Language Studies 6, 4, 372-390. Metzger, Christiane / Schulmeister, Rolf / Zienert, Heiko. 2000: Die Firma. Deutsche Gebärdensprache do it yourself. Hamburg: Signum. [CD-ROM]. Metzger, Christiane / Schulmeister, Rolf / Zienert, Heiko. 2003: Die Firma 2. Deutsche Gebärdensprache interaktiv. Aufbaukurs in Deutscher Gebärdensprache - Schwerpunkt Raumnutzung. Hamburg: Signum. [CD-ROM]. <?page no="261"?> 261 Metzger, Christiane / Herrmann, Bettina. 2005: eLearning in der Gebärdensprachlehre. In: Das Zeichen 70, 248-252. Milner, Claude. 1978: L’amour de la langue. Paris: Edition du Seuil. Morgenstern, Karin. 2006: Gewagtes. In: KUS-SPEZIAL 6, 15. März 2006. [Online im Internet; URL: http: / / www.kritikundsprache.de/ kus-spezial/ kuss06/ artikel.php? c=inc/ mehr_gewagtes]. Müller-Spitzer, Carolin. 2005: Erstellung lexikografischer Daten aus Korpora. Eine neue Art elektronischer Wörterbücher. In: Lenz, Friedrich / Schlierholz, Stefan (Hg.): Corpuslinguistik in Lexik und Grammatik. Tübingen: Stauffenburg, 41-59. Myklebust, Helmut. 1960: The psychology of deafness. New York: Grune & Stratton. Newell, William J. / Caccamise, Frank / Mitchell-Caccamise, Marilyn. 1980: Technical signs materials: Description, use, and benefits. In: Caccamise, Frank / Stangarone, James / Mitchell-Caccamise, Marilyn / Banner, E. (eds.): A decade of interpreting awareness in a century of deaf awareness. Silver Spring: RID Publications. Nishio, Rie / Hong, Sung-Eun / König, Susanne / Konrad, Reiner / Langer, Gabriele / Hanke, Thomas / Rathmann, Christian. 2010: Elicitation methods in the DGS (German Sign Language) Corpus Project. In: Dreuw, Philippe / Efthimiou, Eleni / Hanke, Thomas / Johnston, Trevor / Martínez Ruiz, Gregorio / Schembri, Adam (eds.). LREC 2010 Workshop Proceedings. 4th Workshop on the Representation and Processing of Sign Languages: Corpora and Sign Language Technologies, 178-185. Nöth, Winfried. 2001: Semiotic foundations of iconicity in language literature. In: Fischer, Olga / Nänny, Max (Hg.): The Motivated Sign Iconicity in language and literature 2. Amsterdam/ Philadelphia: Benjamins, 17-28. Ochs, Elinor. 1979: Transcription as Theory. In: Ochs, Elinor / Schieffelin, Bambi B. (eds.): Developmental Pragmatics. New York, San Francisco, London: Academic Press, 43-72. Oglia, Dolores / Mitchell, Marilyn / Caccamise, Frank. 1994: A dictionary process for documenting and sharing signs used by skilled signers. In: Erting, Carol J. / Johnson, Robert C. / Smith, Dorothy L. / Snider, Bruce D. (eds.): The deaf way: perspectives from the International Conference on Deaf Culture. Washington, DC: Gallaudet University Press, 350-355. Ooi, Vincent B. Y. 1998: Computer Corpus Lexicography. Edinburgh: Edinburgh Univ. Press. Ormel, Ellen / Crasborn, Onno / van der Kooij, Els / van Dijken, Lianne / Nauta, Yassine Ellen / Forster, Jens / Stein, Daniel. 2010: Glossing a multi-purpose sign language corpus. In: Dreuw, Philippe / Efthimiou, Eleni / Hanke, Thomas / Johnston, Trevor / Martínez Ruiz, Gregorio / Schembri, Adam (eds.). LREC 2010 Workshop Proceedings. 4th Workshop on the Representation and Processing of Sign Languages: Corpora and Sign Language Technologies, 186-191. Padden, Carol A. 1990: The relation between space and grammar in ASL verb morphology. In: Lucas, Ceil (ed.): Sign Language Research. Theoretical Issues. Proceedings of the International Conference, Theoretical Issues in Sign Language Research, II, May 18-21, 1988 at Gallaudet University. Washington, DC: Gallaudet University Press, 118-132. Padden, Carol A. 1991: Rethinking fingerspelling. Part 2. In: Signpost 4, winter, 2-4. Papaspyrou, Chrissostomos / Meyenn, Alexander von / Matthaei, Michaela / Herrmann, Bettina. 2008: Grammatik der deutschen Gebärdensprache. Seedorf: Signum. Parker, David / Schembri, Adam. 1996: Technical Signs for Computer Terms: A sign reference book for people in the computing field. North Rocks: North Rocks Press. <?page no="262"?> 262 Peirce, Charles S. 1992-1998: The Essential Peirce. Selected Philosophical Writings. Vol. 1 (1867-1893; ed. by Nathan Houser & Christian Kloesel), vol. 2 (1893-1913; ed. by the Peirce Edition Project). Bloomington/ Indianapolis: Indiana University Press. Perkuhn, Rainer / Belica, Cyril. 2006: Korpuslinguistik das unbekannte Wesen. Oder Mythen über Korpora und Korpuslinguistik. In: Sprachreport 1, 2-8. Perniss, Pamela. 2007: Space and Iconicity in German Sign Language. Nijmegen: MPI Series. [Dissertation]. Pfeffer, Jay A. / Lohnes, Walter F. W. (Hg.). 1984: Grunddeutsch. Texte zur gesprochenen Gegenwartssprache. Textkorpora I. Einführungs- und Registerband. Tübingen: Niemeyer. Pietrandrea, Paola. 2002: Iconicity and arbitrariness in Italian Sign Language. In: Sign Language Studies 2, 3, 296-321. Pizzuto, Elena / Pietrandrea, Paola. 2001: The notation of signed texts: open questions and indications for further research. In: Sign Language & Linguistics 4, 1/ 2, 29-43. Pizzuto, Elena / Volterra, Virginia. 2000: Iconicity and transparency in sign languages: a cross-linguistic cross-cultural view. In: Emmorey, Karen / Lane, Harlan (Hg.): The Signs of Language Revisited: An Anthology in Honour of Ursula Bellugi and Edward Klima. Hillsdale, NJ: Erlbaum, 261-286. Pizzuto, Elena / Rossini, Paolo / Russo, Tommaso. 2006: Representing Signed Languages in Written Form. Questions that Need to be Posed. In: Vettori, Chiara (ed.): LREC 2006. 5th International Conference on Language Resources and Evaluation. Workshops Proceedings. W15. 2nd Workshop on the Representation and Processing of Sign Languages. Lexicographic Matters and Didactic Scenarios. Sunday 28th May, 2006. Genova - Italy. Paris: ELRA, 1-6. Pizzuto, Elena A. / Chiari, Isabella / Rossini, Paolo. 2008: The representation Issue and its Multifaceted Aspects in Constructing Sign Language Corpora: Questions, Answers, Further Problems. In: Crasborn, Onno / Efthimiou, Eleni / Hanke, Thomas / Thoutenhoofd, Ernst D. / Zwitserlood, Inge (eds.): LREC 2008 Workshop Proceedings. W 25: 3rd Workshop on the Representation and Processing of Sign Languages: Construction and Exploitation of Sign Language Corpora. Paris: ELRA, 150-158. [PDF-Dokument im Internet; URL: http: / / www.lrec-conf.org/ proceedings/ lrec2008/ workshops/ W25_Proceedings.pdf]. Prillwitz, Siegmund. 1985: Skizzen zu einer Grammatik der DGS. Hamburg: Forschungsstelle DGS. Prillwitz, Siegmund / Wudtke, Hubert. 1988: Gebärden in der vorschulischen Erziehung gehörloser Kinder. Hamburg: Verlag hörgeschädigte kinder. Prillwitz, Siegmund / Leven, Regina / Zienert, Heiko / Hanke, Thomas / Henning, Jan u.a. 1989: HamNoSys Version 2.0: Hamburger Notationssystem für Gebärdensprachen. Hamburg: Signum. Prillwitz, Siegmund / Hanke, Thomas / König, Susanne / Konrad, Reiner / Langer, Gabriele / Schwarz, Arvid. 2008: DGS Corpus Project - Development of a Corpus Based Electronic Dictionary German Sign Language/ German. In: Crasborn, Onno / Efthimiou, Eleni / Hanke, Thomas / Thoutenhoofd, Ernst D. / Zwitserlood, Inge (eds.). LREC 2008 Workshop Proceedings. W 25: 3rd Workshop on the Representation and Processing of Sign Languages: Construction and Exploitation of Sign Language Corpora, 159-164. [PDF-Dokument im Internet; URL: http: / / www.lrec-conf.org/ proceedings/ lrec2008/ workshops/ W25_Proceedings.pdf]. Pusch, Claus D. 2002: Romanistische Korpuslinguistik. Tübingen: Narr. <?page no="263"?> 263 Quasthoff, Uwe / Wolff, Christian. 1999: Korpuslinguistik und große einsprachige Wörterbücher. In: Linguistik online 3, 2, [ohne Seitenangabe; online im Internet; URL: http: / / www.linguistik-online.de/ 2_99/ quasthoff.html]. Quigley, Stephen / Paul, Peter. 1984: Language and Deafness. San Diego: College Hill Press. Rasmus, Brian A. / Allen, Donald M. 1988: Testing new signs for teaching biology. In: Sign Language Studies 60, 313-330. Rautmann, Karin. 2008: Wie kommt ein Wort in den Duden? [Online im Internet; URL: http: / / www.duden.de/ deutsche_sprache/ wort_in_den_duden.php]. Redder, Angelika. 2002: Professionelles Transkribieren. In: Jäger, Ludwig / Stanitzek, Georg (Hg.): Transkribieren. Medien/ Lektüre. München: Fink, 114-131. Rehbein, Jochen / Schmidt, Thomas / Meyer, Bernd / Watzke, Franziska / Herkenrath, Annette. 2004: Handbuch für das computergestützte Transkribieren nach HIAT: Version 1.0 / 19. Mai 2004. Universität Hamburg: Sonderforschungsbereich 538 (Mehrsprachigkeit). Reich, Hans H. 1990: Auf dem Weg zum Lesen in der Zweitsprache. In: List, Gudula / List, Günther (Hg.): Gebärde, Laut und graphisches Zeichen. Schrifterwerb im Problemfeld von Mehrsprachigkeit. Opladen: Westdeutscher Verlag, 132-145. Roelcke, Thorsten. 1995: Fachwortkonzeption und Fachwortgebrauch. Hintergründe einer Diskrepanz zwischen Sprachwissenschaft und Sprachwirklichkeit. In: Zeitschrift für deutsche Philologie 114, 3, 394-409. Roelcke, Thorsten. 2005: Fachsprachen. 2. Aufl. Berlin: Schmidt. Rohlfing, Katharina / Loehr, Daniel / Duncan, Susan / Brown, Amanda / Franklin, Amy / Kimbara, Irene / Milde, Jan-Torsten / Parrill, Fey / Rose, Travis / Schmidt, Thomas / Sloetjes, Han / Thies, Alexandra / Wellinghoff, Sandra. 2006: Comparison of multimodal annotation tools workshop report. In: Gesprächsforschung - Online- Zeitschrift zur verbalen Interaktion 7, 99-123. Rosenstock, Rachel. 2006: Motivation von Gebärdensprachvokabular. Eine sprachvergleichende Untersuchung von Metaphern. In: Das Zeichen 73, 276-285. Russo, Tommaso. 2004: Iconicity and Productivity in Sign Language Discourse: An Analysis of Three LIS Discourse Registers. In: Sign Language Studies 4, 2, 164-197. Sallandre, Marie-Anne. 2001: Va et vient de l’iconicité en Langue des Signes Française. In: Acquisition et Interaction en Langue Étrangère (A.I.L.E.) 15, 37-59. Sallandre, Marie-Anne. 2003: Les unités du discours en Langue des Signes Française. Tentative de catégorisation dans le cadre d’une grammaire de l’iconicité. 2 vol. Paris: Université Paris 8. [Unveröffentl. Dissertation. PDF-Dokumente im Internet; URL: http: / / tel.archives-ouvertes.fr/ tel-00185376/ en/ ]. Sandler, Wendy / Lillo-Martin, Diane. 2006: Sign Language and Linguistic Universals. Cambridge: Cambridge University Press. Saussure, Ferdinand de. 1967: Grundfragen der Allgemeinen Sprachwissenschaft (hg. v. Charles Bally und Albert Sechehaye unter Mitwirkung von Albert Riedlinger). 2. Aufl. Berlin: de Gruyter. Saussure, Ferdinand de. 1972: Cours de Linguistique Générale. (Édition critique, éd. par Tullio de Mauro). Paris: Payot. [1. Aufl. 1916]. Schembri, Adam. 2000: Nachdenken über Klassifikatoren in Gebärdensprachen. Teil 1 in: Das Zeichen 53, 470-483; Teil 2 in: Das Zeichen 54, 629-639. Schembri, Adam. 2003: Rethinking “classifiers” in signed languages. In: Emmorey, Karen (ed.): Perspectives on classifier constructions in sign languages. Mahwah, NJ: Erlbaum, 3-34. <?page no="264"?> 264 Schembri, Adam. 2008: British Sign Language Corpus Project: Open Access Archives and the Observer’s Paradox. In: Crasborn, Onno / Efthimiou, Eleni / Hanke, Thomas / Thoutenhoofd, Ernst D. / Zwitserlood, Inge (eds.). LREC 2008 Workshop Proceedings. W 25: 3rd Workshop on the Representation and Processing of Sign Languages: Construction and Exploitation of Sign Language Corpora. Paris: ELRA, 165-169. [PDF-Dokument im Internet; URL: http: / / www.lrec-conf.org/ proceedings/ lrec2008/ workshops/ W25_Proceedings.pdf]. Schembri, Adam / Johnston, Trevor. 2004: Sociolinguistic variation in Auslan (Australian Sign Language). A research project in progress. In: Deaf Worlds, 20, 1, 78-90. Scherer, Carmen. 2006: Korpuslinguistik. Heidelberg: Winter. Schermer, Gertrude M. 2001: The role of mouthings in Sign Language of the Netherlands. Some implications for the production of sign language dictionaries. In: Boyes Braem, Penny / Sutton-Spence, Rachel (eds.): The hands are the head of the mouth. The mouth as articulator in sign language. Hamburg: Signum, 273-284. Schiller, Anne / Teufel, Simone / Stöckert, Christine / Thielen, Christine. 1995: Guidelines für das Tagging deutscher Textcorpora mit STTS. Universität Stuttgart und Universität Tübingen. [Unveröffentl. Entwurf; online im Internet; URL: http: / / www.sfs.uni-tuebingen.de/ Elwis/ stts/ stts-guide.ps.gz]. Schindler, Wolfgang. 2002: Lexik, Lexikon, Wortschatz: Probleme der Abrenzung. In: Cruse, Alan / Hundsnurscher, Franz / Job, Michael / Lutzeier, Peter R. (Hg.): Lexikologie/ Lexikology: Ein internationales Handbuch zur Natur und Struktur von Wörtern und Wortschätzen, 1. Halbband. Berlin: de Gruyter, 34-44. Schmidt, Rudolf. 2007: „Alignment“. Maschinelle Text-Ton-Synchronisation. Mannheim: Institut für Deutsche Sprache. [Online im Internet; URL: http: / / www.ids-mannheim.de/ prag/ alignment/ ]. Schmidt, Thomas. 2005: Computergestützte Transkription: Modellierung und Visualisierung gesprochener Sprache mit texttechnologischen Mitteln. Frankfurt a.M.: Lang. [Dissertation]. Schroeder, Odd-Inge. 1985: A problem in phonological description. In: Stokoe, William / Volterra, Virginia (eds.): SLR ’83 - Sign Language Research. Silver Spring, MD: Linstok, 194-201. Selting, Margret / Auer, Peter / Barden, Birgit / Bergmann, Jörg / Couper-Kuhlen, Elizabeth / Günthner, Susanne / Meier, Christiph / Quasthoff, Uta / Schlobinski, Peter / Uhmann, Susanne. 1998: Gesprächsanalytisches Transkriptionssystem (GAT). In: Linguistische Berichte 173, 91-122. Settekorn, Wolfgang. 1993: Das Auge und der Körper des Linguisten. Argumente für eine Medien-, Technik- und Sozialgeschichte (nicht nur) der Sprachwissenschaft. In: Zeitschrift für Literaturwissenschaft und Linguistik, 23,90/ 91, 195-234. Sinclair, John. 1991: Corpus, concordance, collocation. Oxford: Oxford University Press. Sinclair, John. 1994: Trust the Text. In: Coulthard, Malcolm (ed.): Advances in Written Text Analysis, 12-24. Sinclair, John. 1997: Corpus Evidence in Language Description. In: Wichmann, Anne / Fligelstone, Steven / McEnery, Tony / Knowles, Gerry (eds.): Teaching and Language Corpora. London: Longman, 27-39. Sinclair, John (ed.). 2004: How to Use Corpora in Language Teaching. Amsterdam/ Philadelphia: Benjamins. Skant, Andrea / Orter, Reinhold / Okorn, Ingeborg / Dotter, Franz / Bergmeister, Elisabeth. 2001: Die Bearbeitung des Klagenfurter Fragebuchs zum Grundwortschatz der Österreichischen Gebärdensprache. In: Grazer Linguistische Studien 56, Herbst, 95-114. <?page no="265"?> 265 SL&L 2001 = Sign Language & Linguistics 4, 1/ 2. 2001: Special issue: Sign Transcription and Database Storage of Sign Information (ed. by Brita Bergman, Penny Boyes-Braem, Thomas Hanke & Elena Pizzuto). Slobin, Dan I. 2008: Breaking the Molds: Signed Languages and the Nature of Human Language. In: Sign Language Studies 8, 2, 114-130. Slobin, Dan I. / Hoiting, Nini / Anthony, Michelle / Biederman, Yael / Kuntze, Marlon / Lindert, Reyna B. / Pyers, Jennie E. / Thumann, Helen / Weinberg, Amy M. 2001: Sign language transcription at the level of meaning components. The Berkeley Transcription System BTS. In: Sign Language & Linguistics 4, 1/ 2, 63-104. Slobin, Dan I. / Hoiting, Nini / Kuntze, Marlon / Lindert, Reyna B. / Weinberg, Amy M. / Pyers, Jennie E. / Anthony, M. / Biederman, Yael / Thumann, Helen. 2003: A cognitive/ functional perspective on the acquisition of “classifiers”. In: Emmorey, Karen (ed.): Perspectives on Classifier constructions in Sign Languages. Mahwah/ London: Erlbaum, 271-296. Sperberg-McQueen, C. Michael / Burnard, Lou (eds.). 2002: Guidelines for Text Encoding and Interchange. Oxford: Humanities Computing Unit, University of Oxford. Spicer, Pam / Rogers, Ian. 1989: Technical Signs for Mathematics. Stanmore, NSW: NSW Departement of Technical and Further Education (TAFE). Starcke, Hellmuth / Maisch, Günter. 1977: Die Gebärde der Gehörlosen. Ein Hand-, Lehr- und Übungsbuch. Hamburg: Deutsche Gesellschaft zur Förderung der Gehörlosen und Schwerhörigen. Sterner, Franziska. 2006: „Structures de grande iconicité“: Anwendung des Ansatzes von C. Cuxac und M.-A. Sallandre auf „constructed action“ in ausgewählten DGS- Beispielen. Universität Hamburg. [Unveröffentl. Magisterarbeit]. Steyer, Kathrin. 2004: Kookkurrenz. Korpusmethode, linguistisches Modell, lexikografische Perspektiven. In: Steyer, Kathrin (Hg.): Wortverbindungen mehr oder weniger fest. Berlin u.a.: de Gruyter, 87-116. Stokoe, William C. 1960: Sign language structure. An outline of the visual communication systems of the American deaf. Buffalo: Dept. of Anthropology and Linguistics, University of Buffalo. Stokoe, William C. 1991: Semantic phonology. In: Sign Language Studies 71, 107-114. Stokoe, William C. / Casterline, Dorothy C. / Croneberg, Carl G. 1976: A dictionary of American Sign Language on linguistic principles. New Edition. Silver Spring, MD: Linstok Press. [1. Aufl. 1965]. Stubbs, Michael. 2002: Words and Phrases. Corpus Studies of Lexical Semantics. Reprint. Oxford/ Malden, MA: Blackwell. [1. Aufl. 2001]. Summers, Della. 1996: Computer lexicography the importance of representativeness in relation to frequency. In: Thomas, Jenny / Short, Mick (eds.): Using Corpora for Language Research. Studies in the Honor of Geoffrey Leech. London/ New York: Longman, 260-266. Sutton-Spence, Rachel / Woll, Bencie. 1999: The Linguistics of British Sign Language. An Introduction. Cambridge: Cambridge University Press. Svartvik, Jan. 1996: Corpora are becoming mainstream. In: Thomas, Jenny / Short, Mick (eds.): Using Corpora for Language Research. Studies in the Honor of Geoffrey Leech. London/ New York: Longman, 3-13. Taub, Sarah F. 2001: Language from the body. Iconicity and metaphor in American Sign Language. Cambridge: Cambridge University Press. Teubert, Wolfgang. 1999: Korpuslinguistik und Lexikographie. In: Deutsche Sprache 27, 292-313. <?page no="266"?> 266 Teubert, Wolfgang. 2005: My version of corpus linguistics. In: International Journal of Corpus Linguistics 10, 1, 1-13. Teubert, Wolfgang. 2006: Korpuslinguistik, Hermeneutik und die soziale Konstruktion der Wirklichkeit. In: Linguistik online 28, 3, 41-60. [Online im Internet; URL: http: / / www.linguistik-online.de/ 28_06/ teubert.html]. Teubert, Wolfgang. 2008: Some notes on the concept of cognitive linguistics. In: Gerbig, Andrea / Mason, Oliver (eds.): Language, People, Numbers: Corpus Linguistics and Society. Amsterdam: Rodopi, 61-84. Teubert, Wolfgang / Krishnamurthy, Ramesh (eds.). 2007-2008: Corpus Linguistics. Critical concepts in Linguistics. 6 vol. London/ New York: Routledge. Thoutenhoofd, Ernst. 2003: The British Sign Language Variant of Stokoe Notation: Report on a Type-Design Project. In: Sign Language Studies 3, 3, 341-370. Tognini-Bonelli, Elisa. 2001: Corpus Linguistics at Work. Amsterdam: John Benjamins. Troelsgård, Thomas / Kristoffersen, Jette H. 2008: An Electronic dictionary of Danish Sign Language. In: Quadros, Roncie M. de (ed.): Sign Languages: spinning and unraveling the past, present and future. TISLR 9, forty five papers and three post-ers from the 9th Theoretical Issues in Sign Language Research Conference, Flori-anopolis, Brazil, December 2006. Petrópolis/ RJ, Brazil: Editora Arara Azul, 652-663. [PDF-Dokument im Internet; URL: http: / / editora-arara-azul.com.br/ ebooks/ catalogo/ complete.pdf]. Türcke, Christoph. 2005: Vom Kainszeichen zum genetischen Code. Kritische Theorie der Schrift. München: Beck. Ungerer, Friedrich. 2002: Arbitrarität, Ikonizität und Motivation. In: Cruse, Alan / Hundsnurscher, Franz / Job, Michael / Lutzeier, Peter R.: Lexikologie/ Lexikology: Ein internationales Handbuch zur Natur und Struktur von Wörtern und Wortschätzen, 1. Halbband. Berlin: de Gruyter, 371-380. Vieregge, Wilhelm. 1989: Phonetische Transkription: Theorie und Praxis der Symbolphonetik. Stuttgart: Steiner Verlag Wiesbaden. Vološinov, Valentin N. 1975: Marxismus und Sprachphilosophie. Grundlegende Probleme der soziologischen Methode in der Sprachwissenschaft. [Hrsg. u. eingeleitet von Samuel M. Weber; Orig. 1929]. Frankfurt a. M. u.a.: Ullstein. Weigand, Edda. 2004: Possibilities and Limitations of Corpus Linguistics. In: Aijmer, Karin (ed.): Dialogue analysis VIII: understanding and misunderstanding in dialogue; selected papers from the 8th IADA conference, Göteborg 2001. Tübingen: Niemeyer, 301-315. Wermke, Matthias. 1998: Aus der Praxis der Dudenredaktion. In: Greule, Albrecht / Lebsanft, Franz (Hg.): Europäische Sprachkultur und Sprachpflege: Akten des Regensburger Kolloquiums, Oktober 1996. Tübingen: Narr, 13-23. Wiegand, Herbert E. 1998: Wörterbuchforschung: Untersuchungen zur Wörterbuchbenutzung, zur Theorie, Geschichte, Kritik und Automatisierung der Lexikographie. Berlin: de Gruyter. Wilcox, Phyllis. 2000a: Metaphor in American Sign Language. Washington, DC: Washington University Press. Wilcox, Phyllis. 2000b: Removing the Shroud of Iconicity. In: Wilcox, Phyllis: Metaphor in American Sign Language. Washington, DC: Washington University Press, 36-53. Wilcox, Sherman. 2004: Cognitive Iconicity: Conceptual spaces, meaning and gesture in signed languages. In: Cognitive Linguistics 15, 2, 119-147. Wilcox, Sherman. 2007: Signed Languages. In: Geeraerts, Dirk / Cuyckens, Hubert (eds.): The Oxford Handbook of Cognitive Linguistics. New York: Oxford University Press, 1113-1136. <?page no="267"?> 267 Winchester, Simon. 2003: The Making of the Oxford English Dictionary. In: Sign Language Studies 3, 3, 248-262. Wisch, Fritz-Helmut. 1990: Lautsprache und Gebärdensprache die Wende zur Zweisprachigkeit in Erziehung und Bildung Gehörloser. Hamburg: Signum. Wöhrmann, Stefan. 2005: Handbuch zur Gebärdenschrift. Lehrbuch. Hamburg: Verlag Birgit Jacobsen. Wolski, Werner. 2005: Lexikologie und Nachbardisziplinen. In: Cruse, Alan / Hundsnurscher, Franz / Job, Michael / Lutzeier, Peter R. 2002: Lexikologie/ Lexikology: Ein internationales Handbuch zur Natur und Struktur von Wörtern und Wortschätzen, 2. Halbband. Berlin: de Gruyter, 1816-1828. Wudtke, Hubert. 1993: Schriftspracherwerb: Schreibentwicklungen gehörloser Kinder. Teil 1 in: Das Zeichen 24, 212-223. Teil 2 in: Das Zeichen 25, 332-341. Zampolli, Antonio. 1991: Preliminary Considerations on the Constitution of an ELTA (European Language Technology Agency). Pisa. <?page no="268"?> 268 Anhang Anhang 1: DGS-Korpus-Projekt Das DGS-Korpus-Projekt 2 (Prillwitz et al. 2008) ist ein Langzeitvorhaben der Akademie in Hamburg, das in das Akademienprogramm der Union der deutschen Akademien aufgenommen wurde und seit 2009 am Institut für Deutsche Gebärdensprache und Kommunikation Gehörloser (IDGS) der Universität Hamburg durchgeführt wird. Es ist auf 15 Jahre angelegt und verfolgt zwei Ziele: • die Erstellung eines Referenzkorpus der Deutschen Gebärdensprache (DGS), • die Erstellung eines korpusbasierten elektronischen Wörterbuchs DGS - Deutsch. Während beide Produkte erst zu Projektende verfügbar sein werden, ist vorgesehen, 2013 einen vorläufigen und nur in Teilen korpusgestützten Grundwortschatz der DGS sowie 2015 ein Teilkorpus im Umfang von ca. 50 Stunden online zu veröffentlichen. Zur Erarbeitung des Grundwortschatzes von ca. 1500 Gebärden werden die bisher verfügbaren Gebärdensammlungen 3 und Lehr- und Lernmaterialien lemmatisiert 4 und mit den vorhandenen Daten der Fachgebärdenlexikon-Projekte sowie den bis dahin lemmatisierten DGS-Korpusdaten verglichen. Anhand von Frequenzanalysen des vollständig lemmatisierten DGS-Korpus kann diese vorläufige Auswahl zum Abschluss des Projekts empirisch überprüft werden. Das lemmatisierte und annotierte Teilkorpus wird eine repräsentative Auswahl aus dem Gesamtkorpus darstellen und enthält zusätzlich englische Glossen, eine englische Übersetzung der DGS-Äußerungen sowie englische Metadaten. Die Daten werden im Zeitraum von Januar 2010 bis zum Frühjahr 2012 erhoben. Dazu wird an 12 verschiedenen Erhebungsorten 5 ein mobiles Studio aufgebaut, um einerseits technisch möglichst hochwertige Daten zu erhalten, andererseits die regionale Variation der DGS durch die Erhebung vor Ort mit Kontaktpersonen aus der Region zu berücksichtigen. Proportional zur 2 Informationen über das Projekt und den Projektverlauf findet man auf der Webseite des Projekts (URL: http: / / www.dgs-korpus.de/ ). 3 Dazu zählen Kestner (2009), 777 Gebärden 1-3 (2002), Grundgebärden 1: für Einsteiger (1999), Grundgebärden 2 (2000), DGS-Basis-Lexikon (1998), DGS-Aufbau-Lexikon (1998), DGS-Phrasensammlung (1998) sowie die sogenannten „Blauen Bücher“ (Maisch/ Wisch 1988-1994). 4 Dies sind insbesondere Metzger et al. (2000, 2003), Keller/ Zienert (2000, 2002) und die im Rahmen des ProVil-Projekts verwendetet Gebärden (Metzger/ Herrmann 2005); URL: http: / / www.sign-lang.uni-hamburg.de/ projekte/ provil.html). 5 Aufgrund der zu erwartenden geringen Dialektunterschiede und der guten Anbindung wurden die Erhebungen mit den Informanten aus der Region Schleswig- Holstein in Hamburg durchgeführt. <?page no="269"?> 269 Bevölkerungsdichte werden pro Erhebungsregion unterschiedlich viele Informanten gefilmt (s. Abb. 23), mindestens jedoch 16 Informanten pro Region. Diese Untergrenze kommt dadurch zustande, dass bei einer Aufteilung in 4 Altersgruppen mindestens 4 Informanten pro Altersgruppe, möglichst 2 Männer und 2 Frauen, ausgewählt werden sollen. Abbildung 23: Erhebungsregionen und -orte mit Zahl der Informanten Folgende Statistik zeigt die Verteilung von Geschlecht und Alter nach der Erhebung von 160 Informanten aus 7 von 13 Erhebungsregionen: <?page no="270"?> 270 Abbildung 24: Verteilung der Informanten nach Altersgruppe und Geschlecht Neben Alter, Geschlecht und regionaler Herkunft - möglichst 50 % der Informanten sollen in der Region aufgewachsen sein und dort wohnen, die übrigen Informanten sollen mindestens seit zehn Jahren in der Region wohnen - ist das wichtigste Auswahlkriterium die DGS-Kompetenz. Für die Informanten muss die DGS das Hauptkommunikationsmittel sein. Sie sollen die DGS möglichst vor dem 6. Lebensjahr erworben haben, der Anteil der Deaf CODA 6 soll mindestens 20 % sein. Dadurch soll sichergestellt sein, dass möglichst viele native signer pro Erhebungsregion berücksichtigt werden. Ein Ziel des DGS-Korpus-Projekts ist es jedoch, entgegen der bislang in der Gebärdensprachforschung künstlich erzeugten Homogenität der Daten (s. Kap. 3.3) die Vielfalt der DGS zu dokumentieren. Folgende Statistik zeigt den Anteil der Deaf CODA pro Altersgruppe: 6 Gehörlose, die als Kinder gehörloser Eltern (Child Of Deaf Adults) aufgewachsen sind. <?page no="271"?> 271 Abbildung 25: Anteil der Deaf CODA pro Altersgruppe Insgesamt werden über 320 Informanten paarweise 6-7 Stunden gefilmt. Beide Informanten sollen aus derselben Subregion 7 stammen und in derselben Altersgruppe sein. Die Auswahl der Informanten wird auf der Grundlage von Fragebögen von den Projektmitarbeitern vorgenommen, für die Zusammenstellung der Informantenpaare sind in erster Linie die Kontaktpersonen zuständig. Es können sowohl gleichgeschlechtliche als auch gemischte Paare sein. Nach der Sichtung der zu erwartenden 800 Stunden Rohdaten soll als Zielgröße ein Korpus von 350-400 Stunden übrig bleiben, das nach Abschluss der Tokenisierung und Lemmatisierung über 2 Mio. Token enthalten wird. Dies entspricht der Größe von Korpora gesprochener Sprachen (s. Kap. 3.5). Neben der Ausgewogenheit und Repräsentativität ist die Authentizität der Daten ein wichtiges Kriterium für ein Referenzkorpus. Es 7 Jede Erhebungsregion wurde anhand von Verwaltungs- (Landkreise, kreisfreie Städte) und geographischen Grenzen (z.B. Nord-Ostsee-Kanal), Metropolen und deren Einzugsgebieten sowie regionaler Strukturen wie z.B. Landschaftsverbände in maximal fünf Subregionen aufgeteilt. <?page no="272"?> 272 sollen möglichst natürlichsprachliche Daten erhoben werden. Gleichzeitig sollen die Daten eine hohe technische Qualität haben 8 , damit u.a. Ausschnitte aus den Erhebungen im Wörterbucheintrag als Belege verwendet werden können. Nach Himmelmanns (1998: 185-186) Einteilung der Natürlichkeit kommunikativer Ereignisse fallen die meisten der 19 Aufgaben, die die Informanten im Laufe der Erhebung erledigen sollen, unter „staged communicative events“. Lediglich die Abfrage von 34 Einzelitems, 11 Farben und den Gebärden für die Monate und Jahreszeiten, die der Erfassung der regionalen Variation dient zählt zur Elizitation von Übersetzungen. Vorrangiges Ziel der Aufgaben ist es, dass die Informanten möglichst frei und spontan gebärden. Der Schwerpunkt liegt auf einem informellen Sprachgebrauch in Dialogsituationen. Weiterhin werden verschiedene Textsorten berücksichtigt. Die Stimuli (Nishio et al. 2010) enthalten drei Bildergeschichten, darunter auch die vielfach in laut- und gebärdensprachlichen crosslinguistischen Untersuchungen eingesetzte Frog-Story (Mayer 1969), einen Zeichentrickfilm, einen DGS-Sketch sowie eine Geschichte in DGS, deren Inhalte sich die Informanten gegenseitig erzählen sollen. Diese Stimuli sind in verschiedene Sets verteilt, sodass nicht jeder Informant dieselben Stimuli erhält. Dadurch wird gleichzeitig dafür gesorgt, dass der Anteil der Monologe in der Erhebung nicht zu groß wird. Als Unterhaltung oder Diskussion werden folgende Aufgaben durchgeführt: Terminabsprache anhand eines Kalenders, Bedeutung von Warn- und Hinweisschildern, strittige Themen wie z.B. das Cochlea-Implantat, Erlebnisbericht über gesellschaftliche Ereignisse wie z.B. die Tschernobyl-Katastrophe 1986, freie, spontane Unterhaltung und Besonderheiten der Region, aus der der Informant stammt. Unterhaltungen über lokale, regionale oder überregionale Veranstaltungen Gehörloser sowie über typische Erfahrungen Gehörloser sollen sicherstellen, dass im DGS-Korpus auch das kulturelle Erbe der Sprachgemeinschaft dokumentiert wird. Dazu zählen auch die Frage nach der Namensgebärde sowie die Bitte, einen Witz zu erzählen. Um ausreichend Belege für einen Grundwortschatz der DGS zu erheben, wurden in Anlehnung an Erhebungen für einen Grundwortschatz des Deutschen (Pfeffer/ Lohnes 1984, Krohn 1992) und der Neuseeländischen Gebärdensprache (NZSL; Kennedy 1996) 25 Sachthemen ausgewählt, die in Form von vier bis acht Bildern präsentiert werden. Die Informanten können zwei von vier vorgeschlagene Sachthemen auswählen. Die Erhebungssets sind so zusammengestellt, dass innerhalb einer Erhebungsregion alle Sachthemen angeboten werden. Um zu vermeiden, dass ein Sachthema nur selten oder nie ausgewählt wird, wird die Kombination der Sets im Laufe der gesamten Erhebung korrigiert. 8 Jeder Informant wird mit einer hochauflösenden HD-Kamera sowie einer Stereokamera, ab 2011 mit einer 3D-HD-Kamera gefilmt, eine weitere Kamera nimmt die gesamte Interaktion zwischen Informanten und Moderator auf. Weiterhin wird jeder Informant aus der Vogelperspektive mit einer DV-Kamera aufgenommen. <?page no="273"?> 273 Das Projekt hat nicht nur einen hohen ideellen Stellenwert für die Gehörlosengemeinschaft, sondern versucht, den in dieser Arbeit skizzierten Ansprüchen an eine Korpuslinguistik der Gebärdensprachen gerecht zu werden. Die Forderung von Brien/ Brennan (1995a, 1995b), dass Gehörlose eine Schlüsselrolle bei der Erstellung von Wörterbüchern übernehmen sollten (s. Kap. 5.2), wird durch die Einbeziehung der Gebärdensprachgemeinschaft in den verschieden Projektabschnitten eingelöst: • Gehörlose Kontaktpersonen suchen in den 13 Erhebungsregionen nach Informanten und führen die Erhebung durch. • Die technische Betreuung des mobilen Studios während der Erhebung übernehmen gehörlose Projektmitarbeiter. • Die Betreuung der studentischen Mitarbeiter, die die Basistranskription erstellen, die Überprüfung der Lemmatisierung und Annotation sowie die Detailtranskription ist Aufgabe gehörloser Projektmitarbeiter. • Über ein online durchgeführtes Feedback können interessierte Mitglieder der Gebärdensprachgemeinschaft Gebärden, die für den Grundwortschatz vorgesehen sind, sowie Material aus dem DGS-Korpus kommentieren. • Eine Fokusgruppe aus regional verankerten Gehörlosen soll bei der Klärung strittiger Fragen helfen, die sich aus dem Material ergeben bzw. anhand der Daten nicht beantwortet werden können. • Eine Umfrage zu den Bedürfnissen und Erwartungen an ein allgemeines Wörterbuch DGS - Deutsch ist die Grundlage für die Entwicklung der Makro- und Mikrostruktur des Wörterbuchs. Im Unterschied zur bisherigen selektiven Transkription im Rahmen der Fachgebärdenlexikon-Projekte werden die DGS-Texte des Korpus im Umfang von 350 bis 400 Stunden durchgängig tokenisiert, lemmatisiert und annotiert. Erst dadurch ist es möglich, Gebärden in ihrem sprachlichen Kontext zu untersuchen. Zuvor wird von Dolmetschern eine Übersetzung ins Deutsche angefertigt, die mit den DGS-Texten aligniert wird und einen inhaltlichen Zugriff auf die Äußerungen gewährleistet. Gleichzeitig erfolgt mit dieser Alignierung eine erste Segmentierung der Äußerungen in inhaltliche Abschnitte. In der Basistranskription, die von gehörlosen und hörenden Studierenden am IDGS vorgenommen wird, werden die einzelnen Token einem Type zugeordnet. Nicht lexikalische Einheiten werden ebenfalls mithilfe von Glossen im Sinn eines „general identifier“ (Johnston 2010a) konsistent identifiziert, um für eine spätere Differenzierung einen gezielten Zugriff auf diese sprachlichen Phänomene zu haben. Zusätzlich werden Angaben zu Ablesewörtern oder zur Mundgestik annotiert. In einem Kontrollschritt werden Formabweichungen der Token weiter klassifiziert anhand morphosemantischer oder phonologischer Kriterien. In diesem Bearbeitungsschritt werden auch die lexikalisierten Bedeutungen konventioneller Gebärden (konventionelle Verwendungen, s. Kap. 4.1.5.1) bestimmt. Nach Abschluss <?page no="274"?> 274 der Basistranskription wird die vorläufige Lemmaliste des Wörterbuchs festgelegt. Die anschließende Detailtranskription dient der phonetisch-phonologischen, semantischen und lexikalischen Annotation. Sie wird durch die Artikelschreibung gesteuert und beinhaltet zum einen die Bedeutung der Types in den verschiedenen Verwendungskontexten sowie die Bestimmung der Wortart (part of speech), zum anderen die exemplarische Untersuchung nonmanueller Aspekte wie Blick und Mimik sowie Aspekte der Raumnutzung, deren Ergebnisse in die Wörterbuchgrammatik einfließen. Weiterhin werden die lexikalischen Gebärden anhand der Bilderzeugungstechniken analysiert und die produktiven Gebärden näher klassifiziert. Eine nähere Bestimmung von Äußerungsgrenzen ist zum einen erforderlich, um im Wörterbucheintrag die Gebärden im Kontext zeigen zu können, zum anderen, um Fragen zur Satz- oder Phrasenstruktur der DGS beantworten zu können. In diesem Zusammenhang bleibt offen, inwieweit diskursive Einheiten wie Transfers (s. Kap. 4.3.3.1), constructed action und constructed dialogue näher bestimmt werden müssen. Die Tiefe oder Differenziertheit der Transkription und der Umfang der Daten, die in dieser Weise annotiert werden, ist abhängig vom Projektverlauf. Die entscheidende Leistung des DGS-Korpus-Projekts liegt in der Bereitstellung eines umfangreichen lemmatisierten Korpus, das die Grundlage für eine Vielzahl weiterer Untersuchungen zur DGS sein wird. Es ist zu erwarten, dass mit der Erstellung eines Wörterbuchs, das die Bedeutungen von Gebärden nicht über eine traditionelle lexikographische Bedeutungserklärung in der Schriftform der Beschreibungssprache wiedergibt, sondern durch natürlichsprachliche DGS-Ausschnitte, sowohl die Identifikation der Gehörlosen mit den Wörterbuchinhalten als auch ihr Nutzen für L2-Lerner zunehmen wird. <?page no="275"?> 275 Anhang 2: Abbildungsverzeichnis Abbildung Unterschrift Seite 1 Hierarchie der Lexikalisierung: Zwei Stufen der Konventionalisierung von Gebärden 28 2 Natürliche Gebärdenentwicklung und TSP-Kreislauf (Caccamise et al. 1993: 6) 32 3 Parsing und syntaktische Baumstruktur 102 4 Dokumentation und Segmentierung elizitierter Antworten im PLex 111 5 Annotation und Transkription im PLex 112 6 GlossLexer 1: Vorkommen-Eingabefenster (TLex) 114 7 Begriff und Vorkommen, sortiert nach Glossen (TLex) 115 8 Token-Fenster 117 9 Antwort-Fenster 118 10 Token der Gebärde Z ANGE -D RÜCKEN 2, sortiert nach HamNoSys-Abweichung 119 11 Lexeme der Gebärde F LACH 1A 147 12 Illustration der substitutiven Technik (s. Langer 2005: 258) 165 13 Illustration der manipulativen Technik (s. Langer 2005: 259) 166 14 Illustration der skizzierenden Technik (s. Langer 2005: 260) 166 15 Illustration der stempelnden Technik (s. Langer 2005: 260) 167 16 Illustration der maßanzeigenden Technik (s. Langer 2005: 261) 168 17 Illustration der indizierenden Technik (s. Langer 2005: 262) 169 18 Vergleich zwischen Gebärden mit ihren ikonischen Strukturen und Pilzen mit Pilzgeflecht 173 19 Ikonisches Netzwerk (aus Konrad et al. 2004) 182 20 Motivierung von Wörtern und Gebärden 190 21 Bestandteile des ASL-Lexikons (Brentari/ Padden 2001: 89) 230 22 Ausschnitt aus dem Probexemplar eines zweisprachigen Wörterbuchs LSF/ Französisch (Bonnal-Vergès 2005, vol. 2: 219) 234 <?page no="276"?> 276 23 Erhebungsregionen und -orte mit Zahl der Informanten 269 24 Verteilung der Informanten nach Altersgruppe und Geschlecht 270 25 Anteil der Deaf CODA pro Altersgruppe 271 Anhang 3: Tabellenverzeichnis Tabelle Unterschrift Seite 1 Merkmalsmatrix korpuslinguistischer Ansätze und Methoden 59 2 Bearbeitungsschritte und Repräsentationsebenen sprachlicher Daten 71 3 Merkmale eines Korpus und Bezeichnungen 78 4 Lemmatisierung und POS-Tagging 102 5 Ausschnitt: TLex-Gebärden und ihre Verwendungen 126 6 Differenzierung von Gebärden und deren Verwendungen unter Berücksichtigung des ikonischen Gehalts von Gebärden 146 7 Anzahl der Types (Zitierform inkl. Modifikationen) und Token konventioneller und produktiver Verwendungen pro Projekt 148 8 Gebärden, sortiert nach der Anzahl der Lexeme 149 9 Gebärden, sortiert nach der Anzahl der verschiedenen Ablesewörter 150 10 Varianten auf Lexem-Ebene, Modifikationen auf Gebärden-Ebene am Beispiel von O PERATION 152 11 Ausschnitt: TLex-Gebärden nach Einführung der doppelten Glossierung 154 12 Gebärde S PITZ 2A und Glossenumgebung sowie formähnliche Gebärden 155 13 Synonyme Gebärden und Ausführungsvarianten für die Bedeutung „Brot“ 174 14 Phonologische Varianten der Gebärde B EHÄLTER 1 175 15 Homonyme Gebärden mit konventionellen Verwendungen und Bildbeschreibung 176 16 Verweise auf formgleiche und formähnliche Gebärden und Auswirkungen auf die Lemmaselektion 180 17 Verteilung von Form-, Raum- und Verhaltensikonizität auf die Bilderzeugungstechniken 194 <?page no="277"?> 277 Anhang 4: Abkürzungen AGD Archiv für Gesprochenes Deutsch ANVIL Annotation of Video and Language Data ASL American Sign Language ATBG Aachener Testverfahren zur Berufseignung von Gehörlosen Auslan Australian Sign Language (Australische Gebärdensprache) BNC British National Corpus BSL British Sign Language (Englische Gebärdensprache) BTS Berkeley Transcription System CA Constructed Action CDL Corpus-Driven Linguistics CES Corpus Encoding Standard CHAT Codes for the Human Analysis of Transcripts CHILDES Child Language Data Exchange System CODA Child of Deaf Adult CRFP Corpus de référence du français parlé DEREKO Deutsches Referenzkorpus DFG Deutsche Forschungsgemeinschaft DGfS Deutsche Gesellschaft für Sprachwissenschaft DGS Deutsche Gebärdensprache DSGS Deutsch-Schweizerische Gebärdensprache DIDA Diskurs-Datenbank DT Double transfert (doppelter Transfer) EAGLES Expert Advisory Group on Language Engineering Standards ECHO European Cultural Heritage Online ELAN Eudico Linguistic Annotator (EUDICO = European Distributed Corpora Project) ELDA Evaluations and Language resources Distribution Agency ELTA European Language Technology Agency ESF European Science Foundation GaLex Fachgebärdenlexikon Gärtnerei und Landschaftsbau GAT Gesprächsanalytisches Transkriptionssystem GLex Fachgebärdenlexikon Gesundheit und Pflege HamNoSys Hamburger Notationsystem für Gebärdensprachen HIAT Halbinterpretative Arbeitstranskription HLex Fachgebärdenlexikon Hauswirtschaft <?page no="278"?> 278 HLT Human Language Technologies HPSG Head-Driven Phrase Structure Grammar ID Identifier (engl. für Identifikator zur Kennzeichnung eines Datensatzes einer Datenbank, s. Datenbank-ID) IDGS Institut für Deutsche Gebärdensprache IDS Institut für Deutsche Sprache iLex integrated Lexicon IMDI ISLE Metadata Initiative (ISLE = International Standards for Language Engineering) IPA International Phonetic Alphabet oder International Phonetic Association KI Künstliche Intelligenz KWIC Key word in context LBG Lautsprachbegleitendes Gebärden LDC Linguistic Data Consortium LFG Lexical Functional Grammar LR Language Resources LREC Language Resources and Evaluation Conference LSE Lengua de Signos Española (Spanische Gebärdensprache) LSF Langue des Signes Française (Französische Gebärdensprache) LSP Language for specific purposes MPI Max-Planck-Institut NGT Nederlandse Gebarentaal (Nierderländische Gebärdensprache) NLP Natural language processing NTS Norsk Tegnspråk (Norwegische Gebärdensprache) NVK Nonverbale Kommunikation NZSL New Zealand Sign Language OEC Oxford English Corpus ÖGS Österreichische Gebärdensprache OLAC Open Language Archives Communitiy PLex Fachgebärdenlexikon Psychologie PMS Phonembestimmtes Manualsystem POS Part of speech SASS Size and shape specifiers (Klassifikatorgebärden für Größe und Form) SEE 1 Seeing Essential English SEE 2 Signing Exact English SGI Structures de grande iconicité (Strukturen der großen Ikonizität; engl. highly iconic structures) <?page no="279"?> 279 SLex Fachgebärdenlexikon Sozialarbeit/ Sozialpädagogik SQL Structured query language (engl. für standardisierte Datenbanksprache zum Anlegen, Abfragen und Ändern von Daten in relationalen Datenbanken) STTS Stuttgart-Tübingen-Tagset (für Wortarten) TEI Text Encoding Initiative TLex Fachgebärdenlexikon Tischler/ Schreiner TP Transfert de personne (Transfer der Person) TS Transfert situationnel (Transfer der Situation) TSP Technical Signs Project (Project zur Verbreitung und Standardisierung von Fachgebärden in ASL) TTF Transfert de taille et/ ou de forme (Transfer der Größe und/ oder der Form) <?page no="280"?> Narr Francke Attempto Verlag GmbH+Co. KG • Dischingerweg 5 • D-72070 Tübingen Tel. +49 (07071) 9797-0 • Fax +49 (07071) 97 97-11 • info@narr.de • www.narr.de NEUERSCHEINUNG SEPTEMBER 2010 JETZT BESTELLEN! Heike E. Jüngst Audiovisuelles Übersetzen Ein Lehr- und Arbeitsbuch narr studienbücher 2010, X, 197 Seiten, €[D] 19,90/ SFr 30,50 ISBN 978-3-8233-6502-0 Die audiovisuelle Übersetzung erfreut sich im Übersetzungsunterricht zunehmender Beliebtheit. Viele Studierende haben Interesse daran, selbst einmal Untertitel zu einem Film zu erstellen oder einen Film zu dolmetschen. Die einzelnen Kapitel dieses Buches befassen sich mit den gängigen Verfahren der audiovisuellen Übersetzung wie intralingualer und interlingualer Untertitelung, Voiceover-Übersetzung, Synchronisation, Audiodeskription für Blinde und Filmdolmetschen. Der Leser wird über die Entwicklung dieser Verfahren ebenso informiert wie über die derzeit gängigen technischen Möglichkeiten und die eigentlichen Aufgaben des Übersetzers in den jeweiligen Arbeitsabläufen. Der didaktische Teil besteht einerseits aus Übungen, mit denen diese Aufgaben eingeübt werden können, andererseits aus Hinweisen zu aktuellen Forschungsfragen. Das Buch eignet sich sowohl zum Selbststudium als auch zum Einsatz im Unterricht. 081310 Auslieferung September 2010.indd 6 14.09.10 19: 47