eBooks

Audiovisuelles Übersetzen

2020
978-3-8233-9231-6
Gunter Narr Verlag 
Heike E. Jüngst

Die zweite, überarbeitete Auflage dieses praxisorientierten Lehr- und Arbeitsbuchs bietet einen Überblick über Verfahren, Arbeitsabläufe und technische Möglichkeiten der Filmübersetzung. Der bewährte Aufbau mit den Themen Untertitelung, Synchronisation, Voice-over, Audiodeskription für Blinde, Songübersetzung und Filmdolmetschen wurde beibehalten und um neue Arbeitsformen und -abläufe ergänzt. Neu hinzugekommen ist eine kurze Einführung in die Game-Lokalisierung. Deutlich erweitert wurden die Kapitel zu Untertitelung und Audiodeskription, wo neue Techniken, Softwareprodukte und neue Aufgaben beim Übersetzen eine besonders wichtige Rolle spielen. Der Fokus des Buches liegt auf praktischen Übungen und Informationen zur Arbeitswelt, dabei bleibt die aktuelle Forschungssituation aber stets im Blick. Das Buch eignet sich sowohl zum Selbststudium als auch zum Einsatz im Unterricht. Stimmen zum Buch: "Ein umfassendes Hilfsmittel, das nicht nur alle zentralen Themen der AVÜ thematisiert, sondern auch wertvolles Vertiefungspotenzial, sowohl für die praktische als auch die wissenschaftliche Arbeit, aufzeigt" -Lebende Sprachen 2/2000 "All jenen, die das Thema bis jetzt nicht als eigenständiges Aufgabengebiet kennen, kann ich dieses Lehr- und Arbeitsbuch wärmstens empfehlen" UNIVERSITAS 2/11

Audiovisuelles Übersetzen Ein Lehr- und Arbeitsbuch 2., überarbeitete und erweiterte Auflage Heike Elisabeth Jüngst narr studienbücher 18231_Juengst_SL4�indd 1 18231_Juengst_SL4�indd 1 19�08�2020 12: 38: 32 19�08�2020 12: 38: 32 18231_Juengst_SL4�indd 2 18231_Juengst_SL4�indd 2 19�08�2020 12: 38: 32 19�08�2020 12: 38: 32 Heike Elisabeth Jüngst Audiovisuelles Übersetzen Ein Lehr- und Arbeitsbuch 2., überarbeitete und erweiterte Auflage 18231_Juengst_SL4�indd 3 18231_Juengst_SL4�indd 3 19�08�2020 12: 38: 32 19�08�2020 12: 38: 32 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. © 2020 · Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Internet: www.narr.de eMail: info@narr.de CPI books GmbH, Leck ISSN 0941-8105 ISBN 978-3-8233-8231-7 (Print) ISBN 978-3-8233-9231-6 (ePDF) ISBN 978-3-8233-0237-7 (ePub) www.fsc.org MIX Papier aus verantwortungsvollen Quellen FSC ® C083411 ® 18231_Juengst_SL4�indd 4 18231_Juengst_SL4�indd 4 19�08�2020 12: 38: 32 19�08�2020 12: 38: 32 Inhalt Vorwort zur zweiten Auflage � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 11 1 Einführung in das Thema � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 13 1.1 Gebrauchsanweisung für die 2. Auflage � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 13 1.2 Definition der audiovisuellen Übersetzung � � � � � � � � � � � � � � � � � � � � � � � � � � � � 14 1.3 Der Stand der Dinge � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 16 1.3.1 Ausbildungsmöglichkeiten und Unterrichtsmaterialien � � � � � � � � � � � � 18 1.3.2 Barrierefreiheit � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 20 1.3.3 Forschung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 20 1.4 Untertitelung versus Synchronisation - der ewige Streit � � � � � � � � � � � � � � � � � 22 1.5 Exkurs: Filmgestaltung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 28 1.5.1 Bildspur � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 28 1.5.2 Tonspur � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 32 1.5.3 Texte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 33 1.5.4 Der Timecode � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 34 1.6 Schlussbemerkung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 35 2 Interlinguale Untertitelung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 37 2.1 Definition � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 37 2.2 Geschichte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 38 2.3 Arbeitsablauf � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 41 2.3.1 Neue Arbeitsbedingungen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 41 2.3.2 Spotting und Splitting � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 43 2.3.3 Zeilenaufteilung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 47 2.3.4 Gestaltung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 48 2.3.5 Textkürzungen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 57 2.4 Einzelprobleme der Untertitelung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 59 2.4.1 Dialekte, Soziolekte, Fachsprache � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 60 2.4.2 Mehrsprachigkeit im Film � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 63 2.5 Sonderfälle der Untertitelung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 64 2.5.1 Trivia Tracks und andere zusätzliche Untertitel � � � � � � � � � � � � � � � � � � 64 2.5.2 Bilinguale Untertitelung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 65 2.5.3 Fansubs � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 66 2.5.4 Kreative Untertitelgestaltung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 68 2.5.5 Synchrontext versus Untertitelungstext � � � � � � � � � � � � � � � � � � � � � � � � � 71 2.5.6 Übertitelung / Lehnenübersetzung im Theater � � � � � � � � � � � � � � � � � � � 72 2.6 Musik und Untertitelung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 73 18231_Juengst_SL4�indd 5 18231_Juengst_SL4�indd 5 19�08�2020 12: 38: 32 19�08�2020 12: 38: 32 6 Inhalt 2.6.1 Opern � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 73 2.6.2 Mehrstimmiger Gesang � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 77 2.6.3 Musicals und Songs im Film � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 79 2.7 Forschung und weiterführende Literatur � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 80 2.8 Anhang: Richtlinien � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 80 3 Synchronisation � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 83 3.1 Definition � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 83 3.2 Geschichte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 84 3.3 Arbeitsablauf � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 87 3.4 Einzelaspekte: Formen der Synchronität � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 93 3.4.1 Verhaltens-, Gesten- und Nukleussynchronität � � � � � � � � � � � � � � � � � � � 94 3.4.2 Lippensynchronität � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 98 3.5 Einzelaspekte: Die Texte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 102 3.5.1 Fachsprache im Film � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 105 3.5.2 Mehrsprachige Filme und Dialekt im Film � � � � � � � � � � � � � � � � � � � � � 106 3.6 Sonderfälle � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 111 3.6.1 Fandubs � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 111 3.6.2 Fundubs � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 112 3.6.3 Schnodder-Synchron � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 113 3.6.4 Slawische Synchro � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 115 3.6.5 Erzähler � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 116 3.6.6 Länderspezifische Synchronfassungen � � � � � � � � � � � � � � � � � � � � � � � � 119 3.6.7 Verfälschungen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 120 3.6.8 Europuddings � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 124 3.6.9 Filmmusik in synchronisierten Filmen � � � � � � � � � � � � � � � � � � � � � � � � � 124 3.6.10 Synchronisation als Filmthema � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 125 3.7 Stimmen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 125 3.7.1 Sprecherkontinuität � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 128 3.7.2 Nachvertonung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 129 3.7.3 Umgang mit Filmsongs � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 130 3.8 Forschung und weiterführende Literatur � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 135 4 Voice-over � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 137 4.1 Definition � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 137 4.2 Arbeitsablauf � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 142 4.3 Einzelaspekte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 144 4.3.1 Voice-over als Text � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 144 4.3.2 Zusatztexte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 152 4.4 Sonderfälle � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 154 4.4.1 Mehrsprachige Vorlagen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 154 18231_Juengst_SL4�indd 6 18231_Juengst_SL4�indd 6 19�08�2020 12: 38: 33 19�08�2020 12: 38: 33 7 Inhalt 4.4.2 Voice-over zu laufenden Produktionen � � � � � � � � � � � � � � � � � � � � � � � � � 155 4.4.3 Voice-over bei Nachrichtenformaten und TV-Magazinen � � � � � � � � � 156 4.4.4 Fiktionale und halb-fiktionale Formate mit Voice-over � � � � � � � � � � � 156 4.4.5 Firmenvideos / Video Narrations und aufgezeichnete Fachvorträge � 157 4.5 Stimmen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 159 4.6 Forschung und weiterführende Literatur � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 162 5 Filmdolmetschen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 163 5.1 Definition � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 163 5.2 Geschichte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 165 5.3 Arbeitsablauf � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 166 5.4 Sonderfälle � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 169 5.4.1 TV- und Mediendolmetschen allgemein � � � � � � � � � � � � � � � � � � � � � � � � 169 5.4.2 Kinder als Zielgruppe � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 171 5.4.3 Probleme im Arbeitsablauf � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 171 5.4.4 Und was ist mit Musik? � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 173 5.5 Forschung und weiterführende Literatur � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 173 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 175 6.1 Definition � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 175 6.2 Geschichte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 177 6.3 Zielgruppe der Audiodeskription � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 178 6.4 Arbeitsablauf � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 179 6.5 Audiodeskription als Text und intersemiotische Übersetzung: Einzelaspekte 181 6.5.1 Personen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 182 6.5.2 Orte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 183 6.5.3 Handlungen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 186 6.5.4 Geräusche � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 188 6.5.5 Informations-Überangebot und Informationsauswahl � � � � � � � � � � � � 188 6.5.6 Der Hörfilm als Ganzes � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 191 6.5.7 Verwandte Textsorten � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 192 6.6 Sonderfälle � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 196 6.6.1 Zeitversetzte Audiodeskription � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 196 6.6.2 Perspektive und Experimente � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 197 6.6.3 Zielgruppe Kinder � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 197 6.6.4 Kulturspezifik und doppelte Übersetzung � � � � � � � � � � � � � � � � � � � � � � 202 6.6.5 Stimmen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 203 6.6.6 Musik und Songs � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 204 6.6.7 Taststücke, Einleger und anderes Zusatzmaterial � � � � � � � � � � � � � � � � 205 6.7 Forschung und weiterführende Literatur � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 206 18231_Juengst_SL4�indd 7 18231_Juengst_SL4�indd 7 19�08�2020 12: 38: 33 19�08�2020 12: 38: 33 8 Inhalt 6.8 Anhänge: Richtlinien für Audiodeskriptionen � � � � � � � � � � � � � � � � � � � � � � � � � 207 Anhang 1: Allgemeine Richtlinien Rundfunkanstalten � � � � � � � � � � � � � � � � � � 207 Anhang 2: Regeln für die Audiodeskription für Kinder � � � � � � � � � � � � � � � � � 209 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 213 7.1 Definition � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 213 7.2 Geschichte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 214 7.3 Zielgruppen für die Untertitelung für Gehörlose und Hörgeschädigte � � � � � 216 7.4 Das Absehen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 218 7.5 DGS - Deutsche Gebärdensprache � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 220 7.6 Untertitel für Hörgeschädigte als Text: Richtlinien � � � � � � � � � � � � � � � � � � � � � 220 7.6.1 Farben und Ausrichtung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 222 7.6.2 Kürzungen und Veränderungen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 224 7.6.3 Parasprache � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 228 7.6.4 Geräusche � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 230 7.6.5 Musik und Untertitel für Gehörlose und Hörgeschädigte � � � � � � � � � � 231 7.7 Live-Untertitelung und Re-Speaking � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 236 7.8 Gebärdensprachdolmetschen im AV-Bereich / Gebärdenspracheinblendung 239 7.9 Sonderfall Kinder als Zielgruppe � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 240 7.10 Ein paar kleine Extras … was man sonst noch mit Untertiteln tun kann … 243 7.11 Forschung und weiterführende Literatur � � � � � � � � � � � � � � � � � � � � � � � � � � � � 244 7.12 Anhänge: Richtlinien � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 244 Anhang 1: Allgemeine Richtlinien Rundfunkanstalten � � � � � � � � � � � � � � � � � 244 Anhang 2: Empfehlungen für die Untertitelung für Kinder � � � � � � � � � � � � � 247 8 Games � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 251 8.1 Definition � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 252 8.2 Geschichte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 254 8.3 Arbeitsablauf � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 256 8.3.1 Kompetenzen des Game-Übersetzers � � � � � � � � � � � � � � � � � � � � � � � � � � 256 8.3.2 Arbeitsabläufe bei der Game-Lokalisierung � � � � � � � � � � � � � � � � � � � � � 257 8.4 Lokalisierungselemente und -vorgänge � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 263 8.4.1 Untertitelung und Synchronisation bei Games � � � � � � � � � � � � � � � � � � 263 8.4.2 Games als Text � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 265 8.4.3 Bilder und Games � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 269 8.5 Übungsmaterialien entwickeln � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 270 8.5.1 Analoger Einstieg � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 270 8.5.2 Selbst einfache Games programmieren � � � � � � � � � � � � � � � � � � � � � � � � � 271 8.6 Forschung und weiterführende Literatur � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 275 18231_Juengst_SL4�indd 8 18231_Juengst_SL4�indd 8 19�08�2020 12: 38: 33 19�08�2020 12: 38: 33 9 Lösungshilfen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 277 Kapitel 2: Interlinguale Untertitelung � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 277 Kapitel 3: Synchronisation � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 279 Kapitel 4: Voice-over � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 283 Kapitel 5: Filmdolmetschen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 286 Kapitel 6: Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 286 Kapitel 7: Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 289 Kapitel 8: Games � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 292 Bibliographie � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 295 Fachzeitschriften � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 295 Texte (Print und PDF) � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 295 Sonstige Internetquellen � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 324 Register � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � � 325 Inhalt 18231_Juengst_SL4�indd 9 18231_Juengst_SL4�indd 9 19�08�2020 12: 38: 33 19�08�2020 12: 38: 33 18231_Juengst_SL4�indd 10 18231_Juengst_SL4�indd 10 19�08�2020 12: 38: 33 19�08�2020 12: 38: 33 Vorwort zur zweiten Auflage 2010 erschien die erste Auflage dieses Buches - zu einem Thema, das man damals getrost als Nischenthema bezeichnen konnte. Wie sehr sich das geändert hat, sieht man sowohl am Umfang als auch am Inhalt der Neuauflage. Was sich nicht verändert hat: Auch dieses Mal habe ich vielen Menschen zu danken. An erster Stelle kommen meine Mutter, die unendliche Geduld bewiesen hat, und mein Vater, der die Publikation noch gern miterlebt hätte. Einen sehr wichtigen Beitrag haben auch all die Studierenden geleistet, die meine Kurse zum Audiovisuellen Übersetzen besucht, die Übungen ausprobiert und mir Rückmeldung dazu gegeben haben: an der Universität Leipzig, an der Universität Graz und an der FHWS Würzburg. Danke auch an die Teilnehmer meiner Workshops bei Universitas Austria und bei KIKA / mdr. Und natürlich danke an die Praxisvertreter, die uns im Unterricht besucht haben: Marion Peterreins, Christin Friers, Bernd Benecke und Elmar Dosch. Vielen Kollegen verdanke ich Anregungen und gute Gespräche auf Tagungen. Ich kann nicht alle aufzählen, habe aber im Text auf alles verwiesen, was ich von euch übernommen habe. Stellvertretend nenne ich meine langjährige Team-Dozentin Susann Herold, Alexandra Jantscher-Karlhuber, Klaus Schubert, Katrin Pieper, Anne Ende, Tim Jones, Susanne Jekat, Nathalie Mälzer und Team, Alexander Künzli, Klaus Kaindl, Antonella Nardi, Mary Carroll, Minako O`Hagan, Simone Maier, Ana Díaz und Xiaohun Zhang. Meine Grundschul-Musiklehrerin Brigitte Licht für Einblicke ins Geräuschemachen. Danke auch an Peter Axel Schmitt, der mir einfach so mein erstes Seminar zur AV-Übersetzung anvertraute. Es war eine Katastrophe ... Ich habe dazugelernt. Und natürlich darf das Greenscreen-Team nicht fehlen! Ein weiterer Dank an diejenigen, die mir Abdruckrechte überlassen haben: Daniel Frei und Daniel Wolf für die Screenshots aus Die Kunst des Spickens , Jan Meuel vom DBSV für die Richtlinien zur Audiodeskription für Kinder,Ursula Heerdegen-Wessel von der Redaktion Barrierefreiheit der ARD, Mary Carroll und Jan Ivarsson für den ESIST Code for Good Subtitling Practice. Nicht zuletzt danke an das Team vom Narr Verlag: Tillmann Bub, der das Projekt durch die ersten Höhen und Tiefen begleitete. Es waren derer viele. Corina Popp, die dann übernahm, und der geduldigen Herstellungsabteilung, die mit dem Manuskript nicht nur Freude hatte, Tina Kaiser und Arkin Keskin. Jetzt bleibt mir nur, allen viel Spaß beim Lesen und Ausprobieren zu wünschen! Mainz, im August 2020 Heike Elisabeth Jüngst 18231_Juengst_SL4�indd 11 18231_Juengst_SL4�indd 11 19�08�2020 12: 38: 33 19�08�2020 12: 38: 33 18231_Juengst_SL4�indd 12 18231_Juengst_SL4�indd 12 19�08�2020 12: 38: 33 19�08�2020 12: 38: 33 1 Einführung in das Thema 1.1 Gebrauchsanweisung für die 2. Auflage Dieses Buch stellt eine praxisnahe Einführung in das audiovisuelle Übersetzen (AV-Übersetzen) mit Analyseteilen und Verweisen auf wissenschaftliche Arbeiten dar. In den einzelnen Kapiteln werden die verschiedenen Verfahren mit ihren Eigenheiten vorgestellt, analysiert und ausprobiert. In der Neuauflage wurde die Menge an Fragen und Übungen deutlich erhöht. Fragen sind mit dem Icon und Übungen mit dem Icon gekennzeichnet. Die meisten Antworten oder Hinweise finden sich in den Lösungshilfen am Ende des Buches. Viele Antworten und Überlegungen führen das Buch jedoch logisch weiter und man muss nur ein bisschen nachdenken, um sie zu beantworten. Man sollte sich vor dem Weiterlesen mit ihnen auseinandersetzen, denn direkt nach diesen Fragen geht es mit den Antworten weiter. Diese Fragen werden mit „Mal kurz nachdenken …“ eingeleitet. Am Ende jedes Kapitels steht ein kurzer Abschnitt zu weiterführender Literatur und Forschung. Die dortigen Angaben sollen eine gewisse Bandbreite der Forschungsfragen vermitteln; im Literaturverzeichnis findet sich eine weit größere Anzahl von passender Literatur. Der Aufbau der Kapitel wurde, soweit möglich, vereinheitlicht. Zu Beginn steht die Definition des jeweiligen Verfahrens, dann kommt ein geschichtlicher Überblick. Es folgen die typischen Arbeitsabläufe, dann Einzelaspekte und schließlich Sonderfälle. Wo es Richtlinien gibt, die für die Allgemeinheit von Interesse sind, stehen diese in Anhängen zu dem jeweiligen Kapitel. Das Buch ist für eine heterogene Leserschaft aus Unterrichtenden und Selbstlernern gedacht. Die einzelnen Kapitel können auch in der Neuauflage unabhängig voneinander gelesen und durchgearbeitet werden. Nur die beiden Kapitel zum Thema Untertitelung ergänzen sich. Die Doppelungen aus der ersten Auflage wurden soweit möglich gelöscht und durch Querverweise zu anderen Kapiteln ersetzt. Das Kapitel „Musik und audiovisuelle Übersetzungsverfahren“, das ein bisschen unglücklich quer zu den anderen stand, wurde aufgelöst und die Unterkapitel in die Kapitel zu den einzelnen Verfahren eingefügt. Neu in dieser Auflage ist das Thema Game-Lokalisierung, wenn auch nur als kurze Einführung. Dieses Verfahren ist hybrid; manche Übersetzungsaufgaben dort entsprechen Verfahren aus der AV-Übersetzung, so dass der Aufbau dieses Kapitels von dem der anderen abweicht. Insgesamt wurde das Buch von Grund auf überarbeitet und erweitert. Am wenigsten hat sich das Kapitel zur interlingualen Untertitelung verändert, doch auch dort wird selbstverständlich auf neue Studien und Verfahren hingewiesen. Ich selbst bin von Haus aus Übersetzerin und Dolmetscherin und kenne daher vor allem die Probleme und Bedürfnisse dieser Zielgruppe. Für sie ist z. B. der hier in der Einführung angebotene Exkurs zur Filmgestaltung gedacht; in anderen Medienberufen ist dieses Wissen täglich Brot. 18231_Juengst_SL4�indd 13 18231_Juengst_SL4�indd 13 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 14 1 Einführung in das Thema 1.2 Definition der audiovisuellen Übersetzung Unter audiovisueller Übersetzung (im Nachfolgenden AV-Übersetzung) versteht man allgemein das Übersetzen von Medienformaten, die einen sichtbaren und einen hörbaren Teil haben, und zwar primär die typischen Verfahren der Film- und Video-Übersetzung. Bei der audiovisuellen Übersetzung wird das ursprünglich vorliegende Material durch die Übersetzung verändert und meist ergänzt. Anders als bei vielen anderen Formen der Übersetzung bleiben Teile des ursprünglichen Materials erhalten, je nach Übersetzungsverfahren unterschiedliche. Zu Beginn jedes Kapitels wird die Definition des jeweiligen Verfahrens nach der Routledge Encyclopedia of Translation Studies angeführt; hier kommt die Definition zu Audiovisual Translation: Audiovisual translation is a branch of translation studies concerned with the transfer of multimedial texts into another language and / or culture … Major meaning-making modes in audiovisual texts include language, image, music, colour and perspective. (Pérez González 2011 [2009]: 13) Wie bei allen in diesem Buch angeführten Definitionen kann man dies natürlich kritisch sehen. Die nachfolgende Definition, obwohl noch keine zwanzig Jahre alt, ist für die heutige Arbeit in der AV-Übersetzung und die dazugehörige Forschung zu eng gefasst: „Die Konzentration auf den Dialogfilm stellte die verbale Sprache und ihre Übertragbarkeit in den Mittelpunkt der Aufmerksamkeit.“ (Wahl 2003: 9) Im Anschluss an seine Definition führt Pérez González die Vielfalt an Bezeichnungen auf, die im Englischen für die AV-Übersetzung existieren (siehe Pérez González 2011 [2009]: 13). Im Deutschen wird als Synonym zur AV-Übersetzung Medienübersetzung verwendet; sonst werden meist die einzelnen Verfahren genannt. Die Verfahren, an die man bei dem Begriff audiovisuelle Übersetzung als erstes denkt, werden bei der Übersetzung von Filmen und Fernsehserien eingesetzt: interlinguale und intralinguale Untertitel, Synchronisation, bei Dokumentationen auch Voice-over. Inzwischen kann man auch die Audiodeskription für Blinde als bekanntes Verfahren voraussetzen. Audiovisuelle Übersetzung findet aber auch im Theater statt, als Übertitelung oder als Live-Audiodeskription. Man darf auch die Einflüsse auf die audiovisuelle Übersetzung nicht übersehen: Es gibt eine Reihe von Textsorten, deren Übersetzung eng mit der AV-Übersetzung verwandt ist, die Einfluss auf die AV-Übersetzung hatten und die im Vergleich mit dieser neue Einblicke und Erkenntnisse liefern können: La traduction audiovisuelle (TAV) relève de la traduction des médias qui inclut aussi les adaptations ou éditions faites pour les journaux, les magazines, les dépêches des agences de presse etc. Elle peut être perçue également dans la perspective de la traduction des multimédias qui touche les produits et services en ligne (Internet) et hors ligne (CD-ROM). Enfin, elle n’est pas sans analogie avec la traduction des BD, du théâtre, de l’opéra, des livres illustrés et de tout autre document qui mêle différents systèmes sémiotiques. (Gambier 2004: 1) 18231_Juengst_SL4�indd 14 18231_Juengst_SL4�indd 14 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 15 1.2 Definition der audiovisuellen Übersetzung Manchem kommt es befremdlich vor, dass Verfahren wie intralinguale Untertitelung oder Audiodeskription als Übersetzung bezeichnet werden. Der prototypische Übersetzer beschäftigt sich mit interlingualen Übersetzungen. Doch heute sind die Anforderungen an Übersetzer weit vielfältiger. In der übersetzungswissenschaftlichen Forschung wird in diesem Zusammenhang gern auf Roman Jakobsons Definition der verschiedenen Verfahren der Übersetzung verwiesen ( Jakobson 1971: 261). Jakobson spricht von der intralingualen, der interlingualen und der intersemiotischen Übersetzung. Die interlinguale Übersetzung entspricht unserer prototypischen Vorstellung der Übersetzung von einer Sprache in die andere. Die intralinguale Übersetzung ist eine Form der Bearbeitung. So wird ein Text z. B. für eine neue Zielgruppe vereinfacht, die Sprache wird jedoch beibehalten. Ein typisches Beispiel außerhalb der AV-Übersetzung sind Bearbeitungen literarischer Werke für Kinder, aber auch die im Zuge der gesellschaftlichen Teilhabe und Barrierefreiheit immer wichtigere Leichte Sprache 1 gehört in diesen Bereich. Untertitel für Hörgeschädigte stellen eine spezielle Form der intralingualen Übersetzung dar. Bei der auch als Transmutation bezeichneten intersemiotischen Übersetzung schließlich wird das Zeichensystem gewechselt. Ein klassisches Beispiel der intersemiotischen Übersetzung ist die Bildbeschreibung, bei der das bildlich Dargestellte in Sprache wiedergegeben wird. Die Audiodeskription fällt daher in den Bereich der intersemiotischen Übersetzung. Eine noch detailliertere Aufschlüsselung verschiedener Formen der multidimensionalen (nicht nur der audiovisuellen) Übersetzung findet sich in Gottlieb 2005. Die Verfahren der audiovisuellen Übersetzung kann man unterschiedlich einteilen. Auch die Task Force AV der FIT befasste sich 2019 mit der Einteilung dieser Verfahren, was zeigt, dass diese Diskussion noch lange nicht abgeschlossen ist. Im Handbuch Translation von 2006 (Erstauflage 1999) kommen die selten behandelten Video Narrations (242-244) („der gesprochene Text zu Industrievideos“, 242) im Kapitel zu primär appellativen Texten vor, während im Kapitel „Film und Fernsehen“ Untertitelung / Übertitelung (261-264) und Synchronisation (unter dem selten gebrauchten Eintrag Synchronisierung) (264-266) behandelt werden. Voice-over wird im Abschnitt Synchronisation kurz erwähnt, andere Verfahren der audiovisuellen Übersetzung spielen hier keine Rolle. Das zeigt auch, dass 1999 diese Verfahren in der Praxis vieler Übersetzer noch nicht wichtig waren. In der Routledge Encyclopedia of Translation in der zweiten Auflage von 2009 werden die Verfahren versammelt unter dem Stichwort „Audiovisual Translation“, zunächst Subtitling (14-15), mit Anmerkungen zu interlingualen, bilingualen und intralingualen Untertiteln, Revoicing (16-18) mit Voiceover, Audiodeskription, freiem Kommentar, Filmdolmetschen und Synchronisation (Pérez González 2011 [2009]). Andere Aufteilungen sind noch weit detaillierter, denn man kann all diese Verfahren weiter unterteilen, wie es auch in diesem Buch in den Unterkapiteln geschieht. Möglich ist auch eine Aufteilung nach Jakobsons Einteilung von Übersetzungen 1 Leichte Sprache ist ein zu umfassendes Thema für dieses Buch. Bei Interesse sind die Publikationen von Bettina Bock (die inzwischen sehr große Anzahl findet man auf ihrer Website) und Christiane Maaß (ebenso) empfehlenswert. 18231_Juengst_SL4�indd 15 18231_Juengst_SL4�indd 15 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 16 1 Einführung in das Thema als interlingual, intralingual und intersemiotisch. Dadurch werden aber typische Verfahren und Abläufe in unterschiedliche Bereiche verschoben. Eine Einteilung nach Genres habe ich nirgends gefunden, aber auch das wäre möglich, wobei bei jedem Genre verschiedene typische Verfahren aufgeführt würden. Die Ausnahme hier ist die Game-Lokalisierung, bei der Übersetzungsverfahren und Spieltyp gekoppelt sind. Ich habe mich bei diesem Buch für eine andere, rein praktisch motivierte Einteilung entschieden und die Verfahren der Barrierefreiheit, Untertitelung für Hörgeschädigte und Audiodeskription für Blinde und Sehgeschädigte, an den Schluss des Buches gestellt. Für diese Verfahren gibt es eine spezielle Gesetzeslage, Richtlinien öffentlich-rechtlicher Rundfunkanstalten, den Einfluss von Lobbygruppen, Interessenten aus anderen Fächern wie Sozialpädagogik - und nicht zuletzt bilden bei beiden Verfahren Kinder eine eigene Zielgruppe. 1.3 Der Stand der Dinge In den letzten Jahren hat das Interesse an der audiovisuellen Übersetzung in Ausbildung und Berufspraxis aus mehreren Gründen zugenommen. Es begann mit dem Aufkommen der DVD mit ihrem riesigen Speicherplatz, der für mehrere Synchronspuren und Untertitelspuren genutzt werden kann (zu diesem Thema ausführlicher Kayahara 2005). Wer früher nie eine Kinovorstellung mit Untertiteln besucht hätte, konnte jetzt einfach ausprobieren, wie so etwas aussieht. Doch wie in vielen anderen Lebensbereichen ist es auch hier das Internet, das das Interesse an der AV-Übersetzung auch bei Laien gesteigert hat. Der Zugang zur Originalversion des jeweiligen Films ist einfach, es gibt Untertitelungsprogramme, die man leicht nutzen kann, und so beginnen auch Laien, Originalfassung und Übersetzung parallel anzusehen, zu vergleichen und nicht zuletzt selbst zu übersetzen. Die Bedeutung der Digitalisierung der Untertitelungsprogramme für entsprechende Kurse an Hochschulen darf nicht unterschätzt werden. Auch für die Forschung sind diese Entwicklungen relevant. Das betrifft zunächst den Zugriff auf das Material. Bis in die 1990er war es ausgesprochen aufwändig, für Forschungen zur audiovisuellen Übersetzung Filmfassungen aus verschiedenen Ländern zu importieren. Im Normalfall bat man Freunde im Ausland, die Videokassetten zu besorgen. So bekam man aber fast nie deutsch untertitelte Filme. Aus Synchronländern kamen synchronisierte Filme, aus Untertitelungsländern untertitelte. Das bedeutete, dass man oft monatelang auf Materialjagd war. Man kann sich das heute kaum noch vorstellen, aber es ist wichtig zu verstehen, welches Engagement die Pioniere der Forschung zur audiovisuellen Übersetzung mitbringen mussten. Was man heute auf einer einzigen DVD oder durch einen Klick ins Internet bekommt, musste man sich mühselig zusammensuchen. Das hielten nur echte Aficionados durch. Generell lässt sich feststellen, dass die Menge der Aufgaben und Aufträge im Bereich der AV-Übersetzung durch das vielsprachige Internet und die verstärkte internationale Ausrichtung verschiedener Dienste geradezu exponentiell zugenommen hat, meist im Bereich Untertitelung. Zusätzlich wurden und werden maschinelle Verfahren entwickelt wie die 18231_Juengst_SL4�indd 16 18231_Juengst_SL4�indd 16 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 17 1.3 Der Stand der Dinge automatischen Untertitel bei YouTube. Trotz aller Schwächen, die diese Verfahren aufweisen, muss man anerkennen, dass ihre Entwicklung äußerst schnell erfolgte und dass viele Nutzer die Ergebnisse als völlig ausreichend für ihre Bedürfnisse ansehen. 2 Die Entwicklung der AV-Übersetzung im Bereich Barrierefreiheit wird in den betreffenden Kapiteln geschildert. Hier haben sich durch neue Gesetze und Verpflichtungen große Veränderungen ergeben (www.bundesfachstelle-barrierefreiheit.de/ DE/ Home/ home_node. html). Behörden und öffentlich-rechtliche Anstalten sind zur Barrierefreiheit verpflichtet. So hat sich ein neuer Arbeitsbereich eröffnet und neue technische Verfahren wurden entwickelt. Wer in diesem Bereich arbeiten möchte, muss sich immer darüber im Klaren sein, dass Barrierefreiheit keine Einbahnstraße ist. Man tut nicht jemandem „etwas Gutes“, man profitiert selbst davon. Man muss sich nur fragen, ob man in der Lage ist, einfach so mit einem seit Geburt gehörlosen Menschen zu kommunizieren. Oder ob man als Hörender nicht doch einen Gebärdensprachdolmetscher benötigt. … it would be interesting to see practices improving, by taking advantage of the new products for the benefit of audiences who should not be seen as minorities but as one of the many parts of a fragmented reality. (Neves 2009: 152) Kurz gesagt: Man sollte sich so für die Zielgruppen dieser Arbeit interessieren, wie man sich für die Kulturen seiner Arbeitssprachen interessiert. Die audiovisuelle Übersetzung ist in jeder Form arbeitsteilig (dazu auch Gambier 2004). Diese Tatsache muss man sich immer wieder ins Bewusstsein rufen, denn nicht jeder fühlt sich damit wohl. Die Arbeitsteilung hat einen sehr starken Einfluss auf das endgültige Produkt und darauf, was der Übersetzer darf bzw. tun soll, über welche Kompetenzen er also verfügen muss. Wie überall gilt: Je besser der Informationsaustausch zwischen den Beteiligten funktioniert, desto besser funktioniert auch die Qualitätssicherung für das fertige Produkt. Schon an der Produktion des Films, der nun in irgendeiner Form übersetzt werden soll, ist eine Vielzahl von Menschen beteiligt. Darauf kann hier nicht weiter eingegangen werden. Es gibt aber sehr gute Handbücher zur Einführung ins Filmemachen und Arbeiten über die Filmindustrie, die entsprechende Informationen bieten. Weitere Informationen findet man auf den Websites der Filmförderungsanstalten der jeweiligen Bundesländer. Schließlich lohnt es sich, einmal nach dem Film auch den gesamten Abspann anzusehen (falls er im Kino nicht zu schnell läuft; besser geht es mit einer DVD). Bisher haben es nur die Audiodeskriptoren geschafft, sich als den anderen Mitarbeitern gleichwertig zu positionieren. 2 Eine empirische Bestätigung fehlt; es handelt sich um Momentaufnahmen, bei denen die Autorin Studierende anderer Fächer, die sie beim Videoschauen sah, um ihre Meinung bat. Diese Einzelfälle bewerteten die Untertitel nicht unbedingt als gut, aber als preiswertes Mittel zur Verständnisunterstützung. 18231_Juengst_SL4�indd 17 18231_Juengst_SL4�indd 17 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 18 1 Einführung in das Thema 1.3.1 Ausbildungsmöglichkeiten und Unterrichtsmaterialien Im deutschsprachigen Raum gibt es inzwischen sowohl Studiengänge, die spezifisch auf die audiovisuelle Übersetzung ausgerichtet sind, als auch Module zur audiovisuellen Übersetzung in translatorischen oder philologischen Studiengängen. Auch Games-Studiengänge gibt es inzwischen, doch diese konzentrieren sich eher auf die Games-Entwicklung als auf die Lokalisierung. Module zur Games-Lokalisierung werden zurzeit an vielen Übersetzerinstituten aufgebaut. Das bedeutet auch, dass entsprechende Übersichten schnell veralten und man besser auf die Internetsuche zurückgreift. Das europäische Ausland war bei der Einrichtung entsprechender Studiengänge schneller. Besonders an Barcelonas Universitäten hat sich ein Schwerpunkt der AV-Übersetzung etabliert, inklusive der Game-Übersetzung. Bis Mitte der 1980er Jahre lag die Ausbildung der Untertitler noch ganz in der Hand der Untertitelungsunternehmen (Nagel 2009: 37). Auch heute sind die Praktika bei diesen Unternehmen wie auch die Arbeitsplätze von begrenzter Anzahl und sehr begehrt. Manche Unternehmen bieten auch heute Workshops zu AV-Verfahren an, ebenso Übersetzer-Berufsverbände (dazu Kaindl 2016). Literatur zur Didaktik der audiovisuellen Übersetzung liegt vor mit Brondeel (1994), Díaz Cintas (2008) und Díaz Cintas / Remael (2007) speziell zur Untertitelung. O’Hagan (2013) ist die erste grundlegende Einführung in die Übersetzung von Games. Speziell zu Voice-over bietet das Buch von Franco, Matamala und Orero (2010) eine Vielzahl von Übungen, allerdings sehr stark an den Bedürfnissen des spanischen Marktes ausgerichtet. Zum Üben benötigt man einen Computer, Filme, Software, wo möglich Filmskripte und die üblichen übersetzerischen Hilfsmittel wie einsprachige und mehrsprachige Wörterbücher, Stilwörterbücher, Synonymwörterbücher. Wer im Unterricht oder im Selbststudium audiovisuelle Übersetzungsverfahren einüben oder analysieren möchte, kann aus einer Fülle an Material wählen, Filmen ebenso wie Software. Heute stellt sich die Frage, ob man sich das technische Equipment leisten kann, nicht mehr. Eine große Menge an guter Untertitelungsfreeware oder an Software zur Filmbearbeitung steht für alle Verfahren zur Verfügung. Entsprechend werden in dieser Auflage keine Screenshots gängiger Software mehr abgebildet. Es ist deutlich einfacher, diese Programme im Internet anzuschauen und auszuprobieren. Das Internet bietet auch eine große Auswahl an Filmen. Man sollte aber der Versuchung der Sparsamkeit widerstehen und nur legale Downloads nutzen. Sollte die Internet-Verbindung einmal gekappt sein: Die geringsten technischen Voraussetzungen benötigt das Filmdolmetschen. Hier genügen der Film und der Dolmetscher. Auch Audiodeskriptionen für Blinde kann man live einsprechen. Wenn Filme als Material für die Analyse der verschiedenen Verfahren genutzt werden sollen, ist die DVD noch immer das Medium der Wahl. 3 Bei den meisten DVDs lassen sich die Untertitel zu- und wegschalten und man kann die Untertitelung in unterschiedlichen Sprachen vergleichen. Ein großes Problem stellen aber deutsche DVDs von schwedischen Filmen dar, da man dort die Originalfassung nur mit deutschen Untertiteln aufrufen kann. 3 DVD-Player sind keine selbstverständliche Ausstattung mehr - passen Sie auf, dass im Unterrichtsraum überhaupt einer zur Verfügung steht. DVDs schlucken weit weniger Strom als Streaming. 18231_Juengst_SL4�indd 18 18231_Juengst_SL4�indd 18 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 19 1.3 Der Stand der Dinge Wo eine Zusammenarbeit mit Studierenden aus Fächern wie Film- oder Medienwissenschaften, die selbst semi-professionelle Filme drehen, möglich ist, sollte man sie nutzen. Man bekommt in diesem Fall auch Zugang zu Drehbüchern etc., kann den Regisseur bei unklaren Stellen befragen und ist vielleicht bei der Produktion dabei. Die filmschaffenden Studierenden profitieren ebenfalls von der Zusammenarbeit, denn sie bekommen Einblicke in einen Teil der Postproduktion, der oft vergessen wird. Die Übersetzung läuft so vielleicht einmal im Rahmen einer Studenten-Filmwoche und findet tatsächlich ein Publikum. 4 Was den Text betrifft, kann man bei Übungen direkt von der Tonspur des Filmmaterials ausgehen. Oft arbeitet man im Unterricht nur mit kurzen Ausschnitten, so dass der hörbare Ton ausreicht. Da dieser nicht immer von bester Qualität ist, und da manche Menschen undeutlich sprechen, kann es hier zu interessanten Missverständnissen kommen. Wenn man Textbücher, Drehbücher oder Dialoglisten der Filme zur Verfügung hat, hat man Glück, da man so längere und komplexere Texte bearbeiten und Teamarbeit einüben kann. Man unterscheidet Präproduktionsskript und Postproduktionsskript. Das Postproduktionsskript sollte den Textzustand des fertigen Films wiedergeben und kann so ohne dauernde Kontrolle des Films als Basis für eine Untertitelung oder eine Synchronfassung genutzt werden. Postproduktionsskripte bekannter Filme kann man kaufen. Verschiedene Verlage wie Faber & Faber in Großbritannien oder Suhrkamp in Deutschland bieten Texte aktueller oder klassischer Filme an. Präproduktionsskripte gehören zu einem Arbeitsschritt, den der Film schon hinter sich gelassen hat. Sie stellen eher eine Art Entwurf dar, nach dem der Film gedreht wurde, und sind im Allgemeinen fehlerhaft. Entweder enthalten sie Szenen, die später gestrichen wurden, oder sie enthalten manche Szenen gar nicht oder die Szenenreihenfolge stimmt nicht. Manchmal sind noch Figuren enthalten, die aus dem fertigen Film gestrichen wurden. Entsprechend sind Präproduktionsskripte für Übersetzer zwar interessant, aber wenig hilfreich. Dazu kommt, dass man eher zufällig über Produktionsfirmen an sie herankommt. Ideal ist es natürlich, wenn die Dozenten Praxiserfahrung haben und die dort bearbeiteten Filme mit ihren Skripten im Unterricht nutzen dürfen. Leider ist dies oft aus rechtlichen Gründen nicht möglich. Trotz der geäußerten Vorbehalte ist es deutlich einfacher, an Filme zum Bearbeiten zu kommen als an Games. Auch hier empfiehlt sich eine Zusammenarbeit mit einer Hochschule, an der Game-Designer ausgebildet werden, wobei dort leider oft an Games ohne Text gearbeitet wird. Es ist übrigens nicht schwierig, mit Python schlichte Games zu schreiben (siehe Kapitel 8.5.2) - etwas für die Bastler unter den Dozenten oder für die Studierenden, die im Rahmen eines Projekts unterschiedliche Rollen einnehmen können. Die Konzentration auf das fesselnde Medium Film mit all seinen Eigenheiten und der Umgang mit interessantem technischem Equipment führen oft dazu, dass man nicht mehr so sehr ans übersetzerische Handwerk denkt. Doch alles, was man jemals im Über- 4 Auch kommunale Kinos sind offen für Aufführungen von im Unterricht übersetzten Filmen, wie unsere Studierenden selbst erfahren durften. Hier muss die Rechtslage zu hundert Prozent geklärt sein. Für die Übersetzung für eine öffentliche Aufführung benötigt man eine Genehmigung der Urheberrechtsinhaber. Eventuell werden auch Kosten fällig. 18231_Juengst_SL4�indd 19 18231_Juengst_SL4�indd 19 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 20 1 Einführung in das Thema setzungsunterricht gelernt hat, kann man bei der audiovisuellen Übersetzung anwenden. Das betrifft den größeren Rahmen aus Zielgruppe, Skopos (vereinfacht gesagt, der Zweck der Übersetzung), Textsorten und Äquivalenzfragen und den unterschiedlichsten Übersetzungstheorien ebenso wie Detailfragen zu Soziolekten / Dialekten, Stil generell, Satzbau, Wortwahl etc. Auf übersetzungswissenschaftliche Grundbegriffe wird in diesem Buch nicht eingegangen. Auch eine Kurzeinführung ist in diesem Rahmen nicht zu leisten. 5 Doch gerade im Unterricht ist eine Analyse vorliegender AV-Übersetzungen mit übersetzungswissenschaftlichen Methoden ein sinnvoller erster Schritt vor praktischen Übungen. Manche Probleme sieht man erst bei einer solchen Analyse klar. Wörterbücher jeder Art werden heute bevorzugt über das Internet genutzt. Sofern man sich nicht nur auf LEO stützt, ist das inzwischen allgemein akzeptiert - es gibt eine große Menge im Internet frei zugänglicher klassischer Wörterbücher. Denn Wörterbücher sind wichtig, und zwar jede Art von Wörterbuch (auch in gedruckter Form), darunter Bildwörterbücher (einsprachig und mehrsprachig), Fachwörterbücher und Glossare. Oft merkt man erst beim Übersetzen, dass viele Unterhaltungsfilme einen hohen Fachwortanteil haben. Terminologiedatenbanken sind für geübte Übersetzer, die im Team an einer audiovisuellen Übersetzung arbeiten, eine echte Hilfe, besonders bei Dokumentarfilmen. Dazu kommen Lexika. 1.3.2 Barrierefreiheit Im Prinzip kann man bei jeder Übersetzung davon sprechen, dass sie Barrieren beseitigt. In der Praxis wird der Begriff jedoch nur dort eingesetzt, wo Menschen mit Behinderungen die Teilhabe am gesellschaftlichen Leben erleichtert oder ermöglicht wird. Der Bereich Barrierefreiheit ist der Bereich, in dem gerade im deutschsprachigen Raum in den letzten Jahren eine große Zahl an Forschungsarbeiten erschienen ist. Es wurden neue Standards gesetzt und neue Technologien entwickelt wie Greta. Dieser Trend entspricht der allgemeinen Entwicklung in unserer Gesellschaft. Niederflurbusse, Rollstuhlrampen, Museumsführungen für Blinde, verbesserter Hörgeräte-Empfang z. B. in Kirchen und das Recht auf eine Verdolmetschung in Gebärdensprache gehören zum Alltag. Deutschland hatte da durchaus Nachholbedarf. In Großbritannien war es schon in den 1990ern üblich, dass Theaterstücke einmal pro Saison mit Gebärdensprachdolmetscher und einmal mit Audiodeskription (in speziell ausgerüsteten Sitzreihen) aufgeführt wurden. 1.3.3 Forschung Nicht jeder Übersetzungs- oder Kommunikationswissenschaftler ist an einer praktischen Tätigkeit in der audiovisuellen Übersetzung interessiert; auch Forschungsfragen sind wichtig für die Wahrnehmung des Faches und geben der Praxis neue Impulse. Durch die oben geschilderten technischen Veränderungen ist in den letzten zwanzig Jahren eine 5 Für diejenigen, die nicht aus dem übersetzungswissenschaftlichen Bereich kommen, empfiehlt sich ein Blick in das Handbuch Translation (Snell-Hornby et al., mehrere Auflagen seit 1998). 18231_Juengst_SL4�indd 20 18231_Juengst_SL4�indd 20 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 21 1.3 Der Stand der Dinge deutliche Zunahme an Forschungsarbeiten und eine Diversifizierung der Forschungsfragen zu diesem Thema zu beobachten. Einzelanalysen werden in größere Zusammenhänge gestellt - nicht zuletzt, weil es inzwischen eine große Menge an Einzelanalysen gibt, auf die man zurückgreifen kann. Formate und Verfahren, soziologische Aspekte und Technik, zu allem gibt es eine Fülle an wissenschaftlicher Literatur. 6 Bei allen AV-Übersetzungsverfahren gibt es Richtlinien, die in den letzten Jahren zunehmend hinterfragt und empirisch überprüft wurden. Beispiele dazu finden sich in den Kapiteln zu den einzelnen Verfahren. Im deutschsprachigen Raum konzentriert sich die aktuelle Forschung klar auf den Bereich Barrierefreiheit, wo auch ausführliche empirische Untersuchungen durchgeführt wurden und werden. Wie groß die Zunahme an AV-Themen in der Forschung ist, sieht man, wenn man das Inhaltsverzeichnis einer Zeitschrift wie JOSTRANS Jahr für Jahr durchschaut: Von den gelegentlichen AV-Artikeln in den frühen 2000ern gibt es eine Entwicklung hin zur AV-Übersetzung als dominantem Forschungsthema, wobei hier sehr viele Vertreter der AV-Übersetzungsforschung im Board sind. Vor allem haben sich die Forschungsarbeiten in den übersetzungswissenschaftlichen Raum hinein bewegt, während frühere Arbeiten vorzugsweise in den Kommunikations- und Medienwissenschaften entstanden. Es finden in kurzen Abständen Fachkongresse ausschließlich zur audiovisuellen Übersetzung statt, so dass sich Gelegenheiten zum wissenschaftlichen Austausch bieten. Besonders bekannt sind die alle zwei Jahre an wechselnden Orten stattfindende „Media for All“, die seit 2005 sehr erfolgreich läuft und den besten Überblick über die aktuelle Forschung zu sämtlichen Verfahren der AV-Übersetzung bietet. Sie hat sich zu einer der größten Tagungen überhaupt im übersetzungswissenschaftlichen Bereich entwickelt. Um es anschaulich zu beschreiben: Bei den ersten beiden Kongressen dieser Serie konnten noch alle Teilnehmer abends gemeinsam essen gehen. Inzwischen geht die Teilnehmerzahl in die Hunderte. Stärker praxisorientiert ist die „Languages and the Media“, die ebenfalls alle zwei Jahre stattfindet (in den geraden Jahren); Tagungsort ist Berlin. Dort werden durchaus auch wissenschaftliche Ergebnisse präsentiert, der Fokus liegt aber auf aktueller Software und Veränderungen auf dem Markt. Dafür kann man hier besser Kontakte zur Praxis knüpfen. Auf beiden Tagungen werden Filme und das Internet ebenso behandelt wie Games. In den letzten Jahren entstanden auch Forschungsgruppen auf europäischer Ebene. Dazu kommt, dass zunehmend auch auf nicht speziell orientierten sprach- oder medienwissenschaftlichen Tagungen Beiträge zur audiovisuellen Übersetzung geboten werden. Schließlich gibt es seit 2010 die „Fun for All“, eine spezialisierte Tagung für die Game-Lokalisierung. 6 Ein Gebiet, das besonders in Studierendenarbeiten beliebt ist, ist die Kritik an der AV-Übersetzung von Witzen und Wortspielen. Serien wie The Big Bang Theory (USA 2007-2019) und Friends (1994-2004) wurden inzwischen zu diesem Zweck fast schon geschreddert. Bei diesen Arbeiten wie bei allen anderen, die sich kritisch mit Produkten der AV-Übersetzung auseinandersetzen, sollte man fair bleiben und beachten, dass AV-Übersetzer oft unter hohem Zeitdruck arbeiten und dass sie - nicht überall, aber doch allzu oft - schlecht bezahlt werden und sich ein längeres Nachdenken schlichtweg nicht leisten können. 18231_Juengst_SL4�indd 21 18231_Juengst_SL4�indd 21 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 22 1 Einführung in das Thema Im Zeitschriftenbereich ist das 2018 gegründete Journal of Audiovisual Translation ausschließlich auf diese Übersetzungsformen spezialisiert; allerdings sind noch nicht viele Ausgaben erschienen. Sonst ist besonders die oben erwähnte JOSTRANS empfehlenswert; dort wird eine Vielzahl von Fachartikeln zur audiovisuellen Übersetzung publiziert (www. jostrans.org). Auch die Zeitschrift Meta (www.erudit.org/ en/ journals/ meta/ ) bietet hin und wieder Sondernummern zur audiovisuellen Übersetzung, ebenso inTRAlinea (Uni Bologna, https: / / intralinea.org). Ältere Ausgaben von Meta sind auch im Internet frei zugänglich. Trans-kom bietet trotz einer stärkeren Orientierung an fachsprachlicher Übersetzung immer wieder Untersuchungen zu AV-Themen oder Themen aus dem Bereich Barrierefreiheit (www.trans-kom.eu). Dazu kommen die New Voices in Translation Studies (www.iatis.org/ index.php/ new-voices-in-translation-studies) aus Finnland, die Revista Tradumàtica aus Barcelona (https: / / revistes.uab.cat/ tradumatica/ index) und TranscUlturAl - A Journal of Translation and Cultural Studies von der Universität Alberta in Kanada (https: / / journals. library.ualberta.ca/ tc/ index.php/ TC/ issue/ view/ 1941). Diese Zeitschriften haben alle Peer-Review-Systeme, sind aber im Internet leicht zu finden und erheben keine Zugangskosten (meist auch keine Autorenkosten). Das heißt nicht, dass Print-Zeitschriften wie Target , eine der hervorragendsten Zeitschriften zur Translatologie und eine der ersten, in denen Artikel zur AV-Übersetzung publiziert wurden, keine wichtigen Quellen wären. Zu den Online-Zeitschriften mit kostenpflichtigem Zugriff, die viele Beiträge zur AV-Übersetzung bieten, gehören The Translator (www.tandfonline.com/ toc/ rtrn20/ 24/ 4? nav=tocList), Perspectives: Studies in Translation Theory and Practice (www.tandfonline.com/ toc/ rmps20/ current) und Across Languages and Cultures - A Multidisciplinary Journal for Translation and Interpreting Studies (https: / / akademiai.com/ loi/ 084). Hier ist man auf einen Zugang über die Hochschule angewiesen; die Abstracts kann man jedoch meist kostenlos ansehen. Es bleibt natürlich immer die Möglichkeit, den jeweiligen Autor um Hilfe zu bitten. Bei Verlagen wie Benjamins und Frank&Timme erscheinen zudem regelmäßig wissenschaftliche Untersuchungen wie auch didaktisch orientierte Werke zur AV-Übersetzung. Forschungsliteratur, die sich auf einzelne Verfahren bezieht, wird in den entsprechenden Kapiteln angeführt. Überblickswerke sind selten. Das bisher umfassendste Werk zum Thema AV-Übersetzung, das sowohl die Praxis wie auch die unterschiedlichsten Forschungsansätze beleuchtet, ist Pérez González 2014. Das von Díaz Cintas 2008 herausgegebene The Didactics of Audiovisual Translation ist auch heute noch eine ausgezeichnete Einführung in die unterschiedlichen Verfahren. Gambier gehört zu den Pionieren auf dem Gebiet der AV-Übersetzungsforschung und gibt in seinen diversen Arbeiten einen Überblick über verschiedene Verfahren. Einen sehr ausführlichen und gleichzeitig amüsanten Überblick über den Stand der Dinge bieten Szarkowska / Wasylczyk 2019. 1.4 Untertitelung versus Synchronisation - der ewige Streit Die Debatte darüber, welches Verfahren das bessere sei, dreht sich seit Jahrzehnten im Kreis. Hier soll zunächst die Verteilung der beiden Verfahren in Europa dargestellt werden, dann folgen die typischen Argumente für und wider. 18231_Juengst_SL4�indd 22 18231_Juengst_SL4�indd 22 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 23 1.4 Untertitelung versus Synchronisation - der ewige Streit In manchen Ländern ist es üblich, dass Filme, die in Kino und Fernsehen gezeigt werden, interlinguale Untertitel erhalten. In anderen Ländern werden Filme synchronisiert, und Deutschland ist auch heute noch ein typisches Synchronisationsland (selten auch „Synchronnation“). Bis auf wenige Ausnahmen werden alle Serien und Filme für Fernsehen und Kino synchronisiert. Das Publikum ist an diese Situation gewöhnt, doch mit dem Erfolg der Streamingdienste und den überall frei verfügbaren, oft englischsprachigen Inhalten auf YouTube, ändert sich diese Haltung. Jüngere Zuschauer wünschen sich, zumindest für englischsprachige Produktionen, eher Untertitel (siehe auch Media Consulting Group 2011: 11). In den Mediatheken der öffentlich-rechtlichen Sender kann man bei manchen Serien zwischen untertiteltem Original und Synchronfassung wählen. Untertitelung wird heute auch hierzulande nicht mehr als Ausnahme wahrgenommen und auch nicht mehr mit Ausnahmesituationen verknüpft. Noch vor zehn Jahren konnte man interlinguale Untertitel im Fernsehen höchstens bei Opernaufführungen oder Filmen in den Kulturprogrammen (3sat, ARTE) erwarten oder außerhalb des Fernsehens bei Filmfestivals. Auch die Abwendung jüngerer Zuschauer vom linearen Fernsehen hat zu dieser Veränderung beigetragen. Was die Untertitelung von Filmen aus kleinen Sprachen betrifft, so findet diese weiterhin statt. Dennoch bleibt die Synchronisation in Deutschland wichtig; das Publikum besteht nicht nur aus jungen Trendsettern, Gewohnheiten ändern sich nicht so schnell und es gibt noch andere große Ausgangssprachen als Englisch, die nicht eine so weite Verbreitung in der Bevölkerung genießen. Außerdem hängt eine große Industrie von der Synchronisation ab. Warum ein Land zu einem Synchronisationsland wird, hat unterschiedliche Gründe. Oft leitet man diese Entwicklung aus der Geschichte der betreffenden Länder her. Spanien, Italien und Deutschland, drei typische Synchronisationsländer, haben eine faschistisch-totalitäre Vergangenheit (siehe z. B. Danan 1991). Wenn man einen Film synchronisiert, kann man besser lügen und unliebsame, beispielsweise pazifistische Inhalte verfälschen. Außerdem wird bei der Synchronisation die Nationalsprache eingesetzt. So auch Garncarz: Es ist so, dass in Deutschland der Nationalsozialismus einen direkten Einfluss hatte auf die Etablierung der Synchronisation. Es gibt eine Studie in einem amerikanischen Fachjournal aus dem Jahr 1950, und diese Studio [sic] listet 60 Länder aus der ganzen Welt auf, darunter 16 europäische Staaten, und von diesen 60 Ländern gibt es nur drei Länder, die ausschließlich Synchron-Fassungen akzeptieren: das sind Italien, Spanien und Deutschland … Und man sieht schnell, dass es die drei Länder des europäischen Faschismus sind. Das bedeutet natürlich keineswegs, dass Synchronisation in irgendeiner Weise faschistisch ist, es bedeutet nur, dass Länder, die einen besonderen Wert auf ihre kulturelle Spezifik legen, die die eigene Sprache und die eigene Kultur höher schätzen als die Sprachen und Kulturen der Nachbarländer, dass diese Länder einen besonderen Wert darauf legen, dass alles Ausländische quasi in die eigene Sprache übersetzt wird. (Garncarz in Metz / Seeßlen 2009) Doch diese Erklärung greift zu kurz. Auch in Frankreich ist die Synchronisation das häufigste Verfahren der AV-Übersetzung. Die Menge der Zuschauer, die den fertigen Film sehen werden, spielt eine sehr große Rolle dabei, ob ein so teures Verfahren eingesetzt wird (dazu zusammenfassend die Media Consulting Group 2011: 25). Eine Synchronfassung lohnt sich erst, wenn vierzig oder mehr Kopien eines Films in den Kinos laufen (Hinderer 2009: 271). 18231_Juengst_SL4�indd 23 18231_Juengst_SL4�indd 23 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 24 1 Einführung in das Thema Ein weiterer Grund, der gegen eine rein geschichtliche Erklärung spricht, ist das kleine Portugal, das schon immer ein Untertitelungsland war - und der Beweis dafür, dass in einer Diktatur auch in den Untertiteln verfälscht und gelogen wird (ausführlich dazu Pieper 2009). Abgesehen vom Englischen, das heute viele Menschen einigermaßen gut verstehen, sind die Fremdsprachenkundigen in jeder Kultur weit verstreut und der Großteil des Publikums ist ausschließlich auf die Untertitel oder die synchronisierte Fassung angewiesen. Und drittens wird in Synchronisationen auch unabhängig von Diktaturen gelogen. Casablanca (USA 1942) erreichte Deutschland erst nach dem Zweiten Weltkrieg. Trotzdem wurden alle Hinweise auf das Dritte Reich so gut wie möglich getilgt, um den Erfolg des Films auch bei deutschen Zuschauern zu sichern (siehe Kapitel 3.6.7). 7 Untertitelungsländer sind, wie zu erwarten, Länder mit einer kleinen Sprachgemeinschaft. Die skandinavischen Länder sind Untertitelungsländer. Gerade bei Ländern mit mehreren Landessprachen bietet sich die Untertitelung an, entweder in zwei Fassungen oder in einer Fassung mit doppelten Untertiteln. Eine Synchronisation in beiden Landessprachen wäre schon aus Kostengründen unmöglich; in diesen Ländern werden nur Kindersendungen synchronisiert. Europakarten mit einer Übersicht über die in den jeweiligen Ländern bevorzugten Verfahren im Kino und im Fernsehen finden sich im Rapport Final der Media Consulting Group (2011: 9-10). Großbritannien hat keine wirkliche Tradition der AV-Übersetzung; höchstens in Programmkinos und auf Festivals werden Filme aus fremdsprachlicher Produktion aufgeführt: Großbritannien blickt auf eine andere Geschichte zurück: Durch die Tatsache, dass die Sprache mit derjenigen der Vereinigten Staaten geteilt wurde, entstand eine Situation, in der erheblich weniger fremdsprachige Filme als Filme in englischer Sprache vertrieben wurden. Ab Anfang der 1930er-Jahre wurden diese zumeist europäischen fremdsprachigen Filme gegenüber Hollywood-Produktionen als Ausnahmeprodukt behandelt. Die nur selten als Mainstream-Produktionen vertriebenen fremdsprachigen Filme wurden innerhalb kürzester Zeit mit der Idee eines Kunstkinos assoziiert, das sich an eine gebildete Mittelschicht wandte. Diese Dichotomie wurde von Filmklubs, Kinomagazinen und Kunst- und Studiokinos entwickelt und befördert. Noch heute stellen fremdsprachige Filme einen sehr geringen Teil des Kinofilmangebots in Großbritannien dar. (Media Consulting Group 2011: 26) Außerhalb Europas gibt es wiederum andere Präferenzen. In den USA erreichen nur sehr wenige fremdsprachige Filme ein größeres Publikum, auch hier fast ausschließlich auf Festivals; diese werden im Normalfall untertitelt. Um einen erfolgreichen fremdsprachigen Film dem amerikanischen Publikum nahe zu bringen, ist das Remake nach wie vor das Mittel der Wahl. Die Zuschauer sollen durch ihnen bekannte Schauspieler ins Kino gezogen werden - einer guten Geschichte ohne die vertrauten Gesichter traut man offensichtlich 7 Danan (1991) beleuchtet das Problem ausführlich und führt eine Kombination aus Gründen für die Entstehung von Synchron- und Untertitelungsländern an. Für sie hat allerdings der Nationalismus Vorrang vor anderen Gründen; wie oben dargelegt, muss man mit dieser Erklärung vorsichtig sein. Zur Filmzensur in Italien 1927-1943 siehe Mereu (2012). 18231_Juengst_SL4�indd 24 18231_Juengst_SL4�indd 24 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 25 1.4 Untertitelung versus Synchronisation - der ewige Streit nicht. Vielleicht ändert der Oscar für den koreanischen Film Parasite (2019) ewas an dieser Situation - zumindest hofft das der Regisseur Bong Joon-ho (Höbel 2020: 115). Was Osteuropa betrifft, so gibt es heute noch vor allem in Polen, Bulgarien, Litauen und Lettland den Sonderfall der slawischen Synchronisation oder Gavrilov-Übersetzung, die im Prinzip ein Voice-over darstellt, manchmal auch eine Form des Filmdolmetschens (siehe Karte Media Consulting Group 2011: 9 sowie Kapitel 3.6.4 und Kapitel 5.1). Ein kompletter Umstieg von einem Verfahren auf das andere ist bisher nirgends belegt, doch wie oben angedeutet findet eine Diversifizierung statt. In Deutschland wurden auch schon vor YouTube und Streaming immer wieder Stimmen laut, die Untertitelung statt Synchronisation forderten. Meist geschah dies im Zusammenhang mit der Hoffnung auf eine flächendeckende Verbesserung der Fremdsprachenkenntnisse (womit immer die Verbesserung der Englischkenntnisse gemeint ist; an einer flächendeckenden Verbesserung beispielsweise der Finnischkenntnisse in Deutschland scheint unverständlicherweise kein gesteigertes Interesse zu bestehen). Das Thema „Fremdsprachenlernen und Untertitel“ gilt als so wichtig, dass die EU 2009 eine Ausschreibung zur Untersuchung dieses Phänomens startete: Am 27. Juli 2003 hat die Kommission den Aktionsplan „Förderung des Sprachenlernens und der Sprachenvielfalt: Aktionsplan 2004-2006“ angenommen … Im Aktionsplan wurde die Auffassung vertreten, dass ‚der Einsatz von Untertiteln im Kino und im Fernsehen das Sprachenlernen fördern und erleichtern kann.‘ In diesem Zusammenhang wurde auf die Möglichkeit hingewiesen, den Einfluss der Medien bei der Schaffung eines sprachenfreundlicheren Umfelds nutzbar zu machen, indem die Bürger regelmäßig mit anderen Sprachen und Kulturen in Berührung gebracht werden. Daraus wurde der Schluss gezogen, dass das Potenzial eines stärkeren Rückgriffs auf Untertitel zur Förderung des Fremdsprachenerwerbs […] ausgeschöpft werden [könnte]. (Offene Ausschreibung Referenz EACEA/ 2009/ 01 „Studie über den Einsatz von Untertiteln“ Das Potenzial von Untertiteln zur Förderung des Fremdsprachenlernens und zur Verbesserung der Fremdsprachenbeherrschung. 9) 2011 war der Rapport Final verfügbar (Media Consulting Group 2011). Zur Kommission gehörten Yves Gambier und Carlo Eugeni, die beide renommierte AV-Forscher sind. Zwar wurden in dieser Studie, wie so häufig, Studierende befragt, aber die Forschergruppe achtete darauf, eine Gruppe von angehenden Übersetzern gegen eine Gruppe Studierender anderer Fakultäten zu setzen (Media Consulting Group 2011: 5). In dieser Studie wird auch das Thema „Einfluss von Untertiteln auf die Integration von Migranten“ angesprochen; das Ergebnis ist positiv (ebd.: 18 und 29). Es erwies sich auch, dass ein großes Vertrauen in Untertitel als Instrument zum Sprachenlernen besteht (ebd.: 19). Die ästhetisch motivierte Forderung, Untertitel solle man gar nicht wahrnehmen (zum invisibility paradox siehe Foerster 2010: 82), wird hier durch den Wunsch konterkariert, die Untertitel bewusst zu nutzen. Künstlerische Erwägungen sind ein Minderheitenargument, das aber von einer lauten Minderheit vertreten wird. Auch in Synchronisationsländern gilt es heute als korrekt und gebildet, Untertitel besser zu finden als Synchronfassungen. Mit der Untertitelung sind 18231_Juengst_SL4�indd 25 18231_Juengst_SL4�indd 25 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 26 1 Einführung in das Thema kulturelle Werte verbunden, die die Synchronisation so nicht hat. So sollen Untertitel den Film weniger verfälschen - und vor allem weist der Genuss einer Untertitelfassung den Zuschauer als kultiviert aus, während die Synchronfassung für die Popcorn kauende breite Masse steht. Wie in Großbritannien haben auch in Deutschland die Untertitel eine Verbindung zum Programmkino. Gambier wies schon 2004 darauf hin, dass die Einteilung in Synchronisations- und Untertitelungsländer durch die Vielzahl an neuen Sendern ins Wanken geraten ist, und dass für manche Filme sowohl eine untertitelte als auch eine synchronisierte Fassung vorliegen: Aujourd’hui, l’Europe est trop souvent divisée entre pays du doublage (France, Italie, Allemagne, Espagne, etc.) et pays du sous-titrage (pays scandinaves, Finlande, Grèce, Pays-Bas, Portugal, Pays de Galles, Slovénie, etc.). C’est une division trop simpliste, d’une part parce que le nombre de chaînes, par exemple, est passé de 47 en 1989 à plus de 1500 en 2002, dans l’Europe des 15, et qu’aucun pays n’a un ensemble de directives communes ou un code unique de bonne conduite; d’autre part, parce que les solutions sont désormais multiples et flexibles. Ainsi Malcom X (1998) a d’abord été sous-titré pour quelques salles à Paris, mais devant le succès obtenu, les distributeurs ont vite commandé une version doublée pour un public jugé peu familier de l’écoute de l’anglais américain ou de la lecture de deux lignes sur l’écran. (Gambier 2004: 6) Das mag selbstverständlich klingen, doch noch in den 2000ern gab es bei ernstzunehmenden Wissenschaftlern keinen Zweifel daran, dass das Publikum auf die gewohnte Methode geradezu konditioniert ist: When viewers are accustomed to one adaptation method they seem not to worry about the disadvantages that go with the method. In addition, they seem to dislike the other method. Dutch viewers will be annoyed by all the shortcomings of dubbing when they watch dubbed programmes, whereas German viewers will demonstrate the same type of aversion when watching subtitled programmes. The effect of habituation should also be taken into account in the interpretation of the results of studies which explicitly compare subtitling and dubbing. (Koolstra et al. 2003: 347) Eine konservative Haltung beim Publikum zeigte sich besonders dann, wenn Versuche mit anderen Verfahren der audiovisuellen Übersetzung gemacht werden. Doch auch hier handelt es sich um Untersuchungen älteren Datums: Quelques enquêtes ont certes confirmé que les publics aiment ce à quoi ils sont habitués. Ainsi les Polonais ont refusé dans les années 1990 la transformation de leur voice over en sous-titrage; en novembre 2001, les chaînes publiques norvégienne et finlandaise ont tenté de doubler une série américaine: devant les protestations des téléspectateurs, elles sont revenues en moins de deux semaines aux sous-titres. (Gambier 2004: 9) Meist konzentriert sich die Diskussion Synchronisation versus Untertitel jedoch auf ästhetische Belange und auf Fragen der Filmwahrnehmung. Die Debatte, ob Synchronisation oder Untertitelung per se besser sind, wurde schon 2004 von Gambier in die typischen, immer wiederkehrenden Elemente zerlegt. Für die Untertitelung sprechen demnach folgende Argumente 18231_Juengst_SL4�indd 26 18231_Juengst_SL4�indd 26 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 27 1.4 Untertitelung versus Synchronisation - der ewige Streit Les avantages et inconvénients qui reviennent le plus souvent font comme un jeu de miroir: ce qui est perçu comme un plus pour le sous-titrage est un moins pour le doublage, et inversement. Sont donnés ainsi en faveur du sous-titrage: il est bon marché car rapide à faire, peut servir pour tout programme AV, respecte l’intégralité de la bande sonore originale, permet l’accès à deux ou trois langues en même temps, facilite l’apprentissage des langues. Le doublage, au contraire, serait cher car laborieux et lent à réaliser; il serait réservé au cinéma, perdrait l’original et n’offrirait qu’une seule langue; il favorisait la domestication, quand il n’est pas simplement manipulation; en plus, ce sont souvent les mêmes voix qui reviennent d’un film à l’autre … Doch auch die Synchronisation hat Vorteile, die von ihren Verfechtern ins Feld geführt werden: A ces aspects, s’ajoutent néanmoins des facteurs positifs: le doublage respecte l‘image sur laquelle peut se concentrer le spectateur; il conserve l’oralité, tout en étant soumis à la synchronie labiale; il donne accès au dialogue pour les personnes qui ont des problèmes de lecture (jeunes enfants; immigrants recents; illettrés; etc.) A l’oppose, le sous-titrage est plutôt génant pour ceux qui ont des problèmes de vision ou de lecture; il absorbe une partie de l’écran; il disperse l’attention entre images, lignes écrites et bande son; il réduit les dialogues dans le passage de l’oral à l’écrit et dans sa subordination à un certain espace-temps. Dans cette querelle récurrente, on asserte plus souvent ses arguments qu’on n’apporte des preuves. (Gambier 2004: 267) Dieser schon vor 15 Jahren erschienenen Zusammenfassung ist wenig hinzuzufügen; es gibt zwar inzwischen qualitative und quantitative Untersuchungen zur Wahrnehmung beider Verfahren, aber die Debatte hat sich außerhalb der Wissenschaft in präzise dieser Form erhalten. Hier soll der Vollständigkeit halber noch ein ausgesprochen ungewöhnliches Argument für die Untertitelung angeführt werden 8 : In contrast to the advantage of being able to follow dubbed programmes via the soundtrack, there is the disadvantage that the sound of the television may be overwhelmed by other sounds in the room, such as the noise of conversations held by members of the family. In noisy environments, subtitled programmes are of course easier to follow than dubbed television programmes. (Koolstra et al. 2003: 332) Und ein sehr leidenschaftliches für die Synchronisation: Doch Untertitel, also die Transponierung vom Phonetischen ins Grafische, sind keine ernsthafte Alternative [zur Synchronisation], denn sie lenken von der visuellen Ebene ab und damit von der elementarsten Komponente des Mediums Film: dem Bild. Sie lösen erst recht die Einheit von Bild und Dialog auf, indem sie die Konzentration auf das Gesprochene (bzw. Geschriebene) zu Lasten des Filmischen erfordern und die Bildkomposition durch ein zusätzliches Medium, den schriftlichen Text, verändern oder gar zerstören. Man stelle sich eine absichtlich düster gestaltete Sequenz vor, in der ständig helle Untertitel aufblitzen! (Bräutigam 2009: 28). 8 Ich frage mich immer, wenn ich diesen Passus lese, ob das nicht mit einem Augenzwinkern gemeint ist. Vermutlich ist die Familie Koolstra sehr kommunikativ. 18231_Juengst_SL4�indd 27 18231_Juengst_SL4�indd 27 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 28 1 Einführung in das Thema Man kann ganz salomonisch sagen, dass beide Verfahren gut sind, wenn sie gut gemacht werden. Koolstra weist auf die Gefahr hin, das Verfahren selbst mit einem schlechten Beispiel des Verfahrens zu verwechseln: In addition, it must be noted that sometimes dubbing or subtitling is also criticized using ‚false‘ arguments pertaining to the mere fact that the original foreign-language texts are badly translated. (Koolstra et al. 2003: 326) Untertitel können Zuschauern das Gefühl geben, die Übersetzung besser unter Kontrolle zu haben. Hier schlägt sich das Unbehagen vieler Menschen nieder, dass man im Alltag in vielen Situationen auf Übersetzungen angewiesen ist (dazu Koolstra et al. 2003: 327). Das ist nicht auf die AV-Übersetzung beschränkt; niemand kann jeden interessanten Film im Original verstehen. 1.5 Exkurs: Filmgestaltung Viele Übersetzer haben sich noch nie mit Fragen der Filmgestaltung und Filmanalyse befasst. Einige grundsätzliche Begriffe sind aber wichtig, wenn man Filme verstehen und entsprechend sinnvoll bearbeiten will. 1.5.1 Bildspur Die visuelle Seite des Films ist eine wichtige Komponente bei der audiovisuellen Übersetzung. Die Übersetzung darf nie den Film stören; bei Untertiteln kann das schnell passieren, wenn man sich nie mit Filmgestaltung beschäftigt hat. Man kann nur mit entsprechenden Kenntnissen mit den anderen Teammitgliedern oder Forschern präzise über Filme und über manche Probleme der audiovisuellen Übersetzung sprechen. Außerdem wird der Blick auf den Film geschärft, was einer professionellen Übersetzung ebenfalls gut tut. 9 Ein wichtiges Element der Bildgestaltung ist die Einstellungsgröße. Sie definiert, was man im Bildausschnitt sieht. Ist die Kamera nah dran am Geschehen oder ist sie eher weit entfernt? Sehen wir kleine Menschen in einer weiten Landschaft oder ein bildschirmfüllendes Gesicht? Unterschiedliche Kameraeinstellungen machen unterschiedliche Vorgehensweisen bei den Verfahren der audiovisuellen Übersetzung nötig. Als Beispiel sei nur die Nahaufnahme eines Gesichts genannt. Hier sieht der Zuschauer die Lippen in vielfacher Vergrößerung. Die Synchronisation muss also sehr genau sein. Aber auch für die Untertitelung birgt die Nahaufnahme Tücken: Die Untertitel sollen möglichst wenig von einem ausdruckstragenden Gesicht verdecken, schon gar nicht die Mundpartie, und Übertitel gehören nicht auf die Augen. Im Allgemeinen werden im deutschsprachigen Raum acht Einstellungsgrößen genutzt und so auch im Drehbuch markiert. Ein Großteil der Literatur zur audiovisuellen Überset- 9 Wer sich noch nie mit Filmanalyse beschäftigt hat und sich nur im Rahmen der audiovisuellen Übersetzung Grundkenntnisse aneignen will, der ist mit folgenden Standardwerken gut bedient: Monaco (1991), Hickethier (1993) und Watts (1990). 18231_Juengst_SL4�indd 28 18231_Juengst_SL4�indd 28 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 29 1.5 Exkurs: Filmgestaltung zung ist jedoch englischsprachig, und die englischen Bezeichnungen werden auch gern im Deutschen verwendet. Daher sollte man sie zumindest passiv kennen, auch wenn man mit anderen Sprachen arbeitet. Die Verwendung von deutschen und englischen Bezeichnungen parallel kann problematisch sein, denn je nach Quelle werden die einzelnen Einstellungen unterschiedlich gegeneinander abgegrenzt: Beschreibung Englische Bezeichnung Weit (W) Landschaft im Überblick, Menschen winzig. Eher im Kino anzutreffen als im Fernsehen. extreme long shot oder VLS: very long shot oder manchmal LS: long shot Totale (T) Auch hier sind die Menschen noch klein, die Umgebung spielt eine wichtige Rolle. Eine gesamte Szene wird im Bild erfasst. LS: long shot Halbtotale (HT) Menschen erscheinen von Kopf bis Fuß im Bild. Man nimmt sowohl den Menschen als auch sein Umfeld wahr. oft ebenfalls LS: long shot Amerikanisch (A) Man sieht die obere Hälfte des Menschen einschließlich des Colts. American Halbnah (HN) obere Hälfte des Menschen bis zur Hüfte MS: mid-shot Nah (N) Hier sehen die Menschen praktisch aus wie Büsten. Bei der Mitte des Oberkörpers ist Schluss. MDU: medium close-up Groß (G) … und jetzt ist nur noch der Kopf zu sehen. CU: close-up Ganz groß oder Detail (D) Bei einem Menschen ist jetzt nicht mehr das vollständige Gesicht zu sehen, vielleicht nur noch die Augen. Auch kleinere Gegenstände können so hervorgehoben werden. BCU: big close-up Tabelle 1: Einstellungsgrößen deutsch und englisch. Für die deutschen Bezeichnungen: Hickethier 1993: 58-60; für die englischen Bezeichnungen: teils ebenda, teils Watts 1990: 127-129, teils Monaco 1991, im Glossar. Die Einstellungsgrößen werden im Folgenden veranschaulicht anhand von Shakespeare, A Winter’s Tale , III.iii. 18231_Juengst_SL4�indd 29 18231_Juengst_SL4�indd 29 19�08�2020 12: 38: 34 19�08�2020 12: 38: 34 30 1 Einführung in das Thema Abbildung 1: Totale. Das Kino mit den Zuschauern und dem Shakespeare-Film auf der Leinwand Abbildung 2: Halbtotale. Die Szene auf der Leinwand Abbildung 3: Amerikanische Einstellung 18231_Juengst_SL4�indd 30 18231_Juengst_SL4�indd 30 19�08�2020 12: 38: 35 19�08�2020 12: 38: 35 31 1.5 Exkurs: Filmgestaltung Abbildung 4: Halbnah Abbildung 5: Nah Abbildung 6: Close-up Abbildung 7: Detail Ein zweiter wichtiger Punkt bei der Filmgestaltung sind die Kamerabewegungen. Schwenks und Neigungen der Kamera leiten auch das Auge. Ein lange ruhig stehender Untertitel während einer lebhaften Kamerabewegung kann stören. Auch bei einem Zoom, bei dem die Kamera sich zwar nicht bewegt, aber eine Illusion von Bewegung entsteht, verringert der Untertitel den zoomtypischen Sogeffekt. Die wesentlichen Kamerabewegungen sind folgende: Schwenk Die Kamera ändert ihren Standpunkt nicht, bleibt auf ihrem Stativ, wird aber gedreht. Der Schwenk von links nach rechts ist typisch für Fernsehsendungen, bei denen einmal das gesamte Publikum „abgefahren“ wird. Auf der vertikalen Achse manchmal „neigen“. auf der horizontalen Ebene, also der x-Achse: panning; auf der vertikalen Achse, also der y-Achse: tilt 18231_Juengst_SL4�indd 31 18231_Juengst_SL4�indd 31 19�08�2020 12: 38: 35 19�08�2020 12: 38: 35 32 1 Einführung in das Thema Kamerafahrt Die Kamera wird im Ganzen in unveränderter Haltung geschoben und bleibt dabei normalerweise auf einem Stativ oder einem Wagen (Dolly) fixiert. Bei der Auf- und Abwärtsbewegung wird sie normalerweise auf einem Führungsstab verschoben. Für sehr umfassende Auf- und Abwärtsbewegungen montiert man die Kamera auf einen Kran. allgemein: travelling; vorwärts und rückwärts: tracking; seitwärts: crabbing, oft auch einfach moving; aufwärts und abwärts: elevate / go up und depress / go down Tabelle 2: Kamerabewegungen. Für die deutschen Bezeichnungen und Erläuterungen: Hickethier 1993: 63-64, für die englischen Bezeichnungen und Erläuterungen dazu: Watts 1990: 130. Weitere bildliche Gestaltungsmittel sind die Bildkomposition und der Bildschnitt. Beim Untertiteln ist es wichtig, auf den Bildschnitt zu achten. Wenn vermeidbar, sollten Untertitel nicht über einen Schnitt hinaus stehen bleiben. Untertitel und Schnitt stören sich in vielen Fällen gegenseitig; beim Betrachter entsteht Verwirrung durch das gleichzeitige Auftreten von Bildveränderung und Bildkonstanz. Die Bildkomposition ist dagegen bei der Audiodeskription besonders wichtig. Je üppiger sie ist, je stärker sie bedeutungstragend wirkt, desto schwieriger ist die Entscheidung, was man beschreiben muss und was nicht. Von Laien wenig beachtet wird das Problem der Beleuchtung. Die Bildstimmung durch eine bestimmte Lichttemperatur (warmes gelbes oder kaltes blaues Licht) kann für die Audiodeskription wichtig sein; sonst fällt sie aus Zeitgründen meist aus der Beschreibung heraus. Bei der Synchronisation und beim Voice-over spielt die Beleuchtung für übersetzerische Entscheidungen keine Rolle. Siehe aber Bräutigams oben zitiertes leidenschaftliches Plädoyer gegen Untertitel, die die Farbstimmung stören. 1.5.2 Tonspur Die endgültige Tonspur eines Films wird aus verschiedenen Tonspuren zusammengemischt, wobei man heute, im Zeitalter der Digitalisierung, eigentlich von Tondateien sprechen müsste. Der Begriff „Tonspur“ stammt noch aus den Zeiten des Tonbandes, ist aber sehr anschaulich und wird daher weiterhin benutzt. Wir können uns diese Tonspuren so nebeneinander aufgereiht vorstellen wie Spuren auf einer Autobahn. Für unsere Arbeit sind nicht alle dieser Tonspuren gleich relevant. Wie bei der Bildgestaltung sollte man aber auch Grundlagenwissen zur Tongestaltung haben. Besonders bei Verfahren des Re-Voicing bzw. Revoicing wie Audiodeskription, Voice-over und Synchronisation muss man auch die Tonspuren im Blick haben, die man nicht bearbeiten wird oder gar nicht bearbeiten kann. Bei Filmbearbeitungsprogrammen sieht man diese parallelen Tonspuren untereinander. Bei der Arbeit mit vorproduzierten Filmen im Unterricht sieht man zumindest die Spur 18231_Juengst_SL4�indd 32 18231_Juengst_SL4�indd 32 19�08�2020 12: 38: 35 19�08�2020 12: 38: 35 33 1.5 Exkurs: Filmgestaltung für den abgemischten Filmoriginalton und die selbst erzeugte(n) Tonspur(en); bei Untertitelungsprogrammen sieht man normalerweise nur eine, bereits abgemischte Tonspur. Im Grunde genommen gibt es bei professionell gemachten Filmen je mindestens eine Tonspur für die Dialoge, für die Begleitmusik und für die Hintergrundgeräusche. Letztere wird auch als Atmo-Spur bezeichnet, von Atmosphäre. Dazu kann eine weitere eingesprochene Tonspur kommen, die Kommentarspur, die im Journalismus häufig genutzt wird. Für den Synchronvorgang wichtig ist das IT (International Tape, im Deutschen oft verdoppelt IT-Band), das internationale Band, auf dem alle Filmtonbestandteile bis auf die Dialoge enthalten sind. Es wird für die internationale Bearbeitung durch Synchronstudios hergestellt. Toningenieure unterscheiden eine größere Zahl von Tonspuren (dazu einführend Beilharz 2008 oder ausführlicher Lensing 2009). Die ursprünglichen Spuren können unabhängig voneinander bearbeitet werden. Dies geschieht bereits beim Originalfilm, bei dem die Spuren im Studio „abgemischt“ werden. Die Filmmusik wird eingespielt, vielleicht lauter und leiser gedreht, die Stimmen werden oft schon in der Originalsprache nachsynchronisiert, wenn die Tonqualität zu schlecht ist. Später wird den Stimmen eventuell noch künstlicher Hall zugesetzt oder andere Veränderungen werden vorgenommen. Bei der Synchronisation wird die Original-Dialogspur durch eine neue ersetzt - als bekäme eine Autobahnspur einen neuen Belag. Beim Hörfilm und bei der Voice-over-Übersetzung kommt jeweils eine neue Tonspur dazu. Die Autobahn wird ausgebaut. 1.5.3 Texte Filme liegen fast immer zunächst als Texte vor; improvisierte Filme sind die Ausnahme, wobei die Wiederholungen und abgebrochenen Sätze der natürlichen Sprache eine besondere Herausforderung darstellen.. Bei „normalen“ Filmen gibt es ein Drehbuch sowie ein Dialogbuch oder eine Dialogliste. Drehbücher enthalten sämtliche Angaben, die der Regisseur, die künstlerisch-technischen Mitarbeiter (Kamera, Beleuchtung) und die Schauspieler benötigen. Daher sind sie relativ dick. Jede Bewegung, jede Kameraeinstellung wird geplant bzw. dokumentiert. Diese Texte erhält der Übersetzer normalerweise nicht. Das Drehbuch gehört zur Präproduktion; oft erhalten Übersetzer ein Präproduktionsskript, jedoch nur in Form von Dialoglisten ohne ausführliche Produktionsplanung. Das Postproduktionsskript 10 stellt den Endzustand des Filmtextes dar und hat Dokumentationscharakter. Für die AV-Übersetzung ist es ideal, da beim Filmen veränderte Texte hier dokumentiert sind. Näheres dazu findet sich in diesem Kapitel bei Unterrichtsmaterialien. Alle Filme entstehen in ihrer endgültigen Form erst im Schneideraum, aber bei Dokumentarfilmen ist das besonders augenfällig. Sie enthalten authentisches, unbearbeitetes 10 Sehr oft werden hier die englischen Begriffe pre-production script und post-production script genutzt. Das Postproduktionsskript wird überdies auch oft als Continuity bezeichnet ‒ Vorsicht, diese Bezeichnung ist nicht eindeutig. 18231_Juengst_SL4�indd 33 18231_Juengst_SL4�indd 33 19�08�2020 12: 38: 35 19�08�2020 12: 38: 35 34 1 Einführung in das Thema Material, das erst in eine ansprechende Form gebracht werden muss. So können aus zehn Stunden mit Tieren vor der Kamera zwanzig Minuten Film werden. Dazu kommt, dass Dokumentarfilme oft spontan gesprochenen Text enthalten, etwa Interviews. Diese Filmteile müssen nicht nur geschnitten werden - sie liegen als schriftlicher Text überhaupt nicht vor und dieser muss von einem Skriptdienst erst bei Ansicht des Films erstellt werden, falls der Film in irgendeiner Form übersetzt werden soll. Wer nicht mit Dokumentarfilmen arbeitet, arbeitet also ausschließlich mit künstlichen Texten (wobei auch Dokumentarfilme nicht ausschließlich natürliche Texte enthalten, sondern auch Moderatorentexte u. ä.). Es sind schriftliche Texte, die für die mündliche Wiedergabe gedacht sind, die aber die Unsauberkeiten authentischer mündlicher Sprache nur in Ausnahmefällen enthalten (dazu ausführlich Remael 2008) und die oft die Handschrift eines Autors tragen. Dies macht einen großen Unterschied bei der Arbeit. Zur Drehbuchübersetzung gibt es weitere Informationen im Kapitel zur Synchronisation. Drehbücher werden auch für andere Zwecke übersetzt als zur Synchronisation oder Untertitelung, zum Beispiel, um im Rahmen einer internationalen Filmförderung das Drehbuch allen Juroren zugänglich zu machen. Texte sind nicht einfach nur Rohmaterial; man muss verstehen, welche Erwägungen bei ihrer Gestaltung mitgespielt haben. Es ist für AV-Übersetzer daher sinnvoll, sich mit Fragen der Plot- und Charakterentwicklung zu beschäftigen, denn das Ausgestalten von Figuren und ihren Stimmen ist hilfreich, um auch beim Übersetzen die Besonderheiten einer Stimme zu erhalten und ein Gespür für die passende Sprache zu bekommen. Eine gut lesbare Einführung für Laien ist Benedict 2014. 1.5.4 Der Timecode Im Kino und im Fernsehen sieht man keinen Timecode. Der Timecode zeigt an, an welcher Stelle im Film man sich gerade befindet. Er besteht aus vier zweistelligen Ziffern, die durch Doppelpunkte getrennt werden. Ein typischer Timecode sieht folgendermaßen aus: 01: 20: 40: 14. Das bedeutet, dass der Film eine Stunde, zwanzig Minuten, vierzig Sekunden und 14 Einzelbilder (so genannte Frames) lang gelaufen ist. Also 80 Minuten, vierzig Sekunden und 14 Fünfundzwanzigstelsekunden. Auf Abspielgeräten sieht man die Einzelbildkategorie nur, wenn der Timecode Teil des Films ist. Bei Filmen, die man für eine Voice-over-Übersetzung erhält, ist das der Fall. Arbeitskopien von Filmen haben oft einen groß in das Filmbild integrierten Timecode. Das liest sich gut - und es vermeidet, dass jemand vielleicht der Versuchung doch nicht widerstehen kann und die Filmkopie zum Verkauf anbietet. Die Anmerkung mag banal wirken, aber man muss immer darauf achten, dass Stunden und Minuten sechzig Einheiten haben, nicht hundert. Hier kommt es gerne mal zu Rechenfehlern. Einzelbilder hat man bei den meisten Filmformaten 25 pro Sekunde, so dass hier schon nach der 24 zur nächsten Sekunde geschaltet wird. Bei Profi-Untertitelungssoftware kann man auch Filme mit anderen Einzelbildzahlen (z. B. 29 Frames pro Sekunde) einspeisen. Das Programm passt die Zählung automatisch an. 18231_Juengst_SL4�indd 34 18231_Juengst_SL4�indd 34 19�08�2020 12: 38: 35 19�08�2020 12: 38: 35 35 1.6 Schlussbemerkung Bei den heutigen Untertitelungsprogrammen und bei anderen Filmbearbeitungsprogrammen wird der Timecode automatisch angezeigt. Wenn man ein gutes Filmskript hat, steht bei jedem Texteinsatz, Tonwechsel und jedem Wechsel von Einstellung und Schnitt der Timecode. Man kann über den Timecode gezielt bestimmte Stellen im Film anfahren und bearbeiten. Die Untertitelliste wird ebenfalls mit Timecodes versehen. 1.6 Schlussbemerkung Diese Einführung sollte zur Sensibilisierung dafür dienen, wie vielschichtig die Problematik der Filmübersetzung schon unabhängig von den einzelnen Verfahren ist. Nicht angesprochen wurden das gesellschaftliche und politische Interesse an der Übersetzung von Filmen und die Beschäftigung mit dem Film als Kunstwerk. In jedem Werk zur Game-Lokalisierung wird als erstes erwähnt, dass man diese Tätigkeit nur ausüben sollte, wenn man Games mag und mit ihnen vertraut ist. Das gilt für alle Tätigkeiten. Je mehr Filme Sie sich ansehen, gleich welches Genre, gleich mit welchem Übersetzungverfahren oder als pure O-Version: Auge und Ohr werden geschult, und Ihre Übersetzungen werden mit Sicherheit immer besser. 18231_Juengst_SL4�indd 35 18231_Juengst_SL4�indd 35 19�08�2020 12: 38: 35 19�08�2020 12: 38: 35 18231_Juengst_SL4�indd 36 18231_Juengst_SL4�indd 36 19�08�2020 12: 38: 35 19�08�2020 12: 38: 35 2 Interlinguale Untertitelung 2.1 Definition Im Übersetzungsunterricht ist die interlinguale Untertitelung die beliebteste Form der AV-Übersetzung. Die heutigen technischen Möglichkeiten erleichtern einen praxisnahen Unterricht; normale PCs genügen, um den typischen Ablauf beim Untertiteln zu simulieren, eine große Anzahl von teils kostenlosen Untertitelungsprogrammen macht diese Übungen auch dort möglich, wo die finanziellen Mittel nicht zur Anschaffung einer Profi-Software genügen. Die Oberflächen dieser Programme ähneln sich: Überall kann man mindestens den Film mit Timecode sehen, im Film den gerade laufenden Untertitel, unter oder neben dem Film die nachfolgenden Untertitel. Profi-Programme haben den Vorteil, dass wirklich alle Möglichkeiten der Untertitelung ausgeschöpft werden können und dass man die Untertitel in separaten Dateien speichern kann. Außerdem verfügen sie über Kommentarfunktionen, mit denen man Untertitelungsklausuren sehr gut korrigieren kann. Die Interlingualität fordert die bei anderen Übersetzungsaufgaben trainierten Fertigkeiten, die besonderen Bedingungen der interlingualen Untertitelung bieten eine zusätzliche Herausforderung. Die Definition der interlingualen Untertitelung aus der Encyclopedia of Translation Studies lautet folgendermaßen: Subtitling consists of the production of snippets of written text (subtitles, or captions in American English) to be superimposed on visual footage - normally near the bottom of the frame - while an audiovisual text is projected, played or broadcast … Interlingual subtitles provide viewers with a written rendition of the source text speech, whether dialogue or narration, in their own language. (Pérez González 2011 [2009]: 14) Andere Aspekte werden in der Definition von Gottlieb hervorgehoben: Untertitel als Übersetzungsmittel können definiert werden als Übertragung in eine andere Sprache von verbalen Nachrichten im filmischen Medium in Form eines ein- oder mehrzeiligen Schrifttextes, die auf der Leinwand erscheinen und zwar gleichzeitig mit der originalen gesprochenen Nachricht. (Gottlieb 2002: 187 f.) Normalerweise ist die interlinguale Untertitelung für Hörende gedacht und weist nicht die Besonderheiten der Untertitelung für Hörgeschädigte auf. Trotzdem wird sie natürlich auch von Gehörlosen und Hörgeschädigten genutzt. Viele Regeln der interlingualen und der intralingualen Untertitelung sind identisch. Der Sprachtransfer bei der interlingualen Untertitelung wird auf mehreren Ebenen durchgeführt: „von einer Sprache in die andere, von längeren in kürzere Einheiten und von gesprochener Sprache in geschriebenen Text“ (Nagel 2009: 52 als Zusammenfassung von Buhr 2003: 44). 18231_Juengst_SL4�indd 37 18231_Juengst_SL4�indd 37 19�08�2020 12: 38: 35 19�08�2020 12: 38: 35 38 2 Interlinguale Untertitelung Später werden einzelne Aspekte der interlingualen Untertitelung angeführt. Welche Probleme könnten Sie sich vorstellen, wenn Sie diese unterschiedlichen Definitionen lesen? Diskutieren Sie die Problematik in der Gruppe! Gottlieb spricht auch von einem diagonalen Übersetzungsvorgang, da sowohl der Sprachmodus als auch die Sprache gewechselt werden. Im Gegensatz dazu definiert er intralinguale Untertitel, bei denen die Sprache eben nicht gewechselt wird, als vertikal und die Synchronisation, bei der der Modus nicht gewechselt wird, als horizontal (vgl. Gottlieb 2002: 190). Wenn Untertitel nach Belieben zu- und weggeschaltet werden können, spricht man von geschlossenen Untertiteln (Nagel 2009: 45). Offene Untertitel sind auf dem Filmmaterial fixiert, sie sind immer sichtbar, liegen also immer offen. Von einer Pivot-Untertitelung (Pivot: englisch für Dreh- und Angelpunkt) spricht man, wenn ein Film in einer kleinen Sprache für Festivals und ähnliche Aufführungen in einer großen Sprache, fast immer Englisch, untertitelt wird und in dieser Fassung an unterschiedliche Sprachgemeinschaften ausgeliehen wird (Nagel 2009: 45). Dort werden die englischen Untertitel in die Sprache der Zielkultur übersetzt. Das Verfahren ähnelt dem Relaisdolmetschen. 2.2 Geschichte Im Allgemeinen wird die Entstehung der Untertitel aus den Zwischentiteln der Stummfilme abgeleitet. Allerdings gibt es zwischen beiden Erscheinungen erhebliche Unterschiede. Zwischentitel stehen normalerweise weiß auf schwarz, zwischen einzelnen Filmszenen. Logischerweise können sie im Stummfilm nicht mit einer Tonspur konkurrieren. Stummfilme mit Zwischentiteln sind hervorragend geeignet für eine internationale Verbreitung. Die Zwischentitel kann man übersetzen, die entsprechenden Filmabschnitte einfach herausschneiden und dann durch die übersetzten Abschnitte ersetzen. Bei Stummfilmen geht man überdies oft davon aus, dass sie global verstanden werden. Mal kurz nachdenken … das ist nicht ganz korrekt. Wo könnte es Missverständnisse geben? Viele Elemente der Mimik sind über Grenzen und Kulturen hinweg gleich. Aber schon Gesten können kulturspezifisch sein, ebenso wie andere Verhaltenselemente. All das kann zu Missverständnissen und Fehlinterpretationen führen. Mit den Tonfilmen verschwanden die Zwischentitel; sie werden höchstens noch aus künstlerischen Erwägungen eingesetzt wie im Stummfilm Juha von Aki Kaurismäki (Finnland 1999). 18231_Juengst_SL4�indd 38 18231_Juengst_SL4�indd 38 19�08�2020 12: 38: 35 19�08�2020 12: 38: 35 39 2.2 Geschichte Im Stummfilm gab es auch schon Untertitel im Bild selbst, und zwar in Frankreich. Hier wird immer wieder der Film Mireille von 1922 zitiert (z. B. Ivarsson / Carroll 1998: 9), doch wie Nagel nach gründlicher Recherche bemerkt, ist dieser Film nicht aufzufinden (Nagel 2009: 27). Die Zuschauer waren nicht alle begeistert von Untertiteln: Die ersten Tonfilme waren natürlich amerikanische Filme: Der erste Film, der in Berlin gezeigt wurde, war The Singing Fool und der lief im Original. Man hat dann probiert, Untertitel zu machen, das wurde aber von den Kritikern sehr schnell verworfen: Das sei viel zu anstrengend, gleichzeitig zu hören und zu lesen. (Drößler in Metz / Seeßlen 2009) Technisch hat sich, wie oben erwähnt, die Erstellung von Untertiteln deutlich vereinfacht. Früher wurden verschiedene Verfahren angewandt, um die Untertitel direkt in den Film zu brennen. Man nutzte Chemikalien oder Hitze. 11 Diese Verfahren ließen sich allerdings nicht ohne weiteres auf Fernsehsendungen übertragen, so dass dort nach neuen Wegen gesucht werden musste. In diesem Rahmen wurden auch die ersten Untertitel-Generatoren entwickelt, die allerdings noch sehr kompliziert und teuer waren. Erst die Arbeit mit Timecodes und mit dem Videotext-System sowie die Möglichkeit, Untertitelungssysteme auf einem PC zu installieren, führte zu den präzisen Untertiteln, die wir heute kennen (Ivarsson und Carroll 1998: 20-27). Durch das Fernsehen sind wir inzwischen auch an mehrfarbige Untertitel für Gehörlose und Hörgeschädigte gewöhnt (siehe dort). Auch die Ein- und Ausstiegszeiten der Untertitel kann man heute digital festlegen. Früher geschah das über das so genannte Pre-timing und eine Masterlist, auf der das Originaldrehbuch und die Ein- und Auszeiten angegeben waren (ein Beispiel findet sich in Ivarsson / Carroll 1998: 54-57). Das bedeutete, dass ein Techniker sich den Originalfilm ansah und die Ein- und Auszeiten der Dialoge notierte. Kenntnisse der Originalsprache benötigte er dabei nicht. Alternativ wurde das Einzelbild, bei dem der Untertitel einsetzt oder aufhört, mit einer Markierung auf der Filmrolle versehen (Hinderer 2009: 377). Die Zeit dazwischen wurde berechnet, und nach dieser Zeit wurde festgelegt, wie lang die Untertitel werden durften. Der Untertitler bekam das Dialogbuch und diese Zeitliste und musste nun eine für die Untertitelung geeignete Übersetzung anfertigen. Oft bekam er den Film nicht einmal zu sehen. Der Übersetzer übersetzte, und der fertige Text wurde wiederum von einem Techniker oder einer Sekretärin eingegeben (vgl. Nagel 2009: 86 und Ivarsson / Carroll 1998: 11). Die Untertitel wurden dann weiterbearbeitet. Bevor es digitale Untertitel gab, die man nach Belieben ein- und ausblenden kann, gab es auch keine Möglichkeit, die Untertitel einfach mit einer beliebigen Dialogspur in einer beliebigen anderen Sprache zu kombinieren. Der Film wurde mit einer Tonspur und einer einzigen dazugehörigen Untertitelversion geliefert. Heute kann man auf DVDs und oft auch im Internet im Prinzip jede vorhandene Tonspur mit jeder vorhandenen Untertitel- 11 Es würde den Rahmen dieses Buches sprengen, diese Verfahren genau zu erklären; ausführlich über die Frühzeit der Untertitelung und die verwendeten Verfahren informiert Brandt, in verkürzter Form Nagel 2009: 31 ff und 100 ff und Ivarsson und Carroll 1998: 12-26. 18231_Juengst_SL4�indd 39 18231_Juengst_SL4�indd 39 19�08�2020 12: 38: 35 19�08�2020 12: 38: 35 40 2 Interlinguale Untertitelung spur kombinieren. Untertitelungsprogramme speichern die Untertitel als separate Datei, unabhängig vom Film. Das spart auch Speicherplatz. In den 1990er Jahren veränderte sich das Bild des reinen Synchronisationslandes Deutschland. Dies lag vor allem an wirtschaftlichen Erwägungen. Nagel erwähnt die Problematik von Fördergeldern für Festivals und auch die dort entstehenden Kosten, die dazu führen, dass auf Festivals überdurchschnittlich oft untertitelt wird (Nagel 2009: 35). Schließlich kostet eine Synchronisation deutlich mehr als eine Untertitelung. Mit einer untertitelten Fassung kann man auch im Fernsehen einen Probelauf wagen, bevor man Geld in die Synchronfassung steckt. Die Übersetzer werden aber auch hier schlecht bezahlt: DVDs mit Untertiteln in zehn Sprachen werden von US-amerikanischen Firmen produziert, die Freiberufler in aller Welt zu Spotthonoraren beauftragen. Lektorat: wozu? , denkt man sich dort. Sauberes Timing, also ein den jeweiligen Sprachstrukturen, Textmengen und Schnitten angepasstes Ein- und Ausblenden der Untertitel, das die Übersetzung erst lesbar macht: Fehlanzeige … Das Ganze einmal in Zahlen ausgedrückt: Statt einer wie früher und bei manchen Auftraggebern immer noch üblichen Preisspanne von zehn bis fünfzehn Euro pro Filmminute bezahlen die großen deutschen Untertitelungsfirmen in der Regel nur noch fünf bis sechs Euro. Und Agenturen aus dem Ausland suchen Übersetzer, die den Job für umgerechnet 1,70 Euro übernehmen. (Püschel 2013) 12 Wenn Sie nachher selbst untertiteln, werden Sie sehen, wie viele Untertitel in eine Filmminute passen. Es sind mehr als man erwartet. Suchen Sie im Internet nach deutschsprachigen Untertitelungsfirmen. Welche Dienstleistungen bieten sie an, wie unterscheiden sie sich? Suchen Sie dann nach Untertitelungsfirmen in den Ländern Ihrer B- und C-Sprache. Wie sieht dort der Markt für Untertitelungen aus? 1. Auf welchen Sendern findet man heute die meisten untertitelten Sendungen? Woran mag das liegen? Welche Ausgangssprachen werden im deutschen Fernsehen untertitelt? Leider gibt es zum Thema Untertitelung nicht die große Menge an bunten Anekdoten, wie sie zu den Themen Synchronisation und Filmdolmetschen existieren. 12 Interessanterweise ergibt sich in Künzlis Umfrage ein anderes Bild (Künzli 2017: 85-86). Ich kenne persönlich aber mehrere Übersetzer, die das Untertiteln wegen der schlechten Bezahlung wieder aufgegeben haben. 18231_Juengst_SL4�indd 40 18231_Juengst_SL4�indd 40 19�08�2020 12: 38: 36 19�08�2020 12: 38: 36 41 2.3 Arbeitsablauf 2.3 Arbeitsablauf Ob arbeitsteilig oder nicht: Die grundlegenden Arbeitsschritte wie Spotting, Splitting und Textbearbeitung jeder Art gehören zur Untertitelung dazu. Sie alle werden im Lauf dieses Kapitels erläutert und mit Übungen erarbeitet; was fehlt, finden Sie in Kapitel 7. Gottlieb fasst die Fertigkeiten, die man beim Untertiteln benötigt, elegant zusammen. Der Untertitler braucht: … das musikalische Ohr eines Dolmetschers, die nüchterne Urteilsfähigkeit eines Nachrichtenredakteurs und den Sinn eines Designers für Ästhetik … Um die Untertitel auch synchron mit dem Leinwandgeschehen zu präsentieren, braucht er überdies die sichere Hand eines Chirurgen und das Zeitgefühl eines Schlagzeugers. (Gottlieb 2002: 211) 2.3.1 Neue Arbeitsbedingungen Unabhängig von den Aufgaben, die Untertitler haben können, haben sich neue Arbeitsfelder und Arbeitsbedingungen aufgetan. Gleichzeitig hat die Geschwindigkeit der automatischen Übersetzungsprogramme den Turnaround für Humanübersetzer beschleunigt. Beispielhaft kann man das an Streamingdiensten wie Netflix sehen, wo einzelne Serienepisoden manchmal in 24 Stunden untertitelt werden müssen und zu diesem Zweck in Abschnitte unterteilt und an mehrere Übersetzer verteilt werden (Information von Allison Smith von Netflix auf der Languages and the Media 2018). Die betreffenden Firmen geben übrigens keine Informationen zur Bezahlung von Übersetzern heraus. Viele Kunden der Streamingdienste möchten zumindest die englischsprachigen Serien im Original sehen, sei es, um ihre Fremdsprachenkenntnisse zu verbessern, sei es, um an den unter hohem Zeitdruck entstandenen Untertiteln herumzumeckern. Dabei muss man allerdings anmerken, dass manche Streamingdienste nicht darauf achten, ob sie Profis einstellen, sondern einen seltsamen Sprachtest durchführen, auf dessen Basis man als Übersetzer bei ihnen arbeiten darf. Als Qualitätsmanagement kann man das nicht bezeichnen. Es ist aber schwer vorherzusagen, wie lange die derzeitige Praxis anhält. Die Verlagerung der Übersetzerarbeit, auch hier meist der Untertitler-Arbeit, in die Cloud, ist ebenfalls eine neue Entwicklung. Untertitler, die für Arbeitgeber mit einem solchen System tätig sind, müssen keine Untertitelungssoftware anschaffen bzw. nicht in Firmenräumen arbeiten, wo eine entsprechende Software zur Verfügung steht. Durch das Internet haben sich auch Crowdsourcing-Dienste wie Amara entwickelt, die die audiovisuelle Übersetzung von Webinhalten leicht machen und preiswert oder sogar kostenlos genutzt werden können (zur Problematik siehe weiter unten). Die Verführung dieser Angebote ist groß, besonders dann, wenn man nicht über die finanziellen Mittel verfügt, eine Profi-Software anzuschaffen. Ein großes Thema im Bereich Crowdsourcing und Untertitelung ist die Plattform TED. Auf dieser Plattform findet man eine große Menge an Vorträgen zu den unterschiedlichsten Themen, von Spezialisten des jeweiligen Gebietes. Die Untertitelungen in allen Sprachen 18231_Juengst_SL4�indd 41 18231_Juengst_SL4�indd 41 19�08�2020 12: 38: 36 19�08�2020 12: 38: 36 42 2 Interlinguale Untertitelung werden von Freiwilligen angefertigt, ebenso die Korrekturen. TED hat Richtlinien für die Untertitelung und stellt eine Software zur Verfügung. Es sei jedem unbenommen, TED für den Unterricht einzusetzen. Man hat die Auswahl unter einer großen Menge an Themen. Wenn man direkt für TED im Crowdsourcing untertitelt, bekommt man Feedback vom Korrektor. Man kann bei Bewerbungen auf diese Arbeiten hinweisen. TED ist jedoch janusgesichtig: Hundreds of amateur subtitlers - including speakers of less-dominant languages - have been empowered by TED to partake in the co-production of media content, but their work is constrained by the organization’s standards of translation accuracy and style guidelines for translators. Through their work, TED subtitlers contribute to the market penetration of dotSUB’s enterprise solutions and, by extension, maximize the spread of crowdsourcing as a business model for the translation of corporate online content. (Ray / Kelly 2011, zitiert nach Pérez González 2014: 68) Pérez González geht im Weiteren darauf ein, dass TED, wie auch andere Crowdsourcing-Projekte im Bereich Untertitelung, Kreativität nur im Rahmen strenger Regeln zulässt: Die Filme sind bereits ausgewählt, die Software ist ausgewählt. Die Vorträge folgen alle mehr oder minder demselben Muster (es gibt inzwischen Handbücher wie Anderson 2018 und Gallo 2014) und werden sorgfältig geprobt (Anderson 2018: passim). Die Teilnahmegebühren für die TED Conferences sind gesalzen (www.ted.com/ attend/ conferences/ ted-conference#h3-ted-conference-standard-membership). Das verträgt sich nicht gut mit der großen Menge freiwilliger Übersetzer. TED ist dennoch verführerisch: Die Vielzahl der Themen, die Qualität und oft die Fachsprachlichkeit wie auch die leichte Verfügbarkeit sind durchaus Argumente, um TED im Unterricht einzusetzen. Ich tue es auch gelegentlich. Der Arbeitsablauf in der professionellen Untertitelungspraxis kann variieren. Eine große Rolle spielen die Projektmanager. Besonders bei Untertitelungsaufträgen, bei denen eine Firma für mehrere Sprachversionen zuständig ist, haben die Projektmanager wichtige Aufgaben. Projektmanager sollen digital-affin sein. Sie haben normalerweise eine Hochschulqualifikation als Medienübersetzer. Die nachfolgenden Abläufe wurden aus Informationen mehrerer Kolleginnen zusammengefasst. Als Projektmanager muss man das Jobticket für die relevanten Aufträge für das neue Projekt erstellen, das heißt, dass man Aufgaben definieren und einzelnen Abteilungen oder Mitarbeitern zuordnen muss. Zunächst kommt beim Business Manager oder beim Project Manager ein Angebot an. Wenn Machbarkeit, Deadline und benötigtes Material stimmen, wird der Auftrag übernommen. Der Project Manager erstellt dann das Jobticket für alle relevanten Teilaufgaben. Eventuell existieren Leitfäden, in denen z. B. kundenspezifische Anforderungen zusammengefasst werden. Danach werden die Project Settings 13 festgelegt und die Arbeitsdatei angefordert (LowRes Video Files). Dazu gehört die Auswertungsart für den Film (Kino, DVD, TV, Streaming), das Format (Exportformate und Textformate für die Zieldokumente, wie images für DVD, stl/ srt für Streaming, doc und xls für Produzenten), das Bildformat für das Endprodukt (4: 3, 16.9 etc.). 13 Diese Project Settings gibt es bei jeder Untertitelungssoftware. Man stellt dort die Frames/ second, die Schriftarten, maximale Untertitellänge etc. ein. 18231_Juengst_SL4�indd 42 18231_Juengst_SL4�indd 42 19�08�2020 12: 38: 36 19�08�2020 12: 38: 36 43 2.3 Arbeitsablauf Danach gibt es verschiedene Vorgehensweisen: Eventuell existieren bereits UT, dann kümmert man sich um die Lizenzierung oder kann im Idealfall das Firmenarchiv nutzen. Hier müssen die existierenden UT an die neuen Project Settings angepasst werden. Für Spotting und Splitting gibt es je nach Vorlage unterschiedliche Vorgehensweisen (siehe weiter unten). Der fertige Film kommt normalerweise ins Eigenlektorat. Dann wird das Jobticket abgeschlossen. (Diverse Praxisvertreterinnen) Nach wie vor kann es in der Praxis aber auch vorkommen, dass der außerhäusige Untertitler nur eine Textdatei bekommt, gern als Excel-Tabelle, und den Film nie sieht. 2.3.2 Spotting und Splitting Vor der Digitalisierung war die Untertitelung ein extrem arbeitsteiliger Prozess. Beinahe jeder Schritt benötigte einen spezialisierten Fachmann, meist einen Techniker. Das hat sich mit der digitalen Untertitelung und den heutigen Untertitelungsprogrammen verändert; zumindest bietet sie Möglichkeiten zu einer solchen Veränderung. Diese Programme werden immer komfortabler und benutzerfreundlicher, man kann sich auch ohne Anleitung schnell in ihre Bedienung einarbeiten, und so ist die Beherrschung eines Untertitelungsprogramms keine Fertigkeit mehr, für die man eigens Techniker ausbildet. Oft führt der Übersetzer alle Arbeitsschritte beim Untertiteln selbst aus. Es gibt aber auch heute noch Formen der Arbeitsteilung beim Untertiteln. Für die Untertitelung muss der Film zunächst gespottet werden. Unter Spotten oder Spotting versteht man, dass Anfang und Ende jeglicher Äußerung im Film markiert wird, um festzulegen, wann Untertitel ein- und wieder ausgeblendet werden können. Zur Wiederholung noch einmal kurz ein Timecode-Beispiel: 01: 24: 57: 02. Wenn Sie das nicht mehr aufschlüsseln können, schauen Sie in Kapitel 1.5.4 nach. Heute nehmen Übersetzer das Spotting in vielen Fällen selbst vor, doch auch hier hat sich eine Form der Arbeitsteilung durchgesetzt, die Arbeit mit sogenannten Templates, manchmal auch als Master Subtitles bezeichnet. Templates stellen ein vorgegebenes Spotting dar; jemand (in manchen Firmen auch ein Übersetzer) spottet den Film auf der Basis der Originalfassung (vgl. auch Nagel 2009: 88). Wenn es schnell gehen muss, werden diese Templates für sämtliche Untertitel-Sprachversionen genutzt, oft bei Streamingdiensten. 2. Welche Probleme treten hier auf ? Es ist außerdem üblich, dass bei Templates nur mit einer Textdatei gearbeitet wird, nicht mit einer Filmdatei (Nagel 2009: 88). Es kann sich dabei um eine Untertitel-Textdatei handeln (für Untertitel gibt es spezielle Dateiformate), die jetzt von dem Untertitler in einer anderen Zielsprache überschrieben wird. 18231_Juengst_SL4�indd 43 18231_Juengst_SL4�indd 43 19�08�2020 12: 38: 36 19�08�2020 12: 38: 36 44 2 Interlinguale Untertitelung In seriösen Firmen werden manchmal ebenfalls Templates genutzt, die Filme werden dann aber nachgespottet, problematische Stellen werden optimiert. Einen so idyllischen Arbeitsablauf, wie Nagel ihn noch 2009 beschreibt, hat heute niemand mehr. Damals war es noch möglich, den Film mehrmals anzusehen und später die Untertitel als Ausdruck zu korrigieren (Nagel 2009: 88-89). Dazu fehlt heute meist die Zeit. Je nachdem, welche Arbeitsaufgaben überhaupt nötig sind, können in größeren Firmen die Aufgaben bei der Untertitelung selbst unterschiedlich aussehen: Falls ein Skript / Libretto vorliegt, kann man die UT direkt daraus erstellen. Entweder verteilt jemand aus dem Team den Skripttext auf xls-Zeilen, die man als einzelne UT in die UT-Software importieren kann. Das Spotting findet erst nach diesem Arbeitsschritt statt. Oft muss man die UT direkt auf Basis der Audiospur erstellen. In diesem Fall spottet man, schreibt den UT, spottet, schreibt den UT … (Diverse Praxisvertreterinnen) Sehen Sie sich einen untertitelten Film an! Fängt das Spotting immer mit der Lautäußerung an und hört mit ihr auf ? Wie sind die Untertitel verteilt? Wenn Sie eine DVD benutzen: Sind die Untertitel mit einem Template erstellt? Mal kurz nachdenken … Es gibt eine Textsorte in Filmen, bei der man sehr gut mit Templates arbeiten kann. Bei Songs ist der Rhythmus vorgegeben. Die Standzeiten sind meist an die einzelnen Zeilen des Songs angepasst und die Untertitel bleiben stehen, bis diese Zeilen gesungen sind. Nach Reid (angeführt in Gottlieb 2002: 203 und Nagel 2009: 55) gibt es drei Formen der Segmentierung, nach denen Untertitel gestaltet und damit auch gespottet werden können. Zunächst gibt es die grammatische Segmentierung, die von den semantischen Einheiten des Dialogs abhängt. Probleme mit Kürzungen, wie sie weiter unten angesprochen werden, haben meist mit dieser Form der Segmentierung zu tun. Es geht um den Transfer von Sinneinheiten. Die zweite Form der Segmentierung, die rhetorische Segmentierung, bezieht sich auf den Sprachrhythmus. Hier werden die Untertitel den natürlichen Sprechpausen angepasst. Nach Reid ist diese Form der Untertitelung die bevorzugte. Das ergibt auch Sinn, denn der Zuschauer nimmt die rhetorische Segmentierung des Dialogs unweigerlich wahr, während er die Untertitel liest, und ordnet den Lesetext entsprechend dem gesprochenen Text zu. Die dritte Form der Segmentierung, die visuelle Segmentierung, wird von Bildschnitt und Kamerabewegung vorgegeben. Dazu gehört die weiter oben angesprochene Frage, ob Untertitel über einen Schnitt hinaus stehenbleiben dürfen. Beim Spotting müssen bestimmte Regeln eingehalten werden. So gab die Firma digim - Digital Images 2010 folgende Richtlinien vor: 18231_Juengst_SL4�indd 44 18231_Juengst_SL4�indd 44 19�08�2020 12: 38: 37 19�08�2020 12: 38: 37 45 2.3 Arbeitsablauf 3 Frames Pause (mind.) zwischen den UTs. Je nach Filmtempo sind auch 2 oder 4 möglich. Wenn möglich, UT mit einem Schnitt ausblenden (TC-out [Timecode-out] beim ersten Frame nach dem Schnitt). Allerdings nicht unnötig in die Länge ziehen. Wenn Sprechakt bis zu 5 Frames vor dem Schnitt beginnt, erst ab Schnitt einblenden, ansonsten ab dem ersten Sprechton. Ausblenden: spätestens zum Ende des Sprechakts. Länger stehen lassen: nur wenn nicht genug Zeit zum Lesen war. Grob kann man sagen, dass ein Wort mindestens 1: 10 (sek: frames) steht, eine Zeile ca. zwei Sekunden und zwei Zeilen ca. vier Sekunden. Viele Firmen legen den Ein- und Ausstieg bei Untertiteln allerdings heute auf den Schnitt, wann auch immer das möglich ist, doch sonst hat sich nichts verändert. Manche Firmen haben nach wie vor ihre eigenen Richtlinien, die Rundfunkanstalten in Deutschland haben gemeinsame Regeln, aber alle unterscheiden sich nicht wesentlich von den hier angeführten. Der ESIST Code of Good Subtitling Practice im Anhang zu diesem Kapitel enthält ebenfalls Informationen zum Spotting. Heute muss man höchstens damit rechnen, dass man im Laufe eines Untertitlerlebens mit einer Vielzahl von Richtlinien konfrontiert wird, die sich nur minimal unterscheiden. Die Standzeit der Untertitel, also der Zeitraum, für den ein einzelner Untertitel auf dem Bildschirm erscheint, gilt bei allen Untertitelungsfirmen als wichtig, wird aber auf Kundenwunsch angepasst. Typische Standzeiten kann man so berechnen: For example, a subtitle containing 32 characters will be shown for three seconds. The presentation rate is therefore 10 characters, or about two words, per second. At an average speech rate, a little more than two words can be spoken per second. In most cases, therefore, the text has to be condensed. (Koolstra et al. 2003: 5) Mal kurz nachdenken … Was passiert, wenn die Standzeit zu kurz ist? Das ist vermutlich klar. Aber was passiert, wenn die Standzeit zu lang ist? Wenn die Standzeit zu kurz ist, bekommt man nur den halben Untertitel mit. Wenn Untertitel zu lange stehen bleiben, fängt man an, sie immer wieder zu lesen. Andererseits schaut man bei einem Film nicht nur auf die Untertitel, sondern idealiter auch auf das Filmbild. Daher ist die Lesegeschwindigkeit langsamer als bei einem normalen Text (Ivarsson und Carroll 1998: 64; zur Leseproblematik insgesamt zusammenfassend Nagel 2009: 60-64). In manchen Untertitelungsländern wird bei der Untertitelung auf die Bedürfnisse unterschiedlicher Zielgruppen Rücksicht genommen. So gibt es Untertitel mit längerer Standzeit für Programme, die für ältere Zuschauer gedacht sind (Ivarsson 1992: 44). Wichtig ist auch eine ausreichende Pause zwischen zwei Untertiteln, wie oben in den Richtlinien angegeben. Bei einem fortlaufenden Monolog dürfen die Pausen sehr kurz sein (vgl. Nagel 2009: 92), bei anderen Darstellungsformen länger. Künzlis Untersuchung zur Lesbarkeit von Untertiteln zeigt, dass 18231_Juengst_SL4�indd 45 18231_Juengst_SL4�indd 45 19�08�2020 12: 38: 37 19�08�2020 12: 38: 37 46 2 Interlinguale Untertitelung Untertitel keine so lange Standzeit benötigen und auch nicht so stark gekürzt werden müssen. Seine Probanden hatten keine Probleme mit längeren Untertiteln bei relativ kurzer Standzeit; allerdings waren es gebildete Zuschauer mit hoher Lesekompetenz (Künzli 2017: 169). Beim Spotting muss man, wie gesagt, auch auf die Filmgestaltung achten, in den Richtlinien wurden Schnitte erwähnt: Wenn möglich, sollten Untertitel nicht über einen Schnitt hinausgehen. Leider ist das nicht immer möglich. Falls man einen Untertitel über einen Schnitt ziehen muss, muss der Untertitel länger als im Normalfall stehen bleiben, da sich sonst ein Flackereffekt aus der Kombination von Filmschnitt und Untertitelwechsel ergibt. Es ist nicht immer möglich, die Untertitel exakt so auf den Bildschnitt abzustimmen, wie es die Kunden wünschen. 3. Können Sie sich Schnitttechniken vorstellen, in denen ein Untertitel oft über einen Schnitt hinaus stehen bleiben muss? Wenn man als Übersetzer einen Film spottet, überlegt man bereits, ob man einen Text in mehrere aufeinanderfolgende Untertitel einteilen muss. Wenn es sich um einen Dialog mit kurzen Sätzen pro Person handelt, ist dies kein Problem. Man spottet den Dialog, fertig. Oft sind Sätze aber lang und müssen auf mehrere Untertitel verteilt werden. Diesen Vorgang bezeichnet man als Splitting. Mal kurz nachdenken … Was könnte man tun, um zu markieren, dass der Satz im nächsten Untertitel fortgesetzt wird? Sie haben sicher schon Beispiele dafür gesehen! Es gibt mehrere Standard-Möglichkeiten, eine Fortsetzung anzuzeigen: einen Gedankenstrich oder drei Auslassungspunkte. Welches von beiden man nimmt, wird normalerweise vom Auftraggeber vorgegeben. Wenn man einen Satzteil am Untertitelende mit den drei Punkten oder dem Gedankenstrich markiert hat, beginnt man den nächsten Untertitel klein, bei vorhergehenden Auslassungspunkten eventuell auch mit drei Auslassungspunkten. Dass man vielleicht weder Gedankenstriche noch Punkte nimmt, wird in der Fachliteratur der 1990er und 2000er abgelehnt. Ivarsson und Carroll weisen darauf hin, dass jeder Untertitel, der nicht mit einem Punkt, Ausrufezeichen oder Fragezeichen endet, vom Zuschauer als unvollständiger Satz wahrgenommen wird; man muss also immer auf die Interpunktion achten. Doch die Abwesenheit von Zeichen nach einem Satz, der im nächsten Untertitel fortgesetzt wird, setzt sich durch. Vermutlich ist diese Entwicklung durch den Einfluss der Live-Untertitelung entstanden (siehe Kapitel 7.7). Für Filme gilt immer noch, dass ein Untertitel nicht mehr als zwei Zeilen haben sollte (Ivarsson / Carroll 1998: 53). Die maximale Zeichenzahl pro Zeile ist heute in fast allen Untertitelungsprogrammen auf 37 eingestellt, doch, wie bereits gesagt: Die Project Settings kann man ändern. 18231_Juengst_SL4�indd 46 18231_Juengst_SL4�indd 46 19�08�2020 12: 38: 37 19�08�2020 12: 38: 37 47 2.3 Arbeitsablauf Die folgenden Untertitel stehen in dem betreffenden Film ungesplittet. Wo würden Sie splitten, wenn genügend Zeit zur Verfügung steht? Die Beispiele stammen aus der deutschen Untertitelung des Spielfilms Zusammen! ( Tilsammans! ). Sie können die Beispiele bearbeiten, ohne den Film zu sehen, aber dann fehlt die Vergleichsmöglichkeit mit der Sprechgeschwindigkeit. Was ist mit deiner Hand? Hast du wieder schlecht geschweißt? - Gar nicht wahr! ( Zusammen! Schweden / Dänemark / Italien 2000: 10: 13: 19) Wenn die Revolution anfängt, dann werden wir ja sehen, wer hier lacht. ( Zusammen! Schweden / Dänemark / Italien 2000: 10: 15: 12) 2.3.3 Zeilenaufteilung Bei Zweizeilern, also zweizeiligen Untertiteln, ist eine logische Trennung zwischen erster und zweiter Zeile wichtig. Man sollte also nicht einfach die erste Zeile bis zum Anschlag füllen, sondern sich überlegen, wie man einen Satz so trennen kann, dass der Leser nicht verwirrt wird (englische Beispiele in Ivarsson / Carroll 1998: 76-78). Wie würden Sie folgende Sätze trennen? Sie sollen weder gekürzt noch gesplittet werden, nur für einen Untertitel in zwei Zeilen aufgeteilt. Es ist ziemlich blöd, da Erik einfach kein Schweißer ist. ( Zusammen! Schweden / Dänemark / Italien 2000: 10: 13: 36) Ich heiße Joyce. Du hast den Marshmallow-Pudding noch nicht probiert … ( Edward mit den Scherenhänden , USA 1990: 10: 35: 45) Weißt du, sie hat als Beraterin angefangen, genau wie ich. ( Edward mit den Scherenhänden , USA 1990: 10: 50: 31) Vermutlich haben Sie klare Vorstellungen, wie das aussehen soll. Wenn Sie nicht wissen, wie Sie anfangen sollen, finden Sie gute Beispiele für eine Verbesserung der Zeilenaufteilung bei Hinderer 2009: 299-304. Außerdem wurden hier bereits die übersetzten Untertitel angeführt. Schauen Sie sich die Filme an - hätten Sie die Untertitel anders gestaltet? Man sollte ein gutes Gefühl für die Zeilenaufteilung entwickeln, ohne immer das Filmbild anschauen zu müssen. Wenn der Untertitel schon im Bild steht, ist es jedoch einfacher zu entscheiden, ob die Zeilenaufteilung gut ist. Die folgenden Screenshots stammen aus dem Schülerfilm Die Kunst des Spickens (Deutschland 2003) von Daniel Wolf und Daniel Frei. 4. Was stört Sie an den einzelnen Beispielen? Oder sind vielleicht gar nicht alle schlecht? 18231_Juengst_SL4�indd 47 18231_Juengst_SL4�indd 47 19�08�2020 12: 38: 38 19�08�2020 12: 38: 38 48 2 Interlinguale Untertitelung Abbildung 8: Zeilenumbruch 1 ( Die Kunst des Spickens © Daniel Wolf / Daniel Frei) Abbildung 9: Zeilenumbruch 2 ( Die Kunst des Spickens © Daniel Wolf / Daniel Frei) Abbildung 10: Zeilenumbruch 3 ( Die Kunst des Spickens © Daniel Wolf / Daniel Frei) Abbildung 11: Zeilenumbruch 4 ( Die Kunst des Spickens © Daniel Wolf / Daniel Frei) Am Anfang übt man die Zeilentrennung am besten mit langen Sätzen, die man zu einem beliebigen Film in ein Untertitelungsprogramm eingibt. Das muss nicht der Dialogtext sein. Weitere Übungen zur Zeilenaufteilung finden sich im Kapitel zur Untertitelung für Hörgeschädigte (7.6.1). 2.3.4 Gestaltung Wenn man für eine Untertitelungsfirma arbeitet, wird die gesamte Gestaltung durch Richtlinien vorgegeben, nicht nur die technischen Parameter. Dasselbe gilt für Rundfunkanstalten. Auf dem freien Markt gibt entweder der Kunde die Regeln vor oder Sie richten sich nach dem im Anhang zu diesem Kapitel abgedruckten ESIST Code - oder Sie sind völlig frei in der Gestaltung. 14 14 Die Richtlinien von Netflix kann man teilweise im Internet einsehen (https: / / partnerhelp.netflixstudios.com/ hc/ en-us/ articles/ 217351587-German-Timed-Text-Style-Guide. Abgerufen am 09.03.2020) 18231_Juengst_SL4�indd 48 18231_Juengst_SL4�indd 48 19�08�2020 12: 38: 38 19�08�2020 12: 38: 38 49 2.3 Arbeitsablauf Von der technischen Seite her gesehen, ist auch eine individuelle Gestaltung von Untertiteln kein Problem. Die Gestaltungsparameter werden für den jeweiligen Film im Untertitelungsprogramm festgelegt. Das geschieht vor der eigentlichen Untertitelungsarbeit, kann aber währenddessen umgestellt und angepasst werden. Mal kurz nachdenken … Was kann man da wohl einstellen? Die Gestaltungsmittel für Untertitel ähneln denen, die man in gängigen Textverarbeitungsprogrammen findet. Das bedeutet, dass man folgende Parameter bearbeiten kann: Schriftart, Schriftgröße, Farbe und Ausrichtung der Untertitel. Untertitelungsprogramme haben eine Standardeinstellung, mit der man als Anfänger arbeiten sollte und die auch für viele professionelle Aufgaben gut ausreicht Untertitel sollen ohne Anstrengung lesbar sein und das Filmbild nicht stören - das ist eigentlich selbstverständlich. Man soll gar nicht wahrnehmen, dass man Untertitel liest. Ob man dieses Ziel erreicht hat, sieht man am besten daran, dass die Zuschauer behaupten, sie hätten den Film sicher auch ohne die Untertitel verstanden. Mal kurz nachdenken … Wie kann man das erreichen? Zunächst sollte man eine gut lesbare Schrift wählen, in passender Größe. Die Untertitel sollen gut zu lesen sein, aber das Bild nicht dominieren. Die einzelnen Wörter müssen klar und deutlich voneinander getrennt sein. Der voreingestellte Farbstandard für die Schrift ist weiß. Mal kurz nachdenken … Wann ist das problematisch? Was könnte man machen? Vor einem weißen oder einem anderen sehr hellen Hintergrund kann man keine weiße Schrift verwenden. Man versieht in diesem Fall die Untertitel entweder mit einer Umrandung oder stellt sie in eine schwarze Box. 5. Welches von beiden sollte man verwenden, wenn die übrigen Untertitel nur weiß sind, weil der Hintergrund dunkler ist? Solche Formatierungen funktionieren in der Untertitelungssoftware genauso wie bei einem Textverarbeitungsprogramm, sind also heute nicht mehr aufwändig. 18231_Juengst_SL4�indd 49 18231_Juengst_SL4�indd 49 19�08�2020 12: 38: 38 19�08�2020 12: 38: 38 50 2 Interlinguale Untertitelung Diesmal stammen die Bilder aus einem Krazy-Kat -Trickfilm 15 von 1916 von George Herriman. Es handelt sich also um einen Stummfilm, die Texte stehen hier in Sprechblasen. Diskutieren Sie, welche Beispiele Sie gut finden, welche weniger gut. Woran liegt das? Könnte man es auf jeden beliebigen Film übertragen? Abbildung 12: Arial (serifenlose Schrift), weiß, zentriert, ohne Box / Umrandung (George Herriman: Krazy Kat , USA 1916) Abbildung 13: Arial (serifenlose Schrift), schwarz, zentriert, ohne Box / Umrandung (George Herriman: Krazy Kat , USA 1916) 15 Krazy Kat von George Herriman ist auch als Comic empfehlenswert, schon wegen der eigenartigen Kunstsprache, die dort verwendet wird. Der Film ist inzwischen rechtsfrei. 18231_Juengst_SL4�indd 50 18231_Juengst_SL4�indd 50 19�08�2020 12: 38: 38 19�08�2020 12: 38: 38 51 2.3 Arbeitsablauf Abbildung 14: Arial (serifenlose Schrift), weiß, schwarze Box (George Herriman: Krazy Kat , USA 1916) Abbildung 15: Arial (serifenlose Schrift), weiß, kursiv, Drop Shadow (George Herriman: Krazy Kat , USA 1916) In fast allen untertitelten Filmen im Kino und auf DVD findet man heute Untertitel in einer weißen, serifenlosen Schrift, die an Stellen mit hellem Hintergrund eine Umrandung bekommt. An bestimmten Stellen wird Kursivschrift zur Markierung verwendet; wo genau, hängt von den Richtlinien der Untertitelungsfirmen oder Sender ab. Mal kurz nachdenken … Haben Sie das schon einmal bemerkt? Wann? Im Allgemeinen werden mit Kursivschrift Stimmen aus Radio oder Fernsehen markiert; in manchen Filmen werden Liedtexte kursiv gesetzt (Ivarsson / Carroll 1998: 118; Nagel 2009: 96). Manchmal wird Kursivschrift auch benutzt, wenn ein Sprecher nicht im Bild ist, was aber häufiger bei Untertiteln für Gehörlose und Hörgeschädigte vorkommt. Was die Ausrichtung der Untertitel, also ihre Platzierung im Bild, betrifft, so kommt man als Laie zunächst nicht auf den Gedanken, dass es darüber eine Diskussion geben könnte. 18231_Juengst_SL4�indd 51 18231_Juengst_SL4�indd 51 19�08�2020 12: 38: 39 19�08�2020 12: 38: 39 52 2 Interlinguale Untertitelung Bei den meisten Programmen kann man zwischen Übertiteln, die allerdings noch im Bild stehen und nicht wie im Theater quasi über dem Bild, Titeln in der Bildmitte und Untertiteln wählen. Zentrierte Untertitel sind der Normalfall. Die Frage, ob Untertitel zentriert sein sollen oder lieber linksbündig, spaltet trotzdem die Gemüter. Mal kurz nachdenken … Wann ist linksbündig vielleicht besser, wann zentriert? Bei Dialogzeilen ist die linksbündige Variante besser lesbar, weil dann beide Dialogstimmen auf gleicher Höhe anfangen (Ivarsson / Carroll 1998: 50). In Spielfilmen werden trotzdem zentriert gesetzte Untertitel bevorzugt, da der Weg von der im Zentrum der Leinwand stattfindenden Handlung zu den Untertiteln für die Augen des Zuschauers auf diese Art und Weise am kürzesten ist (vgl. Nagel 2009: 62 und 94-98). Beispiele zur Untertitelung von Dialogen finden Sie in Kapitel 7.6.1. Nicht alles im Film ist gesprochene Sprache. Manchmal erscheinen Schilder im Bild, Briefe, Tagebücher, Zeitungsschlagzeilen, die Informationen enthalten, die der sprachunkundige Zuschauer ebenfalls benötigt. Diese texthaltigen Elemente bezeichnet man als Displays (Ivarsson / Carroll 1998: 4). 16 Das hier angeführte Beispiel ist besonders textlastig: Abbildung 16: Brief aus Dating: Do’s and Don’ts (USA 1949) Zu diesem Bild benötigen Sie folgende Informationen: Von 10: 00: 26: 24 bis 10: 00: 37: 02 sieht man den Jungen Woody, der den Brief öffnet und den ersten Absatz laut vorliest. Von 10: 00: 37: 03 bis 10: 00: 48: 17 sieht man die oben abgebildete Einstellung. Es gibt keine Patentlösung. Spätestens hier sollten Sie den Film herunterladen und eine echte Untertitelung versuchen. Für den völlig sprachunkundigen Zuschauer ist die Untertitelung eines Displays oft hilfreich, wenn nicht gar notwendig. Nicht alle Schriftstücke in Filmen sind so banal und offensichtlich wie das in diesem Beispiel. 16 Schilder, Briefe etc. kommen in Filmen nicht gehäuft vor. Wer üben will, tut das am besten mit den Comics von Jacques Tardi. Tardi verwendet diesen Kunstgriff sehr oft. 18231_Juengst_SL4�indd 52 18231_Juengst_SL4�indd 52 19�08�2020 12: 38: 39 19�08�2020 12: 38: 39 53 2.3 Arbeitsablauf Es ist andererseit schade, wenn ein gut sichtbarer Untertitel wie ein Paukenschlag auf einen raffiniert versteckten, aber wichtigen Text im Bild aufmerksam macht. Vielleicht merken ja auch nicht alle Zuschauer der Originalversion, dass der Regisseur dort eine Information untergebracht hat. Doch in der zielsprachlichen Version hat der Zuschauer ohne Hilfe gar keine Chance, die Filmstelle zu verstehen und bekommt vielleicht später Probleme mit dem Handlungsverlauf. Ein gutes Beispiel für den Einsatz von Untertiteln bei Displays ist Chihiros Reise ins Zauberland ( Sen to Chihiro no Kamikakushi , Japan 2001). Viele Zuschauer, gerade jüngere, dürften nicht genug Japanisch können, um zu verstehen, was die Hexe Yubaba mit den Schriftzeichen tut. 17 Diejenigen, die Japanisch können, ärgern sich vermutlich über den Untertitel, den sie selbst gern anderen erklärt hätten. Erläuterungen von Displays werden nicht nur bei der interlingualen Untertitelung eingesetzt. Mal kurz nachdenken … Bei welchen anderen Verfahren der AV-Übersetzung macht man das auch? Kurz gesagt: Nur bei der intralingualen Untertitelung für Hörgeschädigte braucht man es nicht. Auch bei der Synchronisation werden Displays entweder untertitelt oder im Dialogtext übersetzt. Beim Filmdolmetschen ist ohnehin nur ein schnelles Einsprechen möglich; gut ist, wenn man noch schnell sagen kann, wo das Display ist. Eine konsequente Untertitelung von Displays ist in allen Fällen sehr selten, auch wenn es Filme gibt, bei denen die Displays eine wichtige Orientierungsfunktion für den Zuschauer haben (Wahl 2003: 87). Einblendungen ähneln den Displays, sind aber ein Zusatz zum Filmbild. Bauchbinden (auf Englisch oft Captions) sind ein Spezialfall der Einblendung: kleine Boxen, Streifen oder Spracheinblendungen unten im Bild, in denen zum Beispiel der Name des Sprechers steht. Sie kommen in Dokumentarfilmen und Nachrichtensendungen vor, aber auch in Spielfilmen, wenn dort Nachrichten oder Fernsehinterviews dargestellt werden. Einblendungen können überall im Bild vorgenommen werden, mit der Untertitelungssoftware ebenso wie mit technisch anspruchsvolleren, optisch ansprechenderen Verfahren bei der Nachbearbeitung.. Mal kurz nachdenken … Wann müssen auch Namen in Bauchbinden bearbeitet werden? Namen muss man natürlich nicht übersetzen, aber man muss sie unter Umständen transkribieren (mit lateinischen Buchstaben wiedergeben). Dies gilt nicht nur dann, wenn die Ausgangssprache ein anderes Alphabet benutzt. Im Englischen, Französischen und in 17 Richtig. Schauen Sie sich den Film an. 18231_Juengst_SL4�indd 53 18231_Juengst_SL4�indd 53 19�08�2020 12: 38: 39 19�08�2020 12: 38: 39 54 2 Interlinguale Untertitelung anderen Sprachen werden beispielsweise russische oder hebräische Wörter anders transkribiert als im Deutschen. Im nachfolgenden Beispiel könnte man sich auch für Untertitel unter der Einblendung entscheiden. Mal kurz nachdenken … Wäre das besser? Warum? Ja, ein Untertitel wäre besser! Übertitel und Einblendung sind weit auseinander, das Auge hat kaum Zeit für das Filmbild. Auch in Filmen, in denen an manchen Stellen ein Übertitel gewählt wird, wird der restliche Text untertitelt. Abbildung 17: Einblendung mit Übertitel ( Die Kunst des Spickens © Daniel Wolf / Daniel Frei) Mal kurz nachdenken … Warum sind Übertitel oft problematisch? Und was ist nicht gut daran? Übertitel würden viel zu oft das Gesicht des Sprechers verdecken (Ivarsson / Carroll 1998: 51). Der Sprung zwischen einem Übertitel bei einem Bild und einem Untertitel bei dem nächsten ist sehr unangenehm, da der vorhergehende Titel den Blick lenkt. 18231_Juengst_SL4�indd 54 18231_Juengst_SL4�indd 54 19�08�2020 12: 38: 39 19�08�2020 12: 38: 39 55 2.3 Arbeitsablauf Abbildung 18: Tierfilmer mit Eichhörnchen Mal kurz nachdenken … Was können Sie hier tun? Der Name ist wichtig. Aber der Wissenschaftler hat den Mund geöffnet und spricht offensichtlich gerade über das Eichhörnchen - das ist sicher auch wichtig! Richtig, im Deutschen muss man hier nichts tun. Wenn Amtsbezeichnungen oder akademische Grade in der Bauchbinde stehen, die in der Zielsprache anders heißen bzw. normalerweise in übersetzter Form genutzt werden, blendet man immer zeitgleich oder leicht versetzt eine Übersetzung ein (Nagel 2009: 94). Im Zweifelsfall lässt man die kürzer stehen als den gesprochenen Text, denn dieser ist wichtiger. Bei den nachfolgenden Screenshots sind die unterschiedlichen Positionen von Unter- und Übertiteln durch das Bild motiviert: Abbildung 19: Übertitel (Arial weiß, schwarze Box, zentriert) ( Die Kunst des Spickens © Daniel Wolf / Daniel Frei) 18231_Juengst_SL4�indd 55 18231_Juengst_SL4�indd 55 19�08�2020 12: 38: 39 19�08�2020 12: 38: 39 56 2 Interlinguale Untertitelung 6. Auch wenn Übertitel gerade kritisiert wurden: Warum ist hier ein Übertitel gar nicht schlecht? Welchen Effekt hat er? Abbildung 20: Rechtsbündiger Untertitel (Arial weiß) ( Die Kunst des Spickens © Daniel Wolf / Daniel Frei) 7. Warum wurde dieser Untertitel rechtsbündig gestaltet? 8. Und bei dem nächsten Beispiel gibt es einen Grund für die Entscheidung, den Untertitel linksbündig zu gestalten: Abbildung 21: Linksbündiger Untertitel (Arial weiß, schwarze Box) ( Die Kunst des Spickens © Daniel Wolf / Daniel Frei) Über die Jahre haben die Zuschauer eine Erwartungshaltung entwickelt, wie Untertitel normalerweise aussehen. Sie haben eine Textsortenkompetenz für Untertitel entwickelt, was bedeutet, dass sie sich nicht besonders anstrengen müssen, um einen Film mit Unter- 18231_Juengst_SL4�indd 56 18231_Juengst_SL4�indd 56 19�08�2020 12: 38: 40 19�08�2020 12: 38: 40 57 2.3 Arbeitsablauf titeln anzuschauen. Manchmal ändern sich Sehgewohnheiten und Richtlinien, aber das geschieht nicht plötzlich und überraschend. Man kann Untertitel auch kreativer gestalten (zur experimentellen Untertitelgestaltung weiter unten). Ausführliche Informationen zum allgemeinen Einsatz von Schrift in Filmen finden Sie in Krautkrämer 2013. 2.3.5 Textkürzungen Der Übergang von gesprochener in geschriebene Sprache ist nicht immer einfach, auch dann nicht, wenn die gesprochene Sprache geskriptet ist. Dieser Gemeinplatz gilt auch für Untertitel: Gesprochene Sprache ist einfach schneller. Im Kapitel zur Untertitelung für Hörgeschädigte wird die Debatte wörtliche Wiedergabe des Dialogtexts versus Kürzung (wie auch die damit zusammenhängende Frage der Vereinfachung) kurz angesprochen (Kapitel 7.6.2). Es gibt zwar kurze Ausrufe und Einwortsätze, für die man reichlich Zeit zur Verfügung hat, doch im Normalfall sind die Sätze leider zu lang für die Standzeit des Untertitels. Wer sich zunächst ein bisschen im Trockenschwimmen üben möchte, kann einen beliebigen Text in einer beliebigen Fremdsprache nehmen (am besten ein Drehbuch oder ein Theaterstück) und folgende Übungen zur Erstellung von interlingualen Untertiteln ausprobieren: Stufenweises Kürzen: Schritt für Schritt wird immer mehr weggenommen / durch kürzere Formulierungen ersetzt; Radikale Kürzung „am Text“: Wegstreichen, aber nicht ersetzen; Umschreibende Kürzung: Umformulieren oder verkürzte Synonyme finden, aber keine anderen Kürzungsmethoden einsetzen; Syntaxübung: Die Syntax für die Untertitel ändern, die Lexik möglichst beibehalten; So lang wie möglich: Untertitel so ausführlich wie möglich gestalten; den Platz vollständig nutzen. Es gibt verschiedene Möglichkeiten, den Text für Untertitel zu kürzen. Buhr teilt diese Möglichkeiten ein in die Verdichtung und die Auslassung von Textteilen (Buhr 2003: 56). Man kann jedoch eine weit komplexere Aufteilung vornehmen, wie Gottlieb (1992, im Nachfolgenden paraphrasiert nach Schröpf 2008: 56-58), der von Condensation, Decimation, Deletion und Paraphrase spricht. Condensation bedeutet, dass Redundanzen reduziert werden, insbesondere Text-Bild-Redundanzen, aber auch nicht zwingend nötige Adjektive etc. Decimation ist ein eher frustrierendes Verfahren, da dabei bei schnellem Sprechtempo große Mengen des Dialogtextes nicht berücksichtigt werden. Deletion bedeutet Löschen und bezieht sich vor allem auf das Löschen von Wiederholungen, Interjektionen etc. - ein typischer Vorgang beim Übersetzen von gesprochener in geschriebene Sprache. Schließlich gibt es die Paraphrase, oft die Folge von Kürzungsvorgängen. 18231_Juengst_SL4�indd 57 18231_Juengst_SL4�indd 57 19�08�2020 12: 38: 40 19�08�2020 12: 38: 40 58 2 Interlinguale Untertitelung Mal kurz nachdenken … Was muss man nicht untertiteln, wenn es sonst Platzprobleme gäbe? Marleau (1982) und Ivarsson / Carroll (1998) nennen internationale Begriffe, Höflichkeitsformeln, Ausrufe, Eigennamen (soweit bekannt). Alle Autoren weisen auch darauf hin, dass man nicht untertiteln muss, was man sieht. Mal kurz nachdenken … Welche Kürzungsmethoden passen auf die Übungen oben? Typische Ratschläge, die man besonders dem Anfänger mit auf den Weg gibt, finden sich in ausführlicher Form in Ivarsson und Carroll (1998: 85-91) und zusammengefasst bei Nagel (2009: 68). Im Wesentlichen handelt es sich um folgende Vefahren: ▶ Verkürzung der Syntax ▶ Passiv wird zu Aktiv ▶ Indirekte Fragen werden zu direkten Fragen ▶ Doppelte Verneinung zur positiven Äußerung ▶ Sinngemäße Zusammenfassung ▶ Präteritum statt Perfekt Üben Sie jetzt diese Methoden an den Beispielen! Lesen Sie dafür zunächst nur den englischen Originaltext. Zu Annie Hall (USA 1977) finden Sie weiter unten die betreffenden Textstellen aus dem deutschen Synchronbuch. Hilft Ihnen das beim Formulieren der Untertitel? Welche Kürzungsmethoden haben Sie eingesetzt? Wo? Aus welchem Grund? Man in line: We saw the Fellini film last Tuesday. It is not one of his best. It lacks a cohesive structure. You know, you get the feeling that he’s not absolutely sure what it is he wants to say. ( Annie Hall . Allen 1983: 14) (drei Untertitel) Annie: Sadie? Oh, well, Sadie … ( Laughing ) Sadie met Grammy through, uh, through Grammy’s brother George. Uh, George was real sweet, you know, he had that thing. What is that thing where you, uh, where you, uh, fall asleep in the middle of a sentence, you know - what is it? Uh … ( Annie Hall . Allen 1983: 37) (vier Untertitel) Ed: Now everyone, when he walks on the stage, treat him normal. I know Bela Lugosi is a world-famous star, and you’re all a little excited, but we’re professionals. ( Ed Wood. Alexander / Karaszewski 1995: 36) (drei Untertitel) Aunt Em: And what was he doing here in the first place? That’s what I want to know. What’s a man like you messing around with a black boy like Thomas for? Are you some kind of pervert, or what? ( Smoke , Auster 1995: 58) (zwei Untertitel) 18231_Juengst_SL4�indd 58 18231_Juengst_SL4�indd 58 19�08�2020 12: 38: 41 19�08�2020 12: 38: 41 59 2.4 Einzelprobleme der Untertitelung Mann in der Schlange: Wir haben letzten Dienstag den Fellini gesehen, der gehört nicht zu seinen besten Filmen, er hat keine kohäsive Struktur. Man hat das Gefühl, er ist sich selbst nicht so sicher, was er sagen will. ( Der Stadtneurotiker , Allen 1981: 23). Annie: Sadie? Sadie, naja (lacht) also Sadie kam mit Grammy durch äh, den Bruder von Grammy, George, zusammen. Hm, und George, der war ja wirklich niedlich, wissen Sie (gestikuliert), er hatte diese … diese Dings, diese … wie nennt man das, wenn man mitten im Satz einschläft, Sie wissen, diese … äh … ( Der Stadtneurotiker , Allen 1981: 57-58). Hat Ihnen die deutsche Fassung beim Erstellen der Untertitel geholfen? Vielleicht hat sie Sie ja auch nur verwirrt. Schauen Sie sich die Beispiele auf DVD an. Für den übersetzerischen Anteil der interlingualen Untertitelung muss also das Rad nicht neu erfunden werden. Interlinguale Untertitelung ist eine Sonderform der Übersetzung und das bedeutet, dass man alles, was man von anderen Texten kennt, auch dort anwenden kann. Der Platzmangel führt dazu, dass man mit Untertiteln nicht so freizügig umgehen kann wie mit anderen Texten. Aber prinzipiell kann man sämtliche möglichen Übersetzungsverfahren nutzen (dazu Nagel 2009: 66-67). Bei lexikalischen Übersetzungsverfahren ist dies etwas einfacher, da oft nur die Wortebene betroffen ist. Besonders die im Handbuch Translation unter „Einzelphänomene“ aufgeführten Probleme und Verfahren (ebd. 278-300) spielen auch bei der Untertitelung eine Rolle. Zu den dort angeführten Phänomenen gehören Sprachvarietäten, Metaphern, Wortspiele, Realia, Strategien des geschlechtsneutralen Ausdrucks, Eigennamen und Maßeinheiten. Kulturspezifika sind ohnehin ein Problem bei der Untertitelung. Siehe dazu Pedersen 2005, Bruti 2006, Ramière 2006. Fragestellungen zu diesen Einzelphänomenen sind in der Untertitelungsforschung populär. Informieren Sie sich über die Übersetzungsprobleme, die im Zusammenhang mit diesen Phänomenen immer wieder genannt werden! Wo könnten solche Fragen bei der Untertitelung auftreten? Beachten Sie auch, dass man die betreffende Realie vielleicht im Bild sehen kann und dass Wortspiele gern auch im Bild dargestellt werden, besonders in Trickfilmen! 2.4 Einzelprobleme der Untertitelung Als Anfänger kann man die vielen Probleme, die die Untertitelung mit sich bringt, kaum überblicken. Man ist zunächst schon froh, wenn man einen Dialogtext einigermaßen gekürzt hat und die Standzeiten einigermaßen hinkommen. Die interlinguale Untertitelung ist jedoch, wie gesagt, im Grunde genommen einfach eine Sonderform der interlingualen Übersetzung. Die nachfolgend dargestellten Probleme kommen bei der interlingualen Untertitelung ebenso vor wie bei der Übersetzung anderer Texte. Durch die Gleichzeitigkeit von Wort und Bild sind manche Übersetzungsstrategien, die man bei rein sprachlich-schriftlichen Texten einsetzen kann, hier aber leider nicht möglich. 18231_Juengst_SL4�indd 59 18231_Juengst_SL4�indd 59 19�08�2020 12: 38: 41 19�08�2020 12: 38: 41 60 2 Interlinguale Untertitelung Mal kurz nachdenken … Wo könnte das sein? Auch wenn immer wieder empfohlen wird, nicht oder schlecht übersetzbare Witze etc. nicht zu übersetzen und an anderer Stelle einen Witz einzuschieben, ist dieses Verfahren bei Filmen problematisch. Generell zu Humor und Untertitelung siehe Chiaro 2006. Und noch mal kurz nachdenken … Bei Serien mit einem gewissen Extra ist das fast unmöglich. … nämlich bei Serien mit einem laughing track, also einer Lachspur, oder bei Serien, die vor Live-Publikum gedreht wurden und daher auch Reaktionen auf Witze etc. beinhalten. 2.4.1 Dialekte, Soziolekte, Fachsprache Auch wenn wir immer wieder davon sprechen, dass bei der Untertitelung gesprochene in geschriebene Sprache umgewandelt wird: Ganz korrekt ist das bei Filmen nicht, denn dort gibt es ein Skript, also geschriebene Sprache, die im Film gesprochen wird und dann in den Untertiteln wieder eine schriftliche Form hat. Mal kurz nachdenken … Aber wo ist es der Fall? Mündlich nach schriftlich findet nur dann statt, wenn Live-Beiträge in Nachrichten, Talkshows etc. untertitelt werden. In diesen Fällen ist eine interlinguale Untertitelung in Deutschland nicht üblich (siehe Kapitel 4, Voice-over, und Kapitel 5, Filmdolmetschen). Bei Reality-Shows aus den USA kommt sie teilweise vor. Nur in diesen Fällen haben wir es mit spontan gesprochener Sprache zu tun, mit all ihren Fehlern, Pausen und unvollständigen Sätzen. Wer einmal das Transkript eines Gesprächs, also eine schriftliche Aufzeichnung von spontan gesprochener Sprache gesehen hat, weiß, wie unordentlich wir eigentlich sprechen. Die gesprochene Sprache in Spielfilmen existiert zunächst als schriftliche Imitation gesprochener Sprache im Drehbuch (dazu auch Nagel 2009: 58 und ausführlich Remael 2008). Sie kann ausgesprochen künstlich und manieriert sein. Soziolekte und Dialekte sind typisch für gesprochene Sprache und werden in vielen Formen künstlerischer Texte eingesetzt. Ob man Soziolekt und Dialekt in irgendeiner Form in den Untertiteln wiedergeben soll, darüber streiten sich Theoretiker wie auch Praktiker. Eine Partei vertritt die Ansicht, man solle in Untertiteln nur Standardsprache nutzen, weil sie sich leichter liest. 18231_Juengst_SL4�indd 60 18231_Juengst_SL4�indd 60 19�08�2020 12: 38: 41 19�08�2020 12: 38: 41 61 2.4 Einzelprobleme der Untertitelung Schauen Sie sich die entsprechende Praxis bei untertitelten englischsprachigen Reality-Serien an (heute am besten über einen Streamingdienst). Die Sprecher bieten eine Vielfalt an amerikanischen Dialekten und Soziolekten. Wären Sie bei der Untertitelung ebenso vorgegangen? Ein leises Unbehagen angesichts der Tatsache, dass der Text verändert wird, wenn soziolektale und dialektale Elemente in standardisierte Schriftsprache übertragen werden, gab es schon immer, und der typische Untertitelungsstil wird wieder und wieder in Frage gestellt (z. B. Bastian im Abstractband Leipzig 2010; Hamaidia 2007, Kaufmann 2004, Elefante 2004). Es stellt sich grundsätzlich auch die Frage, ob Untertitel als Schriftsprache wahrgenommen werden oder ob sie nicht eine eigene Kategorie zwischen gesprochener Sprache und Schriftsprache bilden (dazu auch Guillot 2007). Dialekte und Soziolekte kommen weder in Filmen noch in Romanen oder Theaterstücken so gehäuft und in so komplexer Form vor, wie die vielen Forschungsarbeiten dazu suggerieren. Das Thema ist einfach nur reizvoll. Die Übersetzung von Dialekten und Soziolekten ist schon in Romanen und Theaterstücken schwierig; die Ergebnisse sind oft unbefriedigend, da nicht alle Konnotationen der ausgangssprachlichen Variante auch in der Zielsprache wiedergegeben werden können. Beim Platzmangel und Zeitdruck in den Untertiteln potenzieren sich diese Probleme. Welche Probleme treten auf, wenn man Dialekte und Soziolekte übersetzen möchte? Welche typischen Versuche, diese Probleme zu lösen, gibt es? Informieren Sie sich in der übersetzungswissenschaftlichen Fachliteratur über Probleme und häufige Lösungen. Als Einstieg eignet sich Kolbs Beitrag im Handbuch Translation (1998: 278-280). Angenommen, Sie möchten einen Dialekt in irgendeiner Form im Untertitel darstellen, weil er für die Charakterisierung der betreffenden Figur sehr wichtig ist. Welchen Weg wählen Sie? Hängt Ihre Entscheidung mit dem Filmgenre zusammen? Mögliche Lösungen können Sie in den Untertiteln zu dem französischen Film Willkommen bei den Sch’tis ( Bienvenue chez les Ch’tis , Frankreich 2008) finden; weiter unten sind aus diesem Film Vergleichsbeispiele von Untertiteln und Synchrontext abgedruckt. Für Soziolekte eignen sich Filme des italienischen Neorealismo (Neoverismo) und der französischen Nouvelle vague. Ein Film, der die französische Jugendsprache nutzt, darunter insbesondere das Verlan, ist L’esquive (Frankreich 2003, in Deutschland im Fernsehen 2005 Nicht ja, nicht nein ); Varianten französischer Jugendsprache findet man auch in Entre les murs ( Die Klasse , Frankreich 2008). Sie sehen die Erscheinungsjahre: Die Filme spiegeln keinen aktuellen Sprachstand wider. 18231_Juengst_SL4�indd 61 18231_Juengst_SL4�indd 61 19�08�2020 12: 38: 42 19�08�2020 12: 38: 42 62 2 Interlinguale Untertitelung Oft werden auch in den Originalfilmen und in den Synchronfassungen nur sehr leichte dialektale Einfärbungen verwendet, die kaum ins Gewicht fallen. In solchen Fällen sollte man auf eine Markierung verzichten. 9. Es gibt Fälle, in denen der Dialekt nicht unwichtig ist, ein Übersetzungsversuch aber übertrieben wäre. Was würden Sie da tun? Eine Sprachvarietät, auf die bei der audiovisuellen Übersetzung sehr selten eingegangen wird, ist die Fachsprache, die doch sonst in der übersetzungswissenschaftlichen Literatur eine so große Rolle spielt. In Dokumentarfilmen erwarten wir ohnehin fachsprachliche Elemente und geben sie ohne große Nachdenkensanstrengung als solche wieder, allerdings meist als Voice-over. Doch auch in Spielfilmen und Serien ist Fachsprache extrem häufig. Darüber denken wir zwar auch bei der Synchronisation nach … Welche Fachsprachen erwarten Sie? Hier einfach ein paar andere Beispiele als im Kapitel über Synchronisation: In den populären Weltuntergangsfilmen wird über Klimawandel und meteorologische und geologische Erscheinungen gesprochen, in anderen Katastrophenfilmen geht es um Viren und Genetik. 10. Die handelnden Figuren benutzen Ausdrücke, die Sie selbst nicht kennen. Sie können getrost annehmen, dass das vielen Zuschauern genauso geht. Was machen Sie in den Untertiteln? 11. Was können Sie tun, wenn lateinisch-griechische Fachtermini vorkommen, die lang sind und die Untertitel füllen? Denken Sie dabei an Dinosauriernamen wie Procompsognathus oder Rhamphorhynchus. Viele dieser Spielfilme haben den Vorteil, dass zwischen Experten und Zuschauern eine Vermittlerfigur steht, zum Beispiel ein Reporter. Diese Vermittlerfigur hat dann die Aufgabe, den Experten zu einer Erklärung der Fachbegriffe zu bewegen. Falls es eine solche Figur nicht gibt, sollte der Untertitler diese Aufgabe nicht übernehmen, auch wenn es verlockend ist, sein Wissen weiterzugeben. 18231_Juengst_SL4�indd 62 18231_Juengst_SL4�indd 62 19�08�2020 12: 38: 43 19�08�2020 12: 38: 43 63 2.4 Einzelprobleme der Untertitelung 2.4.2 Mehrsprachigkeit im Film Diese Erscheinung wird in Kapitel 3.5.2 anhand der Synchronisationspraxis ausführlich diskutiert, da sie dort ein weit größeres Problem darstellt. Doch auch bei der Untertitelung stellen sich Fragen, wie man damit umgeht, wenn mitten in einem englischsprachigen Film plötzlich Deutsch gesprochen wird. Was könnte man in den Untertiteln tun, wenn in einem fremdsprachigen Film plötzlich deutschsprachige Passagen auftauchen? Überlegen Sie erst, lesen Sie dann Kapitel 3.5.2. Kommen Ihnen jetzt noch andere Ideen? Es werden zwar stets dieselben Filme zitiert (wie es auch im vorliegenden Buch geschieht), doch mit trafilm.net existiert eine Forschungsgruppe zu diesem Thema. Zur Untertitelung mehrsprachiger Filme siehe auch Bartoll (2006). Auch hier sollten Sie sich mit den Inglourious Basterds beschäftigen (USA 2009) - nachdem Sie die Aufgabe im Kapitel Synchronisation bearbeitet haben. Es gibt bei der interlingualen Untertitelung hier ähnliche Traditionen wie bei der Synchronisation, die man durchaus hinterfragen kann: A special case requiring the use of quotation marks is when a ‚second foreign language‘ is used in the film or programme. Such cases call for judgment. Does the original audience understand, more or less, what is being said? Elementary Spanish in an American film or Italian in a French TV programme should normally be translated into e.g. Dutch, and quotation marks (or italics) used to indicate that another language is being spoken, but the audience is certainly not supposed to understand two foreigners conversing in Japanese in a Norwegian film. Even the most ambitious subtitlers should refrain from translating such conversations. (Ivarsson / Carroll 1998: 114 f.) Aber nur der hörende Zuschauer hört die Tonspur. Interlinguale Untertitel für das Kino sollten auch für hörgeschädigte Zuschauer geeignet sein. Und übrigens gab es Versuche mit der Mehrsprachigkeit schon bei Zwischentiteln für Stummfilme: Abel Gance thematisierte die Sprachübertragungsmethoden bereits in seinem ohnehin verblüffend originellen Film Napoléon - vu par Abel Gance (Napoleon, 1925-1927), in dem es einen Zwischentitel gibt, der durch Sätze in 4 verschiedenen Sprachen (Deutsch, Englisch, Französisch, Italienisch) das Sprachenwirrwarr im Lager des Feindes bei der Eroberung Toulons darstellen soll. Die Sätze flimmern gleichzeitig und hintereinander, horizontal und diagonal über die Leinwand und verbildlichen damit nicht nur das Durcheinander an Sprachen, sondern auch die sprichwörtliche Hitze der Diskussion. Ein paar Zwischentitel vorher heißt es denn auch: ‚Beim Kriegsrat der Feinde ging es zu wie beim Turmbau zu Babel‘. (Wahl 2003: 88) Auch wenn in diesem Buch immer wieder Vorschläge gemacht oder Richtlinien bemüht werden: Treffen Sie Ihre eigenen Entscheidungen. Oft sind die besser, weil sie sich auf einen konkreten Fall beziehen. 18231_Juengst_SL4�indd 63 18231_Juengst_SL4�indd 63 19�08�2020 12: 38: 43 19�08�2020 12: 38: 43 64 2 Interlinguale Untertitelung 2.5 Sonderfälle der Untertitelung 2.5.1 Trivia Tracks und andere zusätzliche Untertitel Schon Ivarsson und Carroll machen eine Reihe von Vorschlägen für die kreative Nutzung von Untertiteln (Ivarsson / Carroll 1998: 30). Von diesen Vorschlägen haben sich nur die so genannten Trivia Tracks durchgesetzt, und auch die nur begrenzt. In den letzten Jahren kommen sie zunehmend seltener vor, aber vielleicht erleben sie ja eine Renaissance. Eine DVD mit Trivia Tracks gibt es z. B. zu Dirty Dancing (USA 1987). In Trivia Tracks bekommt der Filmzuschauer Hintergrundinformationen zum Film sowie Klatsch und Tratsch zu den Schauspielern geliefert. 12. Trivia Tracks sind eine nette Idee, haben sich aber nicht verbreitet durchgesetzt. Können Sie sich vorstellen, warum? Mal kurz nachdenken … Welche Art von zusätzlichen Informationen könnten Untertitel noch enthalten? Es gibt auf DVDs auch andere Extra-Texte als Trivia Tracks, z. B. informative Einblendungen (zum Beispiel bei Good-bye Lenin , Deutschland 2003) und die Untertitelung zum Regisseurkommentar in Filmlänge. Auf einer DVD wird also weit mehr untertitelt und übersetzt als der eigentliche Film. Die Regeln für die Untertitelung sind dabei die gleichen wie beim Film selbst. Schauen Sie sich die informativen Einblendungen bei Good-bye Lenin an (wenn Sie auch das Kapitel zur Audiodeskription bearbeiten möchten, sollten Sie diese Aufgabe allerdings erst danach angehen)! Was würden Sie an diesen Einblendungen verändern / ergänzen, wenn Sie eine fremdsprachliche Fassung erstellen sollten? Denken Sie an Kulturspezifika! Schwierig wird es, wenn Untertitel ein künstlerisches Element des Originalfilms sind. So gibt es zu Monty Python’s The Holy Grail ( Die Ritter der Kokosnuß [sic], Großbritannien 1975) eine Untertitelspur „Subtitles for People Who Don’t Like the Film“. Die Untertitel bestehen aus Shakespeare-Zitaten (aus Henry IV ). Immer wieder zitiert wird auch Annie Hall ( Der Stadtneurotiker , USA 1977) von Woody Allen, in dem ein Paar um den heißen Brei herumredet, während in den Untertiteln die wahren Gedanken zu sehen sind. 18231_Juengst_SL4�indd 64 18231_Juengst_SL4�indd 64 19�08�2020 12: 38: 44 19�08�2020 12: 38: 44 65 2.5 Sonderfälle der Untertitelung Mal kurz nachdenken … Was kann der Untertitler tun? Das ist eine schwierige Aufgabe. Wirklich befriedigend kann man sie nicht lösen. Probieren Sie sich daran, schauen Sie sich dann die offizielle Version auf der DVD an. 2.5.2 Bilinguale Untertitelung Manche Länder haben mehrere offizielle Landessprachen, so zum Beispiel Belgien (Französisch und Flämisch) oder Finnland (Finnisch und Schwedisch). In diesen Ländern werden Filme für das Kino tatsächlich oft in zwei Sprachen gleichzeitig untertitelt (im Fernsehen kann man meist zwischen den zwei Varianten wählen; sie stehen auf unterschiedlichen Videotextseiten, Ivarsson / Carroll 1998: 28-29). Noch extremer ist der Fall in Hongkong, wo drei Untertitel untereinanderstehen: Englisch, vereinfachte chinesische Schriftzeichen und traditionelle chinesische Schriftzeichen (Mok in MuTra 2006). Wenn in solchen Ländern zweizeilige Untertitel für jede Sprache verwendet werden (was im Chinesischen auf Grund der kompakten Schriftzeichen nicht notwendig ist), ist vom Film nicht mehr sehr viel zu sehen. Probieren Sie es aus, am besten im Team: Erstellen Sie zu einem Filmausschnitt zweisprachige Untertitel! Welche Möglichkeiten zur Optimierung fallen Ihnen ein? Das nachfolgende Bildbeispiel stammt aus Finnland. Es handelt sich um eine Nachrichtensendung, die in beiden Landessprachen live untertitelt wird. Die oberen Untertitel sind schwedisch, die unteren finnisch. Abbildung 22: Bilinguale Untertitelung ( Obs . Sendung vom 10.6.2010, Redakteur: Juri von Bonsdorff, Bild: Nina Svahn. Mit freundlicher Genehmigung von YLE [Yleisradio] Finnland) 18 ARTE nutzt zwar keine bilingualen Untertitel, doch grundsätzlich werden die Sprachen Deutsch und Französisch dort gleich behandelt. Das gilt auch für Schriftelemente im Film, also für Displays und Einblendungen. 18 Der Text bedeutet: „Wenn man keine Angst hat, ist man ein wenig verrückt.“ 18231_Juengst_SL4�indd 65 18231_Juengst_SL4�indd 65 19�08�2020 12: 38: 44 19�08�2020 12: 38: 44 66 2 Interlinguale Untertitelung Mal kurz nachdenken … Welche könnten das sein? Ein typisches Beispiel sind Landkarten in Dokumentationen. Für viele Länder, Städte und Gegenden gibt es im Deutschen und im Französischen unterschiedliche Bezeichnungen. Bei ARTE wird erst die eine eingeblendet, dann kommt ein sehr kurzes Fade-out / Fade-in, wobei die Bezeichnung in der anderen Sprache erscheint. Dasselbe gilt für Bauchbinden mit Funktionsbezeichnungen oder Institutionsbezeichnungen. 2.5.3 Fansubs Laienübersetzungen gab es schon immer - man denke nur an die „Liebhaberübersetzung“. Bei Filmen gibt es diese Erscheinung ebenfalls schon seit längerer Zeit, sie hat aber wie so vieles andere durch das Internet einen größeren Bekanntheitsgrad gewonnen und ist durch die Möglichkeiten der digitalen Untertitelung einem größeren Kreis zugänglich geworden. Wenn Filme von Laien untertitelt werden, spricht man von Fansubs (von Laien synchronisierte Filme sind Fandubs). Die Erscheinung der Fansubs hängt eng mit der Popularität von Anime, japanischen Trickfilmen und -serien, zusammen. Anime haben ein eingefleischtes Fanpublikum. Viele Fans wurden durch ihr Interesse an diesen Serien dazu motiviert, die japanische Sprache zu erlernen. Durch diese Sprachkenntnisse hatten sie wiederum Zugang zu Serien, die nur auf Japanisch vorlagen. Fansubber folgen, zumindest theoretisch, einem Kodex: Gesubbt werden dürfen nur Filme, von denen noch keine Fassung in der Zielsprache vorliegt. Mit den Fansubs sollen Fans für die Serie gewonnen werden, die kein Japanisch können, die jetzt aber öffentlich dafür plädieren sollen, dass die Serie legal übersetzt und von einem Fernsehsender ausgestrahlt oder auf DVD veröffentlicht wird. Sobald das geschieht, hat die Fansub ihren Zweck erreicht und wird eingestellt und aus dem Internet genommen. Zumindest theoretisch; nicht alle Fansubber sind so fair. Fansubber empfinden dieses Verfahren als sinnvoll und regelgerecht, da sie so die Verbreitung der Serien zum Nutzen aller fördern wollen. Legal ist es trotzdem nicht; einmal ganz davon abgesehen, dass man etwas, was einmal im Internet ist, nicht wirklich gut wieder herausnehmen kann. Die Rechte für Übersetzungen (besonders für veröffentlichte Übersetzungen) liegen bei den Urhebern des Originals. Meist wird das Fansubbing allerdings geduldet. Gegen Fansubber vorzugehen hieße, eventuell gute Kunden zu verlieren. Auch wenn Fansubs nicht legal sind, sind sie im Internet doch leicht zu finden. Suchen Sie einfach danach. Oft werden auf den Seiten Screenshots angeboten, so dass man sich rasch ein Bild von dem jeweiligen Fansub-Stil machen kann. Was fällt Ihnen auf ? 18231_Juengst_SL4�indd 66 18231_Juengst_SL4�indd 66 19�08�2020 12: 38: 44 19�08�2020 12: 38: 44 67 2.5 Sonderfälle der Untertitelung Fansubs sind ein gutes Beispiel dafür, wie der technische Fortschritt es auch Laien möglich macht, professionell wirkende Untertitel zu erstellen. Früher schickten die Fansubber einander die Filme auf Videokassetten per Post, und sie benötigten einen hochgerüsteten Arbeitsplatz, um die Untertitel zu erstellen. Heute genügt ein PC, und die Ergebnisse sind optisch bei fast allen Fansubgruppen sehr gut. Allerdings haben Fansubs ausgesprochen oft sprachliche Mängel in der Zielsprache. Besonders Rechtschreibfehler und misslungene syntaktische Konstruktionen sind bei einigen Fansub-Gruppen extrem häufig (zu typischen Fehlern bei Amateur-Untertitlern siehe auch Bogucki 2009: 55). Weiter oben war bereits von Sonderfällen der Untertitelung die Rede. Fansubs enthalten häufig zusätzlich zu den Untertiteln Übertitel, in denen den Zuschauern Sachinformationen vermittelt werden. Bei Fansubs kann man diese Übertitel genauso wenig wegschalten wie die Untertitel. Mal kurz nachdenken … So etwas hatten wir hier doch schon einmal! Welche Art von Informationen standen bei den Fansubs, die Sie sich angesehen haben, in den Übertiteln? Fanden Sie das hilfreich oder überflüssig? Die Übertitel enthalten vor allem Informationen über die japanische Kultur. Bei Science Fiction findet man auch Übertitel zu serienspezifischem Vokabular. Fansubber halten also mit ihrem Spezialwissen nicht hinter dem Berg. Für Neulinge ist die eine oder andere Information sicher interessant. Die meisten Anime-Fans haben diese Kenntnisse aber selbst und beherrschen nur die japanische Sprache nicht ausreichend, um sich die Originalfassung ohne Untertitel anzusehen. Professionelle Untertitler würden versuchen, unerlässlich notwendige Informationen in die Untertitel zu integrieren. Auch hier gilt: Beim zweiten Ansehen sind diese Zusatzinfos oft lästig. 19 Amateure untertiteln heute auch andere Filme. So weist Bogucki (2009) darauf hin, dass Amateur-Untertitel zu Filmen, die gerade erst im Kino anlaufen, bereits als Textdateien im Internet stehen können (51). Sie basieren also auf einer illegalen Filmkopie: Amateur subtitle producers … typically work with a recording of the original, but thy have no access to the post-production script … The quality of their product is thus conditioned by how much they understand of the original. (Bogucki 2009: 49) Was die Gestaltung der Untertitel selbst angeht, so gehört vieles davon in den Themenbereich des nächsten Teilkapitels, der kreativen und experimentellen Untertitelgestaltung. Zur Schrift in Anime-Fansubs siehe Josephy-Hernández 2017. 19 Künzli machte in seiner empirischen Untersuchung allerdings die Erfahrung, dass zusätzliche Informationen zu Kulturspezifika in Übertiteln sehr positiv aufgenommen wurden (Künzli 2017: 184). Vermutlich liegt es an der Wiederholung und an der bei Anime anders gearteten Zielgruppe (alle als Fans eine Art Profi), dass diejenigen meiner Studierenden, die Fansubs schauen, sich negativ zu diesen Kommentaren äußerten. 18231_Juengst_SL4�indd 67 18231_Juengst_SL4�indd 67 19�08�2020 12: 38: 44 19�08�2020 12: 38: 44 68 2 Interlinguale Untertitelung 2.5.4 Kreative Untertitelgestaltung Bei den bisher in diesem Kapitel abgedruckten Screenshots wurde die serifenlose Schrift Arial verwendet. Schon diese Schrift wirkt unterschiedlich, je nachdem, ob sie mit oder ohne Box und mit oder ohne Drop Shadow steht. Man kann aber, wie bereits erwähnt, bei Untertitelungsprogrammen unterschiedliche Schriftarten nutzen. Auszeichnungen wie Kursivschrift und Fettdruck können ebenfalls verwendet werden, wobei Fettdruck in Unter- oder Übertiteln nicht üblich ist. Hin und wieder findet man Zeilen ganz in Großbuchstaben, zum Beispiel wenn ein Warnschild in Großbuchstaben im Bild zu sehen ist und der Inhalt im Untertitel wiedergegeben wird. Von der Möglichkeit, durchgehende Groß- und Kleinschreibung einzusetzen, sollte man aber nur sehr sparsam Gebrauch machen - wenn überhaupt. 13. Grundsätzlich gilt, dass man Groß- und Kleinschreibung so verwenden sollte wie üblich. Wie empfinden Sie die Lesbarkeit, wenn nur Groß- oder nur Kleinbuchstaben verwendet werden wie in den beiden folgenden Sätzen? Woran liegt es Ihrer Meinung nach, dass man diese Beispiele unterschiedlich gut lesen kann? GRUNDSÄTZLICH GILT, DASS MAN GROSS- UND KLEINSCHREIBUNG SO VERWENDEN SOLLTE WIE ÜBLICH. grundsätzlich gilt, dass man groß- und kleinschreibung so verwenden sollte wie üblich. In Bereichen wie Typografie, Textgestaltung und Kommunikationsdesign, aber auch in der Lesbarkeitsforschung und im Bereich Wissensvermittlung sind die Charakteristika einzelner Schriften ein wichtiges Forschungsthema. Nicht jede Schrift liest sich gleich gut. Jede Schrift hat einen anderen Charakter und führt beim Leser zu anderen Assoziationen. Gut lesbare Einführungen in das Thema Typografie bieten Bergner (1990) und Willberg / Forssman (1999). Haben Sie sich schon einmal mit Schriftarten befasst? Wenn nicht: Gehen Sie in die Stadtbücherei. Schauen Sie sich Kinderbücher, Romane, Sachbücher, Zeitungen und Zeitschriften an. Welche Schriften finden Sie gut lesbar? Welche gefallen Ihnen (das müssen nicht die gut lesbaren sein)? Dass im Kino immer eine serifenlose Schrift verwendet wird, also eine Schrift ohne die kleinen Häkchen an den Enden, hat sich durch die technischen Gegebenheiten entwickelt. Die kleinen Serifen sehen schnell unsauber und ausgefranst aus, wenn die technische Qualität der Untertitel nicht sehr gut ist, so dass der Einsatz einer Serifenschrift mit früheren Verfahren nicht zu leisten war. Auch im Fernsehen werden aus technischen Gründen serifenlose Schriften für die Untertitel eingesetzt. Der alte Videotext besteht aus sichtbaren 18231_Juengst_SL4�indd 68 18231_Juengst_SL4�indd 68 19�08�2020 12: 38: 45 19�08�2020 12: 38: 45 69 2.5 Sonderfälle der Untertitelung Pixeln. Es handelt sich dabei stets um Proportionalschriften. Das bedeutet, dass ein „i“ sehr viel weniger Platz benötigt als ein „m“. Bei der klassischen Schreibmaschinenschrift, einer Monospace-Schrift, brauchen alle Buchstaben gleich viel Platz. Serifenlose Schriften lassen sich nicht nur gut auf Filmen fixieren, sie gelten auch als besonders gut lesbar. Allerdings darf man hier nicht verallgemeinern. Es gibt serifenlose Schriften, bei denen das kleine „l“ und das große „I“ kaum zu unterscheiden sind; bei manchen verschwimmen „r“ und „n“ hintereinander leicht zu einem „m“ (Willberg / Forssman 1999: 21, 28 und 76). Selten gebrauchte serifenlose Schriften wirken auf den ersten Blick fremd und ziehen die Aufmerksamkeit stärker auf sich, als es vermutlich gewollt ist (und ohne dass sich der Leser so richtig darüber im Klaren ist, was ihm seltsam vorkommt). 14. Das nachfolgende Beispiel in Serifenschrift ist aus unterschiedlichen Gründen problematisch. Warum? Abbildung 23: Garamond (Serifenschrift), schwarz, zentrierter Übertitel ( Die Kunst des Spickens © Daniel Wolf / Daniel Frei) Im Internet und auf DVDs herrscht eine größere Schriftvielfalt als im Kino. Man könnte überspitzt sagen, dass alles, was die Untertitelungsprogramme möglich machen, irgendwann und von irgendwem auch gemacht wird. Bei der Aufführung des Films The Pillow Book ( Die Bettlektüre , Großbritannien etc. 1996) von Peter Greenaway auf ARTE wurde für die Untertitel bewusst eine kalligraphische Schrift verwendet, die das Thema des Films reflektierte (vgl. Wahl 2003: 88). Foerster (2010) analysiert die Untertitelung von Night Watch (die englisch untertitelte Version von Nochnoi Dozor , Russland 2004), bei der ungewöhnliche Platzierungen und Schriftarten genutzt werden, um die Wirkung des Films zu verstärken. Wie wir eine Schrift wahrnehmen, hängt auch stark davon ab, wo wir ihr normalerweise begegnen; das haben Sie in der Bücherei sicher bemerkt. Es gibt typische Schriften für Zeitungen (also für Fließtext in schmalen Spalten), für Romane (für Fließtext, der über die Seitenbreite läuft), für Comics (handschriftliche Druckbuchstaben - oder Imitationen 18231_Juengst_SL4�indd 69 18231_Juengst_SL4�indd 69 19�08�2020 12: 38: 45 19�08�2020 12: 38: 45 70 2 Interlinguale Untertitelung davon). Mit den heutigen Untertitelungsprogrammen kann man solche Schriften auch für Untertitel benutzen. Für welches Filmgenre würden Sie die nachfolgenden Schriften benutzen? Diese im Internet und für Privatbriefe sehr beliebte Schrift, nämlich Comic Sans? Oder diese liebliche Handschriftenimitation, Lucida Handwriting? Oder ziehen Sie die frühere Standardeinstellung in Word vor, die Serifenschrift Times New Roman, die nur ein paar Jahre nach Einführung einer neuen Standardeinstellung fast schon historisch wirkt? Und dann gibt es noch die fast vergessene Schreibmaschinenschrift, eine Monospace-Schrift, bei der jeder Buchstabe gleich viel Platz hat. Krazy Kat (USA 1916) kennen Sie bereits. Sie können noch einmal zu Kapitel 2.3.4 zurückblättern, um Beispiele für Untertitel zu sehen. Hier kommen noch zwei neue. Gefällt Ihnen diese Lösung? Abbildung 24: Comic sans schwarz Abbildung 25: Comic sans weiß, schwarze Box Am besten probieren Sie die unterschiedlichen Schriftarten an einem ganzen Stück Film aus, wenn Sie etwas Übung im Untertiteln haben. Auf Einzelbildern wirken sie anders als auf einem längeren Film. Mal kurz nachdenken … Haben Sie nicht gerade erst Filme mit Untertiteln in solchen Schriften gesehen? 18231_Juengst_SL4�indd 70 18231_Juengst_SL4�indd 70 19�08�2020 12: 38: 46 19�08�2020 12: 38: 46 71 2.5 Sonderfälle der Untertitelung Wenn Sie Kapitel 2.5.4 bearbeitet haben, dann haben Sie in Fansubs gesehen, wie eine Vielzahl von Schriften und Farben eingesetzt wird. Manchmal passt die Gestaltung ästhetisch zum Film, manchmal ist sie einfach nur schrill. Die Frage, ob man beim Untertiteln besondere Schriftarten verwenden will, muss jeder für sich selbst beantworten - oder der Auftraggeber wird entsprechende Richtlinien vorgeben. Mal kurz nachdenken … Können Sie sich vorstellen, warum manche Untertitler die Untertitel gern etwas ausgefallener gestalten (abgesehen von dem Versuch, genre-gerechte Schriftarten für die Untertitelung zu verwenden)? Bzw.: Würden Sie es gern tun und warum? Manche Untertitler möchten sich durch diese Gestaltungsmöglichkeiten stärker am kreativen, künstlerischen Prozess des Filmschaffens beteiligen und nicht einfach nur den Standardregeln folgen. Hier treffen zwei grundsätzliche Haltungen aufeinander: Die eine besagt, dass der beste Untertitel der ist, den man nicht bewusst wahrnimmt. Die andere besagt, dass der Untertitel zum Film passen und eine künstlerische Ergänzung darstellen soll. Mal kurz nachdenken … Nicht nur in Night Watch gibt es bewegte Untertitel. Wo könnten Sie sich diese sonst noch vorstellen? Karaoke-Untertitel können auch in Form bewegter Untertitel dargestellt werden. Zu dieser Form der Untertitelung siehe Kapitel 7.6.5 (die Einordnung wird dort begründet). 2.5.5 Synchrontext versus Untertitelungstext 15. Erinnern Sie sich an Fernsehserien, die zunächst mit Untertiteln im deutschen Fernsehen liefen, später aber nachsynchronisiert und dann als Synchronfassung gesendet wurden? Um welche Art Serien handelt es sich? Welches Publikum wurde ursprünglich angesprochen, welches mit der neuen Fassung? Synchronfassungen und interlinguale Untertitel werden oft unabhängig voneinander erstellt. Als Grundlage dient für beide der Originalfilm. Das kann bedeuten, dass sowohl die Synchronfassung als auch die interlingualen Untertitel der Originalfassung gerecht werden - dass sich beide aber nicht kombinieren lassen. Die Untertitel passen in diesem Fall nur zum Originalfilm, nicht zur Synchronfassung. Abweichungen zwischen Untertitelung und Synchronfassung können nie völlig vermieden werden. Das Gros der Nutzer interlingualer Untertitel möchte diese zum Originalton zuschalten. Probleme treten aber dort auf, wo 18231_Juengst_SL4�indd 71 18231_Juengst_SL4�indd 71 19�08�2020 12: 38: 46 19�08�2020 12: 38: 46 72 2 Interlinguale Untertitelung interlinguale Untertitel als intralinguale Untertitel genutzt werden, also bei nicht völlig gehörlosen Hörgeschädigten, die sich die DVD in der Synchronfassung mit Untertiteln ansehen möchten, oder bei Fremdsprachenlernern, die die Sprache der Synchronfassung lernen möchten. Die folgenden Beispiele stammen aus Willkommen bei den Sch’tis ( Bienvenue chez les Ch’tis , Frankreich 2008). Sowohl die Synchronfassung als auch die Untertitel sind für sich gesehen gut. Timecode Synchrontext Untertitelung 10: 26: 16 Sie ham doch nix angefasst im Zimmer von meim Bübschen? Ham Schie nix angerührt im Zimmer von meim Bübschen? 10: 26: 34 Das is Muckefuck, das schmeckt viel bescher als Kaffee. Tschikorie, das kommt bei uns in den Kaffee. Tabelle 3: Sch’tis Synchron und untertitelt Worin liegen bei diesen beiden Beispielen die Hauptprobleme bei der Vergleichbarkeit? Bedenken Sie auch die Unterschiede, die zwischen den beiden Verfahren Synchron und Untertitelung grundsätzlich bestehen. 2.5.6 Übertitelung / Lehnenübersetzung im Theater Die interlingualen Untertitel im Film unterscheiden sich von der inhaltlichen Herausforderung her nicht von den Übertiteln (engl. surtitles , seltener supertitles ) zu Theaterstücken. Mal kurz nachdenken … Worin denn sonst? Keine Theateraufführung ist vollkommen identisch mit der anderen. Mal ist alles etwas langsamer, mal ist alles etwas schneller. Mal vergisst jemand seinen Text und es muss ein bisschen improvisiert werden. Die Problematik ist durch Inszenierung und Aufführungsablauf bedingt. Das bedeutet auch, dass Übertitel im Theater meist live zugeschaltet werden. Mal kurz nachdenken … Theaterstücke werden nur in einer besonderen Situation interlingual übertitelt. Wo? Theaterstücke werden normalerweise nicht in Fremdsprachen aufgeführt. Die Ausnahme sind Theaterfestivals, so dass nur dort eine interlinguale Übertitelung oder eine Verdolmetschung notwendig sind. 18231_Juengst_SL4�indd 72 18231_Juengst_SL4�indd 72 19�08�2020 12: 38: 46 19�08�2020 12: 38: 46 73 2.6 Musik und Untertitelung Mal kurz nachdenken … Haben Sie im Theater schon einmal Übertitel gesehen? Wo waren die? Wie fanden Sie es, dass das Theaterstück oder die Oper übertitelt waren? Als die ersten Übertitel in den Theatern eingeführt wurden, wurden sie immer auf die Wand über der Bühne projiziert. Oft waren sie ästhetisch sehr fragwürdig gestaltet. Man kann diese Übertitel außerdem nicht abschalten, auch wenn man es gern tun würde. Gerade wenn man in den höheren Rängen sitzt, schiebt sich diese Übertitelung aufdringlich ins Blickfeld. Später wurde die Projektion durch LED-Leisten ersetzt, ebenfalls über der Bühne (siehe Burton 2009: 59). Renommierte Theater haben oft kleine Bildschirme in den Rückenlehnen der Sitze. Burton nennt für 2009 nur ein paar sehr berühmte Opernhäuser mit einer solchen Ausstattung, doch inzwischen findet sie sich auch in eher im eigenen Lande bekannten großen Opernhäusern. Diese Bildschirme kann man ausschalten. Man sieht aber über den gesamten Zuschauerraum verteilt kleine Lichter von den angeschalteten Bildschirmen. Auch das kann stören, besonders wenn die Bildschirme sich direkt in der Reihe vor dem eigenen Sitz befinden. Wenn man sie selbst nutzt, muss der Blick ständig zwischen Bildschirm und Bühne hin und her wandern, was ebenfalls nicht optimal ist. Für Übertitel über der Bühne gelten andere Richtlinien als für Untertitel: Die Situation des Zuschauers ist eine andere; der Blickwinkel ist anders, und auch die Buchstaben sehen je nach technischer Ausstattung des Theaters anders aus als bei Untertiteln. Ausführliche Informationen zur Übertitelung im Theater finden sich bei Griesel (2007). Zum Thema Oper in Film und Theater siehe Kapitel 2.6. 2.6 Musik und Untertitelung Musik hält bei jedem Verfahren der audiovisuellen Übersetzung eigene Herausforderungen bereit. Das gilt für die Übertitelung im Theater ebenso wie für die Untertitelung in Filmen und auf DVDs. Opern haben dabei eine andere Problematik als Songs mitten in einem ansonsten gesprochenen Film. Technisch ist die Übertitelung im Theater nicht anders als bei Theaterstücken. 2.6.1 Opern Opern auf DVDs haben intralinguale und interlinguale Untertitel, die man wegschalten kann. Das gilt auch für Sender wie ARTE oder 3sat, die Operninszenierungen zeigen. Für Opern im Theater gilt, dass auch sie heute meist in der Originalsprache aufgeführt werden. Mehr dazu weiter unten. Das heißt, dass auch deutschsprachige Opern für deutsche Zuhörer untertitelt sind. Hören Sie sich einen Ausschnitt aus einer Wagner-Oper an. Notieren Sie dabei das, was Sie vom Text zu verstehen glauben. Schalten Sie jetzt die Untertitel zu und hören Sie sich das Ganze noch einmal an. 18231_Juengst_SL4�indd 73 18231_Juengst_SL4�indd 73 19�08�2020 12: 38: 47 19�08�2020 12: 38: 47 74 2 Interlinguale Untertitelung Die Sprache der Opernlibretti ist oft eigenartig, und das bleibt nicht ohne Auswirkungen auf die Tätigkeit des Übersetzers: … opera libretti tend towards the flowery, archaic and poetic in their vocabulary and grammatical formulations. This is particularly a problem in the operas of Richard Wagner, with their long and convoluted German sentence structures. The titler should try to reduce subordinate clauses keeping to clear, modern vernacular unless there are exceptional circumstances. (Burton 2009: 65) As far as content is concerned, there rarely seems to be a happy medium in opera. Texts tend to be either oversimplistic or repetitive or based on fiendlishly complicated historical plots. (Desblache 2009: 72) Opern werden grundsätzlich nicht synchronisiert, weder im Fernsehen noch auf DVD. Mal kurz nachdenken … Wäre das nicht eine wunderbare bzw. lustige Lösung? Opern mit Synchronisation oder gar mit Voice-over wären sicher sehr lustig. Man sucht sich eine DVD aber nach den Interpreten aus. Außerdem hören viele Opernliebhaber gern die Originalsprache, an die der Komponist den Klang der Musik angepasst hat. Bei klassischen Opern dominieren bestimmte Sprachen, vor allem natürlich das Italienische. Ab dem 19. Jahrhundert kommen aber auch viele russische, französische und deutsche Werke dazu, und im 20. Jahrhundert erweitert sich der Sprachradius beträchtlich. Für Englisch empfiehlt sich die Arbeit mit den Opern von Benjamin Britten, die nicht nur schöne Musik, sondern auch anspruchsvolle Texte bieten. Jedes Opernhaus macht seine eigenen Übertitel - es existieren also viele konkurrierende Fassungen. Das liegt auch daran, dass Opern oft an irgendeiner Stelle gekürzt werden müssen, und dass die Dramaturgen dabei unterschiedliche Entscheidungen treffen. Auch auf DVDs sind unterschiedliche Inszenierungen einzelner Opern erhältlich. Das bedeutet, dass man es auch dort mit unterschiedlichen Untertitelfassungen zu tun hat. Zu unterschiedlichen Aspekten der Opernübertitelung siehe Rędzioch-Korkus (2016, 2018). Mal kurz nachdenken … Wie wurden Opern in Deutschland vor Einführung der Übertitel normalerweise dargeboten? Diese Praxis ist mit der Übertitelung nicht verschwunden. Es war vor nicht allzu kurzer Zeit noch absolut üblich, Opern in einer übersetzten Fassung aufzuführen. Zu den Herausforderungen, die eine Opernübersetzung bietet, siehe Kaindl (1995). Die Sprachenwahl bei der Aufführungspraxis hängt bzw. hing auch vom Aufführungsort ab: World-class opera houses, such as the New York Metropolitan Opera, always performed works in their original language, whereas provincial and less prestigious houses adapted original pieces. (Desblache 2009: 73) 18231_Juengst_SL4�indd 74 18231_Juengst_SL4�indd 74 19�08�2020 12: 38: 47 19�08�2020 12: 38: 47 75 2.6 Musik und Untertitelung Schließlich spielt auch der Operntyp eine Rolle. Mit einer Opera buffa , also einer komischen Oper, oder einer Operette kann man anders umgehen als mit einer Opera seria , einer ernsten Oper: For example, in some ways, the idea of setting a performance of Aida in English is old-fashioned whereas an adaptation of a French operetta such as Orpheus in the Underworld , especially if peppered with contemporary references and completely reset in a British context can be very attractive to the public. (Desblache 2009: 74) 20 Es ist nicht mehr genau festzustellen, wann die erste Oper in einem Theater übertitelt wurde. Burton erwähnt eine Opernaufführung Anfang der 1980er in Hongkong, wobei die Titel jedoch chinesisch waren und daher seitlich neben der Bühne liefen, nicht über ihr (Burton 2009: 58). Im Verlauf der 1980er wurden Übertitel z. B. in Großbritannien zunehmend populär (Burton 2009: 59). Die Frage, ob Opern überhaupt übertitelt werden sollen, spaltet das Publikum. Bei nicht allen Opern sind es die Texte, die Begeisterung auslösen. Oft versteht man die Texte auch in der Muttersprache in gesungener Form nicht (siehe die Wagner-Aufgabe zu Beginn). Viele Zuschauer mögen die Übertitelung daher nicht und empfinden sie als störend. Nach Burton wünschen sich Zuschauer die Übertitelung, während eher Regisseure und Kritiker dagegen seien (Burton 2009: 60). Vermutlich hat die Einstellung zu Untertiteln mit dem Alter und der Opernkenntnis der Zuschauer zu tun. Für viele Opernliebhaber gilt die Regel: „Prima la musica, poi le parole.“ (Die Musik kommt zuerst, dann erst die Worte.) Das heißt nicht, dass Opernliebhaber sich nie mit den Texten beschäftigen. Viele lesen in Opernführern zumindest die Handlung nach, bevor sie ins Theater gehen, oder kaufen sich ein Programmheft. Burton weist darauf hin, dass es in früheren Zeiten üblich war, dass wohlhabende Theaterbesucher während der Vorstellung das Libretto mitlasen (Burton 2009: 60). Das ist bei der heutigen Aufführungspraxis nur bei konzertanten Aufführungen möglich, sonst ist es zu dunkel. Außerdem findet zu geräuschvolles Blättern oft nicht den Beifall der Nachbarn. 21 16. Noch eine ganz andere Frage: Wie ist es denn mit Opernübertragungen im Radio? Auch diese erfreuen sich bei Opernliebhabern großer Beliebtheit. 20 Das ähnelt der in deutschen Theatern beliebten Praxis, den Torstand wichtiger Fußballspiele während der Aufführung durch einen Darsteller durchzusagen. Oft werden diese Durchsagen elegant in Text und Handlung eingebaut. In einer Opera seria würde man das niemals tun. 21 Wer wirklich auf sich hält, leidet, und trägt einen dicken Klavierauszug spazieren, kein kleines gelbes Reclam-Libretto. Allerdings sollte man dann auch damit umgehen können. Nichts ist peinlicher als falsches Blättern im Klavierauszug. Musikstudenten haben in Oratorienkonzerten oder bei konzertanten Aufführungen, wo es hell genug zum Lesen ist, oft Klavierauszüge dabei und lesen mit. 18231_Juengst_SL4�indd 75 18231_Juengst_SL4�indd 75 19�08�2020 12: 38: 47 19�08�2020 12: 38: 47 76 2 Interlinguale Untertitelung Für Opernuntertitelungen auf DVD gelten andere Richtlinien als für die Untertitelung von gesprochenem Dialog. So heißt es in den Richtlinien der Firma digim - Digital Images für Opernuntertitelung (von 2010): UT solange stehen lassen, bis der Satz gesungen wurde (kann auch 15-17 Sek. stehen gelassen werden, länger nur in Ausnahmefällen). Ruhiger Rhythmus, reimende Zeilen können zusammenstehen. Bei Wiederholungen von Strophen und Zeilen keinen neuen UT (es sei denn, das erste Auftreten der Strophe / Zeile liegt weit zurück). Mal kurz nachdenken … Warum gelten diese Regeln nicht allgemein und werden immer wieder abgeändert? Diese Regeln werden nicht von jedem Zuschauer als angenehm empfunden. So kann es passieren, dass man den Untertitel wieder und wieder liest, wenn er lange stehen bleibt, und sich nicht mehr auf die Musik konzentriert. Opernverfilmungen haben ebenso Schnitte wie andere Filme, und auch hier sollten Untertitel möglichst nicht über einen Schnitt stehen. Auch die Abwesenheit von Untertiteln bei Wiederholungen kann für Verwirrung sorgen. Manche Zuschauer fürchten in diesem Fall, die Untertitel seien ausgefallen. Hier muss man für einen Kompromiss sorgen. Bei Opern bietet man normalerweise keine Überbrückungsuntertitel für Wiederholungen an, aber das wäre eine Möglichkeit. Außerdem kennen viele Musikliebhaber die in Noten üblichen Wiederholungszeichen |: zwischen denen zu wiederholende Phrasen stehen : | Virkkunen (2004) schildert unterschiedliche Möglichkeiten der Untertitelungspraxis abhängig davon, ob die Struktur des Ausgangstextes, die Inszenierung oder das ursprüngliche Libretto im Fokus stehen. Sie weist darauf hin, dass ein größerer Umfang an Untertiteln die Aufmerksamkeit des Zuschauers auch von dem künstlerischen Ereignis wegzieht, um das es eigentlich geht: die Opernaufführung (Virkkunen 2004: 93). The use of repetition in surtitles clarifies the difference between symbolic modes: if the phrase ‚I love you‘ is repeated in written form five to six times, it loses its uniqueness; it is not supported and varied by the singer’s expression and the emotionality of the music since the title cannot be interpreted synchronously with the verbal-musical text. (Virkkunen 2004: 95) Even if s/ he wants to choose the seemingly easy ‚verbal-into-verbal‘ translation method and concentrate on the libretto, s/ he has to alter the verbal text in the case of props, for example, if they have been changed or removed. And, most significantly, s/ he has to time the surtitles according to the tempo and rhythm of the performance. This means reducing the number of words and rewriting the libretto … A surtitled opera performance cannot equal a karaoke tape, in which each sung word is written in the subtitles. (Virkkunen 2004: 95) Es ist letztendlich also die Aufführung, die die Gestaltung der Übertitel im Theater bestimmt. In gewissem Umfang gilt das auch für die Untertitel auf DVDs. 18231_Juengst_SL4�indd 76 18231_Juengst_SL4�indd 76 19�08�2020 12: 38: 47 19�08�2020 12: 38: 47 77 2.6 Musik und Untertitelung 2.6.2 Mehrstimmiger Gesang Es sind meist Opern, in denen nicht nur mehrstimmig gesungen wird, sondern in denen die einzelnen Stimmen unterschiedliche Texte haben, gern auch zeitlich gegeneinander versetzt. Das kann man als Zuhörer auf keinen Fall auseinanderhalten. Man versteht Textstellen höchstens dann, wenn einer der Sänger während des Stücks solistisch hervortritt. Untertitel sind nun aber dazu da, dass man den Text versteht. Bei DVD-Untertiteln bietet sich eine größere Variationsbreite an Lösungen an als bei Theater-Übertiteln. Probieren Sie aus, was Ihnen dazu einfällt, zum Beispiel an II. Akt, 1. Bild aus Peter Grimes von Benjamin Britten. Sie hören eine Solistin im Vordergrund und einen Kirchenchor im Hintergrund. Leider müssen Sie sich den Text selbst besorgen - die Abdruckrechte sind heikel, der Klavierauszug ist nicht billig 22 . Libretti haben den Klavierauszügen gegenüber den Vorteil, dass der Text übersichtlich in Zeilen angeordnet ist und einen besseren ersten Überblick ermöglicht (Desblache 2009: 75). Klavierauszüge haben den Vorteil, dass man sieht, welche Textstellen genau parallel zueinander laufen. Zur folgenden Aufgabe stehen die Texte weiter unten; ein Klavierauszug Deutsch / Italienisch erleichtert aber die Arbeit. Nehmen Sie sich den II. Akt, 2. Szene, Nr. 15 (unten ein Ausschnitt) aus Mozarts Don Giovanni vor, bei dem die drei Sänger parallel unterschiedliche Texte singen. Es handelt sich um das Terzett Don Giovanni, Leporello, Donna Elvira, wobei Leporello sich als Don Giovanni verkleidet hat und Donna Elvira irreführen soll. Hören Sie sich die Musik erst an, wenn Sie Entscheidungen über den Text getroffen haben. Passen die Entscheidungen auch zur Musik? DONNA ELVIRA DON GIOVANNI LEPORELLO Dei, che cimento è questo Spero che cada presto Già quel mendace labbro Gott schenke jetzt mir Gnade Dank dir, o Serenade Sie glaubt der Maskerade Non so s’io vado, o resto; ah, proteggeto voi la mia credulità. Che bel colpetto è questo più fertile talento del mio, no, non si dà Torna sedur costei deh proteggete oh Dei la sua credulità. Er lenke meine Pfade; wie rührt mich, ach, sein Flehen; kaum kann ich widerstehn Hilf du nun, Maskerade dass ich es recht verstehe das muss ein jeder sehn Nun schenke Gott ihr Gnade schützt er sie nicht vor dem Unheil dann ist’s um sie geschehn Tabelle 4 : Don Giovanni II.2, no. 15. Text nach Klavierauszug Edition Peters (o. J.) 22 Zurzeit bekommt man das Textbuch für 14€, den Klavierauszug für 116€. 18231_Juengst_SL4�indd 77 18231_Juengst_SL4�indd 77 19�08�2020 12: 38: 47 19�08�2020 12: 38: 47 78 2 Interlinguale Untertitelung II. Akt, 14. Szene. Das Problem hier ist etwas anders gelagert: Hier setzen die Stimmen gegeneinander versetzt ein und die Texte werden wiederholt. DONNA ELVIRA LEPORELLO DON GIOVANNI Restati, barbaro, Nel lezzo immondo. Esempio orribile d’iniquità. Se non si muove Del suo dolore, Di sasso ha il core, O cor non ha ! Vivan le femmine, Viva il buon vino, Sostegno e gloria D’ummanità ! Nun so versinke denn im Pfuhl der Hölle die ew’ge Mahnung an Gottes Gericht Wenn ihre Klagen ihn nicht mehr rühren dann ist sein Herz so hart wie Stein. Mädchen und Rebenwein würzen das Leben Sie sind das Herrlichste auf dieser Welt. Tabelle 5: Don Giovanni II.14. Text aus Klavierauszug Edition Peters (o. J.) Klavierauszüge und Libretti sind also eine sinnvolle Hilfe bei der Untertitelung, wobei, wie oben erwähnt, die Kürzungen der jeweiligen Inszenierung beachtet werden müssen. Bei interlingualen Opernuntertitelungen kommt jedoch noch ein Problem hinzu: Viele bekannte Opern haben eine deutsche Standardübersetzung. Ähnlich wie sich die Schlegel-Tieck-Übersetzung von Shakespeare durch Zitate und geflügelte Worte im Bewusstsein der Sprachgemeinschaft eingebürgert hat (vgl. dazu Herbst 1994), sind bestimmte Phrasen aus Opern Allgemeingut geworden. 23 Mal kurz nachdenken … Zu welchen Problemen kann das wiederum bei der interlingualen Untertitelung führen? Hier ergibt sich ein Konflikt, der vermutlich zu der Abneigung des operngewohnten Publikums Untertiteln gegenüber beiträgt. Wer in seinem Leben schon oft die deutschen Standardfassungen gehört hat, kann sie auswendig. Ein gutes Beispiel ist das Duett Don Giovanni - Zerbinetta aus dem ersten Akt der Oper Don Giovanni . Der italienische Originaltext beginnt mit dem Satz „La ci darem la mano“. Im Untertitel würde man sagen: „Gib mir deine Hand.“ Der Opernfreund kennt diese Textstelle jedoch als „Reich mir die Hand, mein Leben“. Und so kann es kommen, dass ein eigentlich guter Untertitel von einem erbitterten Publikum als „falsch“ und „ungebildet“ wahrgenommen wird. 23 Man denke nur an „Wie eiskalt ist dies Händchen“ aus Puccinis La Bohème . In einigen deutschen Fassungen der Addams Family ist sogar die selbständig agierende Hand, „das eiskalte Händchen“ (im Original „Thing“), danach benannt. 18231_Juengst_SL4�indd 78 18231_Juengst_SL4�indd 78 19�08�2020 12: 38: 47 19�08�2020 12: 38: 47 79 2.6 Musik und Untertitelung Mal kurz nachdenken … Wie ist der Übersetzer denn auf so eine Idee gekommen? Nicht jeder Untertitler ist ein Opernliebhaber. Außerdem ist die Übersetzung im Untertitel gut und inhaltlich vollständig - vielleicht war der Untertitler doch ein Opernliebhaber, der für die Untertitelung bewusst diese Entscheidung getroffen hat. Die oben erwähnte Problematik der Opernübersetzung: Sanglichkeit, Silbenzahl, Rhythmus ‒ all das muss bei der Opernübersetzung berücksichtigt werden, aber nicht unbedingt bei der Untertitelung. Man muss hier bei den Übersetzungen abwägen, was wichtig ist. Mal kurz nachdenken … Wie kann man alle Zuschauer halbwegs glücklich machen? Oft bietet sich bei der Opernuntertitelung ein Kompromiss an: Die ganz bekannten Zitate werden aus der übersetzten Bühnenfassung übernommen; die weniger bekannten werden untertitelgerecht neu geschrieben. 2.6.3 Musicals und Songs im Film Die besondere Problematik von Songs bzw. Liedern im Film wird ausführlicher im Kapitel zur Synchronisation angesprochen. In Deutschland werden Songs heutzutage meist nur untertitelt, wenn der Kunde das wünscht; der Untertitler kann allerdings vorschlagen, Untertitel hinzuzufügen (Nagel 2009: 96). Man kann dabei vage Regeln erkennen: Je wichtiger der Songtext für das Handlungsverständnis ist, desto eher wird er dem Publikum in irgendeiner Form in der Zielsprache angeboten. Bei Musicals ist die Untertitelung der Songs selbstverständlich, da sie wichtige Handlungselemente darstellen. Bei anderen Filmen wird je nach Situation entschieden, ob der Songtext wichtig genug für eine Untertitelung ist: Weiterhin werden Songtexte z. T. übersetzt, wenn sie essenziell für das Verständnis sind. So wurden bspw. im Film Public Enemies in einer Anfangsszene die ersten Verse eines Liedes untertitelt, da am Ende des Films noch einmal darauf eingegangen wird und sie so zum Rahmen der Handlung gehören. (Leisnering 2014: 225). Mal kurz nachdenken … Warum macht man das nicht einfach immer? Leisnering schildert eine Reihe von Situationen, in denen Songs in Filmen eingesetzt werden, und stellt fest, dass eine Untertitelung nicht in jedem Fall sinnvoll ist. Wenn Songs als Hintergrundmusik, zumal überlagert von Dialogen, dienen, ist eine Untertitelung nicht üblich. So würde die Bedeutung des Songs übertrieben. Noch ein schönes Zitat zum Abschluss: Ivarsson / Carroll fordern: „It should be possible to sing a translation of a song to the music and the rhythm is therefore more important 18231_Juengst_SL4�indd 79 18231_Juengst_SL4�indd 79 19�08�2020 12: 38: 48 19�08�2020 12: 38: 48 80 2 Interlinguale Untertitelung than the rhymes.“ (Ivarsson / Carroll 1998: 122). Das spricht nun wiederum für eine Opernuntertitelung genau nach Libretto. 2.7 Forschung und weiterführende Literatur Der ganz große Boom der Forschung zu interlingualen Untertiteln war in den 2000ern. Auf den ersten Tagungen zur AV-Übersetzung ging es in den meisten Vorträgen um Untertitelung. Das hat sich geändert; das Feld wirkt ein wenig abgegrast und die Forscher haben sich saftigeren Weiden zugewandt. Das heißt aber nicht, dass sämtliche Forschungsfragen beantwortet wären. Fragestellungen, die mit Kulturspezifika zu tun haben oder mit sprachspezifischen Anforderungen, sind immer noch beliebt. Interessant sind auch Rezeptionsstudien und die Frage, wie weit man Erkenntisse aus der sehr lebendigen Forschung zur intralingualen Untertitelung auf die interlinguale Untertitelung übertragen kann. Eine herausragende und aktuelle Arbeit zur Untertitelungsforschung mit einer Vielzahl von Aspekten ist Künzli 2017. Auch seine Aufstellung von Forschungsfragen, gegliedert nach der Lasswell-Formel, bietet Anregungen (Künzli 2017: 19). Díaz Cintas / Remael 2007 ist nach wie vor die ausführlichste Einführung in die Didaktik der Untertitelung. Díaz Cintas 2004 zeigt, wie schwer es für die Pioniere der AV-Forschung war, Anerkennung in der Welt der Wissenschaft zu erlangen. Capitani (2016) befasst sich mit den Anforderungen an professionelle Untertitler. Mevel (2014) befasst sich mit der Frage, wie man Sprachvarianten interlingual untertiteln kann. Ganz aktuell ist der Aufsatz von Pedersen zu der Frage, welche Normen bei Streamingdiensten verwendet werden (2018). Schließlich soll die Problematik nicht verschwiegen werden, die durch die Kombination aus vorgelesenen Untertiteln und Audiodeskription entsteht (zum Audio Subtitling siehe Benecke 2012). 2.8 Anhang: Richtlinien Es war schon mehrfach von Richtlinien für die Untertitelung die Rede. Bei Rundfunkanstalten handelt es sich fast immer um Richtlinien zur Untertitelung für Hörgeschädigte. Diese finden Sie entsprechend im Anhang zu Kapitel 7. Untertitelungsfirmen haben Richtlinien für die interlinguale Untertitelung. Auch Forscher und Berufsverbände beschäftigen sich mit diesem Thema und entwerfen Richtlinien. Existierende Richtlinien sind nicht in Stein gemeißelt. Neue wissenschaftliche Erkenntnisse und veränderte Sehgewohnheiten des Publikums haben einen Einfluss auf die Gestaltung von Richtlinien. Die ESIST (European Association for Studies in Screen Translation) hat einen Kodex für ihre Mitglieder aufgestellt, den „Code of Good Subtitling Practice“. Diese Richtlinien gehören zu den bekanntesten überhaupt. Im ESIST-Code wird nicht zwischen interlingualer und intralingualer Untertitelung unterschieden. 18231_Juengst_SL4�indd 80 18231_Juengst_SL4�indd 80 19�08�2020 12: 38: 48 19�08�2020 12: 38: 48 81 2.8 Anhang: Richtlinien 1. Subtitlers must always work with a (video, DVD, etc.) copy of the production and, if possible, a copy of the dialogue list. 2. It is the subtitler’s job to spot the production and translate and write the subtitles in the (foreign) language reputed. 3. Translation quality must be high with due consideration of all idiomatic and cultural nuances. 4. Straightforward semantic units must be used. 5. Where compression of dialogue is necessary, the result must be coherent. 6. Subtitle text must be distributed from line to line and page to page in sense blocks and/ or grammatical units. 7. As far as possible, each subtitle must be semantically self-contained. 8. The language register must be appropriate and correspond with the spoken word. 9. The language should be (grammatically) ‘correct’ since subtitles serve as a model for literacy. 10. All important written information in the images (signs, notices, etc.) should be translated and incorporated wherever possible. 11. Given the fact that many television viewers are hearing-impaired, ‘superfluous’ information, such as names, interjections from the off, etc., should also be subtitled. 12. Songs might be subtitled where relevant. 13. Obvious repetition of names and common comprehensible phrases need not always be subtitled. 14. The inand out-time of subtitles must follow the speech rhythm of the film dialogue, taking cuts and sound bridges into consideration. 15. Language distribution within and over subtitles must consider cuts and sound bridges; the subtitles must underline surprise or suspense and in no way undermine it. 16. The duration of all subtitles within a production must adhere to a regular viewer reading rhythm. 17. Spotting must reflect the rhythm of the film. 18. No subtitle should appear for less than one second or, with the exception of songs, stay on the screen for longer than seven seconds. 19. The number of lines in any subtitle must be limited to two. 20. Wherever two lines of unequal length are used, the upper line should preferably be shorter to keep as much of the image free as possible and in left-justified subtitles in order to reduce unnecessary eye movement. 21. There must be a close correlation between film dialogue and subtitle content; source language and target language should be synchronised as far as possible. 22. There must be a close correlation between film dialogue and the presence of subtitles. 23. Each production should be edited by a reviser / editor. 24. The (main) subtitler should be acknowledged at the end of the film (or if the credits are at the beginning, then close to the credit for the script writer). 25. The year of subtitle production and the copyright for the version should be displayed at the end of the film. 18231_Juengst_SL4�indd 81 18231_Juengst_SL4�indd 81 19�08�2020 12: 38: 48 19�08�2020 12: 38: 48 82 2 Interlinguale Untertitelung TECHNICAL ASPECTS 1. Subtitles should be highly legible with clear lettering and a font which is easy to read. The characters should have sharp contours and be stable on the screen. 2. The position of subtitles should be consistent, e.g. centred for film applications; left-justified or centred for TV and video applications²; two-person dialogue in one subtitle should be indicated by a dash at the beginning of each line. 1. In video applications, character clarity can be enhanced by a drop shadow or semitransparent or black box behind the subtitles. 2. In laser subtitling, sharp contours and removal of residual emulsion can be achieved by precise alignment of laser beam focus and accurate adjustment of power output. 3. In laser subtitling, the base line must be set accurately for the projection format of the film. 4. The number of characters per line must be compatible with the subtitling system and visible on any screen. Due to the different viewer reading times and the different length of lines for TV/ video and film subtitles, TV/ video subtitles should be adapted for film application and vice versa. ( January, 1998) (www.esist.org/ Code.pdf) Mit freundlicher Genehmigung von Jan Ivarsson und Mary Carroll, die den Code in seiner ursprünglichen Form erstellt haben (Ivarsson / Carroll 1998). Ordnen Sie diese Richtlinien den einzelnen Aspekten des Untertitelns zu. Welche könnte man auch für andere Formen der audiovisuellen Übersetzung übernehmen? Bei einer solchen Liste ergeben sich Überschneidungen mit einem generellen berufsethischen Kodex für Übersetzer (wie z. B. beim BDÜ, dem Bundesverband der Dolmetscher und Übersetzer). 18231_Juengst_SL4�indd 82 18231_Juengst_SL4�indd 82 19�08�2020 12: 38: 48 19�08�2020 12: 38: 48 3 Synchronisation 3.1 Definition Unter Synchronisation versteht man, dass die gesamte ausgangssprachliche Dialogspur (auch Dialogtonspur) durch eine zielsprachliche Dialogspur ersetzt wird. Es bleiben keinerlei Geräuschreste von der ausgangssprachlichen Dialogspur erhalten. Der Zuschauer kann sich so der Illusion hingeben, die Schauspieler wirklich sprechen zu hören. Die Definition in der Encyclopedia of Translation Studies findet man unter lip-synchronized dubbing, um diese Form der audiovisuellen Übersetzung vom Voice-over abzusetzen; Pérez González zitiert die allgemein anerkannte Definition von Luyken: In the field of audiovisual translation, dubbing denotes the re-recording of the original voice track in the target language using dubbing actors’ voices; the dubbed dialogue aims to recreate the dynamics of the original, particularly in terms of delivery pace and lip movements (Luyken et al. 1991) (Pérez González 2011 [2009]: 17) Pérez González geht im weiteren Verlauf der Definition auf den Synchronisationsprozess und die Vor- und Nachteile des Verfahrens ein. Im Handbuch Translation findet sich zwar ein Eintrag zum Thema Synchronisation, aber keine Definition des Verfahrens. Vielmehr handelt es sich um eine recht bittere Abrechnung mit der Situation der Übersetzer in der Synchronisationsindustrie (Manhart 1999 [2006]: 264-266). Es gibt einen kulturbedingten fließenden Übergang der Definition von Synchronisation, Voice-over und Filmdolmetschen. Dieses Phänomen wird im Unterkapitel zu Sonderfällen der Synchronisation angesprochen sowie bei der Definition des Voice-over-Verfahrens. Im Unterkapitel zum Arbeitsablauf wird erläutert, wie die typische Arbeitsverteilung bei der Synchronisation aussieht. Diese ist für Übersetzer ziemlich enttäuschend und macht Manharts Einlassungen verständlich. Forschungsfragen gibt es jedoch zu allen Aspekten der Filmsynchronisation. So haben auch Übungen zu Teilaspekten der Synchronisation, an denen man als Übersetzer nie beteiligt sein wird, ihren Sinn. Sie tragen dazu bei, dass man die Abläufe und Restriktionen bei diesem Verfahren erkennt und versteht und sich eine fundierte Meinung bilden kann. Im Gegensatz zu allen anderen Verfahren der AV-Übersetzung, mit Ausnahme des Filmdolmetschens, gibt es zum Thema Synchronisation eine große Menge an Anekdoten und Einblicke in den Ablauf der Synchronaufnahmen. Viele DVDs bieten Bonus-Tracks an, in denen man die Synchronsprecher im Studio sehen kann. Leider gibt es bisher keine Bonus-Tracks, bei denen man die Übersetzer beim Spotten und Splitten bzw. bei der Übersetzung eines Synchronbuches schwitzen sieht. 18231_Juengst_SL4�indd 83 18231_Juengst_SL4�indd 83 19�08�2020 12: 38: 48 19�08�2020 12: 38: 48 84 3 Synchronisation 3.2 Geschichte Deutschland ist ein Synchronisationsland, d. h. Filme und TV-Serien werden, wie in den anderen deutschsprachigen Ländern, in der Regel synchronisiert. Noch in den 1990ern war es in Deutschland schwierig, an untertitelte Filme heranzukommen; fremdsprachige Videokassetten „bestellte“ man bei Freunden im Ausland. Nur Programmkinos oder Filmfestivals boten den Zuschauern OmUs, also den Film im „Original mit Untertiteln“. „Nur die hartgesottensten Enthusiasten genießen Filme in Sprachen, von denen sie kein Wort verstehen.“, wie Metz und Seeßlen zu Recht bemerken (Metz / Seeßlen 2009). Und Pruys merkt an: „Schlecht gemachte lippensynchrone Fassungen dürfen nicht als Argument für Untertitel gelten.“ Und: Eine nachlässige Synchronisation, bei der nicht lippensynchron gesprochen wird, die Dialoge unverständlich bleiben, hölzern klingen oder die Untertitel unangemessen erscheinen, kann zwar von jedem Zuschauer direkt wahrgenommen werden. Ohne genaue Kenntnis der Ursprungsfassung bzw. der Ausgangssprache bleibt aber die Unsicherheit, ob die Originaldialoge nicht noch unverständlicher oder hölzerner sind. (Pruys 2009 [1997]: 20 und 11) Das heißt nicht, dass Kritik am Synchronisationsverfahren eine völlig neue Erscheinung ist. Auch als die ersten synchronisierten Filme auf die Leinwand kamen, waren viele Zuschauer alles andere als begeistert: Die Schauspieler mit fremden, ,eingeschmuggelten‘ Stimmen sprechen zu lassen, kollidierte mit den tradierten Seh- und Hörgewohnheiten. Die zeitgenössische Kritik beschrieb die Synchronisation als ‚Hexerei‘, ‚Homunculus‘, als ‚Amputation‘, bei der auf den ‚blutigen Stumpf ‘ eine ,künstliche Stimm-Prothese‘ aufgeschraubt würde. (Bräutigam 2017) Näheres dazu, warum ein Land zu einem Synchronisationsland wird, steht in Kapitel 1.4. Auf dem Weg zum Synchronisationsland wurden ab der Entstehung des Tonfilms verschiedene Wege gegangen. Zunächst waren weder Synchronisation noch Untertitelung dem stummfilmgewohnten Publikum zu vermitteln: Man hat auch eine Synchronisation versucht, die war aber technisch so unzulänglich und das wurde auch überhaupt nicht akzeptiert. Man muss sich ja vorstellen: Es war schon ein Schock, seinen Stummfilmstar plötzlich mit Stimme zu hören. Das lag, wie immer kolportiert wird, nicht zuletzt wegen Singinʼ in the Rain , weniger daran, dass die Stummfilmstars keine vernünftigen Stimmen hatten. Die hatten zum Teil halt andere Stimmen als man erwartete. Die Stummfilmstars waren irgendwie von der Realität entrückt, und jetzt wurden sie plötzlich ganz konkret mit ihrer Stimme. Ich glaube, das war es, was die Leute gewaltig irritiert hat. (Drößler in Metz/ Seeßlen 2009). Neben Synchronisation und Untertitelung gibt es die Möglichkeit, einen Film gleich in mehreren Sprachfassungen zu drehen (die so genannte Version, Bräutigam 2009: 12, Wahl 2003, Berry 2018). Das Verfahren wird heute zwar nicht mehr eingesetzt, macht als Laienprojekt aber Spaß. Bei der Version wird nicht die gleiche Bildspur mit unterschiedlichen Tonspuren kombiniert, sondern es gibt für jede Sprachversion auch eine neue Bildspur. Das heißt, der Film wird mehrmals gedreht. 18231_Juengst_SL4�indd 84 18231_Juengst_SL4�indd 84 19�08�2020 12: 38: 48 19�08�2020 12: 38: 48 85 3.2 Geschichte Mal kurz nachdenken … Ist es dann noch derselbe Film? Selbst der beste Schauspieler kann eine Rolle nicht ganz exakt noch einmal spielen, so dass sich die Versionen unterscheiden, eben wirklich Versionen eines Ausgangsfilms sind. Zusätzlich gab es Versionen, bei denen andere Schauspieler eingesetzt wurden, nämlich Muttersprachler der betreffenden Versionssprache (ausführliche Analysen zu einer Reihe von Filmen in Berry 2018). In Deutschland wurden Filme für den Export als Versionen gedreht, bis sich etwa 1932 die Synchronisation durchsetzte (Pahlke 2009: 28, Wahl 2003: 31). Versionen wurden aber auch für den deutschen Markt produziert (siehe unten). Für uns klingt das Verfahren heute wie ein höchst absurdes Unternehmen. 1930/ 31 wurden aber mehr als ein Drittel von 137 deutschen Tonfilmen in Versionen in mehreren Sprachen produziert (Kreimeier 1992: 231, zitiert nach Bräutigam 2009: 12; eine Statistik findet sich in Wahl 2003: 20-22, wo auch Filme in unterschiedlichen Versionen diskutiert werden). Versionen konnten in allen Sprachen durchgehend mit denselben Schauspielern besetzt werden; oft setzte man jedoch für die unterschiedlichen Sprachversionen beliebte Schauspieler aus dem jeweiligen Zielland ein: Allerdings markierte dies gleichzeitig den größten Schwachpunkt der Filme, denn für 5 verschiedene Sprachversionen von einem Film mussten auch 5 komplette Schauspielerensembles bezahlt werden, ganz zu schweigen von dem benötigten Filmmaterial, den Mieten usw. Dieses extrem hohe Maß an Aufwand wird allgemein als der Hauptgrund für die Aufgabe der Versionenproduktion angesehen. (Wahl 2003: 19) Der Hauptgrund für das Drehen von Versionen, nämlich durch eine Verteilung des Films in unterschiedlichen Sprachräumen finanziellen Gewinn zu machen, wurde also nicht erreicht. Als Variante der Version kann man das noch heute übliche Hollywood Remake definieren, bei dem in anderen Ländern erfolgreiche Filme mit beliebten US-Schauspielern neu gedreht werden. Auch Namensänderungen bei den Rollen, Kürzungen und inhaltliche Veränderungen waren bei Versionen üblich. Die Filme konnten sich also deutlich unterscheiden, während bei untertitelten und synchronisierten Filmen die Bildspur zumindest theoretisch identisch mit dem Original ist (vgl. Wahl 2003: 16 und Berry 2018 passim). Bekannt bei Fans sind die Laurel and Hardy ( Dick und Doof )-Filme in deutscher Sprache, bei denen die beiden Stars auch in der deutschen Version auftreten und sprechen. Ein schönes Beispiel dafür ist die DVD Dick und Doof sprechen deutsch - Spuk um Mitternacht . Beide konnten allerdings gar kein Deutsch. Gerade das macht die Filme heute so beliebt bei Fans; bei der Produktion sah man das anders: Ein Problem konnte nun bei Filmen entstehen, deren Hauptdarsteller nicht zu ersetzen waren, aber keine einzige Fremdsprache beherrschten. Dies trifft beispielsweise auf die international beliebten Komiker Laurel und Hardy zu. Mit ihnen wurden ‚phonetische Versionen‘ erstellt, in denen sie die Sätze nur ihrem Dialoglehrer nachsprachen, ohne etwas zu verstehen. (Wahl 2003: 20) 18231_Juengst_SL4�indd 85 18231_Juengst_SL4�indd 85 19�08�2020 12: 38: 48 19�08�2020 12: 38: 48 86 3 Synchronisation Nehmen Sie sich einen kurzen Sketch vor und übersetzen Sie ihn in Ihre Arbeitssprachen. Es genügt einer der typischen Schultheater-Sketche von drei Minuten Dauer. Spielen Sie ihn mit demselben Team in allen Sprachvarianten durch und filmen Sie das Ergebnis. Was passiert? Wo hat es überall Veränderungen gegeben? Haben Sie Anpassungen vorgenommen? Schreiben Sie nun eine phonetische Fassung in einer Sprache, die Sie beherrschen, aber andere Teammitglieder nicht. Und drehen Sie gleich noch eine Version. Die Synchronisation kommt den meisten Quellen zufolge ursprünglich aus den USA, breitete sich ab 1932 in Europa aus und verdrängte die Version vollständig (vgl. Bräutigam 2009: 12). Allerdings wurde All Quiet on the Western Front ( Im Westen nichts Neues, USA 1930) bereits 1930 in einer deutschen Synchronfassung in Berlin aufgeführt (Bräutigam 2009: 11) und für 1929 existieren Belege für eine deutsche Synchronfassung des amerikanischen Filmes Broadway (Pahlke 2009: 27). Die Argumente gegen die Synchronisation, die in den Feuilletons der damaligen Zeit vorgebracht wurden, sind genau die, die man auch heute hört (Beispiele in Bräutigam 2009: 13-14). Allerdings wird heute niemand mehr sagen, wer die deutsche Sprache im Kino hören will, solle sich eben deutsche Filme ansehen. Die Synchronisation setzte sich dann, wie oben erwähnt, in den 1940er Jahren unter dem totalitären Nazi-Regime durch. Noch bis 1940 waren Hollywood-Filme in synchronisierter Form in Deutschland ausgesprochen erfolgreich (Bräutigam 2009: 15). Ab 1940 gab es dann jedoch ein Einfuhrverbot für amerikanische Filme (Pahlke 2009: 28, Bräutigam 2009: 15). Die Synchronisationsindustrie blieb nicht unbeschäftigt: „Die Synchron-Branche stellte stattdessen fremdsprachige Fassungen deutscher Propagandafilme für die besetzten Länder her.“ (Bräutigam 2009: 16) Der Aufholbedarf nach dem Zweiten Weltkrieg war enorm. Eine gewaltige Synchronisationsindustrie entwickelte sich (vgl. Nagel 2009: 29 und Pahlke 2009: 28). Teilweise lag dies auch daran, dass die USA ein großes Interesse daran hatten, dass sich in Deutschland keine Konkurrenzindustrie zur amerikanischen Filmproduktion entwickelte. So öffneten zwar die ersten Kinos 1945 wieder ihre Pforten, die ersten Genehmigungen für deutsche Filmproduktionen wurden in den westlichen Besatzungszonen jedoch erst 1947 vergeben (Kolloquium 2004). Teilweise war die Motivation der Alliierten, Filme zu zeigen und zwar so, dass das Publikum sie verstand und auch anschaute, pädagogisch orientiert - die Deutschen sollten schließlich umerzogen werden (vgl. Bräutigam 2017). Und auch zu jener Zeit stand nicht jeder der Synchronisation uneingeschränkt wohlwollend gegenüber. „‚Synchronisation ist die Rache der Deutschen an den Alliierten‛ lautete ein brancheninterner Spruch.“ (Bräutigam 2009: 16). Man muss aber auch die gesellschaftlichen Bedingungen in Betracht ziehen, wenn man sich kritisch über die Geschichte der Synchronisation äußert: In den Anfängen des Tonfilms waren nicht nur Fremdsprachenkenntnisse weniger verbreitet als heute, sondern auch die Zahl der Analphabeten war höher. Untertitel zu lesen kam also nicht für alle in Frage. Für diese Zielgruppe war die Synchronisation eine wunderbare Erfindung. Wer die Diskussion zum Bildungsnutzen von Untertiteln 18231_Juengst_SL4�indd 86 18231_Juengst_SL4�indd 86 19�08�2020 12: 38: 49 19�08�2020 12: 38: 49 87 3.3 Arbeitsablauf verfolgt, wird sehr schnell feststellen, dass es dort immer nur um die Verbesserung von Englischkenntnissen geht (siehe dazu das Kapitel zur Interlingualen Untertitelung). Andere Sprachen interessieren in dieser Diskussion nicht. Und wir als Sprachkundige und Fremdsprachenliebhaber sollten Verständnis dafür haben, dass nicht jeder einen Film im Original mit Untertiteln wirklich genießt, sondern darunter leidet, dass seine Aufmerksamkeit hin und her gerissen wird. Wie Bräutigam sagt: Der intellektuelle Cineast, der wohl Dostojewskij oder García Marquez in der Übersetzung liest, ohne damit Probleme zu haben, ignoriert die ‚Übersetzung‘ von Filmen, weil er diese als Verfälschung und Verrat am Original missachtet. (Bräutigam 2009: 8) 17. Hat er damit völlig Recht? Oder gibt es nicht doch einen Unterschied bei der Rezeption von fremdsprachigen Filmen und fremdsprachigen Büchern? Mit der Geschichte der Synchronisation, an ein breiteres Publium gerichtet, befassen sich Bräutigam (2017) und Metz / Seeßlen (2009). 3.3 Arbeitsablauf Der Arbeitsablauf bei der Synchronisation und der Teil der Arbeit, den der Übersetzer tatsächlich verrichtet, unterscheiden sich von Auftraggeber zu Auftraggeber eher wenig. Meist betrifft es nur die Zahl der beteiligten Personen. Die in der Encyclopedia of Translation Studies geschilderte Arbeitsteilung kann variieren, was aber nur in einem engen Rahmen geschieht. Da das Thema zentral für das Kapitel ist, wird hier ausführlich zitiert: The translation of a source language dialogue list is one of the earliest stages in the dubbing process. Although access to a working copy of the film is crucial for translators to verify non-visual information and make appropriate decisions on aspects such as register or pragmatic intention, this is not always made available to them (Hensel 1987). The translators’ participation in the dubbing process often ends with the production of a dialogue list in the target language; in practice, translators do not concern themselves with lip movements as they usually lack experience in dialogue adaptation and adjustment techniques (Luyken et al. 1991). A ‚dubbing writer‘ who is adept at lip reading (Myers 1973) but not always familiar with the source language takes over at this point to ‚detect‘ the text. This involves identifying those sounds delivered by screen actors and marking their presence on the relevant frame of the film strip (Paquin 2001). Once the adaptation is ready, the film dialogue is divided into passages of dialogue, called ‚loops‘ (Myers 1973) or ‚takes‘ (Whitman-Linsen 1992), whose length depends on the country where the dubbed version is produced. These takes become the working units during the revoicing of the dialogue track, which is carried out under the supervision of a dubbing director and a sound engineer. The involvement of so many professionals in the dubbing process explains why this form of audiovisual translation is up to fifteen times more expensive than subtitling (Luyken et al. 1991). The actual translation and adaptation of the dialogue amounts to only 10 per cent 18231_Juengst_SL4�indd 87 18231_Juengst_SL4�indd 87 19�08�2020 12: 38: 49 19�08�2020 12: 38: 49 88 3 Synchronisation of the overall cost (Dries 1995), although this depends on the genre - with action and humour films being the cheapest and most expensive, respectively (Muntefering 2002). (Pérez González 2009: 17) Heute spricht man nicht mehr von Loops, die tatsächlich aus zu Ringen geklebten Filmstreifen bestanden und so Wiederholungen vereinfachten, sondern nur noch von Takes. 24 Verallgemeinernd kann man sagen, dass der Übersetzer nur in sehr kleinen Firmen wirklich Einfluss auf das endgültige Synchronbuch hat. Nur dort werden Übersetzer in jeder Phase des Übersetzungs- und Bearbeitungsprozesses eingebunden. In größeren Firmen haben sich die oben geschilderten Strukturen herausgebildet, in denen professionell ausgebildete Übersetzer mehr oder minder ausgegrenzt sind. Eine Wandlung der Arbeitsteilung zeigt sich in manchen Firmen, ist aber noch immer nicht allgemein üblich. Hier wird daher der bisher übliche Arbeitsablauf dargestellt. Das Handbuch Synchronisation (Pahlke 2009), das die Tätigkeitsfelder der Branche umreißt, verschweigt die Existenz von Übersetzern weitestgehend und ermutigt kein einziges Mal professionell ausgebildete Übersetzer, im Tätigkeitsfeld Synchronisation tätig zu werden. Zu Recht weist Herbst darauf hin, dass das Verfahren der Rohübersetzung (ausführlicher weiter unten) für kompetente Übersetzer frustrierend ist. Diese Meinung teilen auch die Firmen. Matthias Müntefering von der Deutschen Synchro äußerte Seifferth gegenüber im Interview, Diplom-Übersetzer seien „mit Recht zu teuer für das Durchgangsprodukt Rohübersetzung.“ (Seifferth 2009: 9) Außerdem sind die dafür zur Verfügung gestellten Unterlagen so spärlich, dass es bei der Rohübersetzung schnell zu Fehlern kommen kann (Herbst 1994: 199). Für die Abwesenheit von „normalen“ Übersetzern im Synchronprozess werden manchmal historische Gründe bemüht: In den 1950er Jahren wurden die deutschsprachigen Dialogbücher bei einigen erfolgreichen Filmen von herausragenden und bekannten Autoren verfasst. So stammt die deutsche Fassung von All About Eve ( Alles über Eva , USA 1950) von Erich Kästner, die von Judgement at Nuremberg ( Urteil von Nürnberg , USA 1950) von Erich Maria Remarque und die von Decision before Dawn ( Entscheidung vor Morgengrauen , USA 1951) von Carl Zuckmayer (Kolloquium 2004). Welchen Einfluss dies auf eine Entscheidung gegen Übersetzer gehabt haben soll, ist jedoch unklar. Was die Praxis in deutschen Synchronisationsfirmen betrifft, enthält Seifferth (2009) Informationen zu mehreren Firmen (ebd. 5-12) sowie Fragebögen an ebendiese Firmen und an Privatpersonen (ebd. 149-171). Suchen Sie im Internet nach Synchronstudios und anderen wirtschaftlichen Angeboten, die in einem Zusammenhang mit der Synchronisation stehen. Suchen Sie auch in den Ländern Ihrer Studiensprachen wie Spanisch, Französisch oder Italienisch. Vergleichen Sie die Angebote! 24 Normalerweise ist es kein Problem, auch die allerkleinsten Takes zu einem glatt verlaufenden Ton zusammenzusetzen. Wie man Unfug damit treiben kann, können Sie aus dem Film Doktor Murkes gesammeltes Schweigen (nach Heinrich Böll, Deutschland 1964) lernen. 18231_Juengst_SL4�indd 88 18231_Juengst_SL4�indd 88 19�08�2020 12: 38: 49 19�08�2020 12: 38: 49 89 3.3 Arbeitsablauf Im üblichen Verfahren wird die Rohübersetzung an den Dialogbuchautor / Synchronbuchautor / Synchronregisseur weitergereicht, der dann das Synchronbuch erstellt. Oft ist es auch der Synchronregisseur, der das Dialogbuch schreibt, aber auch das ist nicht immer der Fall. Schon hier wird die auffallende Fragmentarisierung des Synchronisationsprozesses deutlich: Auch Synchronregisseure sind meist so ausgelastet, dass sie oft den Film, den sie bearbeiten, nicht einmal richtig kennen, es sei denn, sie haben auch das deutsche Dialogbuch geschrieben. (Leinert 2017: 49). In diesem Arbeitsgang kann der Synchrontext noch verändert werden - manchmal merkt man erst in der Praxis, dass sich ein Text doch nicht so gut spricht wie erwartet. Das kann einen sehr großen Teil des Synchronbuchs betreffen, nach der Untersuchung von Herbst bis zu 61 % (Herbst 1994: 209). Außerdem wird nicht jeder kleine Versprecher korrigiert, wenn er nicht weiter stört und der Text gut in den Film passt (Herbst 1994: 210). Hier wird der Text nicht nur an die Lippenbewegungen angepasst, d. h. lippensynchron gemacht (mit gewissen Einschränkungen). Er wird auch in eine gut sprechbare Form gebracht. Der Synchronregisseur führt beim Einsprechen des Filmes Regie. Unter anderem [braucht man für den Beruf des Synchronregisseurs und -autors] ein Interesse für Sprachen und Kultur. Dabei muss man die Originalsprache, aus der heraus man synchronisiert, nicht notwendigerweise verstehen. Es hilft natürlich sehr, man begreift Feinheiten besser, kennt vielleicht auch die jeweilige Landeskultur. Wenn man die nicht kennt - was oft der Fall ist --, braucht man eine sehr gute Rohübersetzung, die auch Bedeutungsnuancen, kulturelle und politische Hintergründe einbezieht. (Cierpka 2017) Oft enthalten Rohübersetzungen tatsächlich falsche oder ungelenke Formulierungen, was an den immer wieder erwähnten Arbeitsbedingungen und der dadurch oft mangelhaften Qualifikation der damit befassten Übersetzer liegt, doch manchmal wird der Text beim Erstellen des Synchronbuchs auch verschlimmbessert (Beispiele in Herbst 1994: 206). Wichtig scheint bei der Umarbeitung der Rohübersetzung zu einem Synchronbuch aber zu sein, dass die Satzlänge von Original und Synchronfassung einigermaßen übereinstimmt (Herbst 1994: 207-208). In vielen Fällen wird die Synchronarbeit von einem Supervisor begleitet, der auch den fertigen Film abnimmt. Die Supervisoren werden normalerweise von Verleihfirmen beauftragt, haben aber auch die Wünsche der Regisseure des Originalfilms zu beachten. Bei wichtigen Filmen ist es mittlerweile üblich, einen ‚Supervisor‘ aus Hollywood nach Europa zu schicken, der die Synchronisation überwacht und sowohl bei den Dialogtexten als auch bei der Stimmenauswahl mitentscheidet. Dass sich auch Filmregisseure selbst um die Synchronfassungen kümmern, war lange Zeit eine Seltenheit. Die große Ausnahme war Stanley Kubrick, dessen berüchtigter Perfektionismus sich auch auf die Synchronisationen erstreckte. Für die deutschen Fassungen bestand er auf Wolfgang Staudte als Regisseur, dessen von einer legendenhaften Aura umrankte Bearbeitung von Shining mehr als eine Million Mark gekostet haben soll! (Bräutigam 2009: 35) 18231_Juengst_SL4�indd 89 18231_Juengst_SL4�indd 89 19�08�2020 12: 38: 50 19�08�2020 12: 38: 50 90 3 Synchronisation Ausführliche Informationen dazu bietet der Bericht der Synchronsupervisorin Leinert (2015). Eine Textkontrolle durch einen Übersetzer findet bei der Endproduktion nicht statt. Während heute in allen anderen Übersetzungsbereichen ein Translationsmanagement mit Qualitätskontrolle eine wichtige Rolle spielt, existieren hier nicht einmal Überlegungen in diese Richtung. Gerade dort, wo keine nennenswerte Absprache zwischen den an der zielsprachlichen Fassung Beteiligten stattfindet, erscheint der Einsatz eines solchen Supervisors ausgesprochen sinnvoll. Mehr Zusammenarbeit fordert auch Seifferth: Es wäre dabei auch wichtig, dass der Auftraggeber die jeweiligen Synchronsprecher und die Übersetzer vor dem Beginn der Arbeit an einen Tisch bringt, denn dies würde auch dazu beitragen, dass der Übersetzer die handelnden Personen besser versteht, zumal die ausgewählte Stimme wesentlich zur späteren Sympathie und Popularität einer handelnden Person beiträgt. Der Auftraggeber sollte des Weiteren für eine Rückmeldung zur Qualität der Übersetzung sorgen, ein Qualitätsmanagement einführen, um im ständigen engen Dialog mit dem Übersetzer, dem Dialogbuchautor und dem Synchronregisseur die bestmögliche Synchronübersetzung zu schaffen. (Seifferth 2009: 128) Bei Seifferth wird auch der eigentliche Synchronisationsprozess, das Einsprechen des übersetzten und bearbeiteten Texts, beschrieben. Das Einsprechen selbst erfolgt im Synchronstudio durch Profisprecher, oft Schauspieler. Seifferth schildert ihren Besuch bei der Studio Hamburg Synchron folgendermaßen: Dieser Aufenthalt im Aufnahmestudio war aufschlussreich, um Rückschlüsse ziehen zu können auf Fehlerquellen, wie sie während des Synchronisationsprozesses, also bei der Aufnahme entstehen: Die Qualität hängt nur von einer beziehungsweise noch einer weiteren beisitzenden Person, die für die Technik zuständig ist, ab. Das bedeutet, dass Aussprachefehler überhört werden, eine Anlehnung an einen bestimmten Dialekt, hier Norddeutsch, eine Rolle spielt und somit immer wieder unidiomatisches Deutsch verwendet wird, insbesondere Grammatikfehler und Kollokationsverstöße. Auch bedeutet dies, dass das Skript in Teilen verändert wird. Bei der Serie The Sopranos , die hier synchronisiert wird, fiel auf, dass, beispielsweise abfällige ‚lustige‘ Bemerkungen über Juden, wie sie im mafiaähnlichen Milieu, besonders unter den Italo-Amerikanern, üblich sind, nicht ins Deutsche übertragen wurden, also die Nulllösung gewählt wurde - ein Beispiel dafür, dass … im Synchronisationsprozess regelrechte Zensierungen stattfinden. (Seifferth 2009: 5) Der Arbeitsablauf während der Synchronisation selbst ist nicht chronologisch. Früher teilte man die Szenen so ein, dass man die Arbeitstage der einzelnen Sprecher ideal danach ausrichten konnte. So kamen zuerst die Szenen mit A, B und C; dann konnte C nach Hause gehen und die Szenen, in denen nur A und B auftreten, wurden synchronisiert. Es herrschte also ein ähnliches Arbeitsprinzip wie bei Filmen, wo man ebenfalls nicht chronologisch von Anfang bis Ende dreht, sondern den Arbeitsablauf nach Drehorten und eingesetzten Schauspielern aufteilt. Heute stehen die Sprecher allein im Studio; der Vorgang ist nun komplett fragmentarisiert und entfremdet. 18231_Juengst_SL4�indd 90 18231_Juengst_SL4�indd 90 19�08�2020 12: 38: 50 19�08�2020 12: 38: 50 91 3.3 Arbeitsablauf Auch spontane Entscheidungen, die sich nur im Zusammenspiel mehrerer Sprecher ergeben, gibt es nicht mehr. Bei der Synchronisation werden die Texte in sehr kurze Takes von ein bis zwei Sätzen aufgeteilt und die Sprecher stehen in einem nüchternen Tonstudio. Das gab es schon früher und das muss nicht einmal kostensparend sein: Häufig werden Takes ge-ixt, das heißt, in einem Take mit zwei Sprechern wird erst nur der eine und an einem anderen Tag der andere aufgenommen, wenn beide zusammen wegen Terminschwierigkeiten nicht im Studio sein können. Auch wenn Texte sich überlappen, wird von dieser Möglichkeit Gebrauch gemacht, damit die Cutterin die Aufnahme exakter bearbeiten kann … Das Ixen treibt natürlich die Anzahl der Takes schnell in die Höhe, was sich wieder auf die Kosten auswirkt … Kalkuliert werden etwa 170 bis 200 Takes am Tag, das heißt, ein 90 Minuten langer Film ist in vier bis fünf Tagen ‚über die Bühne‘. (Blunck 1998: 285) Der Synchronregisseur muss dafür sorgen, dass die Schauspieler immer eine Vorstellung davon haben, in welchem Handlungszusammenhang das jeweilige Take steht (vgl. Bräutigam 2009: 38). Auch unter Sprechern gibt es Bedauern dieser Situation gegenüber: … wie lustig muss es zugegangen sein, als er [Synchronsprecher Norbert Gastell] sich hier noch gemeinsam mit anderen Simpsons-Sprechern wie der Münchnerin Sabine Bohlmann duellierte: von Vater Homer zu Tochter Lisa. Vor ein paar Jahren kam irgendwer darauf, es sei effektiver, jede Stimme einzeln aufzunehmen. Track by Track. „Wir trauern den alten Zeiten nach. Heute sind wir allein in unser Kabuff eingesperrt“, sagt Gastell, „wenn mich jemand fragt: ‚Hey, Homer, wie geht es Marge? ‘ Dann sage ich: Keine Ahnung, ich habe meine Frau noch nie gesehen.‘“ Anke Engelke spricht Mrs. Simpson in Köln ein. (Zirnstein 2012: 56) Profis können in einer solchen Situation trotzdem arbeiten, und die Anmerkung von Herbst, die deutschen Synchronfassungen wirkten im Vergleich zu den Originalen fade (in Blum 1994), ist bei den meisten Filmen nicht gerechtfertigt. Viele Informationen über den Synchronisationsprozess haben eher Anekdotencharakter und richten sich an ein interessiertes Laienpublikum. Denn viele finden die Arbeit von Synchronsprechern faszinierend. Auf manchen DVDs findet man daher als Extra einen kurzen Bericht von der Synchronarbeit, bei dem man die Schauspieler beim Einsprechen sieht. Von den in diesem Buch angeführten Filmen ist das Willkommen bei den Sch’tis , aber auch Die Biene Maja - Die Honigspiele . Typisch ist ein Interview, das Link und Nassif mit dem Schauspieler Christoph Maria Herbst im Morgenmagazin ( Moma ) vom 29.05.2019 führten. Herbst schildert, wie er eine Rolle im Trickfilm Mr. Link - Ein fellig verrücktes Abenteuer eingesprochen hat (Transkription Jüngst): Link: Aber du stehst da alleine. Du hast keinen zum Anspielen so richtig. Herbst: Du sagst es. Und, erm, das ist schon hart. Du musst dann da für Stimmung sorgen und ich hab, ich glaub, ich war drei, vier Tage im Studio, und da musst du schon gegen dich ansprechen, auch gegen dich anspielen. 18231_Juengst_SL4�indd 91 18231_Juengst_SL4�indd 91 19�08�2020 12: 38: 50 19�08�2020 12: 38: 50 92 3 Synchronisation Nassif: Und das geht wirklich so Fitzelchen für Fitzelchen durch 90 Minuten (Herbst: Genau) Spielfilm? Herbst: Also der Film wird dann für den Synchron in so Bits und Bytes irgendwie aufgedröselt, und die Premiere des Films war jetzt letzten Sonntag in Berlin, und da haben wir alle, Kollegen … diesen Film zum allerersten Mal gesehen, weil, du hast das Endprodukt, hast du nie gesehen, sondern eigentlich nur deine eigene Tonspur. In diesem Interview sieht man auch Ausschnitte aus der Arbeit im Synchronstudio: 2: 43 Herbst: Ich glaub‘ der Schrei am Ende ist zu offen, ne, wenn der mit dem Gesicht auf dieses Eis klatscht, dann müsste das eigentlich so’n bisschen … 2: 49 Regie: So’n bisschen abgedeckt sein. 2: 50 Herbst: Ma nomma eine. Die neue Dialogspur wird mit dem IT-Band abgemischt; eventuell muss der Tonmeister noch Stimmen an die Klangeffekte bestimmter Räume (Kirchenhall etc.) anpassen (vgl. Seifferth 2009: 23). Bei diesen Abmischungen gibt es kulturspezifische Unterschiede und Präferenzen: Wenn man amerikanische Filme in der Originalfassung im Kino sieht, ist das beinahe so wie in der Oper: ich habe mich gewundert, dass ich alles Mögliche nicht verstehe und dachte, meine Sprachkompetenz ist zu eingeschränkt. Aber als ich die Filme zusammen mit Amerikanern gesehen habe, ging es denen nicht anders. Das heißt, in der amerikanischen Synchronisation kommt es gar nicht darauf an, dass man immer alles versteht, was gesagt wird. Die Musik schiebt sich manchmal in den Vordergrund und verunmöglicht die Verständlichkeit der Sprache. Wenn man sich diese Filme in der deutschen Synchronisation ansieht, wird immer Wert darauf gelegt, dass alles verständlich bleibt. Die Filme sind so gemischt, dass die Musik leiser wird, wenn gesprochen wird. Diese Dominanz der Sprache, das Primat der Verständlichkeit scheint besonders charakteristisch zu sein für die Synchronisation amerikanischer Filme in Deutschland, und zwar bereits immer. (Garncarz in Metz / Seeßlen 2009; dazu auch Petzold 2019: 109) Die mangelnde Qualität vieler Synchronfassungen soll nicht geleugnet werden, auch wenn es mindestens ebenso viele gelungene Synchronisationen gibt: Eine gute Synchronisation ist also eine Synchronisation, die sowohl die Nähe zum Original zu erhalten sucht, Tonfall und Eigenheit der eigenen Sprache nutzt als auch technisch so angepasst ist, dass man zumindest nicht über das Auseinanderklaffen von Ton und Bild verzweifelt. Schlechte Synchronisation dagegen ist eine Synchronisation ohne Gespür für Sprache, Handlung und Charakter. Und die Schere zwischen beidem, zwischen Glanz und Elend der Synchronisation, scheint sich weiter zu öffnen. (Metz / Seeßlen 2009) Wie gesagt ist der Synchronisationsprozess inzwischen komplett digitalisiert und es gibt verschiedene Softwareprodukte, die man dafür einsetzen kann. Darunter befinden sich auch günstige Produkte für den Laien-Synchronisator. Es sei allerdings darauf hingewiesen, dass man als Laie kaum jemals an Filme herankommt, bei denen sich die Dialogspur 18231_Juengst_SL4�indd 92 18231_Juengst_SL4�indd 92 19�08�2020 12: 38: 50 19�08�2020 12: 38: 50 93 3.4 Einzelaspekte: Formen der Synchronität von der Atmo-Spur trennen lässt. Man muss bei Synchronisationsexperimenten also auch Geräusche produzieren. Zur Synchronisation von Filmen gehört auch die Synchronisation der Teaser und der Trailer, mit denen im Kino für den Film geworben wird. Teaser sind kürzer als Trailer und enthalten entsprechend weniger Informationen Der Bearbeitung des Spielfilms gehen in der Regel Teaser und Trailer voraus, die bis zu einem halben Jahr vor dem Kinostart veröffentlicht werden. Dabei muss in der Regel improvisiert werden, da etwa ein Casting für so kurze Spots keinen Sinn macht bzw. zu teuer ist. Das bedeutet, dass Besetzungen im Trailer oft nicht mit denen des Spielfilms identisch sind. (Leinert 2015: 50) 3.4 Einzelaspekte: Formen der Synchronität „Synchronisation“ kommt von „synchron“, also „gleichzeitig“ - das erscheint uns selbstverständlich. Doch in der Forschung werden verschiedene Formen der Synchronität beschrieben; überhaupt sind Synchronitätsanalysen mit der entsprechenden Kritik an einzelnen Synchronfassungen beliebt. Zwischen der Beliebtheit, mit der solche Fragen diskutiert und die Definition dieser Synchronitätsformen weiter und weiter verfeinert werden, und der tatsächlichen Wichtigkeit der Synchronitäten für Produzenten und Publikum gibt es Unterschiede. Außerdem ist der Teil des Publikums, der keinen Blog zu den Schrecken der Synchronisation führt, weit weniger kritisch als man denken könnte: Jeder synchronisierte Film enthält Asynchronien, d. h. Verstöße gegen die Synchronität, die bemerkbar sind. Aus psycholinguistischer Sicht ist das insofern interessant, als diese Asynchronien die Rezeption eines Films wohl nicht beeinträchtigen. (Herbst 1994: 53) Ein Film besteht schließlich auch aus Bildern wie Landschaft, Bewegung etc., die keine mündlich-sprachlichen Elemente enthalten. Auch die erhalten die Aufmerksamkeit des Zuschauers. Mal kurz nachdenken … Welche Formen der Synchronität kennen Sie? Den meisten fällt hier nur die Lippensynchronität ein. Doch auch andere Synchronitäten sind grundlegend für die Filmgestaltung und nehmen Einfluss auf den Synchrontext. In diesem Unterkapitel werden folgende Formen der Synchronität angesprochen: Verhaltenssynchronität (nach Manhart 2000), Gestensynchronität und Nukleussynchronität (nach Herbst 2017: 99). Die vielbeschworene Lippensynchronität (Quantitative und Qualitative Lippensynchronität nach Herbst 2017: 99) wird selbstverständlich auch behandelt. 18231_Juengst_SL4�indd 93 18231_Juengst_SL4�indd 93 19�08�2020 12: 38: 50 19�08�2020 12: 38: 50 94 3 Synchronisation 3.4.1 Verhaltens-, Gesten- und Nukleussynchronität Die Verhaltenssynchronität ist eine Kategorie, die sich mit den anderen Kategorien überschneidet, da sie sprachliche Elemente ebenso wie Handlungselemente enthält. Sie bezieht sich auf unterschiedliche Verhaltensweisen in unterschiedlichen Kulturen und bleibt im visuellen Teil des Films immer erhalten. 18. Was kann der Übersetzer hier tun? Wer interkulturell auch nur ein wenig sensibilisiert ist, ist mit solchen Verhaltensunterschieden vertraut. Manhart (2000) analysiert dieses Problem in Bezug auf die Filmübersetzung in detaillierter Weise. Im Handbuch Translation stellt sie fest: Die Annahme, dass durch die Übertragung des Filmdialogs in eine andere Sprache ein kompletter Transfer aller am Film beteiligten Zeichen (Sprache, Musik, Geräusche, Bilder, nonverbale Kommunikation) vollzogen werde, ist unrichtig. Der Dialog stellt lediglich einen kleinen Teil des filmischen Ganzen dar. Die Problematik bei der Synchronisation von Filmen liegt vielmehr in der kulturellen Asynchronität, d. h. in der Visualisierung kultureller Verhaltensweisen, die im Bildteil unveränderbar vorgegeben sind und im Synchrondialog nicht reflektiert werden können. (Manhart 2006 [1999]: 264) Ebenso bei Cierpka: Jeder Film hat einen bestimmten Kontext - politisch, sozial, kulturell. Und bei der Synchronisation wird nicht nur eine Originalversion in die deutsche Sprache übersetzt, sondern es geht uns auch darum, kulturelle Hintergründe, sprachliche Nuancen zu übertragen. (Cierpka 2017) Es gibt zwischen eng verwandten Kulturen jedoch auch ganz erhebliche Übereinstimmungen im Verhalten. Mehr noch: Wir konsumieren Filme aus bestimmten Kulturen in einem solchen Ausmaß, dass wir die dort vertretenen Verhaltensweisen soweit verinnerlicht haben, dass sie unsere Erwartungshaltung in erheblicher Weise prägen. Wer sehr viele amerikanische Teenie-Schulserien sieht, hat ein Wissensrepertoire über bestimmte Sitten und Regeln, wie sie an amerikanischen High Schools herrschen - zumindest im Film. Ähnlich sieht es bei Fans von Anime aus, die an japanischen Schulen und bei japanischen Familien spielen. Man spricht hier auch von erlernten Schemata (siehe auch Kapitel 6.5.5). Kussmaul (2007) nutzt für ein ähnliches Konzept die Scenes-and-Frames-Theorie von Fillmore und geht darauf ein, dass viele der scenes and frames , der Vorstellungen, die unsere Weltkenntnis widerspiegeln, und den damit verbundenen sprachlichen Ausdrücken, aus Filmen übernommen werden und nicht aus dem wirklichen Leben. Das heißt, dass wir für bestimmte Situationen bestimmte Abläufe und Verhaltensweisen erwarten, die wir teilweise eben aus Filmen kennen. Und ganz besonders erwarten wir diese Abläufe wiederum in Filmen. 18231_Juengst_SL4�indd 94 18231_Juengst_SL4�indd 94 19�08�2020 12: 38: 50 19�08�2020 12: 38: 50 95 3.4 Einzelaspekte: Formen der Synchronität Machen Sie die Probe aufs Exempel: Was fällt Ihnen und Ihren Kommilitonen dazu ein? Aus welchem Filmbzw. Seriengenre stammt dieses Wissen? Haben Sie es je in der Wirklichkeit überprüft? Schließlich können Genres selbst Klischees erzeugen, die es in der wirklichen Welt gar nicht gibt. Diese Abläufe und Verhaltensweisen bleiben in der zielsprachlichen Fassung eines Films erhalten. Unsere Erwartungshaltung erleichtert es uns, den Film zu verstehen. Probieren Sie es selbst aus: Wenn Sie einen Film in einer Fremdsprache sehen, die Sie nicht gut beherrschen, haben Sie mit einem sprachlich und von der Handlung her standardisierten Genre weniger Probleme als mit kreativer gestalteten Filmen. Die einzelnen Synchronien sind verzahnt, denn diese Erwartungshaltung schließt auch eine große Anzahl sprachlicher Elemente ein. Mal kurz nachdenken …Welche dieser Elemente beherrschen auch Fremdsprachen-Anfänger und erkennen sie daher? Wir wissen zum Beispiel, wie man in einem Supermarkt bezahlt, welche Fragen gestellt werden (wenn überhaupt) und mit welchen Floskeln sich die Kassiererin verabschiedet. Solche Floskeln kennen wir oft auch in der Fremdsprache - sie gehören zum Anfängerrepertoire. Entsprechend sehen wir hier die Lippenbewegungen „besser“ als bei unerwarteten Äußerungen und stehen in diesen Fällen einer nicht perfekten Lippensynchronität kritischer gegenüber. Und entsprechend erwarten wir auch in der Zielfassung verhaltenskonforme Äußerungen (zu diesem Thema auch Taylor 2006). Interessant ist in diesem Zusammenhang die Behandlung der Atmo-Spur mit ihren Hintergrundgeräuschen: Die Vorspiegelung falscher Tatsachen besteht darin, dass wir einen fremdsprachlichen Film nehmen, dessen Schauplatz nicht Deutschland ist, was auch ganz eindeutig an ausländischen Schauspielern, Ortsangaben, Straßennamen etc. zu erkennen ist, und den ausländischen Darstellern unsere Sprache, also für sie eine Fremdsprache, in den Mund legen … Selbst die Hintergründe werden ‚eingedeutscht‘, um diese Illusion zu unterstreichen, obgleich es keinen logischen Grund dafür gibt, dass etwa an einer amerikanischen Highschool, einem US-Bahnhof oder -Flughafen im Hintergrund deutsches Stimmenwalla zu hören sein sollte. Aber dies ist eines der ungeschriebenen Gesetze beim Synchron: Alles muss deutsch sein, was auch nur im Entfernstesten verständlich ist. Es dürfen demnach auch im Hintergrund keine ausländischen Stimmen wie Lautsprecherdurchsagen u. ä. hörbar sein. (Leinert 2015: 52) 18231_Juengst_SL4�indd 95 18231_Juengst_SL4�indd 95 19�08�2020 12: 38: 51 19�08�2020 12: 38: 51 96 3 Synchronisation Mal kurz nachdenken …Wann würde man das selbst bei deutschen Synchronisationen nicht machen? Sieht man sich heute im Ausland gedrehte deutsche TV-Filme an, so sind die Atmos, also die Hintergründe, ganz selbstverständlich in der jeweiligen Landessprache. Befinden sich etwa die Darsteller vom Traumschiff auf einer indonesischen Trauminsel, so hören wir auf dem Markt im Hintergund den [sic] Lokalkolorit. Ich denke, es ist also an der Zeit, die oben genannten Synchronregeln zu überdenken. (Leinert 2015: 52) Mal kurz nachdenken …Ist das nicht doch ein bisschen anders als im ersten Fall? Beim Traumschiff geht es gerade um die Entführung in fremde Welten; auf Reisen erwartet man Fremdheit und genießt sie. Aber auch bei Dokus würde man niemals die Atmo-Spur verändern. Bei Radio-Features spielt die Atmo eine noch wichtigere Rolle. Oft ist von Klanglandschaften die Rede (Zindel / Rein 2007: 115). Track 22 auf der Zindel / Rein beiliegenden CD ist eine reine Klanglandschaft, zu der sich (individuelle) Bildvorstellungen wie von selbst ergeben. Kritik wird auch gern daran festgemacht, dass sich in manchen Filmen Ausdrücke finden, die auf „Synchronesisch“ zurückzuführen sind. „Synchronesisch“, auf Englisch „Dubbese“, ist dabei keine rein deutsche Erscheinung (vgl. dazu Romero Fresco 2006). Auch die synchronesischen Ausdrücke gehören in den Randbereich der Verhaltenssynchronität, vor allem als erwartbare sprachliche Elemente: … kann auch das … unmotivierte Auftreten von Anglizismen etc. darauf zurückgeführt werden, dass sich eine Art Synchronsprache herausgebildet hat, in der sich Interferenzerscheinungen in der Weise verselbständigt haben, dass sie in die Sprachkompetenz der Synchronübersetzer als akzeptabel eingegangen sind. (Herbst 1994: 196) So entstand etwa das berüchtigte Synchron-Deutsch: mit seinen typischen unlogischen Pausen, mit seinen Anleihen bei der Ursprungssprache, mit seinen wörtlichen Übersetzungen von Sprachwendungen, die zuerst noch befremdlich klingen und beim dritten oder vierten Mal schon selber Sprachfloskeln, sind. Menschen aus fremden Cinematografien sprechen in unseren Kinos weder ihre noch unsere Sprache. (Metz / Seeßlen 2009) 19. Kennen Sie Beispiele? 18231_Juengst_SL4�indd 96 18231_Juengst_SL4�indd 96 19�08�2020 12: 38: 51 19�08�2020 12: 38: 51 97 3.4 Einzelaspekte: Formen der Synchronität Eine große Anzahl an Beispielen findet man in Herbst (2017: 102-113). Auch sein Lieblingsbeispiel „Der frühe Vogel frisst den Wurm“ ist dabei (Herbst 2017: 107, dort auch Sekundärliteratur zu diesem Beispiel). 25 20. Wie könnte man „The early bird catches the worm“ besser ins Deutsche übersetzen? Auch die Gestensynchronität und die Nukleussynchronität sind interessant für Übersetzer. Gestensynchronität bedeutet, dass bedeutungstragende Gesten semantisch zum Text passen sollen (vgl. Herbst 2017: 99), Nukleussynchronität, dass es wichtig ist, Betonungen durch Gesten, Mimik und parasprachliche Elemente mit entsprechenden Silbenbetonungen bei der Synchronisation zu erhalten (vgl. Herbst 2017: 99). Plack (2010: 16-17) verweist auf den Ausdruck „Augensynchronität“, der im Studio Hamburg verwendet wird und von Hilke Flickenschildt stammt. Mal kurz nachdenken … Kann die Gestensynchronität immer gelingen? Gesten unterstreichen, was man sagt, sind aber oft kulturspezifisch, womit wir wieder bei der Verzahnung mit der Verhaltenssynchronität wären. Im Originalfilm passen Worte und Gesten zusammen. Wenn das in der Zielkultur nicht der Fall ist, muss man auf einen Lerneffekt und ein ausreichendes Interesse an der Ausgangskultur hoffen. 21. Wieso hat der Rohübersetzer hier praktisch keine Chance, eine gute Lösung anzubieten? Die Nukleussynchronität hat auch inhaltliche Elemente, die nicht kulturspezifisch sind. Wenn Namen vorkommen, so versucht man, sie im Synchrontext an der gleichen Stelle im Timecode zu platzieren wie im Originaltext (vgl. Herbst 1994: 47). 22. Was machen Sie bei Gesten und Mimik, die vollkommen fremdartig wirken und die der Zuschauer nicht oder falsch erschließen könnte? Schließlich finden sich in Filmen oft Hinweise auf Gegenstände, die man im Bild sehen kann. Auch hier sollte die Synchronität erhalten bleiben. Herbst bezeichnet „die Korrelation von Text und Bild (Schriften etc.)“ als Referenzsynchronität (Herbst 2017: 99). Baumgarten 25 Etwa ab dem WS 2015/ 16 reagierten meine Studierenden verwundert auf die Anmerkung, dass es sich hier um einen Anglizismus handelt. Für sie war das ein völlig normales Sprichwort. Der frühe Vogel ist sozusagen gelandet. 18231_Juengst_SL4�indd 97 18231_Juengst_SL4�indd 97 19�08�2020 12: 38: 52 19�08�2020 12: 38: 52 98 3 Synchronisation (2008) zeigt, dass deutsche Synchrontexte in diesem Fall oft expliziter sind als die englischen Ausgangstexte und stärker auf diese visuellen Elemente hinweisen. Das Problem der Verbindung von visuellen und verbalen Elementen ist bei der Voice-over-Übersetzung allerdings noch problematischer, da dort eine leichte zeitliche Verzerrung hinzukommt (siehe dort). Ein weiteres Element der Synchronität ist die Stimmqualität (vgl. Herbst 1994: 78 ff.). Dieses Thema wird im Unterkapitel „Stimmen“ angesprochen. Die Frage der Synchronität von Bedeutung wird hier nicht behandelt. In der übersetzungswissenschaftlichen Literatur würde man von Bedeutungsäquivalenzen sprechen; selbstverständlich kann man dazu Forschungen durchführen. Wer sich hauptsächlich mit diesem Thema befassen will, findet in der Fachliteratur eine Fülle von Aufsätzen und Anregungen. Für die Nicht-Translatologen: Die Autoren, die auf dieses Gebiet spezialisiert waren / sind, heißen Kade und Koller. 3.4.2 Lippensynchronität Es ist sehr aufwändig, ein perfekt lippensynchrones Produkt herzustellen. Daher wird im Deutschen zwischen einem fast hundertprozentig lippensynchronen Synchronbuch und einem Dub (eigentlich der englischen Bezeichnung für Synchronisation) unterschieden. Bei einem Dub wird hauptsächlich auf die Synchronität bei den Vokalen geachtet (Beyer mündlich). Tatsächlich sind Synchronisationen nie vollständig lippensynchron. Die Lippensynchronität ist heute in der Praxis generell nicht mehr so wichtig wie früher (vgl. Bräutigam 2009: 36); die Diskussionen unter Gegnern und Befürwortern, bei denen gern extreme Fälle angeführt werden, gehen an den praktischen Gepflogenheiten oft vorbei. 23. Man kann auch mit einem Drehbuch lippensynchron arbeiten, wenn man auf die Laute im Ausgangstext achtet. Warum ist der Film für den Übersetzer trotzdem so wichtig? 24. Warum kann man eine perfekte Lippensynchronität nicht erreichen? Anders gefragt: Was müsste man mit dem Text tun, um eine perfekte Lippensynchronität zu erzielen? Die Lippensynchronität gilt Laien oft als erstrebenswertes Ideal, fast als wäre sie so etwas wie eine „heilige Kuh“ der Synchronisation. In der Praxis ist die quantitative Lippensynchronität interessanter als die qualitative, da sie sehr viel großzügiger ist. Qualitativ bedeutet: Vermeidung einer Diskrepanz zwischen sichtbarer Lippenstellung und hörbarem Laut … Korrelation von Sprechgeschwindigkeit mit Lippenbewegungen … Korrelation von Artikulationsdeutlichkeit und Ausgeprägtheit der Lippenbewegungen. (Herbst 2015: 99) Die quantitative Lippensynchronität enthält nicht so viele Parameter: Korrelation von hörbarer Sprache mit Bewegung der Lippen (bzw. geöffneten Lippen). (Herbst 2015: 99) 18231_Juengst_SL4�indd 98 18231_Juengst_SL4�indd 98 19�08�2020 12: 38: 53 19�08�2020 12: 38: 53 99 3.4 Einzelaspekte: Formen der Synchronität Das bedeutet einfach, dass der Synchrontext zeitgleich mit der Lautäußerung im Film einsetzt und endet. Eine solche Form der Synchronität lässt sich weit besser verwirklichen als die qualitative Synchronität, die mehr oder minder der Lippensynchronität entspricht. Auch wenn immer von „Lippensynchronität“ gesprochen wird, geht es doch um eine Synchronität der Mundbilder bzw. Viseme. Diese Begriffe werden in der Gehörlosenpädagogik genutzt und sind weit präziser als „Lippensynchronität“. Man sieht bei einem Visem nicht nur die Lippen, sondern auch Bewegungen im Mund- und Kieferbereich sowie manchmal die Zunge. Kurz gesagt: Alles, was man beim Sprechen sehen kann, gehört zum Visem. In Kapitel 7 werden diese Fachbegriffe nochmals eingeführt; hier wird „Lippensynchronität“ verwendet, weil es im Bereich Synchronisation üblich ist. Je nach Sprachkombination stellen sich bei der Erstellung einer lippensynchronen Fassung unterschiedliche Probleme. Bei einer englischen Originalfassung kann ein / th/ in Nahaufnahme bei der Synchronisation ins Deutsche stören; ein großer Vorteil sind aber die ausgeprägt schwachen Lippenbewegungen vieler amerikanischer Darsteller. Eine extrem weite Mundöffnung wird ebenfalls als störend empfunden, wenn die Synchronisation nicht passt (vgl. Herbst 1994: 38). Allerdings weist Herbst auch darauf hin, dass sich die Mundbewegungen von Sprecher zu Sprecher unterscheiden - manche Schauspieler haben einen großen Mund und ausgeprägte Lippenbewegungen (Herbst 1994: 31, Hüffer 2001: 47). Und kulturunabhängige Merkmale wie ein Bart bei Männern (Lippenstellung oft überdeckt) oder Lippenstift bei Frauen (betont die Lippenbewegung) spielen oft eine ebenso große Rolle wie die verwendete Sprache (Herbst 1994: 31). Zur qualitativen Synchronität ist über das bereits Gesagte hinaus anzumerken, dass man sehr viele Laute nicht wirklich gut von den Lippen ablesen kann. Ausführliche Informationen dazu finden sich im Unterkapitel 7.4. Hörende konzentrieren sich noch weit weniger auf das Visem. Wie Blum es formuliert: Wer Fallons Lippen genau verfolgt, merkt den Unterschied. Den meisten Fernsehzuschauern entgeht er jedoch. Schließlich gucken sie nicht in die Röhre, um unstimmige Mundbewegungen aufzuspüren. (Blum 1994) Es gibt zwar durchaus Zuschauer, die genau das tun, und die normalerweise einen Blog darüber führen. Die meisten Zuschauer sind trotzdem keine Phonetik-Experten und wissen überhaupt nicht, welches Mundbild zu welchem Laut gehört (vgl. dazu auch das Experiment in Herbst 1994: 57) - abgesehen eben vom / th/ , das sie im Englischunterricht üben mussten und das jeder Englischlehrer der Klasse mit übertriebenem Mundbild vorspricht. 26 25. Ist Ihnen in letzter Zeit spontan bei einem Film aufgefallen, dass er nicht lippensynchron synchronisiert war? Erinnern Sie sich noch an die Textstelle? 26 Natürlich gibt es auch das im Film! Sie küssten und sie schlugen ihn ( Les Quatre Cents Coups , Frankreich 1959) von Truffaut bietet eine ersprießliche Szene, in der ein Englischlehrer einen Schüler geradezu mit seinem / th/ vollspeit. 18231_Juengst_SL4�indd 99 18231_Juengst_SL4�indd 99 19�08�2020 12: 38: 53 19�08�2020 12: 38: 53 100 3 Synchronisation Für Großaufnahmen und damit den Ersatz eines Lautes durch einen anderen mit einem nicht zu stark abweichenden Mundbild helfen Darstellungen aus der Phonetik, auf denen man den jeweiligen Sprecher von vorne sieht. Wenn Sie sich noch nie mit Phonetik und Lauterzeugung befasst haben, sollten Sie sich in der Bibliothek die entsprechende Fachliteratur ansehen. Gut eignen sich Phonetikbücher für Fremdsprachenlehrer. Hier kommen ein paar typische Beispiele. Obwohl sie sich an den Standards orientieren, sind sie nicht völlig eindeutig. Welchen Laut bzw. welche Laute würden Sie welchem Bild zuordnen? Abbildung 26: Weite Mundöffnung Abbildung 27: Breite Mundöffnung Abbildung 28: Geschlossene Lippen Abbildung 29: Enge, runde Mundöffnung Probieren Sie es vor einem Spiegel aus: Wie weit können Sie den Mund schließen und trotzdem noch „a“ sagen? Wie breit muss der Mund für das „i“ sein, bevor es nach „ü“ klingt? 18231_Juengst_SL4�indd 100 18231_Juengst_SL4�indd 100 19�08�2020 12: 38: 54 19�08�2020 12: 38: 54 101 3.4 Einzelaspekte: Formen der Synchronität Für die frühe Phase der Filmsynchronisation gilt ganz besonders, dass der qualitativen Lippensynchronität große Bedeutung beigemessen wurde, was nicht zu besonders guten Ergebnissen führte. Bräutigam (2017) spricht von der damaligen „dogmatisch-peniblen Lippensynchronität“ und resümiert: „Der Zwang, den Text exakt an die Lippenbewegungen anzupassen, führte zu einer starken Abweichung vom Original und einem hölzernen Deutsch.“ (Bräutigam 2017) Herbst weist darauf hin, dass der Einsatz von Lippensynchronität oft nicht einmal erforderlich ist: Die Zahl der Passagen, bei denen Lippensynchronität von großer Bedeutung ist, ist also beschränkt. Genaue Angaben lassen sich diesbezüglich nur schwer machen; für eine Folge der Serie Yes Minister ergab sich, dass nur bei etwa einem Viertel des Textes sehr auf Lippensynchronität geachtet werden muss, während bei etwa einem Drittel die Lippenbewegungen weitestgehend vernachlässigt werden können. (Herbst 1994: 30) Bei der angeführten Analyse stellte sich heraus, dass nur 6 % aller Lippenbewegungen sehr deutlich zu erkennen waren, weitere 17 % deutlich. 40 % der Lippenbewegungen waren zu erkennen, 16 % undeutlich zu erkennen und 11 % äußerst undeutlich. Bei den restlichen Einstellungen waren die Sprecher von der Seite zu sehen, von hinten im Bild oder die Stimme kam aus dem Off (Herbst 1994: 30). Sagen Sie „Ich liebe dich! “, „I love you! “ etc. in allen Sprachen, die Sie beherrschen. Filmen Sie sich dabei. Ein Kollege schaut sich die Aufnahmen ohne Ton an, errät die Sprache und synchronisiert in eine andere Sprache. Wie synchron wird das? Wie störend sind die Unterschiede? Filmen Sie sich, während Sie etwas erzählen. Spielen Sie die Filme ohne Ton für Ihre Kommilitonen ab. Was können Sie sehen? Diese Aufgabe passt auch in den Bereich der Untertitelung für Gehörlose und Hörgeschädigte. Neben Großaufnahmen kann die Betonung dazu führen, dass man einen Laut deutlich sieht: Als wesentlich erweist sich auch der Faktor der Betonung von Silben, weil Vokale überhaupt nur in betonten Silben mit deutlich wahrnehmbaren Lippen- und Kieferbewegungen artikuliert werden. Unter Umständen ist die Tatsache, dass eine ausgeprägte Lippen- oder Kieferartikulation vorliegt, sogar bedeutender als ihre Qualität … (Herbst 1994: 49) Je weiter die Ausgangssprache in Prosodie, phonetischem System und durchschnittlicher Wortlänge von der Zielsprache entfernt ist, desto schwieriger wird es, eine für das kritische Auge angenehme Synchronfassung zu erstellen. Andererseits erschweren bestimmte kulturspezifische Bewegungen, also Elemente der Verhaltens- und Gestensynchronität, wie rhythmisches sprachbegleitendes Nicken das Synchronisieren mehr als Lippenbewegungen. 18231_Juengst_SL4�indd 101 18231_Juengst_SL4�indd 101 19�08�2020 12: 38: 54 19�08�2020 12: 38: 54 102 3 Synchronisation Sicher besitzt auch in diesem Kurs jemand eine Sammlung von Anime (japanischen Zeichentrickfilmen) oder von chinesischen Kung-Fu-Filmen. Hören Sie sich die Originale an! Welche Probleme könnten Prosodie und Wortlänge bei einer Synchronisation erzeugen? Wie wurden die Probleme in der deutschen Synchronfassung gelöst? Welche Synchronitätstypen sind hier relevant und wie wurden sie behandelt? 26. Warum ist die Sprechgeschwindigkeit bei Synchronfassungen oft nicht absolut synchron? Verstöße gegen die Sprechgeschwindigkeit des Originals scheinen den Zuschauern aber nicht besonders ins Auge zu fallen: Der Spielraum in dieser Richtung ist jedoch insgesamt als sehr groß anzusetzen. Steigerungen der Phonem- oder Silbenzahl um bis zu 50 % scheinen praktisch kaum feststellbar zu sein [durch den Zuschauer, Anm. der Autorin], aber auch weitaus höhere Steigerungen … führen keineswegs immer zu besonders auffälligen Verstößen. (Herbst 1994: 38) 27. Hier wird von einer Steigerung der Silbenzahl gesprochen. Glauben Sie, das Ergebnis wäre ebenso ausgefallen, wenn die Silbenzahl in der Synchronisation verringert worden wäre? Es stört sehr, wenn ein Schauspieler noch den Mund bewegt, in der Synchronisation aber kein Text mehr zu hören ist. Als Zuschauer hat man das Gefühl, dass etwas fehlt, dass man Informationen vorenthalten bekommt. Umgekehrt ist es gar nicht so schlimm, wenn bei geschlossenem Mund noch Text kommt. Man hat so sehr das Bedürfnis, einen vollständigen Text zu hören, dass man gar nicht wahrnimmt, wenn niemand mehr den Mund öffnet. Beispiele dazu in Kapitel 3.6.3. 3.5 Einzelaspekte: Die Texte Die Rolle der Texte im Arbeitsablauf und die Rolle des Übersetzers bei der Zieltextproduktion wurden bereits erwähnt. Zunächst wird daher nochmals die Rohübersetzung angesprochen. Eine typische Begründung für die Rohübersetzung als Teil des Arbeitsablaufs ist diese: Die Arbeitsteilung zwischen Erstellung einer Rohübersetzung und Verfertigen von Synchrondialogen geht auf die Überlegung zurück, dass es sich dabei um zwei sehr verschiedenartige Fertigkeiten handelt. Von ‚normalen‘ Übersetzern kann nicht erwartet werden, dass sie in der 18231_Juengst_SL4�indd 102 18231_Juengst_SL4�indd 102 19�08�2020 12: 38: 55 19�08�2020 12: 38: 55 103 3.5 Einzelaspekte: Die Texte Lage sind, Dialoge zu schreiben, die lippensynchron sind. Auf der anderen Seite kann von den Synchronregisseuren nicht erwartet werden, dass sie die Fremdsprache so gut beherrschen, dass sie in der Lage wären, das Drehbuch selbst zu übersetzen. Das ist insbesondere unter dem Gesichtspunkt wesentlich, dass Synchronregisseure in der Regel nicht nur Filme aus einer Sprache synchronisieren. (Herbst 1994: 198) Mal kurz nachdenken … Welche Kritik kann man an dieser Begründung üben? Was professionelle Übersetzer leisten können (nämlich selbstverständlich auch lippensynchron übersetzen, falls das gewünscht wird), ist in der Öffentlichkeit eher unbekannt bzw. es wird ignoriert. Tatsächlich werden Übersetzer in der Regel nur bei der Rohübersetzung eingesetzt. Für die Rohübersetzung erhält der Übersetzer keinen Film, sondern lediglich ein Drehbuch oder eine Dialogliste (vgl. Manhart 2006 [1999]: 264). 28. Was kann man mit einer reinen Dialogliste als Übersetzer nicht machen? Von daher lässt sich konstatieren, dass die schlechte Qualität vieler Synchrontexte unweigerlich durch folgende Faktoren bedingt ist: das dreiphasige Textverarbeitungsverfahren, bei dem der Text nie als Text übersetzt wird, die Überzeugung, die Rohübersetzung könne unverbindlich und provisorisch sein, die in deutlicher Diskrepanz steht zu der Verarbeitung der Rohübersetzung durch den Synchronautor … bei der eine Abweichung vom Wortlaut der Rohübersetzung über die Satzebene hinaus praktisch nicht stattfindet. (Herbst 1994: 217) Der Übersetzer soll sich bei der Rohübersetzung auf Bedeutungs- und Formulierungsgenauigkeit konzentrieren, wobei beide Kategorien äußerst vage sind. Oft wird verlangt, dass die Übersetzung „so wörtlich wie möglich“ sein soll, der Übersetzer dann aber in Fußnoten Anmerkungen zum tatsächlichen Sinn machen muss. Für professionell ausgebildete Übersetzer ist das eine sehr unbefriedigende Tätigkeit (siehe Arbeitsablauf). Üblich ist es auch, in Rohübersetzungen Übersetzungsvarianten anzubieten. Zu den Punkten „Wörtlichkeit“, „Anmerkungen“ und „Varianten“ gibt es eine große Anzahl von Beispielen in Herbst (2009: 201 ff.). Nehmen Sie sich einen beliebigen Text vor und übersetzen Sie ihn mit Varianten, die Sie jeweils begründen können. Die „normale“ Rohübersetzung ist unter übersetzungswissenschaftlichen Aspekten also eine Sonderform der Übersetzung: 18231_Juengst_SL4�indd 103 18231_Juengst_SL4�indd 103 19�08�2020 12: 38: 56 19�08�2020 12: 38: 56 104 3 Synchronisation Die Rohübersetzung ist eine wörtliche Übersetzung, die im Prinzip auch die einfachsten Anforderungen an Übersetzungsäquivalenz nicht erfüllt. Sie enthält krasse Verstöße gegen die Äquivalenz der verschiedenen Ebenen, also etwa - im Modell von Koller (1983: 187) - gegen die denotative, konnotative, textnormative, pragmatische und formale Äquivalenz. Darüber hinaus enthält sie gravierende Verstöße gegen die syntaktischen und textuellen Normen der Zielsprache … Die Rohübersetzung wirkt sich entscheidend auf den Synchrontext aus. Die Tatsache, dass der Rohübersetzer den Film in der Regel weder gesehen noch gehört hat, schlägt sich entsprechend negativ im endgültigen Synchrontext nieder … Es liegt nahe, dass die Rohübersetzer keine Perfektion anstreben, nachdem sie davon ausgehen müssen, dass der Text entscheidende Veränderungen erfährt. (Herbst 1994: 216) So lässt sich das Synchronesisch mit seinen Anglizismen laut Herbst auch auf die Praxis der Rohübersetzung mit ihrer Wörtlichkeit zurückführen (Herbst 1994: 204-205). Bräutigam widerspricht dieser Ansicht: Sie [die Rohübersetzung] muss eine zuverlässige, professionelle Übersetzung sein, die vor allem auch großen Wert auf die adäquate Wiedergabe von Slang und Fachausdrücken legen muss. Fehler in der Rohübersetzung fließen meist in den endgültigen Text mit ein. (Bräutigam 2009: 35) Stellen Sie die Aussagen tabellarisch nebeneinander. Diskutieren Sie die Widersprüche. Vermutlich stimmt beides; es kommt auf die Arbeitsanweisung für den Übersetzer an, aber auch auf seine übersetzerische Kompetenz. Diese Rohübersetzung wird vom Dialogbuchautor / Dialogbuchautor-Synchronregisseur bearbeitet. In einem Interview spricht Tobias Meister, der als Dialogbuchautor, Schauspieler und Synchronregisseur tätig ist, den Stellenwert der Rohübersetzung zumindest an, geht aber nicht so weit wie Bräutigam (die beiden Veröffentlichungen erschienen zeitgleich): Obwohl es angesichts seiner Sprachkenntnisse nicht nötig wäre, nutzt Tobias Meister auch bei englischsprachigen Projekten als Grundlage für seine Synchronbücher immer die Rohübersetzung. Das hat mehrere Gründe. Zum einen ist das Erstellen der Rohübersetzung einer der Arbeitsschritte, der, wie das Texten überhaupt, im gesamten Synchronisationsprozess besonders schlecht bezahlt wird. Und er wolle nicht dazu beitragen, dass ‚dieser Berufsstand noch weiter ausgehungert wird.‘ Zum anderen sieht er in der Rohübersetzung für sich auch eine wichtige Kontrollinstanz. ‚Denn wenn alles in einer Hand liegt, besteht immer die Gefahr, dass man Einzelheiten übersieht.‘ (Pahlke 2009: 74) Ob bei der Rohübersetzung wirklich eine professionelle Übersetzung erwartet wird, ist trotzdem fraglich. Herbst vermutet: „Im allgemeinen wird die Rohübersetzung wohl nicht von professionellen Übersetzern angefertigt, sondern von Leuten, die mit dieser Arbeit einen gewissen Nebenverdienst erzielen wollen.“ (2009: 217) Dem entsprechen die aktuelle- 18231_Juengst_SL4�indd 104 18231_Juengst_SL4�indd 104 19�08�2020 12: 38: 56 19�08�2020 12: 38: 56 105 3.5 Einzelaspekte: Die Texte ren Angaben der Deutschen Synchro (in Seifferth 2009: 9), dass man für Rohübersetzungen Studierende heranziehe. Von den Dialogbuchautoren werden dann aber genau die Fertigkeiten gefordert, die sich Übersetzer in ihrer Ausbildung angeeignet haben: Sie sollen in der Lage sein, textsortengerecht, zielgruppengerecht und der Rolle angemessen zu formulieren und über eine ausgezeichnete Sprach- und Kulturkenntnis verfügen. Wenn Rainer Brandt das formuliert, klingt es wie eine Variante der Skopostheorie: „Dann muss man sich eben hinsetzen und überlegen: Was wollte der Drehbuchautor und der Regisseur im Original erreichen? “ (Thiele 2006). In dieser Phase werden sprachliche Fehler laut Herbst oft verbessert (1994: 205; siehe aber das Zitat von Herbst weiter oben 1994: 216), während Bräutigam sagt, sie würden oft in das Dialogbuch mitgeschleppt (siehe oben). Fragen zum Ziel der Übersetzung und zu den Zielgruppen sind professionellen Übersetzern mehr als vertraut. Man kann vermuten, dass sich die bestehenden Arbeitsabläufe schlichtweg eingebürgert haben. Herbst zweifelt im Endeffekt den Sinn der Rohübersetzung überhaupt an und schlägt eine neue pragmatische Übersetzungsstrategie für Synchrontexte vor, die die Kompetenzen professioneller Übersetzer würdigt: Dabei erscheint es für viele Filme, die synchronisiert werden, äußerst zweifelhaft, ob eine Rohübersetzung überhaupt sinnvoll bzw. ob sie angesichts des starken Einflusses, den die Rohübersetzung nachweislich auf den endgültigen Synchrontext hat, nicht eher hinderlich ist … Es erscheint durchaus möglich, zumindest in den Bereichen, in denen es aufgrund der Menge der synchronisierten Filme finanziell durchführbar ist, auf die Rohübersetzer ganz zu verzichten. Die Synchronübersetzungen sollten von ausgebildeten Übersetzern mit einer Zusatzausbildung zur Synchronisation angefertigt werden. (Herbst 1994: 260). Man kann es auch undiplomatisch und direkt formulieren: „Der Übersetzer soll den vielfältigen Spezialanforderungen der Synchronübersetzung nicht gerecht werden und der Synchronautor tut dies ganz offensichtlich nicht immer im erforderlichen Maße.“ (Reinart 2004: 106) Nehmen Sie sich trotzdem einen Drehbuchausschnitt für eine Rohübersetzung vor (1-2 Seiten reichen). Wie viele Anmerkungen haben Sie im fertigen Text? Wie viel Zeit haben Sie benötigt? Man kann diese Aufgabe auch im Gruppenvergleich durchführen: Die eine Gruppe macht eine Rohübersetzung, die andere eine Übersetzung, die direkt als Synchronbuch genutzt werden könnte. 3.5.1 Fachsprache im Film In Unterhaltungsfilmen erwartet man zunächst keine Fachsprache. Sie haben aber alle schon Filme und Serien gesehen, in denen die Fachsprachlichkeit eine große Rolle spielt. Denn je nachdem, in welcher Zeit und in welchem beruflichen Milieu ein Film spielt, kann man mit einer Vielzahl von Fachbegriffen konfrontiert werden. 18231_Juengst_SL4�indd 105 18231_Juengst_SL4�indd 105 19�08�2020 12: 38: 57 19�08�2020 12: 38: 57 106 3 Synchronisation Mal kurz nachdenken … Welche Fachsprachen / Themengebiete fallen Ihnen ein? Was bedeutet das für die Übersetzer? Am typischsten sind Ärzteserien. Seifferth urteilt über Emergency Room : … wie das Beispiel der Serie Emergency Room zeigt, können sie in Teilen sogar als fachlich hochwertig, fast schon lehrreich eingestuft werden … hebt sich Emergency Room aus dem Spektrum thematisch verwandter Serien hervor als eine der wenigen fachsprachlichen Serien, die an die Übersetzung den Anspruch stellen, die medizinische Terminologie korrekt zu übertragen und Unterschiede in den Gesundheitssystemen sowie in der Pharmakologie umzusetzen. (Seifferth 2009: 1) Auch andere Themen verlangen fachsprachliche Korrektheit. Es gibt immer Fachleute, gleich zu welchem Thema, die Fehler brandmarken. Im Fall der Fachsprache ist eine solche Kritik berechtigt. Der Zuschauer darf erwarten, dass die Übersetzungen in diesen Bereichen korrekt sind. Unser Wissen über viele Fachgebiete stammt aus Filmen und Serien, auch wenn man so etwas nicht gern zugibt. 29. Welche Fachgebiete fallen Ihnen noch ein? Fachsprache muss nicht immer realistisch sein. Es gibt auch halb fachliche, halb erfundene Terminologien. 30. In welchem Genre erwarten Sie solche Terminologien? Zu den Themen Fachsprache und Übersetzung sowie zur Terminologieverwaltung liegt eine große Menge an übersetzungswissenschaftlicher Literatur vor. Für Serien ist eine solche Terminologieverwaltung wichtig, auch wenn es sich um erfundene Terminologien handelt (siehe dazu auch Kapitel 8, Games ). 3.5.2 Mehrsprachige Filme und Dialekt im Film Nicht alle Filme sind einsprachig. In vielen Filmen werden zwei oder mehr Sprachen gesprochen oder es kommen zumindest Dialekte vor, die den Film für Unkundige mehrsprachig machen können. Mal kurz nachdenken … Sicher haben Sie schon solche Filme gesehen! Welche fallen Ihnen ein? Weiter unten kommt ein Spoiler. 18231_Juengst_SL4�indd 106 18231_Juengst_SL4�indd 106 19�08�2020 12: 38: 57 19�08�2020 12: 38: 57 107 3.5 Einzelaspekte: Die Texte Mehrsprachige Filme sind für die Forschung im Bereich Synchronisation und Untertitelung so interessant, dass es einen eigenen großen internationalen Forscherzusammenschluss zu diesem Thema gibt, trafilm.net. Mit der Forschung zu diesem Thema ist besonders der Name Zabalbeascoa verbunden, wie auch die der anderen Mitglieder von Trafilm. 27 Dort werden verschiedene Formen der Mehrsprachigkeit in Filmen und den dazugehörigen Synchronisationen in unterschiedliche Sprachen untersucht. Auch bei der Untertitelung ergeben sich Probleme, wenn in einem Film mehrere Sprachen gesprochen werden. Welche könnten das sein? Bitte im Kapitel Interlinguale Untertitelung nachschauen! Zur Untertitelung mehrsprachiger Filme siehe Bartoll 2006. Bei der Verwendung mehrerer Sprachen im Originalfilm (also von mehreren Ausgangssprachen) können zwei grundlegende Fälle auftreten. Erstens kann zur Ausgangssprache 1 eine Ausgangssprache 2 (und weitere) kommen, die alle nicht identisch mit der Zielsprache sind. Im zweiten Fall kommt zur Ausgangsprache 1 eine Ausgangssprache 2, die identisch mit der Zielsprache ist. Das sieht beispielsweise so aus: Im ersten Fall ist die dominante Ausgangssprache 1 Englisch, an manchen Stellen des Films wird als Ausgangssprache 2 Spanisch eingesetzt; in der Synchronfassung wird Deutsch (Zielsprache) statt Englisch (Ausgangssprache 1) gesprochen. Im zweiten Fall wird mitten in einem englischsprachigen Film (Ausgangssprache 1) Deutsch (Ausgangssprache 2) gesprochen. Auch hier wird in der Synchronfassung Deutsch (Zielsprache) statt Englisch gesprochen. Mal kurz nachdenken … In beiden Fällen gibt es mehrere grundlegende Lösungsmöglichkeiten für die Ausgangssprache 2, die alle ihre Fürsprecher haben. Welche könnten das sein? Wovon könnte die Entscheidung abhängen? Wenn die Ausgangssprache 2 nicht identisch mit der Zielsprache ist, kann man die betreffenden Textstellen so belassen wie im Original. Oft dient der Einsatz von Fremdsprachen im Film nur dem Lokalkolorit. Mal kurz nachdenken … Was sagen die Personen denn so, wenn sie diese Fremdsprache benutzen? 27 Wer sich für diese Forschung interessiert, kann unter https: / / repositori.upf.edu/ handle/ 10230/ 28223 eine Handreichung für die Trafilm-Einträge herunterladen. Die Sonderform des „polyglotten Films“ mit seinen Subgenres wird auch in Wahl 2003 erläutert. Heiss (2004) bietet einige Lösungsvorschläge zum Thema. 18231_Juengst_SL4�indd 107 18231_Juengst_SL4�indd 107 19�08�2020 12: 38: 58 19�08�2020 12: 38: 58 108 3 Synchronisation Oft werden Figuren dadurch charakterisiert, dass sie die Hauptsprache des Films als Fremdsprache sprechen, gern mit einem charmanten Akzent, und nur Einsprengsel ihrer Muttersprache verwenden. Interessanterweise sind das immer nur Ausdrücke, die die Kinozuschauer verstehen. Falls die Ausgangssprache 2 aber durchgehend und natürlich gesprochen wird, gibt es mehrere Möglichkeiten. Man kann die Ausgangssprache 2 belassen und untertiteln, wenn man davon ausgeht, dass das Publikum der Zielsprachenfassung schlechtere Kenntnisse dieser Sprache hat als das Publikum der Originalfassung. Diese Möglichkeit wird man auch dann wählen, wenn die Ausgangssprache 2 bereits im Originalfilm untertitelt wird. Eine weitere Möglichkeit besteht darin, die Ausgangssprache 2 in einer deutsch synchronisierten Fassung anzubieten, aber mit dem Akzent der Ausgangssprache 2. Schließlich kann man auch alles einebnen und den gesamten Film deutsch synchronisieren, ohne auf die Mehrsprachigkeit des Originals einzugehen 28 . Wenn es sich um eine seltene Sprache handelt oder wenn Nicht-Verstehen gar das Thema der Szene ist, wird man die Sprache nicht ersetzen und auch nicht untertiteln. Eine ungewöhnliche Entscheidung wurde für die deutsche Fassung der Serie Heroes getroffen, in der in der Originalfassung Englisch und Japanisch gesprochen wird (ausführlich dazu Kasper 2009). Wenn Sie diese Analyse nachvollziehen möchten, sollten Sie allerdings Zeit mitbringen. Wenn die Ausgangssprache 2 identisch mit der Zielsprache ist, sind die Probleme weit komplexer. Wenn man diese Stellen so belässt wie im Original, erhält man einen Einebnungseffekt. Sie fallen nicht mehr auf und die intendierte Wirkung geht in jedem Fall verloren. Man muss hier allerdings erwähnen, dass man die intendierte Wirkung auch dann nicht immer erhalten kann, wenn man die ursprüngliche Fremdsprache belässt. Unterschiedliche Kulturgemeinschaften reagieren unterschiedlich auf Fremdsprachen. So hat für Zuschauer in den USA Spanisch andere Konnotationen als für Zuschauer in Europa. 31. Ein unerwartetes Beispiel für den Einebnungseffekt durch eine Synchronisation findet sich in Waltz with Bashir (Israel / Frankreich / Deutschland 2008). Sehen Sie sich die DVD zunächst in der deutschen Synchronfassung an. Wo wird wohl auch im Original Deutsch gesprochen? Ein kleiner Tipp: Das Bild gibt einen Hinweis. Sehen Sie sich dann den Film in der hebräischen Originalfassung an. Und: Wie wirkt der Einsatz der deutschen Sprache in diesem Zusammenhang wohl auf israelische Zuschauer? 28 Sternberg (1981) bietet eine ausgezeichnete Übersicht über das Thema Polylingualismus mit einer Auflistung häufig vorkommender Typen der Mehrsprachigkeit im Film. Leinert beschreibt die Entscheidung für die jeweils eingesetzte Sprache anhand von Madame Mallory und der Duft von Curry ( 100 Foot Journey , Indien / USA 2014) (Leinert 2015: 52) 18231_Juengst_SL4�indd 108 18231_Juengst_SL4�indd 108 19�08�2020 12: 38: 59 19�08�2020 12: 38: 59 109 3.5 Einzelaspekte: Die Texte Ein Film, der von interkulturellen Zusammentreffen und dem Einsatz unterschiedlicher Sprachen lebt, ist L’Auberge Espagnole - Barcelona für ein Jahr (Frankreich / Spanien 2002). Neben mehreren anderen Sprachen kommt hier auch Deutsch vor. Dazu kommen verschiedene deutsche Synchronfassungen für das Kino und für die DVD. Vergleichen Sie das Original und die deutschen Fassungen! Die Ausgangssprache 2 kann auch ein Dialekt oder ein Soziolekt sein. Beide sind ausgesprochen schwer für eine Synchronisation zu übersetzen. Mal kurz nachdenken … Warum denn? Dialekte werden in den Ländern mit der gleichen Hochsprache sehr stark mit kulturspezifischen Verhaltensweisen oder Kleidung verknüpft. 32. Stellen Sie sich jemanden vor, der Bayerisch spricht. Jemanden, der Plattdeutsch spricht. Welches Temperament ordnen Sie diesen Personen zu? Wenn Sie nicht in Bayern leben: Könnten Sie unterschiedliche bayerische Dialekte unterscheiden? Zu dialektbezogenen Stereotypen und der Behandlung von Dialekten bei der Synchronisation siehe auch Herbst (1994: 50 ff.) 33. Wie sieht es mit Soziolekten aus? Falls Sie Französisch können: Verstehen Sie Verlan? Falls sie Englisch können: Wie sieht es mit Cockney Rhyming Slang aus? Ein Beispiel, das als gelungen gilt, ist Willkommen bei den Schʼtis ( Bienvenue chez les Ch’tis , Frankreich 2008). 34. Wie finden Sie die Synchronversion? Sie können sie auch mit dem Original vergleichen, wenn Sie kein Französisch verstehen und nur einen Klangeindruck haben. Und: Haben Sie eine ähnliche Lösung vielleicht schon einmal an anderer Stelle gelesen? 35. Nehmen Sie einen Text in einem Ihnen geläufigen Dialekt („regionale Literatur“ gibt es in jedem Dialekt), passen Sie ihn so ans Hochdeutsche an, dass er verständlich für alle erscheint, dass aber klar ist, woher der Sprecher kommt. Wie haben Sie das gemacht? Dialekte waren in den 1950er / 1960er Jahren ein Gestaltungsmittel in deutschen Synchronisationen, das nicht immer überzeugend eingesetzt wurde: 18231_Juengst_SL4�indd 109 18231_Juengst_SL4�indd 109 19�08�2020 12: 39: 00 19�08�2020 12: 39: 00 110 3 Synchronisation Es mag angehen, dass Eliza Doolittle in My Fair Lady vom Cockney-Englisch zur Berliner Schnauze wechselt. 29 Wenn Klaus Kinski in Billy Wilders Buddy, Buddy als Psychiater in New York sächselt, lacht heute niemand mehr. Kinski hätte diese Ermordung seiner Rolle durch Synchronisation niemals selber ausgeführt. In der B-Klasse freilich galt es damals als ausgemacht, dass ein deutscher Dialekt in möglichst exotischem Ambiente das Publikum zu Lachstürmen hinreißt. Da mußte [sic] ein koreanischer General im Kampf gegen ein Riesenmonster bayrisch sprechen oder ein chinesischer Piratenführer in einem Historienfilm aus Hongkong wie der Charge aus dem Hamburger Ohnsorg-Theater. (Metz / Seeßlen 2009) 36. Schauen Sie ins Inhaltsverzeichnis zu diesem Kapitel! Zu welchen beiden Sonderfällen passt dieses Zitat auch? Die verschiedenen Sprachfärbungen vom Englischen ins Deutsche zu übertragen ist ein Riesenproblem. Ich habe 2012 Django Unchained von Quentin Tarantino synchronisiert. Das Englisch in den Dialogen der Sklaven weicht zum Teil auch grammatikalisch von der Standardsprache ab. Dieses ‚Black American‘ haben wir in ein einfaches Deutsch übersetzt. Schwierig wurde es aber bei dem Plantagenbesitzer Calvin Candie. Leonardo DiCaprio spricht in der Rolle ein ‚Southern American‘, ein eigentümlicher Singsang, der Teile des ‚Black American‘ aufgreift. Dafür gibt es kein sprachliches Adäquat im Deutschen. In solchen Situationen orientiere ich mich stärker an der Figurencharakterisierung. Gerade in dem Spiel DiCaprios gibt es viele Charaktereigenschaften - Verschlagenheit, Trunksucht - mit denen wir arbeiten konnten, damit die Figur in der Synchronfassung glaubhaft bleibt. Dabei ist natürlich auch die Besetzung wichtig, einen deutschen Schauspieler zu haben, der die Persönlichkeit des Originals trifft - auch wenn seine Stimme ein ganz anderes Timbre hat. Man fragt sich: Kommt diese Stimme aus dem Gesicht (Cierpka 2017) Untertitel wie „Im Original deutsch“ stören, sogar bei Arthouse-Filmen. Sie kommen aber durchaus vor, wenn die Sprachen handlungstragend sind. In solchen Fällen wird die Ausgangssprache 2 Deutsch daher gern durch eine Zielsprache 2 ersetzt. Besonders gern wird das bei Dolmetschszenen gemacht, denn diese sind oft bedeutungstragend und sollen in irgendeiner Form erhalten bleiben. Natürlich ist das nur eine Notlösung. Die intendierte Wirkung geht allein schon dadurch verloren, dass die unterschiedlichen Sprachen unterschiedliche Konnotationen haben. Trotzdem gibt es Traditionen, welche Sprache durch welche andere Sprache ersetzt wird. Diese Traditionen finden sich auch bei der Untertitelung (Ivarsson / Carroll 1998: 114 ff., hier zitiert in Kapitel 2.4.2). Ein typisches Ersatz-Sprachpaar findet sich im Beispiel zur nachfolgenden Aufgabe: 29 Der Komponist von My Fair Lady , Frederick Loewe, war ein Emigrant aus Berlin. Er fand die Entscheidung für Berlinerisch sehr gut und soll zu „Et jrünt so jrün“ für „The Rain in Spain“ gesagt haben, es klinge: „Janz jenauso, wenn nicht noch schöner! “ (Plattenhülle My Fair Lady, Philips o. J.) 18231_Juengst_SL4�indd 110 18231_Juengst_SL4�indd 110 19�08�2020 12: 39: 00 19�08�2020 12: 39: 00 111 3.6 Sonderfälle 37. In der Krankenhausserie Scrubs - Die Anfänger wird in der Folge „My interpretation“ (Staffel 2, Folge 20) im Original ein deutscher Patient behandelt. Sehen Sie sich die englische und die deutsche Fassung („Meine Interpretation“) dieser Folge an. Wo genau liegen die Probleme? Welcher Lösungsversuch wurde unternommen? Vermutlich kennen Sie die Dolmetschszene aus Tarantinos Inglourious Basterds (USA 2009). Wenn nicht: Schauen Sie sich das Original an und versuchen Sie dann Ihr Glück beim Übersetzen. Schauen Sie sich danach die deutsche Synchronfassung an. Großartig, oder? Die Übersetzung ist ein gelungener Fall von Transkreation. Das Dialogbuch stammt von Alexander Löwe, die Dialogregie führte Norman Matt. Fachliches dazu in Mingant (2010). 3.6 Sonderfälle 3.6.1 Fandubs Unter Fandubs versteht man Synchronfassungen von Filmen, Serien oder Musikvideos, die von Fans, also von Amateuren, angefertigt wurden. Fandubs (von engl. „to dub“ - synchronisieren) sind ebenso illegal wie Fansubs (siehe Kapitel 2.5.3), falls sie veröffentlicht werden. Es ist aber nicht verboten, zum eigenen Vergnügen eine Fandub herzustellen. Die Encyclopedia of Translation Studies enthält keine Definition zu diesem Begriff. Chaume führt die nachfolgende Definition an, vermischt aber dabei Fandubs und Fundubs: Fandubs or fundubs are home-made dubbings of television series, cartoons (particularly the anime genre) and trailers for films that have not yet been released in the target language country. Fandubs are usually made by fans of these genres; they download the film texts from Internet and, using a digital sound editing program, manipulate or eliminate the soundtrack of the original text and record and insert the dubbed track they record at home using a microphone. (Chaume 2013: 111) Im vorliegenden Buch werden Fundubs als eigene Kategorie geführt. Im Gegensatz zu Fundubs sind Fandubs nicht unbedingt lustig. Sie sind einfach Ausdruck des Fan-Seins. Ebenso wie Fansubs haben sich Fandubs in der Anime-Szene besonders gut entwickelt. Die heutigen technischen Möglichkeiten verführen viele Amateure zum Fandub. So findet man auf YouTube immer wieder Filme, in denen Mitstreiter für Anime-Fandubs gesucht werden. YouTube ist auch eine gute Quelle für (meist illegale) Fandubs anderer Genres. Die Entstehungsgeschichte von Fandubs und die Motivation der Fandubber entsprechen denen der Fansubs und Fansubber. Wie bei den Fansubs liegt der unbestrittene Vorteil der Fandubs darin, dass ein zuvor unbekannter Film bzw. eine Serie einem breiteren Publikum zugänglich gemacht wird. Doch auch hier muss darauf hingewiesen werden, dass Fandubs nicht im Interesse der 18231_Juengst_SL4�indd 111 18231_Juengst_SL4�indd 111 19�08�2020 12: 39: 01 19�08�2020 12: 39: 01 112 3 Synchronisation Kulturschaffenden sind, die mit Filmen schließlich ihr Geld verdienen müssen. Wer also unbedingt in der Fandub-Szene tätig werden will, hat zwei Möglichkeiten: Entweder er besorgt sich eine offizielle Erlaubnis dafür, einen professionellen Film zu synchronisieren (was schwierig ist). Oder er beschränkt sich auf Filme, deren Copyright abgelaufen ist. Oder er schließt sich mit Amateurfilmern zusammen und synchronisiert deren Werke. Alles andere ist rechtswidrig. Aber eine kritische Fandub zu einem Film, bei denen Ihnen die Synchronfassung nicht gefällt, können Sie ja auch live zu einer DVD einsprechen. 3.6.2 Fundubs Wie der Name schon sagt, werden Fundubs rein zum Spaß für Macher und Zuschauer erstellt, und zwar ebenso wie Fandubs in der Regel von Amateuren. Fundubs sind aber im Gegensatz zu „normalen“ Fandubs Parodien; die betroffenen Filme müssen also schon einen gewissen Bekanntheitsgrad haben, damit die Parodie als lustig wahrgenommen wird. Eines der bekanntesten frühen Fundub-Opfer war die Serie Raumschiff Enterprise (Star Trek) , aber auch die Herr der Ringe -Parodie Lord of the Weed ist sehr beliebt. Fundubs haben ihre eigenen Fans und sind trotz ihrer mangelnden Legalität aus dem Internet nicht mehr wegzudenken. Immer wieder liest man auch die Bezeichnung goblin translation , die sich vom Spitznamen eines russischen Filmübersetzers und -sprechers herleitet, Dmitrij Jurjewitsch Putschkow, der als Fundubber anfing, so populär wurde und inzwischen auch Profi-Filmübersetzungen macht. (https: / / en.wikipedia.org/ wiki/ Dmitry_Puchkov) (siehe dazu auch „Slawische Synchro“, Kapitel 3.6.4). Schauen Sie sich im Internet einen Ausschnitt aus Lord of the Weed an. Welche Merkmale der Synchronisation sind wohl typisch für Fundubs? Es ist aber nicht so, dass die Fundub ein rein jugendlich-anarchistisches Vergnügen wäre. Es gibt auch gutbürgerliche Fundubs. Der Künstler Dodokay (Dominik Kuhn) produziert schwäbische Fundubs zu Ausschnitten bekannter Filme. Sogar Dr. Mabuse gibt es auf Schwäbisch (www.swr.de/ swr2/ film/ neu-im-kino-dodokay-vertont-dr-mabuse-auf-schwaebisch-filmkritik/ -/ id=20993170/ did=22305102/ nid=20993170/ s35ys/ index.html). Eine besondere Version der Fundubs, die von ihrem Schöpfer als Kunstform bezeichnet wird, sind die Literal Videos (www.spiegel.de/ netzwelt/ web/ 0,1518,663720,00.html). Dustin McLean hat sich einiger Musikvideos der 1980er angenommen und singt zur Originalmusik neue Texte, die das beschreiben, was man im Bild sieht. Auch das zeigt sehr schön die kreativen Möglichkeiten, die die Synchronisation bietet. Und wenn Sie gern singen, gleich ob Sie es können oder nicht, macht das wirklich Spaß. 18231_Juengst_SL4�indd 112 18231_Juengst_SL4�indd 112 19�08�2020 12: 39: 01 19�08�2020 12: 39: 01 113 3.6 Sonderfälle 38. Das Thema hat auch Anknüpfungspunkte zu kreativen Ansätzen in der Audiodeskription. Woran liegt das? 39. Schauen Sie sich das Fundub Virales Marketing auf dem Todesstern Stuttgart an. Wirklich ein Fundub? Oder ein cleverer Werbeschachzug? 3.6.3 Schnodder-Synchron Schnodder-Synchron ist kein wissenschaftlicher Fachausdruck, er ist aber so anschaulich, dass er hier verwendet werden soll. Man versteht darunter Synchronfassungen, die deutlich vom Original abweichen und die unter Umständen frei, also ohne vorliegendes Dialogbuch, eingesprochen werden. Die Schnodder-Synchron hat durch ihren freien Umgang mit dem Original und die unterhaltsamen Ergebnisse Ähnlichkeit mit der Fundub. Die Produkte liefen und laufen jedoch ganz legal in Kinos und im Fernsehen. Erfunden wurde diese Synchrontechnik (vermutlich) von Rainer Brandt, der zusammen mit Karl-Heinz Brunnemann für die deutsche Fassung der Serie Die 2 ( The Persuaders ) verantwortlich war. Brandt schildert sein damaliges Vorgehen folgendermaßen: Es war also so: Wir haben die überfahren! Das ging ganz, ganz schnell. Die sagten: ‚Wir müssen die erste Folge eine Woche früher senden, kriegt ihr das hin? ‘ Und wir haben uns das angesehen und dann gesagt: ‚Ja, das kriegen wir schon hin. Aber wir machen das etwas lockerer.‘ … Als wir dem ZDF-Redakteur dann das Ergebnis unserer Synchronfassung der ersten Folge von Die 2 vorführten, da lachte er Tränen und klopfte sich auf die Schenkel. Am Schluss wischte er sich die Lachtränchen aus den Augen und sagte: ‚Okay, das war sehr lustig. Und jetzt zeigt mir bitte die richtige Fassung.‘ Aber wir hatten ja keine andere Fassung und der Sendetermin stand kurz bevor, also wurde das gesendet. Ich dachte, dass das ZDF mich nach der Ausstrahlung mit Maschinengewehren vom Gehöft jagt, aber das Ding kam an. (Stegemann 2005) In Deutschland ist und war Die 2 ein Riesenerfolg und wurde und wird fast schon in einer Endlosschleife im Fernsehen wiederholt. Wer sich wundert, warum das Original im Gegensatz dazu schnell in der Versenkung verschwand, muss es sich nur einmal anschauen. Die witzigen Dialoge sind nur in Ansätzen vorhanden - an vielen Stellen fehlen sie ganz. Die Figuren erzählen dann im Original deutlich langweiligere Geschichten oder sprechen überhaupt nicht. 30 Auch die in Deutschland sehr beliebten Bud-Spencer-Filme wurden von Brandt einer Schnodder-Behandlung unterzogen. Hier führt schon der Blick auf die Darstellerliste zu der Erkenntnis, dass zwischen der italienischen Originalversion und der deutschen Synchronfassung Welten liegen. 30 Eine Sammlung der beliebtesten Sprüche aus Die 2 steht unter http: / / www.taz.de/ 1/ archiv/ archiv/ ? dig=2005/ 08/ 16/ a0118. 18231_Juengst_SL4�indd 113 18231_Juengst_SL4�indd 113 19�08�2020 12: 39: 02 19�08�2020 12: 39: 02 114 3 Synchronisation Wenn die Namen Bud Spencer und Terence Hill genannt werden, denken wahrscheinlich nur wenige Menschen an Rainer Brandt. Als Dialogregisseur war er jedoch maßgeblich am Erfolg der Terence Hill und Bud Spencer Filme in Deutschland beteiligt. Seine Ideen (und später auch die von Karlheinz Brunnemann und Horst Sommer) für die Übersetzungen ins Deutsche, waren ein Erfolgsgeheimnis. Er führte bei einigen Spencer / Hill Filmen Dialogregie und legte den Schauspielern völlig neue Worte und Sätze in den Mund. (www.spencer-hill.de/ synchronsprecher/ rainer-brandt/ ) Mit Gott vergibt - Django nie! kam der Film 1969 in die deutschen Kinos. Für die späteren erneuten Ausstrahlungen in den Jahren 1971 und 1973 wurde der Titel umgeändert in Gott vergibt - wir beide nie! Eine erneute Wiederaufführung im Jahr 1981 führte zu einem weiteren Wechsel des Titels: Zwei vom Affen gebissen . Diese Synchronisation sollte dem Film mehr Witz verleihen und auch für das jüngere Publikum geeignet sein. (www.spencer-hill.de/ filme/ gott-vergibt-django-niezwei-vom-affen-gebissen-gott-vergibt-wir-beide-nie/ ) Brandt gab den Nebenrollen erst einmal lustige Namen - und auch hier bekommen sie Text, den sie im Original überhaupt nicht haben. Schon an den veränderten Filmtiteln sieht man, dass mit den Filmen etwas passiert ist. Auf schnittberichte.com finden sich ausführliche Vergleiche der alten und neuen Versionen. Der große Erfolg dieser Produktionen müsste eigentlich überraschen. Sollte nicht jeder Zuschauer gleich vor Entsetzen aufschreien, wenn so viel Text kommt, ohne dass jemand sichtbar spricht? Oder sollte das Publikum nicht gründlich verschnupft sein, wenn es erfährt, dass es bei der Synchronfassung keineswegs das geboten bekommen hat, was das Original bietet? Was meinen Sie? Eigentlich ist dieses Verfahren doch ebenso verfälschend wie die aus politischen und moralischen Gründen verfälschende Synchronisation. Oder? Bräutigam (2009: 37) sieht Schnodder-Synchron sehr kritisch. Das tun auch Metz / Seeßlen: Aus einem kulturellen Übersetzungsprozess wurde spätestens hier ein Akt kultureller Barbarei. Rainer Brand [sic], ein Spezialist für diese Art der Brachial-Synchronisation, formulierte dazu ein dankenswert offenes Arbeitsprogramm: ‚Wenn kein Supervisor da ist, der darauf besteht, genau am Originaltext zu bleiben, und ich merke, der Text ist nicht gut, drehe ich den Ton ab, schaue mir die Schauspieler an und schreibe was auf die Gestik. Und dann wird‘s auch komisch. Aus einer Geschichte über ABC-Waffen und Mao Tse Tung wird im Handumdrehen die Story eines Drogenhändlers in Florida. Hauptsache, es passt zum Bild.‘ (Metz / Seeßlen) 40. Die Serie Die 2 ist auf DVD erhältlich. Schauen Sie sich einen Ausschnitt an - und sehen Sie genau hin! Was tun die Schauspieler, während der deutsche Text weiterläuft? Warum fällt uns das so wenig oder gar nicht auf ? 18231_Juengst_SL4�indd 114 18231_Juengst_SL4�indd 114 19�08�2020 12: 39: 02 19�08�2020 12: 39: 02 115 3.6 Sonderfälle Wie bereits weiter oben beim Thema Lippensynchronität erwähnt wurde: Den meisten Zuschauern fällt dieser Sachverhalt tatsächlich erst auf, wenn sie darauf hingewiesen werden. 41. Bei welchen Filmgenres passt Schnodder-Synchron? Bei welchen Genres wäre sie absolut unangemessen? 3.6.4 Slawische Synchro Die so genannte slawische Synchronisation wird auch in anderen Kapiteln erwähnt (Kapitel 4 Voice-over, Kapitel 5 Filmdolmetschen). Außerhalb einiger slawischer Länder ist sie völlig unüblich, und auch dort wird sie immer seltener. Wer keine slawische Sprache spricht, hat vermutlich noch nie eine slawische Synchro gehört. Chaume (2013: 108) benutzt als englische Bezeichnungen Russian dubbing und Gavrilov translation . Letztere „is the term used to refer to voice-over in Russian circles, and takes its name from a celebrated narrator, Andrei Gavrilov, who popularised this mode in Russia during the early years of the Brezhnev era.“ (ebd.) 31 Auch hier wird oft die goblin translation angeführt (Chaume 2013: 110 stellt es in die Untergruppe „free commentary“), doch auch wenn nur ein Sprecher zu hören ist, passt letzteres Verfahren ebenso gut in den Bereich Fundubs. Die Bezeichnung „slawische Synchro“ leitet sich davon ab, dass es hier um die Übersetzung von Spielfilmen geht, die in anderen Ländern synchronisiert oder untertitelt würden. Man könnte die slawische Synchro auch einfach als Voice-over bezeichnen, denn technisch gesehen ist sie genau das (vgl. dazu auch Wahl 2003: 147). Voice-over bringt man in den meisten Ländern aber nicht mit Spielfilmen in Verbindung, so dass sich diese Sonderbezeichnung eingebürgert hat. Böse Zungen behaupten, dass die slawische Synchro die Nachteile von Untertitelung und Synchronisation kombiniert: Man hört den Originalton nicht richtig und hat so weder die Originalstimmen noch einen Sprachlerneffekt, aber man hat auch nicht die Illusion, einen originalsprachlichen Film zu sehen. Der Einsatz der slawischen Synchro ist in den einzelnen slawischen Ländern unterschiedlich. Polen ist das Paradebeispiel für einen noch immer häufigen Einsatz von Voice-over bei Spielfilmen, wobei dieses Verfahren im Fernsehen üblich ist (im Kino wird meist untertitelt, vgl. Bogucki 2004: 71). Meist spricht beim Voice-over für Filme ein männlicher Sprecher alle Rollen; manchmal teilen sich ein Mann und eine Frau die Rollen. Wer noch nie eine solche Filmfassung gesehen und gehört hat, stellt sie sich grotesk vor. Tatsächlich ist es aber nicht unangenehm. Die Stimmen sind relativ neutral; man hört den Klang der Originalstimme durch wie sonst auch beim Voice-over. Allerdings wird bei der slawischen Synchro nicht unbedingt kurz nach dem Originalsprecher eingesetzt wie sonst beim Voice-over, sondern zeitgleich mit dem Originalsprecher. Die slawische Synchro ähnelt also dem Live-Einspre- 31 Der Artikel von Chaume enthält leider sehr wenige Querverweise und kaum Quellenangaben - für einen wissenschaftlichen Artikel sehr ungewöhnlich. Bei solchen ausgefallenen Themen und Verfahren empfiehlt sich ausnahmsweise der Griff zur Wikipedia. 18231_Juengst_SL4�indd 115 18231_Juengst_SL4�indd 115 19�08�2020 12: 39: 03 19�08�2020 12: 39: 03 116 3 Synchronisation chen (siehe Kapitel 5 Filmdolmetschen), nur ist sie nicht live. Wer an die slawische Synchro gewöhnt ist, findet sie natürlich nicht seltsam: Voice-over, where the target text is read out by a lektor and superimposed on the original, which is also audible, originated in the former Soviet Union and was brought to Poland, where it still enjoys popularity. According to recent research (a poll by Inst. SMG KRC Poland, 2002) 50.2% of Poles prefer voice-over and 43.4% opt for dubbing; subtitling has only 8.1% supporters. (Bogucki 2004: 71) Ebenso wie die meisten Kinobesucher und Fernsehzuschauer in Untertitelungsländern und Synchronländern gewöhnlich von der Qualität des gewohnten Verfahrens überzeugt sind (siehe Kapitel 1.4), sind es hier diejenigen, die Voice-over gewohnt sind. Wie oben angemerkt, verändert sich die Sachlage, und man muss darauf hinweisen, dass Boguckis Zahlen, die von 2004 stammen, mithin gut 15 Jahre alt sind. Geradezu eine Umkehrung der slawischen Synchro aus künstlerischen Gründen schildert Foerster: Night Watch , a fantasy action thriller, is the first film of a trilogy based on Russian author Sergei Lukyanenko’s Nochnoj Dozor series. For the English-language release, the voice-over in the opening-sequence is narrated in Russian-accented English whereas the dialogue in the film itself is subtitled. (Foerster 2010: 86) Leider ist die slawische Synchro auf hier erhältlichen DVDs selten. Wenn bei den Tonspuren Polnisch angegeben ist, ist dies jedoch meist eine slawische Synchro. Nehmen Sie sich Zeit, wenn Sie zum ersten Mal eine solche Fassung sehen / hören und lassen Sie sich nicht von Ihren Vorurteilen leiten. Und dann? Machen Sie natürlich selbst eine! Ein ganz klarer Vorteil der slawischen Synchro sind die niedrigeren Kosten. Ein Publikum, das an diese Technik nicht gewöhnt ist, wird sich wohl kaum mit diesem Argument dazu bekehren lassen. Wie bei allen Aspekten der Filmübersetzung spielt die Macht der Gewohnheit eine große Rolle. 3.6.5 Erzähler Wenn ein Film nachträglich mit einer Erzähler-Tonspur versehen wird, handelt es sich nicht wirklich um eine Synchronisation, sondern um eine hinzugefügte Audiokommentar-Spur. Oft finden sich Parallelen zum Voice-over und der slawischen Synchro, da die Erzähler nicht immer nur einen Kommentar einsprechen, sondern auch Texte für die handelnden Figuren. Allerdings wird die originale Dialogspur normalerweise völlig weggeschaltet, wenn ein Erzähler eingesetzt wird, oder man fügt die Erzähler-Spur einem Stummfilm hinzu. In den 1910er Jahren gab es bei Filmaufführungen eine ähnliche Technik: 18231_Juengst_SL4�indd 116 18231_Juengst_SL4�indd 116 19�08�2020 12: 39: 03 19�08�2020 12: 39: 03 117 3.6 Sonderfälle In der Frühzeit des Films übernahm der Erklärer, auch Rezitator oder Conferencier genannt, die Aufgabe des Vermittlers zwischen dem Film und seinem Publikum … Die Funktion des Erklärers entspricht exakt der der Zwischentitel, mit dem großen Unterschied, daß der Erklärer ausführlicher, eindringlicher und der Situation angepaßter vorgehen konnte. Der Unterschied zwischen geschriebenem Text und Live-Kommentar zeigt, wie wichtig die Kombination von Bühnenvortrag und Filmkonserve im frühen Kino noch gewesen ist (Wahl 2003: 83) Ein typisches Beispiel für den modernen Einsatz eines Erzählers ist die Serie Väter der Klamotte , die in der Bundesrepublik Deutschland der 1970er eine beliebte Vorabendunterhaltung bot. In dieser Serie wurden Kurzfilme aus der Stummfilmära mit Musik und einem Text unterlegt. Diesen Text sprach Hanns Dieter Hüsch ein. Zwar wurden von vornherein gute Filme ausgewählt; die witzigen Texte und Hüschs Talent dafür, den Figuren jeweils eine eigene Stimme zu verleihen, schufen aber einen echten Mehrwert für ein Publikum, das Stummfilme nicht mehr wirklich gewohnt war. Schauen Sie sich einen solchen Film an! Worin bestehen Parallelen zum Schnodder- Synchron? Bei den Wombles , einer BBC-Serie der 1970er für Kinder, wurde auch im Original ein einziger Erzähler für alle Stimmen eingesetzt, nämlich der englische Schauspieler Bernard Cribbins. In der deutschen Fernsehfassung war Dieter Hallervorden der Sprecher (www. stintfangwomble.de). Vergleichen Sie die deutsche und die englische Stimme sowie den Einsprechstil! Wie hätte man die deutsche Fassung alternativ gestalten können? Auf den heute erhältlichen DVDs ist allerdings nicht Hallervorden zu hören; es handelt sich um eine spätere Synchronfassung mit je einer Stimme pro Womble. Fans, die sich aus ihrer Kindheit an die Hallervorden-Fassung erinnern, stehen dieser Neuvertonung höchst kritisch gegenüber. Auch bei den Trickfilm-Serien Tom und Jerry und Der rosarote Panther hat man in der deutschen Fassung eine Erzählerstimme. Wer das Vorabendprogramm der 1970er konsumiert hat, ist daher auf diese Technik konditioniert und findet sie nicht weiter seltsam. Zu Tom und Jerry : Ähnlich wie beim Rosaroten Panther sind die meist gereimten Kommentare eine deutsche Besonderheit und sollen durch zusätzlichen Kontext und Witz zur Unterhaltung sowie zum einfacheren Verständnis der Handlung beitragen. Auf den deutschsprachigen Zuschauer wirken daher Original und Synchronfassung inhaltlich etwas anders. Für die deutschen Texte der Fernseh-Erstausstrahlungen zeichnete Siegfried Rabe verantwortlich, der auch Co-Autor des Titelliedes dieser deutschen Fernsehfassung, Vielen Dank für die Blumen , war. Das Lied wurde von Udo Jürgens 18231_Juengst_SL4�indd 117 18231_Juengst_SL4�indd 117 19�08�2020 12: 39: 04 19�08�2020 12: 39: 04 118 3 Synchronisation gesungen und gehört zu seinen bekanntesten. (https: / / de.wikipedia.org/ wiki/ Tom_und_Jerry#Bearbeitungen) Bei „Paulchen“ Panther wurden die Filme in Deutschland folgendermaßen überarbeitet: In Deutschland wurde das Material, das die amerikanische Pink Panther Show (und die nachfolgenden Serien) bot, erstmals 1973 im ZDF unter dem Titel Der rosarote Panther - zu Gast bei Paulchens Trickverwandten ausgestrahlt. Dabei wurden nicht nur der Vorspann und die Reihenfolge der Cartoons verändert. So bekam der Panther den Vornamen Paul bzw. Paulchen. Noch wesentlicher ist die Ergänzung durch gereimte Kommentare aus dem Off (Verse verfasst von Eberhard Storeck, gesprochen von Gert Günther Hoffmann), die im deutschsprachigen Raum zu einem Markenzeichen der Serie wurden und das Gesehene beschreiben und durch zusätzliche Informationen teilweise erheblich erweitern. Die Verse stellen Rahmenhandlungen und lokale Einordnungen her, die im Original nicht vorkommen. Viele Verse enden auf komische Bemerkungen oder leiten in Situationen über. (http: / / de.wikipedia.org/ wiki/ Der_rosarote_Panther_(Fernsehserie)#Deutsche_Fassung) Eigentlich benötigen weder Stummfilme noch die hier erwähnten Trickfilme überhaupt eine Sprachspur. Sie sind schon so angelegt, dass man sie ohne Sprache bzw. mit den Anmerkungen in den Zwischentiteln versteht. 42. Warum macht man es dann? Eine interessante Erzählvariante findet man bei der englischen Fassung des Films Das singende, klingende Bäumchen . Einen Hinweis darauf finden Sie in einem anderen Hauptkapitel. Wenn Sie sich die englische Version anschauen, können Sie vermutlich erraten, in welchem. Sie können vermutlich auch erraten, warum dieser Film in Großbritannien überaus populär ist (Berghahn 2013). Und sie können sich gleich einen kurzen Film aussuchen und selbst eine solche Erzählvariante schreiben. Auf www.archive.org findet man eine Vielzahl an sehr alten Trickfilmen ohne Tonspur oder nur mit Klaviermusik. Diese warten nur auf eine Nachvertonung durch Sie. Erfahrungsgemäß ist es für ungeübte Sprecher einfacher, einen Erzähltext vorzulesen, als die einzelnen Figuren zu sprechen. Fangen Sie also damit an! Reimen Sie, erzeugen Sie Geräuscheffekte! Probieren Sie aus, was möglich ist. Auch als Übersetzer sollte man wissen, welche Rolle Geräusche beim Filmhören und -sehen spielen. Anleitungen zum Geräuschemachen findet man im Internet, z. B. in der Arbeitsbeschreibung eines Geräuschemachers (https: / / weser-kurier.de/ startseite_artikel-Geraeuschemacher-soll-man-nicht-hoeren-arid.1128577.html) oder bei der Maus (www.wdrmaus. de/ filme/ sachgeschichten/ geraeuschemacher.php5). 18231_Juengst_SL4�indd 118 18231_Juengst_SL4�indd 118 19�08�2020 12: 39: 04 19�08�2020 12: 39: 04 119 3.6 Sonderfälle 3.6.6 Länderspezifische Synchronfassungen Normalerweise wird von einem Film eine Synchronfassung pro Zielsprache erstellt, auch wenn diese Zielsprache in unterschiedlichen Ländern und mit unterschiedlich starken Abweichungen gesprochen wird. Bei Trickfilmen wählt man die Synchronsprecher gern gezielt so aus, dass sich durch ihre Prominenz ein Mehrwert für die Ziel-Kulturgemeinschaft ergibt. Ein Trickfilm, der voraussichtlich zum Blockbuster wird, bekommt bekannte Sprecher. Das müssen keine Profi-Sprecher sein. Bei Die Kühe sind los ( Home On the Range , USA 2004) haben die Boxer-Brüder Klitschko Texte eingesprochen. Bei großen Sprachen wie dem Deutschen mit den verschiedenen Teilkulturen kann der Fall eintreten, dass die für die Bundesrepublik Deutschland ausgewählten Sprecher in Österreich nicht ebenso populär sind. In diesem Fall kann man eine oder mehrere Rollen speziell für diesen Markt einsprechen lassen. Genau das wurde bei Shrek 2 (USA 2004) gemacht. Die Rolle der guten (oder nicht ganz so guten) Fee wird in der österreichischen Fassung von Dagmar Koller gesprochen und gesungen. 32 Schauen Sie sich 10: 24: 03 bis circa 10: 25: 20 in Shrek 2 in den beiden deutschen Fassungen (Deutschland und Österreich) an. Welche Unterschiede fallen Ihnen auf ? Haben Sie Vorschläge, welche anderen Filme man ähnlich bearbeiten könnte (und wie)? Welche Probleme treten andererseits mit einer solchen Zerstückelung der Zielgruppen auf ? Ein eher seltenes Phänomen soll hier nur am Rande erwähnt werden: Manchmal werden Filme tatsächlich für einen anderen Markt in einer anderen Variante derselben Sprache komplett neu synchronisiert. Außenstehende empfinden das als grotesk - handelt es sich nicht um dieselbe Sprache und damit um eine völlig überflüssige Tätigkeit? Für die folgenden Filme ist eine Neusynchronisation in der gleichen Sprache belegt: On notera l’existence également du doublage interlinguistique (cf. plus loin sur la double version). Par exemple, Trainspotting doublé en anglais américain, ou l’Amore molesto, mis en scène dans le sud italien et doublé pour le nord du pays! (Gambier 2004: 4) Unterschiedliche Sprachversionen kann man in den zusammengeschnittenen Filmen zu dem Song „Let It Go“ aus der Eiskönigin ( Frozen , USA 2013) hören, die durchs Internet geistern. Dazu auch Reus (2018). Vorher mal kurz nachdenken … Welche Sprachen und Sprachvarianten erwarten Sie? 32 Dagmar Koller ist als Operettensängerin und Frau des inzwischen verstorbenen Wiener Oberbürgermeisters Helmut Zilk in Österreich sehr bekannt. 18231_Juengst_SL4�indd 119 18231_Juengst_SL4�indd 119 19�08�2020 12: 39: 05 19�08�2020 12: 39: 05 120 3 Synchronisation 3.6.7 Verfälschungen Verfälschungen bei der Synchronisation haben ihren Teil zur Kritik am Verfahren selbst beigetragen. Fälschungen sind einfach: Bei Synchronfassungen kann man die Figuren im Prinzip sagen lassen, was man will. Selbst wenn die oben angeführten Synchronitäten dadurch zerstört werden, wird das vom Publikum nur in den seltensten Fällen wahrgenommen. Meist passiert in einem Film einfach so viel, dass man nicht auch noch die Mundbewegungen beachten kann. In den 1950er / 1960er Jahren existierte zwar auch Kritik an Synchronfassungen, diese war aber nicht so streng, wie wir sie heute kennen. Wie ebenfalls oben angeführt, wurden die immer wieder zitierten Verfälschungen bei der deutschen Synchronisation von Spielfilmen erst nach 1945 vorgenommen. Sie können fast schon als regelhaft bezeichnet werden, da immer dieselben Inhalte betroffen waren: Freilich ging es weniger darum, das ‚Nationalgefühl‘ bzw. die religiösen und sittlichen Empfindungen des Zuschauers vor Kränkungen zu bewahren, vielmehr dominierte die Furcht vor Einbußen an der Kinokasse. Film war das Unterhaltungsmedium der gesamten Bevölkerung. Der Verkauf der Ware Film stand ganz im Zeichen von Vergnügen und Entspannung, mit künstlerischem und intellektuellem Interesse rechnete man allenfalls in der Spätvorstellung … Hollywoodfilme, die deutsche Soldaten in schlechtem Licht zeigten, oder französische Filme mit merkwürdigen Ansichten über Mann und Frau, Ehe und Familie ließ der Verleih im Synchronstudio daher zu deutschen Volksausgaben verarbeiten. (Bräutigam Kolloq 2004) Wenn man sich die historischen Akten ansieht, die überliefert sind, dann wird deutlich, dass es eine Instanz gibt, die ganz wichtig war für solche Veränderungen wie etwa die von Casablanca : Das waren nämlich die Verleiher. Wenn man heute sagt, die Nazis wurden herausgeschnitten, dann klingt das selbstverständlich wie ein Akt der Zensur. Das wollte eigentlich niemand so haben, aber irgendjemand hat aus irgendwelchen Gründen so gehandelt. Aber so war es wohl nicht: Auf der einen Seite haben wir Dokumente der Verleiher, die ganz klar belegen, dass die Verleiher davon ausgegangen sind, dass man Bilder des hässlichen Deutschen - und in der Regel waren ja alle Deutschen in amerikanischen Filmen Schurken - den Deutschen nicht zumuten könnte. (Garncarz in Metz / Seeßlen 2009) Sowohl bei Casablanca (USA 1942, erste deutsche Synchronfassung 1952, neue Synchronfassung 1975) als auch bei Notorious (USA 1946, erste deutsche Synchronfassung Weißes Gift 1951, neue Synchronfassung Berüchtigt 1969) wurden die Anspielungen auf das Dritte Reich gründlich getilgt. Besonders drastisch trifft es den Film Casablanca . Als er 1952 in die deutschen Kinos kommt, fehlen ihm nicht nur über 20 Minuten des Originals, die deutschen Dialoge lassen von dem politischen Film kaum mehr als eine Dreiecksgeschichte übrig. Nazi- und Vichy-Regime werden vollends aus der Handlung gestrichen. Aus dem tschechischen Widerstandskämpfer Victor Laszlo wird ein skandinavischer Naturwissenschaftler, dem Agenten auf den Fersen sind. Die Originalfassung von 1942 sei nicht mehr zeitgemäß und nicht zur Vorführung in Deutschland geeignet, erklärte damals die deutsche Filiale der Warner Bros. (Pahlke 2009: 29) 18231_Juengst_SL4�indd 120 18231_Juengst_SL4�indd 120 19�08�2020 12: 39: 05 19�08�2020 12: 39: 05 121 3.6 Sonderfälle Bräutigam spricht von „einer zuweilen gewaltsamen Anpassung der Dialoge an den von der Filmindustrie definierten Geschmack des deutschen Publikums“ (Kolloquium 2004). Weitere Beispiele für Verfälschungen finden sich in Bräutigam (2009: 19 ff). und in Pruys (2009 [1997]: passim). Von den beiden Fassungen von Notorious exisitiert ein Vergleich der Gerichtsszene auf YouTube. Suchen Sie diesen Film und vergleichen Sie die beiden Fassungen. Auch die FSK, die Freiwillige Selbstkontrolle, hatte einen großen Einfluss auf Veränderungen in der Synchronfassung. Wenn man etwas als vulgär einstufte, wurde das in der Synchronfassung gerne abgeschwächt. Ein wirklich großes Vergnügen besteht darin, einen Tarantino-Film wie Kill Bill zu entvulgarisieren (angelehnt an die historischen textbereinigenden Verfahren der Bowdlerisation oder der belles infidèles ). Auch heute kommt es vor, dass Filme oder Fernsehserien in der zielsprachlichen Fassung in vielfältiger Art und Weise verändert, gekürzt und an vermeintliche oder existierende Animositäten angepasst werden: Die Praxis, ein unliebsames Bild der eigenen Nation aus fremden Filmen zu tilgen, ist keineswegs verschwunden. Im Thriller Die Hard , in dem Bruce Willis gegen die gewohnte Übermacht kämpft, ist der Chef der Terroristen nur im Original eindeutig als Deutscher identifiziert, in der Synchronfassung fehlt jeder Hinweis darauf. Und diese Säuberung durch Synchronisation beschränkt sich nicht nur auf den Mainstream-Bereich. Aus nervtötenden deutschen Touristen in Hanif Kureishis London Kills Me sind in der Synchronfassung auf wundersame Weise nervtötende französische Touristen geworden. (Metz / Seeßlen 2009) Karin Wehns Arbeit über die beiden deutschen Synchronfassungen der Krimi-Serie Magnum belegt eine solche Praxis in einer detailreichen Analyse (Wehn 1994). Auch Seifferths Zitat in Kapitel 3.3 zeigt klar eine solche (gute) Absicht: Antisemitische „Witze“ haben in Deutschland eine andere Wirkung als in den USA. Die Zensur ist nachvollziehbar - ähnlich wie die Zensur bei der Lokalisierung mancher Games - verfälscht aber den ursprünglich kulturbezogenen Inhalt. 43. Abgesehen von diesen Beispielen gibt es einen Bereich, in dem Filme in großem Stil bearbeitet / verfälscht werden, nicht nur bei den Synchronfasssungen. Vielleicht haben Sie solche Filme schon gesehen - aber wo? 18231_Juengst_SL4�indd 121 18231_Juengst_SL4�indd 121 19�08�2020 12: 39: 06 19�08�2020 12: 39: 06 122 3 Synchronisation Wie leicht es ist, einen Film mit einem neuen sprachlichen Inhalt zu versehen, zeigt folgendes Experiment: 1987 fand auf einem Kongress in Stockholm ein Workshop des ZDF statt. Dort wurde ein und dieselbe Filmszene mit unterschiedlichen Texten synchronisiert. Es wurden nicht nur die Stilebenen verändert, sondern auch Inhalte neu erfunden oder die Rollen der Darsteller vertauscht. All diese Versionen waren technisch einwandfrei, und für das Publikum war nicht zu erkennen, welche davon die Originalfassung nicht verfälschte (Ivarsson / Carroll 1998: 36). Im Prinzip waren das Fundubs. Diese Aufgabe sollten Sie in Gruppen durchführen. Jede Gruppe nimmt sich eine kleine Szene aus einem beliebigen, nicht zu bekannten Film vor. Füllen sie den Filmdialog mit neuen Inhalten. Jeder aus der Gruppe darf eine Version schreiben. Je stärker der Kontrast zum Originalinhalt ist, desto besser. Dann werden die Versionen und die Übersetzung allen Gruppen präsentiert. Die anderen Gruppen müssen jetzt entscheiden, welche Version wohl das Original bzw. die Übersetzung des Originals ist. Es gibt Verfälschungen, die mit dem besten Willen begangen wurden - weder aus erzieherischen Gründen noch aus pekuniären. Das folgende Zitat fällt etwas länger aus, da die Argumentation hier wichtig ist: In Stanley Kubricks Film 2001: A Space Odyssey singt kurz vor Erreichen des Jupiter als Ziel der Expedition der ‚sterbende‘ Supercomputer HAL 9000 einen banalen Schlager: ‚Daisy, Daisy, [/ ] give me your answer true [do], [/ ] I’m half crazy[/ ]all for the love of you.‘ In der deutschen Fassung singt HAL ein anderes Lied, nämlich ‚Hänschen klein‘. Die deutsche Fassung weicht also von der Ursprungsfassung ab, und zwar auf der Ebene eines Liedes. Der Austausch der Lieder lässt sich dabei als eine Figur der Filmsynchronisation verstehen. Die englische Fassung von 2001 ist die Ebene des eigentlichen Ausdrucks, die deutsche Fassung die Ebene des uneigentlichen Ausdrucks. Dies ist nicht nur eine formale Abweichung vom Ursprungsfilm, sondern verändert auch die Bedeutung des Films. ‚Hänschen klein‘ in der deutschen Fassung von 2001 ist mehr als nur ein beliebiger, formaler Austausch für den ‚Daisy, Daisy‘-Schlager. Der Text des Kinderliedes, das HAL bei seiner Programmierung, seiner ‚Geburt‘ beigebracht wurde, und das er am Ende singt, dieser Text beschreibt in ganz einfachen Worten das bevorstehende Ende der Expedition: Hans ist wohlgemut in die weite Welt hinausgezogen, doch die Mutter weint und Hans kehrt zurück. HALs Gesang endet bei den Zeilen, ‚da besinnt sich das Kind und kehrt heim geschwind.‘ ‚Hänschen klein‘ passt dabei nicht nur ideal zur Rückführung des allmächtigen Computers in eine infantile Maschine durch Abschaltung seiner höheren Funktonen. Das Lied paßt [sic] auch zur Figur des Astronauten David Bowman, den der wohlerzogene, weil wohlprogrammierte Computer gefragt hatte, ob er sein Lied überhaupt hören wolle. Bowmans Zustimmung zu ‚Hänschen klein‘ deutete so seine spätere Rückkehr als durch Jupiter geläutertes Kind zur ‚Mutter Erde‘ an. Der Austausch der Lieder zeigt deutlich den möglichen positiven Effekt einer Synchronisationsfigur. (Pruys 2009 [1997]: 129-130). 18231_Juengst_SL4�indd 122 18231_Juengst_SL4�indd 122 19�08�2020 12: 39: 06 19�08�2020 12: 39: 06 123 3.6 Sonderfälle Die Autorin schließt sich dieser Meinung aus mehreren Gründen nicht an und hält HAL auch nicht für wohlprogrammiert. 44. Wieso wohl? Eine differenzierte Analyse von Übersetzungsentscheidungen in 2001 - Odyssee im Weltraum ( 2001 - A Space Odyssey , GB / USA 1968) bietet Peiler (2015: explizit zu den Synchronisationen bei HALs Gesang 221-224). Peiler weist darauf hin, dass der Einsatz des Liedes „Daisy Bell“ wohl nicht zufällig war und dass er wie „Hänschen Klein“ und wie die französische Entscheidung für „Au clair de la lune“ darauf basierte, dass diese Lieder relativ früh von Computern gesungen wurden (Peiler 2015: 222). Diese Entscheidung wurde von Nerds für Nerds getroffen und erreichte vermutlich einen Teil des Publikums. Eine eigentlich überdachte Änderung, die sich bei mangelnder Kenntnis der Gesamtlage einer Interpretation als Verfälschung öffnet, ist selten. In Pruys (2009 [1997]: 132-157) wird eine große Menge an echten Verfälschungen im Hinblick auf Hinzufügungen, Austausch, Übernahme und Auslassungen in unterschiedlichen Filmen dokumentiert. Die Liste der Filme ist beeindruckend lang, die Wirkung der jeweiligen Verfälschungen kann sehr unterschiedlich ausfallen. So verwundert es nicht, dass sich auch viele Filmwissenschaftler ausgesprochen kritisch zur Synchronisation äußern. Ihnen geht es aber nicht nur um Verfälschungen, sondern auch um abstrakt-philosophische Fragen, die durch das Synchronisationsverfahren als solches aufgeworfen werden: Die Synchronisation betäubt also unsere Aufmerksamkeit und täuscht durch einfaches Austauschen der Stimmen eine Einheit vor, die gar nicht existiert. (Peter Christian Baumann „Der falsche Ton im Film“ in: Die Zeit , 18. März 1948. Zitiert nach Kolloq 2004) Dem steht wiederum die bodenständigere Auffassung von Bräutigam entgegen, der das Beispiel eines künstlerisch anerkannten Regisseurs anführt (Näheres in Kapitel 3.7.2): Der Vorwurf, Synchronisation sei Täuschung, Bluff, Betrug und Surrogat läuft schon deshalb ins Leere, weil der Spielfilm an sich aus nichts anderem als fake besteht, das ‚So-tun-als-ob‘ ist das Grundprinzip aller Darstellungskunst. Wenn dann schließlich auch noch im ‚Original‘ selbst synchronisiert wird wie z. B. bei internationalen Produktionen mit vielsprachiger Besetzung, stellt sich die Frage, was denn die vor Vergewaltigung durch Synchronisation zu schützende „Originalfassung“ überhaupt ist … Rainer Werner Fassbinder ließ seine Schauspieler synchronisieren, wenn er deren eigene Stimmen für den dargestellten Typ unpassend hielt. (Bräutigam 2009: 26) Es sei an dieser Stelle erwähnt, dass es unentschuldbare Methoden der Verfälschung gibt, die nicht der Synchronisation geschuldet sind: 18231_Juengst_SL4�indd 123 18231_Juengst_SL4�indd 123 19�08�2020 12: 39: 06 19�08�2020 12: 39: 06 124 3 Synchronisation Lena Horne (30.06.1917-09.05.2010): Als erste schwarze Künstlerin bekam sie in Hollywood einen Studio-Vertrag; doch für die Südstaaten-Versionen der Filme schnitt man sie heraus. (ARD Videotext 30.06.2019, Seite 403, 3/ 3) 3.6.8 Europuddings Eine ganz eigene Form des Films, der synchronisiert werden muss, ist der sogenannte Europudding. Dies sind Fernsehfilme, bei denen sich mehrere europäische Länder an den Produktionskosten beteiligen und bei denen entsprechend Schauspieler aus diesen Ländern mitspielen. Auch zu diesen Filmen gibt es anekdotische Berichte. So Dunja Rajter in einem Interview zu den dauerhaft beliebten Karl-May-Filmen der 1960er: Anne Hansen: Es soll Verständigungsprobleme während des Drehs gegeben haben … Dunja Rajter: Oh ja, wir haben uns totgelacht! Lex [Barker] sprach alle Dialoge auf Englisch, Pierre [Brice] auf Französisch und Mario [Adorf] auf Deutsch, am Ende wurde ja alles synchronisiert. Jeder hing an den Lippen des anderen und überlegte krampfhaft, wann der Satz wohl zu Ende war. (Hansen und Rajter 2015) Angeblich wurde auch Uschi Glas als „Halbblut Apanatschi“ nachsynchronisiert, weil sie einen deutlichen bayerischen Akzent hat. Sie trat diesem Gerücht jedoch selbst entgegen (https: / / de.wikipedia.org/ wiki/ Winnetou_und_das_Halbblut_Apanatschi). 33 Diese Filme sind alle auf DVD erhältlich und laufen häufig im Fernsehen. 34 Falls Sie sie als Kind gesehen haben, haben Sie vermutlich gar nicht bemerkt, dass nicht alle von vornherein Deutsch gesprochen haben. Wie ist es jetzt, da Sie Bescheid wissen? Zeigen Sie den Film Freunden und Familienmitgliedern, die fachfremd sind. Haben die etwas bemerkt? 3.6.9 Filmmusik in synchronisierten Filmen Dieses Thema soll für Interessierte kurz angesprochen werden. Eine wirkliche Einführung dazu erfordert Grundlagenwissen, das den Rahmen dieses Buches sprengen würde. Die Lage ist bei der Behandlung von Songs in synchronisierten Filmen anders und wird weiter unten (Stimmen) behandelt. Zu Fragen zum Thema Filmmusik und Übersetzung generell empfiehlt sich Leisnering (2014). Bei Neusynchronisationen alter Filme fehlt oft das IT-Band (das internationale Band, das eben nicht nur Geräusche enthält, sondern auch Musik). Fehlende Geräusche werden künstlich erzeugt; für fehlende Musik gibt es unterschiedliche Verfahren: 33 Allerdings passte dieser Akzent vorzüglich zu ihrem Auftritt als Apanatschi auf dem Nockherberg 2018. 34 Die Anmerkung mag albern wirken, aber gerade in dem Moment, als ich das schreibe, läuft im SWR- Fernsehen Winnetou . Die Filme sind ein echtes Samstagnachmittags-Kulturgut. 18231_Juengst_SL4�indd 124 18231_Juengst_SL4�indd 124 19�08�2020 12: 39: 07 19�08�2020 12: 39: 07 125 3.7 Stimmen Also wird unter Verwendung von Archivmaterial und billigen Neukompositionen eine neue Musik hergestellt, die mit dem Original-Soundtrack - auch wenn dieser von Max Steiner, Victor Young oder Dimitir Tiomkin stammt - oft nur, wenn überhaupt, rudimentäre Ähnlichkeiten aufweist. Hier kommt es oft zu dramatischen Missklängen, die unter Umständen den ganzen Film ruinieren können. (Bräutigam 2009: 39) 45. Was bedeutet das für den Übersetzer des Synchronbuchs, der die Originalfassung des Films kennt? Was bedeutet es für die Untertitelung für Gehörlose und Hörgeschädigte und für die Audiodeskription? 3.6.10 Synchronisation als Filmthema Anders als die Untertitelung ist die Synchronisation schon seit ihren Anfängen ein Filmthema, an das auf sehr unterschiedliche Art und Weise herangegangen wird. Der älteste Film zu diesem Thema ist wohl Etoile sans lumière ( Chanson der Liebe ) aus dem Jahr 1946 (eine ausführliche Analyse in Paech 2012), in dem es um die Nachsynchronisation der Singstimme einer gesanglich unbegabten Schauspielerin durch eine junge Sängerin (Edith Piaf) geht. Wo dieser Film eine depressive Grundstimmung hat, wird dasselbe Thema in Singinʼ in the Rain (USA 1952; deutsch auch unter dem Titel Du sollst mein Glücksstern sein ) witzig inszeniert. In Volere volare ( Von Luft und Liebe , Italien 1991) geht es zwar eher um Geräuschemacher; mit diesen Geräuschen wird jedoch ein Softporno über Casanova neugestaltet, also nachvertont. Und auch in The Favor, the Watch and the Very Big Fish ( Der Gefallen, die Uhr und der sehr große Fisch , USA 1991) geht es auf absurde Art um die Nachvertonung von Pornofilmen - offensichtlich regt das leise Tabu die Fantasie der Drehbuchautoren an. An Untersuchungsmaterial zu diesem Thema herrscht also kein Mangel. 3.7 Stimmen Als Übersetzer hat man keinen Einfluss auf die Wahl der Sprecher. Diese gehört zu einem anderen Arbeitsgang; der Übersetzungsvorgang ist dann abgeschlossen. Das ändert aber nichts daran, dass man mit einer bestimmten Stimmvorstellung im Kopf übersetzt - besonders dann, wenn man nicht nur ein Textbuch bekommen hat, sondern auch den Originalfilm oder wenn man die Schauspieler kennt, die man im Originalfilm hört. Schauen Sie ins Internet. Auf verschiedenen Websites bieten Synchronsprecher ihre Dienste an, meist mit Hörproben. Informieren Sie sich über die Klassifikationssysteme, nach denen man Synchronsprecher auswählen kann. 18231_Juengst_SL4�indd 125 18231_Juengst_SL4�indd 125 19�08�2020 12: 39: 08 19�08�2020 12: 39: 08 126 3 Synchronisation Es gibt in Deutschland eine Reihe von sehr bekannten Synchronstimmen (Bräutigam 2009 beziffert sie auf etwa zwei bis drei Dutzend). Diese sehr bekannten Stimmen werden einer weit größeren Anzahl von Originalfilm-Schauspielern zugewiesen. … die meisten derjenigen, die regelmäßig einen ausländischen Schauspieler synchronisieren, sprechen zusätzlich noch zig andere Hauptrollen oder sind gar feste Stimmen von mehreren Stars. Dieses routinierte Stammpersonal wird eingesetzt oft auch ohne Rücksicht auf die speziellen Anforderungen des Films oder des jeweiligen Charakters, mit der Folge, dass aus den Mündern der verschiedensten Schauspieler die gleiche Stimme ertönt, was letztlich einen inflationären Verschleiß bewirkt, und der Zuschauer auf diese eindimensionale, nivellierende Stimmverteilung aufmerksam wird, wenn er zwar Bill Murray sieht, aber Tom Hanks hört. (Bräutigam 2009: 32) Die Ähnlichkeit mit der Originalstimme spielt bei der Wahl der Synchronstimme oft keine wichtige Rolle. Mal kurz nachdenken … Woran könnte das liegen? Das nachfolgende Zitat bietet eine Antwort. Die Ähnlichkeit der Synchronmit der Originalstimme ist dabei von untergeordneter Bedeutung, entscheidend ist vielmehr, ob sie zum dargestellten Charakter passt. Sie muss nicht mit dem zu sehenden Schauspieler übereinstimmen, sondern mit der Kunstfigur, die dieser verkörpert. Die Diskrepanz zwischen Original- und Synchronstimme, die der Zuschauer bei einem Vergleich beider Fassungen oftmals schockartig erfährt, ist deshalb noch lange kein Indiz für eine Fehlbesetzung in der deutschen Fassung. Arnold Marquis spricht Humphrey Bogart nicht weil sein Organ zu dem Bogarts, sondern weil es zu ‚Philip Marlowe‘ oder ‚Sam Spade‘ passt. (Bräutigam 2009: 33) Bräutigam weist in diesem Zusammenhang darauf hin, dass es nicht immer sinnvoll ist, einem Schauspieler je nach Rolle unterschiedliche deutsche Stimmen zuzuweisen. Schließlich spricht er im Original alles mit seiner eigenen Stimme (2009: 41). Mal kurz nachdenken … Was spricht für dieses Argument? Was dagegen? Man kann beim Synchronisieren durchaus die Stimme optimieren. Ob man das gut findet oder nicht hängt oft mit der generellen Haltung Synchronisationen gegenüber zusammen. Zur Filmfan-Kritik an fremden Stimmen und Synchronisation siehe Mälzer 2014. Nehmen Sie eine beliebige DVD und hören Sie in die Synchronfassungen in unterschiedlichen Sprachen herein. Wie wirken die unterschiedlichen Stimmen für ein und denselben Darsteller auf Sie? 18231_Juengst_SL4�indd 126 18231_Juengst_SL4�indd 126 19�08�2020 12: 39: 08 19�08�2020 12: 39: 08 127 3.7 Stimmen So kann auch das Phänomen entstehen, dass man die deutsche Stimme eines Schauspielers viel besser findet als die Originalstimme. Ein hier oft zitierter Fall ist John Wayne, dessen deutsche Stimme kerniger und männlicher klingt als das Original. 35 Filmschaffende haben durchaus Sinn für solche „Verbesserungen“: Es gibt allerdings tatsächlich Beispiele, in denen die Synchronisation in klassisches Theaterdeutsch einen Film überhaupt erst erträglich gemacht hat. So zum Beispiel King David ( König David ) oder The Last Temptation of Christ ( Die letzte Versuchung Christi ), beides Bibelfilme, die durch die breiten amerikanischen Akzente ihrer Darsteller im Original einfach nur lächerlich waren (Harvey Keitel spricht in Letzte Versuchung mit breitem Brooklyn-Akzent). (Blunck 1998: 289) 46. Was glauben Sie - fanden die Zuschauer des Originals das auch lächerlich? Eine besondere Situation schildert Leinert (2015). Es geht darum, dass eine noch lebende Person in einem Film dargestellt wird. Mal kurz nachdenken … Wie würden Sie in diesem Fall die Stimme auswählen? Fans bestimmter Schauspieler können sich sehr über Stimmwechsel aufregen, was auch in diesem Fall geschah. Die Fans hätten im nachfolgenden Fall laut Leinert die Sherlock-Stimmen bevorzugt, doch: „Cumberbatch spielte nur Assange, also hatte man sich eigentlich an der echten Stimme von Assange zu orientieren, um die richtige Stimme zu finden.“ (Leinert 2015: 53) Gleich, wie die Entscheidung für eine Synchronstimme getroffen wird: Es ist eine fremde Stimme, die ihren eigenen Charakter mitbringt: Ein Humphrey Bogart, der in unseren Kinos mit der bühnengeschulten kultivierten Stimme von O.E. Hasse spricht, ist etwas anderes als der nuschelnde oder bellende Bogey, der auch in seine Stimme ein Gutteil Verweigerung zu legen pflegte. Die Synchronisation verrät immer mindestens so viel über die Kultur, für die sie vorgenommen wird, als über die, aus der das Original kommt: der brave Hansjörg Felmy als Stimme des bösen Jack Nicholson; Peer Schmidts nur ein bisschen abgeschliffenes Deutsch statt des aggressiven Nöhlens Jean-Paul Belmondos; Dietmar Schönherr als Stimme des ‚Rebellen ohne Grund‘ James Dean; der aufgedrehte Komödiant Georg Thomalla interpretiert Jack Lemmon, den amerikanischen Stadtmenschen am Rande des Nervenzusammenbruchs. In der Wahl der Synchronsprecher hat die deutsche Filmkultur stets verstanden, das Beunruhigende aus den Bilderzählungen zu vertreiben. (Metz / Seeßlen 2009) (zu diesem Phänomen auch Petzold 2020). 35 Mein persönlicher „ich kann das Original nicht leiden“-Film ist Out of Africa ( Jenseits von Afrika , USA 1985). Denys Finch-Hatton war Engländer. Der Name verweist außerdem klar auf die englische Upper Class. Robert Redford klingt einfach falsch, da kann er sich noch so sehr bemühen. In der Synchronfassung fällt das natürlich nicht auf. 18231_Juengst_SL4�indd 127 18231_Juengst_SL4�indd 127 19�08�2020 12: 39: 08 19�08�2020 12: 39: 08 128 3 Synchronisation Mal kurz nachdenken … Ganz ehrlich (an die Studierenden und andere jüngere Leser): Kennen Sie noch irgendeinen dieser Synchronsprecher / Schauspieler? Können Sie sich die Gesichter und die typischen Rollen in deutschen Filmen vorstellen? Wenn nicht, recherchieren Sie dazu. Sonst haben Sie von diesem Zitat nichts. Und: Glauben Sie, dass die Wirkung dieser Stimmen auf Sie dieselbe ist wie auf Zuschauer, die die dazugehörigen Schauspieler kennen? Die Stimmkenntnis ist also auch generationsbezogen. Je weiter weg, desto weniger störend oder desto verstörender. Schütte et al. (2018) bieten eine Übersicht darüber, welche miteinander verwandten Synchronsprecher welche Schauspieler synchronisieren. Die deutsche Synchronbranche wirkt auf dieser Grafik wie ein erfolgreiches kleines Familienunternehmen. Eine Grafik mit Sprechern und der jeweils von ihnen eingesprochenen Schauspieler findet sich bei Hollmer (2016). Manche Menschen werden jedoch nie synchronisiert. Mal kurz nachdenken … Wer könnte das sein? Und warum? Am Rande bemerkt: Berühmte historische Figuren der näheren Geschichte, insbesondere Politiker, z. B. Präsidenten und dergleichen, die man oft in den Nachrichten gesehen hat oder sieht, werden grundsätzlich untertitelt. Es wäre nicht denkbar, JFK, Roosevelt oder Obama mit einer deutschen Synchronstimme zu unterlegen. (Leinert 2015: 53) Das gilt aber nur für Originalmaterial. Wenn ihnen fiktive Worte in den Mund gelegt werden, findet doch eine Synchronisation statt (siehe auch oben zu der Stimmauswahl für Assange). Für Übersetzer wäre es eine schöne Aufgabe, den typischen Sprachstil historischer Figuren in die Zielsprache zu bringen. 3.7.1 Sprecherkontinuität Auch Synchronsprecher leben nicht ewig. Wenn ein Schauspieler (oder eine Trickfilmfigur) den Stamm-Synchronsprecher überlebt, kann das zu großen Problemen führen. Je einprägsamer und individueller die Synchronstimme war und je enger man sie mit der einen Rolle oder dem einen Schauspieler verband, desto schwerer ist es für Fans, sich an eine neue Stimme zu gewöhnen. Im deutschen Sprachraum wird dieses Problem meist anhand von zwei Fällen diskutiert, nämlich Columbo (USA 1968-1978, 1989-2003) und Die Simpsons (USA 1989 -). Der Stammsprecher von Peter Falk als Columbo war über lange Jahre hinweg Klaus Schwarzkopf, einer der profiliertesten Fernsehschauspieler und Synchronsprecher überhaupt. Entsprechend gab es bei dieser Serie echte Fans der Synchronfassung, die es neuen 18231_Juengst_SL4�indd 128 18231_Juengst_SL4�indd 128 19�08�2020 12: 39: 08 19�08�2020 12: 39: 08 129 3.7 Stimmen Sprechern nicht wirklich leicht machten. Falk bekam dann auch nicht etwa einen neuen Stammsprecher, sondern gleich mehrere. Marge in Die Simpsons wurde von Elisabeth Volkmann gesprochen. Nach dem Tod der Schauspielerin übernahm Anke Engelke die Rolle. Auch Engelke hat eine sehr bekannte Stimme mit hohem Wiedererkennungswert. Die Stimme ist aber völlig anders als die ihrer Vorgängerin. Sie versuchte von vornherein nicht, eine künstliche Ähnlichkeit mit der Vorgängerstimme zu erzeugen, was der Synchronleistung sehr gutgetan hat. Die Simpsons sind auf DVD problemlos erhältlich. Hören Sie sich Folgen aus den beiden Synchronphasen an und vergleichen Sie sie. Der Stammsprecher muss aber nicht gleich verstorben sein, damit der Schauspieler eine neue Stimme erhält. Dafür reicht es aus, dass der Stamm-Synchronsprecher anderweitig beschäftigt oder in Urlaub ist (Blunck 1998). Die Entscheidung wird dann nach der Frage getroffen: „… wer kommt dennoch gut von dem Gesicht herunter“ (ebd.) 3.7.2 Nachvertonung Nicht nur Europuddings wurden nachvertont. Bei der Nachvertonung und dem Unterpunkt Nachsynchronisation werden die Original-Tonaufnahmen durch Studio-Tonaufnahmen ersetzt. Das muss nicht bedeuten, dass die Darsteller andere Stimmen bekommen. Oft machen sie die Nachsynchronisation selbst. Nachvertonung ist heute generell ein verbreitetes Verfahren; sehr viele Filme werden komplett nachvertont. 47. Warum werden Filme heute nachvertont bzw. nachsynchronisiert? In die Grauzone zwischen Version und echter Synchronisation gehört auch Hitchcocks berühmter Tick, seine (deutsche) Hauptdarstellerin während des Filmens live von einer englischen Schauspielerin synchronisieren zu lassen (Truffaut 2003: 37). Praktisch kann man sich das kaum vorstellen. Und nicht nur der bereits erwähnte Fassbinder, sondern noch ein anderer berühmter Regisseur aus der Ecke für künstlerisch Wertvolles schätzte die Nachsynchronisation: Fellini war begeistert von den Möglichkeiten, die sich daraus ergaben, und schrieb den Filmdialog gern mal erst nach den Dreharbeiten (Monaco 1991: 119). Doch selbst Anhänger der Synchronisation sind bereit, einige Punkte daran zu kritisieren: Die Kritik [an der Nachsynchronisation] ist ja deshalb so berechtigt, weil mit dem Dialog- (oder sogar kompletten Ton-) Austausch ein derart gravierender Eingriff verbunden ist, dass es nicht übertrieben ist, das Ergebnis als einen ‚anderen Film‘ zu bezeichnen. Denn es handelt sich eben nicht nur um eine Transponierung in eine andere Sprachwelt mit anderen Stimmen, sondern 18231_Juengst_SL4�indd 129 18231_Juengst_SL4�indd 129 19�08�2020 12: 39: 09 19�08�2020 12: 39: 09 130 3 Synchronisation es entsteht ein ganz anderer Gesamtklang, eine andere Melodie, ein anderes akustisches Klima. (Bräutigam 2009: 27) 3.7.3 Umgang mit Filmsongs Die vorangegangenen Beispiele unter dem Punkt Nachvertonung beziehen sich auf gesprochene Sprache. Ein anderes Bild ergibt sich, wenn man sich anschaut, wo Schauspielerstimmen bei Songs durch Profi-Singstimmen ersetzt wurden. Dieses Verfahren ist ausgesprochen weit verbreitet. Mal kurz nachdenken … Bei welcher Art von Filmen wird dieses Verfahren auch heute häufig angewandt? Schon in den 1960er Jahren findet man ein solches Verfahren oft bei Musicalfilmen; daran hat sich bis heute nicht viel geändert. Bei der Verfilmung von My Fair Lady (USA 1964) wurden Eliza und Freddy in der englischen wie auch in der deutschen Fassung nicht von den Schauspielern gesungen, von denen sie gespielt / synchronisiert wurden. Mal kurz nachdenken … Bei manchen älteren Filmen gibt es einen komischen Klangeffekt, wenn die Lieder nicht synchronisiert werden, aber der Rest des Films. Was könnte das sein? Für die Synchronisation von Liedern bei synchronisiertem Dialogtext spricht tatsächlich, dass man einen einheitlichen Klangraum und eine einheitliche Abmischung hat. Bei vielen älteren Filmen ist das nicht der Fall. Es kommt zu einem hörbaren Bruch zwischen Dialog und Gesang. Sehr deutlich ist das bei Mario-Lanza-Filmen. Auch bei vielen Disney-Filmen (von denen inzwischen viele als Musicals auf Bühnen live dargeboten werden) sind die Sprechstimmen nicht die Singstimmen. Sehr deutlich ist dies bei Mulan (USA 1998). Bei König der Löwen ( The Lion King , USA 1994) gibt es in der deutschen Fassung mehr Übereinstimmungen zwischen Sprechern und Sängern als in der englischen Originalfassung. 48. Welche Gründe können zu der Entscheidung führen, eine solche Stimmmischung vorzunehmen? Die Übersetzung von Songtexten ist kompliziert und richtet sich unter anderem nach Fragen der Sanglichkeit. Dazu kommen Inhalt, Reim und Rhythmus. Wenn man all diese Parameter bedenkt, sind die Übersetzungen oft erstaunlich gut. Dieses Thema ist auch in der Forschung sehr beliebt: Kaindl (1995) zur Übersetzung von Opern erläutert diese Pro- 18231_Juengst_SL4�indd 130 18231_Juengst_SL4�indd 130 19�08�2020 12: 39: 09 19�08�2020 12: 39: 09 131 3.7 Stimmen blematik umfassend. Eine Analyse von Songs und Songtexten aus Natürlich blond ( Legally Blonde , USA 2001), Sweeney Todd (GB / USA 2007) und Bernard und Bianca - die Mäusepolizei ( The Rescuers , USA 1977), zu einem großen Teil auf der Basis der Filmmusik-Kategorien von Weidinger (2006), findet sich in Leisnering (2014). Wie bei Leisnering (2014) wird auch hier ein Song aus einem Disney-Film als Beispiel herangezogen. Leisnering beschreibt die Funktion der Songs in Disneys Animationsfilmen folgendermaßen: Es lassen sich dabei zwei Hauptfunktionen von Gesang in Kinderfilmen ausmachen. Zum einen die verdeutlichte Darstellung eines bestimmten Charakters und der Handlung, zum anderen auch die Vermittlung der im Film thematisierten Werte. (Leisnering 2014: 228) Die Lieder aus dem Dschungelbuch ( The Jungle Book , USA 1967) haben sich zu veritablen Hits entwickelt, weit stärker als bei allen anderen Disney-Filmen. 36 Die Darstellung der Charaktere durch die Lieder, vor allem auch durch die unterschiedlichen gewählten Musikstile, wurden vielfach analysiert. Hier soll Balu als Beispiel dienen. „Probier’s mal mit Gemütlichkeit“ ist ein Ohrwurm, den man so schnell nicht mehr loswird. Bevor Sie sich näher mit dem Song beschäftigen: Können Sie ihn singen / pfeifen? Erinnern Sie sich an den Text? Erinnern Sie sich an die begleitenden Filmbilder? Mogli trifft auf Balu, der ihm seine Lebensphilosophie vorsingt („Look for the bare [bear? ] necessities“). Der deutsche Text („Probier’s mal mit Gemütlichkeit“) unterscheidet sich inhaltlich vom Original. Worin bestehen diese Unterschiede? Machen Sie eine Liste! Gibt es auch Unterschiede, die nichts mit dem Inhalt zu tun haben? Hätten Sie andere Vorschläge? Probieren Sie, wie gut sich die deutsche Version singen lässt. Ist das bei Ihren Vorschlägen auch der Fall? 49. Wenn Sie Bild und Songtext vergleichen, kommt unweigerlich die Frage nach den Synchronitäten. Welche kann man hier wirklich vernachlässigen? Welche nicht? Wie gut sind diese Synchronitäten bei der Synchronfassung berücksichtigt? Leisnering fasst die Aspekte, die bei der Übersetzung dieser Art von Song für die Zielgruppe Kinder beachtet werden sollten, folgendermaßen zusammen (basierend auf der Analyse eines Songs aus Bernard und Bianca - die Mäusepolizei ): 36 Zum gleichen Thema die unveröffentlichte BA-Arbeit von Juliane Yvonne Jäger: Disneys „Das Dschungelbuch“ - eine Analyse der Übersetzungen ausgewählter Songtexte (2016) 18231_Juengst_SL4�indd 131 18231_Juengst_SL4�indd 131 19�08�2020 12: 39: 10 19�08�2020 12: 39: 10 132 3 Synchronisation Es lässt sich also resümieren, dass bei der Übersetzung von Songs für Kinderfilme dieser Art zwei Punkte ganz besondere Beachtung finden müssen: die unbedingte Beibehaltung des Sinns durch genaue Übersetzung der Kernbegriffe bei gleichzeitig großer Freiheit hinsichtlich nebensächlicher Textaspekte sowie die Einbeziehung der Melodie für Entscheidungen bezüglich der Wortwahl, der Verslänge und der Silbenzahl. Eine nachträgliche Änderung während des Einsingens ist durchaus vorstellbar, wenn sich herausstellt, dass sich der übersetzte Text nicht zum Singen des Stücks eignet. (Leisnering 2014: 230) 37 Balus Lied ist außerdem angenehm zu singen und enthält keine „Ausreißer“ in Form von sehr hohen oder sehr tiefen Tönen. Das macht die Entscheidung für bestimmte Vokale einfacher. Außerdem kann man prima mitsingen. Bei den immer komplexeren Songs der weiblichen Disney-Heldinnen sieht das anders aus. Sie sind für geschulte Musicalstimmen geschrieben. 50. Was könnte man tun, wenn man bei den neuen, computergenerierten Animationsfilmen unbedingt Lippensynchronität haben möchte? Es gibt nicht nur die Entscheidung für populäre Stimmen bei der Synchronisation der Dialogspur. Auch bei Liedern, vor allem bei den Titelsongs, werden gern populäre Stimmen eingesetzt, die der Zuhörer erkennt. 51. Bleiben wir bei Disney. „Someone’s waiting for you“ aus Bernard und Bianca - die Mäusepolizei ( The Rescuers , USA 1977), gesungen von Robie Lester, gewann 1978 den Oscar. Die deutsche Fassung wurde von Wencke Myhre gesungen. Der Titelsong zu Elliott, das Schmunzelmonster ( Pete’s Dragon , USA 1977), „Candle on the Water“, wurde von Helen Reddy gesungen, die auch die Rolle der Nora spielt. Die deutsche Fassung unter dem Titel „Lichtschein auf dem Wasser“ sang Katja Ebstein. Sagen Ihnen diese Namen noch etwas? Woher kannten die Deutschen in den 1970ern diese Sängerinnen und welche Assoziationen hatten sie wohl zu den Stimmen? Assoziationen altern. Hier merkt man das ebenso deutlich wie weiter oben bei den Fragen zu den Schauspielerstimmen bei der Synchronisation. Sie sollten sich die deutschen Fassungen trotzdem vergleichend zu den Originalfassungen anhören, schon, um die Stimmen zu vergleichen. Im vorliegenden Buch werden die Songübersetzung und die Opernübersetzung auch kurz in Kapitel 2.6 behandelt. Ein Sonderfall der Songübersetzung im Film soll aber hier 37 Kaindls Analyse der Übersetzung von Popularmusik behandelt verschiedene Strategien bei diesen Übersetzungen, die beispielsweise durch den für den Zieltext vorgesehenen Interpreten bestimmt sein können (Kaindl 2005). Viele seiner Überlegungen kann man auch auf Filmsongs übertragen. 18231_Juengst_SL4�indd 132 18231_Juengst_SL4�indd 132 19�08�2020 12: 39: 11 19�08�2020 12: 39: 11 133 3.7 Stimmen angesprochen werden: Die Probleme, die sich für den Zuschauer bei der Kombination von Untertiteln und Synchronisation von Songs ergeben. Mal kurz nachdenken … Welche Probleme könnten das sein? Die Untertitel im nachfolgenden Beispiel sind interlingual, richten sich im Rhythmus nicht nach der Musik und wurden nicht auf Basis der Synchronfassung erstellt, sondern passen auf die Originalversion. Intralinguale Untertitel würden sich an der Synchronfassung orientieren. Als Beispiel für Texte bei der Synchronisation und der Untertitelung von Songs folgt ein Stück aus dem Anfang von Hochzeit mit einer Leiche ( The Corpse Bride , USA 2005): TC Originalton Synchronisation Untertitelung 10: 02: 32 Nell That nothing unexpected interferes with the show Wenn nicht noch ein Malheur passiert - was heut niemand ahnt Solange nichts Unerwartetes die Show unterbricht … 10: 03: 33 Finis It’s a sad sad state of affairs we’re in Maudeline That has led to this ominous wedding Nun geht alles schief - das bedaur’ich tief Und so findet sie statt, diese Hochzeit Unsere Situation ist traurig. Und hat zu dieser Unheilvollen [sic] Hochzeit geführt. Tabelle 6: Vergleich Synchronisation - Untertitelung zu The Corpse Bride 52. Worin liegt das Problem? Es ist zugegebenermaßen nicht wirklich groß. Weder die Untertitel noch die Synchronfassung sind schlecht. Es funktioniert aber nicht jede Kombination aus Tonfassungen und Untertitelungsfassungen. Der bekannteste Film, bei dem derartige Probleme auftreten, ist die Rocky Horror Picture Show (USA 1975), bei der der deutsche Text zum „Time Warp“ etwas seltsam anmutet und nicht unbedingt zu denselben Bewegungen anregt wie der Originaltext. Songs werden aber nicht immer synchronisiert. Bei vielen Filmen, wiederum besonders bei Musicals, werden die Songs im Original belassen und untertitelt (dazu auch Pruys 2009 [1997]: 98 und Leisnering 2014 passim). Ein Beispiel für einen Film, bei dem die Sängerstimmen erhalten blieben, während der gesprochene Text synchronisiert wurde, ist Cabaret 18231_Juengst_SL4�indd 133 18231_Juengst_SL4�indd 133 19�08�2020 12: 39: 11 19�08�2020 12: 39: 11 134 3 Synchronisation (USA 1972). Bei einem einzigen Song entschied man sich aber für eine Synchronisation ins Deutsche, nämlich bei „Tomorrow belongs to me“. Der Sänger wurde dabei nicht ausgetauscht; es war der junge deutsche Schauspieler Oliver Collignon. Um die Verwirrung noch zu vertiefen: Es gab eine DDR-Synchronfassung und eine BRD-Synchronfassung (https: / / de.wikipedia.org/ wiki/ Cabaret_(Film). 53. Warum wurde ausgerechnet dieser Song synchronisiert? Sie können die Frage nicht beantworten, wenn Sie den Film nicht gesehen haben - genau, Sie ahnen es, ich finde, Sie sollten sich ihn sowieso mal ansehen. Und warum hat man sich bei allen anderen Songs gegen eine Synchronisation entschieden? Leisnering führt eine zusätzliche Gruppe von Songs auf, die nicht synchronisiert werden und die oft entweder die Gedanken einer Figur wiedergeben oder gerade das Gegenteil der Handlung verkörpern (Leisnering 2014: 213-217, Kategorisierung nach Weidinger 2006). So hört eine Figur vielleicht ein Lied im Radio oder das Lied wird als Hintergrundmusik eingesetzt. Die Gründe für die Entscheidung, diese Songs nicht zu übersetzen, können äußerst banal sein. Die Verantwortlichen verschwenden i. d. R. keinen Gedanken an eine Übersetzung und verlassen sich stattdessen auf die Kraft des Klangs, um den erwünschten Effekt auch im Ausland zu erzielen. Da der Klang sicher auch das Wichtigste ist, gelingt das in den meisten Fällen. Dennoch bekommt in diesen Beispielen der englischsprachige Zuschauer mehr und eine intensivere Atmosphäre geboten, da die Songs auch eingespielt werden, wenn weder Dialoge stattfinden noch handlungsbedeutsame Aufnahmen zu sehen sind, auf die man sich ggf. konzentrieren müsste. (Leisnering 2014: 215) Bei Disney wird alles synchronisiert. Bei Filmen für Erwachsene gibt es Songs mit einer bestimmten Funktion, die nie synchronisiert werden. Mal kurz nachdenken … Welche Funktion könnte das sein? Denken Sie mal an James Bond … Titelsongs werden sehr sorgfältig ausgewählt und spielen beim Marketing von Filmen eine große Rolle. Bei den James-Bond-Filmen ist das Rätselraten, wer beim neuen Bond den Titelsong singen wird, fast so wichtig, wie die Frage, wer denn nun Bond spielt (in den typisch englischen Wettbüros spielen diese Fragen eine sehr wichtige Rolle). Mal kurz nachdenken … Fallen Ihnen spontan Titelsongs zu James-Bond-Filmen ein? Und vielleicht noch ein paar andere Titelsongs, die zu Dauerbrennern wurden? 18231_Juengst_SL4�indd 134 18231_Juengst_SL4�indd 134 19�08�2020 12: 39: 12 19�08�2020 12: 39: 12 135 3.8 Forschung und weiterführende Literatur Auch wenn Sie kein James-Bond-Fan sind, werden Sie zumindest den Titelsong zu Goldfinger schon gehört haben. Was andere Filme betrifft, hat sich „My heart will go on“ aus Titanic ( Titanic , USA 1997), gesungen von Céline Dion, auch außerhalb der Filmrolle durchgesetzt. Der Song gewann 1998 den Oscar für den besten Filmsong. Zu verfilmten Opern und der Untertitelung von Songs siehe Kapitel 2.6. Mal kurz nachdenken … Opern könnte man doch prima synchronisieren! Das könnte man tatsächlich. Man könnte bekannte Sänger aus den zielsprachlichen Ländern einsetzen. Übersetzte Libretti gibt es zuhauf. Aber wer einen Opernfilm anschaut, will bestimmte Sänger hören. Das Gesicht von José Carreras gehört zu seiner Stimme, ganz gleich, wie gut der Ersatzsänger wäre. 3.8 Forschung und weiterführende Literatur Die ersten deutschsprachigen Forschungsarbeiten zur Synchronisation stammen von Hesse-Quack (1969) und Toepser-Ziegert (1978). Sie geben einen interessanten Einblick in die ersten Schritte, die in der deutschsprachigen Synchronisationsforschung gemacht wurden. Es lohnt sich, dazu gleich die Analysen von Pruys zu lesen (2009 [1997]: 24-36), der vor allem den grundlegend sozial-gesellschaftlichen Ansatz und die moralische Wertung bei Hesse-Quack und Toepser-Ziegert herausarbeitet. Die Arbeit von Whitman-Linsen (1992) stellt eine Weiterentwicklung dar und ist nüchterner geschrieben. Pruys eigene Arbeit ist eine Analyse von Synchronisationsmethoden mit Mitteln und Begriffen der klassischen Rhetorik, die auf den Seiten 50 bis 164 ausführlich dargelegt und mit vielen Beispielen erläutert wird. Wichtig für eine ausbalancierte Wahrnehmung der Synchronisation ist die sprachwissenschaftlich-translationswissenschaftlich orientierte Arbeit von Herbst (1994). Wehn (1996) bietet einen medienwissenschaftlich orientierten Überblick über die Veränderungen, die bei der deutschen Synchronisation der Serie Magnum vorgenommen wurden. Diese Arbeit ist vor allem deshalb interessant, weil oft behauptet wird, Änderungen wie dort dokumentiert würden seit den späten 1960ern nicht mehr vorgenommen. Seifferth (2009) zur Synchronisation amerikanischer Fernsehserien enthält Informationen zu Arbeitsabläufen und Analysen z. B. von Serien mit fachsprachlichen Elementen. Bräutigam (2015) bietet eine aktuelle Darstellung des Verfahrens. Eine große Menge an Analysen mehrsprachiger Filme steht bei trafilm.net. Ebenfalls explizit translationswissenschaftlich orientiert ist Zybatow 2009b; hier werden auch Analyseinstrumente vorgeschlagen. Unter aktuellen Publikationen hervorzuheben sind die Arbeiten von Bräutigam, insbesondere der gemeinsam mit Peiler herausgegebene Sammelband Film im Transferprozess (2015). Dieser Band versammelt aktuelle Literatur zum Thema und zeigt, dass die Synchronisationsforschung nicht mehr das Stiefkind der AV-Forschung ist. Eine didaktische Perspektive enthält Chaume (2012). Aktuelle Forschung findet sich in den Veröffentlichungen von Mälzer (hier zitiert Mälzer 2014). 18231_Juengst_SL4�indd 135 18231_Juengst_SL4�indd 135 19�08�2020 12: 39: 12 19�08�2020 12: 39: 12 136 3 Synchronisation Drei thematisch ausgefallene Arbeiten sollen noch angeführt werden: Zum Spezialfall der Synchronisation von Werbefilmen siehe Stroisch (2008). Paratextuelle Elemente bei Synchronisationen behandelt Matamala (2011). Das ist insofern bemerkenswert, als dieses Thema im AV-Bereich sonst nur bei der Game-Lokalisierung eine Rolle spielt. Dazu kommt Baños (2019) zu Parodien. In MA- und BA-Arbeiten sind Vergleiche zwischen Synchron- und Untertitelfassungen sehr beliebt, und die Ergebnisse sind durchaus nicht einheitlich. Das gilt für reine Analysen ebenso wie für Befragungen. Manche Absolventen veröffentlichen ihre Arbeiten; meist erhält man sie am einfachsten über die Autoren. Zum Thema Synchronisation findet man auch eine große Menge an Laienforschung und Laienmeinungen im Internet (meist richten sie sich gegen das Verfahren). Sachliche Analysen sind hier eher selten, was eine Analyse dieses Materials mit soziologischen Fragestellungen interessant macht. Hin und wieder erscheinen philosophisch orientierte Arbeiten zum Thema Synchronisation. Paech (2012) untersucht das Phänomen Synchronisation in Bezug auf die Frage, wie Stimme und Körper verbunden sind. Für praxisorientierte Übersetzungswissenschaftler ist ein solcher Blick über den Tellerrand empfehlenswert. Das letzte Wort sollen Metz und Seeßlen haben, deren hervorragenden Beitrag aus dem Deutschlandfunk ich für dieses Kapitel ausgiebig geplündert habe: Aus amerikanischen oder französischen Helden werden per Synchronisation deutsche Helden. Und ein deutsch synchronisierter Film ist zu einem nicht unerheblichen Teil sozusagen ein auch innerlich deutscher Film geworden. Die meisten Filme verlieren also mit der Synchronisation eine Dimension der mythischen Ganzheit eines Schauspielers - und erhalten stattdessen eine theatralische und nicht selten ideologische Bedeutung. (Metz / Seeßlen 2009) Und auch von ihnen kommt das (tröstliche? ) Schlusswort: Denn in Wahrheit macht die Synchronisation die Botschaft aus einer anderen Kultur nicht verständlicher. Sie hilft uns nur, sie besser falsch zu verstehen. (Metz / Seeßlen 2009) 18231_Juengst_SL4�indd 136 18231_Juengst_SL4�indd 136 19�08�2020 12: 39: 12 19�08�2020 12: 39: 12 4 Voice-over 4.1 Definition Eine Abgrenzung des Verfahrens von anderen Verfahren ist in diesem Fall wichtig, denn wohl kein anderes Verfahren der Filmübersetzung leidet unter einem derartigen Definitionswirrwarr wie das Voice-over. Schon zwischen Filmschaffenden und Übersetzern ist man sich nicht einig, was Voice-over ist und was Voice-off. Dazu kommt, dass auch das Live-Filmdolmetschen manchmal mit Voice-over verwechselt wird (siehe auch Kapitel 5.1), ebenso das Einsprechen eines Nachrichtenkommentars über gesprochene O-Töne (auch wenn im Kommentar die Inhalte dieser O-Töne nicht wiedergegeben werden). Das wird nicht einfacher, wenn man mit Übersetzern und Übersetzungswissenschaftlern aus anderen Ländern zu tun hat, denn hier kommen noch Verwechslungsmöglichkeiten mit dem Begriff Dubbing hinzu, der nicht immer nur für Synchronisation in unserem Sinne benutzt wird, sondern auch für Voice-over. Kaufmann (2004) nutzt den Terminus doublage voix off für Voice-over, Perego spricht von versione semidoppiata (nach Franco et al. 2010: 221). Franco et al. verweist aber auch auf eine Arbeit von John Crone, die im Rahmen einer AV-Tagung erschien, und in der „the term voice-over in the Film Studies sense, as the position of a faceless voice over images“ definiert wird (Franco et al. 2010: 195; Zusammenfasssung von Crone 1998). Auch die Encyclopedia of Translation Studies führt zwei Begriffe an: Voice-over or half-dubbing (Gambier 2003) is a method that involves pre-recorded revoicing: after a few seconds in which the original sound is fully audible, the volume is lowered and the voice reading the translation becomes prominent. (Pérez González 2011 [2009]: 16) Im Prinzip sehen die beiden Tonspuren aus wie eine mit Wasser gefüllte Wanne: Abbildung 30: Voice-over-Wanne Orero (2009: 130-132) führt den Terminologiesalat in diesem Bereich anschaulich vor und zitiert eine Reihe von Beispielen. Für das vorliegende Kapitel sind die teilweise auf Oreros 18231_Juengst_SL4�indd 137 18231_Juengst_SL4�indd 137 19�08�2020 12: 39: 12 19�08�2020 12: 39: 12 138 4 Voice-over Artikel basierenden, in Franco et al. vorgenommenen Abgrenzungen zu Verdolmetschung (interpreting, 33-34), Voice-off (35-37), narration und commentary (38-41) wichtig. Im Deutschen wird für Voice-off, Narration / Erzählung und Kommentar bevorzugt die Bezeichnung Kommentar benutzt. Gerade hier herrscht trotzdem terminologische Verwirrung - es gibt widersprüchliche wie auch einander überlappende Definitionen. Auf S. 30-31 bei Franco et al. werden nicht weniger als zwölf Definitionen / Bezeichnungen für Voice-over aufgelistet. Die Definition des Begriffs Voice-over und seine Abgrenzung von anderen Verfahren der Filmübersetzung nimmt bei Franco et al. insgesamt fast 30 Seiten ein. Dies liegt auch an der Entwicklung des Terminus Voice-over. Franco et al. weisen darauf hin, dass die manchmal bei Stummfilmaufführungen eingesetzten Filmerzähler ( lecturers ) eine Art Voice-over lieferten und dass es Definitionen von Voice-over gibt, die jede Sprachäußerung beinhalten, die nicht an den sichtbaren Filmbildern festgemacht werden kann (Franco et al. 2010, 17 f.; die Definition Harrington 1973, 165, dort zitiert). Die Terminologieproblematik bedeutet nicht nur, dass es zu Missverständnissen kommen kann, wenn man über Voice-over sprechen möchte, sondern auch, dass man relevante Literatur zum Thema eventuell nicht findet. Die Definition des Begriffs ist noch immer nicht ganz stabil. Auch die Task Force Audiovisual Translation der FIT (Fédération Internationale des Traducteurs) befasste sich im Frühjahr 2019 mit der Frage, wie Voice-over für eine internationale Zielgruppe definiert werden kann. Auf wissenschaftlichen Tagungen im Bereich AV-Übersetzung hat sich inzwischen international mehr oder minder die Bezeichnung Voice-over für die oben aus der Encyclopedia zititerte Methode durchgesetzt. Genauer beschrieben: … a technique in which a voice offering a translation in a given target language (TL) is heard simultaneously on top of the source language (SL) voice. As far as the soundtrack of the original program is concernend, the volume is reduced to a low level that can still be heard in the background whilst the translation is being read. It is common practice to allow the viewer to hear the original speech in the foreign language for a few seconds at the onset of the speech and to reduce subsequently the volume of the original so that the translated speech can be inserted. The translation usually finishes several seconds before the foreign language speech does, the sound of the original is raised again to a normal volume and the viewer can hear once more the orginal speech. (Díaz Cintas und Orero 2005: 473) Voice-over versions are realized through the recording of the translation voice on top of the original voice, which remains audible. (Franco et al. 2010: 39) Diese Definition wird auch hier verwendet: Unter Voice-over versteht man also einen übersetzten und auf einer zusätzlichen Tonspur aufgenommenen, fixierten Text, der nicht lippensynchron zum Originaltext eingesprochen wird und eine kürzere Zeitdauer hat als dieser. Dabei wird der Originalton etwa ein bis zwei Sekunden angespielt und dann so weit heruntergedreht, dass man ihn noch wahrnimmt, aber nicht mehr verstehen kann (und zwar auch dann nicht, wenn man ausgezeichnete Kenntnisse der Originalsprache und ein gutes Gehör hat). Über diesen leisen Originalton wird die Voice-over-Übersetzung von Profisprechern eingesprochen. Normalerweise ist der Voice-over Text kurz vor dem 18231_Juengst_SL4�indd 138 18231_Juengst_SL4�indd 138 19�08�2020 12: 39: 12 19�08�2020 12: 39: 12 139 4.1 Definition Originaltext fertig und man hört als Abschluss noch einen halben Satz der Originalstimme, wieder auf normale Hörstärke hochgedreht. So ist es möglich, den übersetzten Text nicht lippensynchron einzusprechen, ohne dass es den Zuschauer stört - man hört leise Geräusche, die als Text zu den Lippenbewegungen passen. 54. Schon ganz am Anfang die Frage: Welche Probleme könnten durch die Zeitverkürzung auftreten? Im deutschsprachigen Raum wird Voice-over normalerweise in der 1. Person eingesprochen, wie es auch beim Dolmetschen üblich ist. Franco et al. beschreiben jedoch auch das Verfahren reported VO , wobei die Sprecher „report what the talking head says through the use of the singular and plural third person pronouns“ (2010: 42). Wie der Begriff Voice-over ist auch der Begriff Voice-off im Deutschen nicht eindeutig belegt und wird manchmal für das verwendet, was eben als Voice-over definiert wurde, wie in der oben zitierten Definition von Crone. Voice-off bedeutet zumindest immer, dass der Sprecher nicht im Bild ist. Die Bezeichung wird im Fernsehen unabhängig davon verwendet, ob es sich um eine Postproduktion in der Ausgangssprache handelt, bei der der sprechende Schauspieler nicht im Bild ist, oder um die Aufnahme eines übersetzten Textes. Auch in Untertiteln für Hörgeschädigte und Gehörlose werden O-Töne, bei denen man den Schauspieler hört, aber nicht sieht, manchmal als „off “ markiert oder als „Stimme aus dem Off “. Mal kurz nachdenken … Wo erwarten wir eine Kombination aus Voice-over und Voice off? Eine Kombination aus Voice-over und Voice-off wird hauptsächlich für Dokumentarfilme eingesetzt, man findet sie aber auch in journalistischen Formaten wie Magazinen und Nachrichten (näheres zu diesen beiden Einsatzgebieten unter 4.2). Dokumentarfilme haben eine weniger starke Anziehungskraft für das Publikum als Spielfilme. Viele laufen auf Spartenkanälen; viele darunter sind leider von wenig überzeugender Qualität. Die Themen können sehr esoterisch sein; sie reichen von der Biokäseherstellung über das Paarungsverhalten der Winkelspinne bis zum Vulkanausbruch. Auch das kann damit zu tun haben, dass eher Desinteresse an diesem Übersetzungsverfahren besteht. Mal kurz nachdenken … Was könnte an Dokumentationen für den Übersetzer schwierig sein? Der Inhalt von Dokumentarfilmen kann ausgesprochen fachlich sein, auch wenn Experten im O-Ton, also im vor Ort aufgenommenen nicht geprobten Originalton, Fachbegriffe oft erklären. 18231_Juengst_SL4�indd 139 18231_Juengst_SL4�indd 139 19�08�2020 12: 39: 12 19�08�2020 12: 39: 12 140 4 Voice-over Mal kurz nachdenken … Wo erwarten Sie in einer Doku Voice-over und wo Voice-off ? Voice-over wird v. a. bei O-Tönen eingesetzt, also bei nicht vorab geplanten oder gar auswendig gelernten Textpassagen. Das können Berichte von Augenzeugen eines Ereignisses sein (bei Naturdokumentationen z. B. die Augenzeugen eines Vulkanausbruchs oder Menschen, bei denen Wildschweine den Vorgarten durchwühlt haben) oder Interviews mit fachlichen Koryphäen. 55. Nochmal zur Wiederholung: Welche Elemente sind typisch für frei gesprochene Sprache? Welche bleiben im Voice-over erhalten? 56. Was ist bei der Übersetzung von Voice-off grundlegend anders als bei der Übersetzung für Voice-over - und was bedeutet das für die Aufgaben des Übersetzers? Wer Voice-over übersetzt, sieht sich in noch größerem Maße mit Missverständnissen von Seiten des Zielpublikums konfrontiert als andere AV-Übersetzer (vgl. Dirr 2009). Viele Zuschauer, die die Ausgangssprache auch nur ein wenig verstehen, fühlen sich als kompetente Kritiker und halten die Voice-over-Übersetzung sofort für schlecht, wenn sie nicht ihren Erwartungen entspricht. Das geschieht sehr schnell, und der Übersetzer sollte sich dessen bewusst sein. Mal kurz nachdenken … Warum glauben die Zuschauer, das sofort beurteilen zu können? Es gibt zwei Elemente des Voice-over, die manche Zuschauer misstrauisch machen. Bereits wenn die Voice-over-Übersetzung mit einem anderen Wort oder einer anderen Phrase beginnt als der noch hörbare Originaltext, ist das Vertrauen vieler Zuschauer dahin. Es ist daher wenig sinnvoll, eine sprachlich bessere Voice-over-Übersetzung zu liefern, wenn man dafür den Text umstellen muss (siehe dazu Luyken 1991: 141). Viele Zuschauer glauben außerdem bei Voice-over, dass der Originaltext gedolmetscht wird, und wundern sich, wenn der vermeintliche Dolmetscher vor dem Originalsprecher fertig ist („da muss doch etwas fehlen“). Daraus resultiert leider auch, dass die tatsächliche Qualität der übersetzerischen Arbeit nicht gewürdigt wird. Als Grund für die Nutzung von Voice-over wird trotzdem allgemein behauptet, dass Voice-over zumindest den Klang der Originalstimme belässt, dass man aber nicht die Ablenkung durch Untertitel hat. Orero weist darauf hin, dass das Voice-over-Verfahren als besonders exakt und treu in der Wiedergabe gilt und zitiert dazu u. a. McLuhan (Orero 2006: 2). Zusammengefasst sieht das Image von Voice-over folgendermaßen aus: 18231_Juengst_SL4�indd 140 18231_Juengst_SL4�indd 140 19�08�2020 12: 39: 13 19�08�2020 12: 39: 13 141 4.1 Definition One of the most salient features of voice-over is that of being associated with non-fiction genres and portraying the feeling of authenticity and faithfulness of the content of translation. As we have seen, voice-over is one more feature to make audiovisual media a construct of reality, which in some extreme cases seems to be more real than reality. (Orero 2006: 7) Dazu kommt der unsichtbare, neutrale, allwissende Sprecher, der den Kommentar als Voice-off einspricht und der oft lehrerhaft wirkt. Auch dieser Begriff ist nicht einheitlich definiert. Die Aufgaben des Voice-off-Übersetzers, die Franco et al. zusammenfassen, sind allerdings typisch für Spanien. Zur Situation in Deutschland siehe Kapitel 4.3.1. … in practice, commentaries of translated programmes may be generated in three different forms: (a) translated commentaries closer to the original, (b) an adapted / domesticated commentaries [sic] and (c) created commentary. (Franco et al. 2010: 39) … There is no way, however, that the viewer can tell if the commentary has been translated or has been originally created in the target language. (ebd. 40) Mal kurz nachdenken … Welche dieser Aufgaben hat ein Voice-off-Übersetzer hier wahrscheinlich nicht? Es ist in Deutschland nicht immer üblich, dass der Voice-off-Übersetzer selbst einen Kommentar schreibt, der nichts mit dem ursprünglichen Voice-off-Text zu tun hat. Änderungen, die zur Textoptimierung dienen, darf er aber durchführen (siehe dazu die weiter unten angeführten Richtlinien der Firma digim - Digital Images). Zur Praxis bei Nachrichtenformaten siehe dort. Um diese Verwirrung ein wenig zu klären, wird hier klar zwischen Voice-over und Voice-off getrennt. „Voice-off “ wird nur dann verwendet, wenn betont werden soll, dass kein Sprecher im Bild ist, der O-Ton nicht zu hören ist und man nur die übersetzte Version hört. Der Voice-off-Text wird im Deutschen bevorzugt als Kommentar bezeichnet; diese Bezeichnung wird auch hier verwendet. Zum Einsatz dieser unterschiedlichen Verfahren und den damit zusammenhängenden Aufgaben des Übersetzers siehe weiter unten. Voice-over ist neben der Verdolmetschung das einzige Verfahren der audiovisuellen Übersetzung, das auch rein auditiv im Radio genutzt wird. Ein Kapitel zur Geschichte des Verfahrens, das hier zu Recht erwartet wird, habe ich ausgelassen. Die Forschung zur Geschichte des Voice-over ist eng mit der zur Synchronisation verknüpft und wird dort oft am Rande behandelt. Hier besteht noch Forschungsbedarf. 18231_Juengst_SL4�indd 141 18231_Juengst_SL4�indd 141 19�08�2020 12: 39: 13 19�08�2020 12: 39: 13 142 4 Voice-over 4.2 Arbeitsablauf Die Voice-over-Übersetzung gilt als relativ einfach (dazu eine Reihe von Quellen bei Orero 2009). Sie ist nicht so kompliziert und zeitaufwändig wie Übersetzungen für Synchronfassungen, und auch die Rhythmisierung und der Platzmangel bei der Untertitelung fallen weg. Trotzdem sollte man Voice-over nicht unterschätzen. Im deutschsprachigen Raum wird Voice-over vor allem für Dokumentationen genutzt. 38 Andere Einsatzmöglichkeiten werden in Kapitel 4.4 behandelt. Ein typischer Arbeitsablauf aus der Praxis sieht heute folgendermaßen aus: Die Projektmanagerin trägt die Verantwortung für die Organisation und erstellt ein Jobticket für alle relevanten Aufträge: Skriptübersetzung, Lektorat, Aufnahme, Mischung, Video Editing (Inserts). Vorliegende Leitfäden wie kundenspezifische Anforderungen werden konsultiert. Die Skriptübersetzung erfolgt eventuell durch Freelancer [Freiberufler]. Dann kommt das Skript zum Testsprechen, um die Text-Bild-Relation [hier die Übereinstimmung zwischen Bild und Voice-over- Text] und die Textmenge / das Sprechtempo zu überprüfen. Anschließend wird die Insert-Liste [Liste für Einblendungen, evtl auch für Displays, die ersetzt werden sollen] erstellt, das bisherige Produkt geht an die Supervision beim Kunden. Anschließend macht die Audioabteilung die Aufnahme mit den Sprechern, die Videoabteilung baut anhand der INS-Liste die Inserts nach und die Töne werden fertig abgemischt. Dann erfolgt das Handover an den Kunden. (Diverse Praxisvertreterinnen) Man sieht an der Sprache, dass die Voice-over-Übersetzung im Qualitätsmanagement mit seinen Abläufen angekommen ist. Die Übersetzung von Voice-over-Fassungen für Dokumentarfilme folgt also einem relativ klaren Arbeitsablauf, der in manchen Fällen einfacher aussieht: Die Übersetzer erhalten die Textdatei (und hoffentlich auch den dazugehörigen Film - dies ist jedoch unproblematisch, im Gegensatz zu der Lage bei der Synchronisation von Filmen). Die Texte werden übersetzt und als Textdatei an den Auftraggeber zurückgeschickt. Auch bei Voice-over überarbeitet ein Dialogregisseur manchmal die Texte; das betrifft aber oft nur eine Anpassung der Länge. Sehr oft übernimmt der Toningenieur oder ein Aufnahmeleiter diese Aufgabe und die Rolle eines Dialogregisseurs fällt komplett weg. Die Übersetzung für den Kommentar, also das Voice-off, wird durch denselben Übersetzer erstellt wie die für die Voice-over-Teile und im Tonstudio ebenfalls direkt verwendet. Mal kurz nachdenken … Warum geht das hier, wo es doch bei der Synchronisation abgelehnt wird? Erstens spielen die Lippenbewegungen der Sprecher für das Voice-over keine Rolle. Man kann den Text gleich komplett für die Endfassung übersetzen. Auch das Einsprechen im 38 Eine ausführliche Liste typischer Einsatzgebiete, Auftraggeber, Aufgaben des VO-Übersetzers und eventuell gelieferter Vorlagen findet sich in Franco et al. (2010: 132-133), allerdings mit einem deutlichen Bezug auf Spanien. 18231_Juengst_SL4�indd 142 18231_Juengst_SL4�indd 142 19�08�2020 12: 39: 13 19�08�2020 12: 39: 13 143 4.2 Arbeitsablauf Studio geht schneller als bei der Synchronisation, denn auch der Sprecher muss nicht auf die Lippenbewegungen der Sprecher im Film achten. Diese beiden Faktoren tragen dazu bei, dass Voice-over weitaus billiger ist als die Synchronisation. Zweitens sind bei Dokumentarfilmen Terminologiefragen wichtig, bei denen der Aufnahmeleiter (oder wer auch immer die Endproduktion verantwortet) weder Kompetenzen noch ausreichend Zeit für eine Recherche hat. Er muss dem Übersetzer vertrauen. Wer als Übersetzer für das Voice-over von Dokumentarfilmen arbeitet, muss sich also schnell in neue Sachthemen einarbeiten und zuverlässig mit Terminologie umgehen können. Es ist keine Seltenheit, dass man heute ein Skript über Dinosaurier übersetzt, morgen eines über Schnabeltiere und übermorgen eines über Ölbohrplattformen. Fachsprache spielt eine größere Rolle als bei Untertitelung und Synchronisation. 57. Das hat Einfluss auf die Hilfsmittel, die Voice-over-Übersetzer benötigen. Welche Hilfsmittel würden Sie einsetzen? Voice-over-Übersetzer arbeiten direkt mit den Produktions- oder Bearbeitungsfirmen sowie mit Tonstudios zusammen. Die Arbeitskopie des Films, die sie für die Übersetzung erhalten, enthält einen groß eingeblendeten Timecode. Dafür fehlen normalerweise die Einblendungen wie Bauchbinden, also vor allem die Streifen unten im Bild, in denen die Namen und Funktionen der Experten und sonstigen Interviewpartner stehen (z. B. „Prof. Dr. Habakuk Tibatong, Zoolinguist“). Mediengestalter fügen später die übersetzten Inhalte als neue Einblendungen in den Film ein; die ursprünglichen Einblendungen werden ersetzt. Bei den meisten Aufträgen übersetzt der Übersetzer nur das Buch und gibt es als Textdatei ab. Manchmal müssen zusätzliche Leistungen erbracht werden. Die Timecodes in den Filmskripts stimmen nicht immer mit dem Film überein; eventuell wird vom Übersetzer verlangt, dass er hier das Spotting für die Einstiegszeiten der Sprecher verbessert und in das Skript einträgt. In den meisten Skripts sind auch die Einblendungen enthalten, die im Film fehlen, und können zum Übersetzungsumfang gehören. Manche Tonstudios wünschen, dass der Übersetzer darüber hinaus Anmerkungen zu den Originalstimmen mitliefert (z. B. junger Mann, heisere ältere Frau). Mal kurz nachdenken … Warum brauchen die Tonstudios diese Angaben? Zeitknappheit ist auch beim Voice-over ein Problem. Wenn der Aufnahmeleiter diese Anmerkungen bekommt, kann er Sprecher auswählen ohne den gesamten Film anzusehen. Es kommt auch vor, dass der Übersetzer lediglich den Film bekommt, kein Skript. Hier muss direkt vom Film übersetzt werden. Auch hier kann es zu den Aufgaben des Übersetzers gehören, in das zielsprachliche Voice-over-Skript die Timecodes einzufügen. 18231_Juengst_SL4�indd 143 18231_Juengst_SL4�indd 143 19�08�2020 12: 39: 13 19�08�2020 12: 39: 13 144 4 Voice-over Warum ist es besonders schwierig, direkt vom Filmton zu übersetzen? Wo liegen die typischen Fehlerquellen? Der Filmton, besonders wenn es sich um einen O-Ton handelt, ist oft schwer zu verstehen. Das kann an den Sprechern liegen, aber auch an der Aufnahmequalität. Manchmal kommen in einem Film mehrere Sprachen vor, die der Übersetzer nicht alle beherrscht (bei einem Skript sind diese in die Filmsprache übersetzt, von der man weiterübersetzt). Prekär wird die Lage dann, wenn der Übersetzer zwar das Skript bekommt, aber keinen Film, oder wenn der Film mit Verzögerung geliefert wird. In diesem Fall ist der Zeitdruck so hoch, dass man schon ohne Film anfangen muss das Skript zu übersetzen. Das führt fast immer zu problematischen Übersetzungen. 58. Und warum gerade bei Dokumentarfilmen? Das übersetzte Textbuch wird bei den meisten Firmen Korrektur gelesen, bevor es an das Tonstudio geht. Wenn der Zeitdruck zu hoch ist, kann diese eigentlich wichtige Phase wegfallen. Für die Übersetzer bedeutet das eine hohe Verantwortung. 4.3 Einzelaspekte 4.3.1 Voice-over als Text Anders als das Voice-over selbst wird die Mischform aus völlig ersetzter Dialogspur und mit neuem Text überlegter Dialogspur von den wenigsten Menschen hinterfragt; den meisten Zuschauern fällt sie nicht einmal auf. Vermutlich liegt es daran, dass wir diese Form auch aus Dokumentarfilmen kennen, die in unserer Muttersprache gedreht wurden. Auch dort können Voice-over-Beiträge enthalten sein, z. B. Interviews mit ausländischen Experten. Der Sprecher des Voice-off-Kommentars spricht in diesem Fall einen Originaltext ein, was man aber nicht von einem durch eine Übersetzung ersetzten Text unterscheiden kann. Dokumentarfilme enthalten meist die folgenden Textkategorien: Erzähler oder Kommentator O-Töne von Nicht-Experten O-Töne von Experten Raum Ton: Studio, Sprecher nicht im Bild Ton vor Ort (oft auf dem Atmo-Band), Sprecher fast immer im Bild Ton: Studio oder bei einem Interview vor Ort aufgenommen; Sprecher fast immer im BIld 18231_Juengst_SL4�indd 144 18231_Juengst_SL4�indd 144 19�08�2020 12: 39: 14 19�08�2020 12: 39: 14 145 4.3 Einzelaspekte Funktion Erzählstruktur erzeugen, u. a. durch Überleitungen; Sachinformationen vertiefen oder erläutern Emotionen erzeugen, Authentizität vermitteln (als Augenzeugen oder durch fremde Sprachklänge) Information, Seriosität Kunst oder Natur? Skript frei Kein Skript, aber geprobt und Stichworte vorgegeben Material für den Übersetzer (oder für den Filmdolmetscher! ) Skript, manchmal Prä-Produktion Skript von einem Skriptdienst Skript von einem Skriptdienst; manchmal Liste mit Stichpunkten vom Experten Übersetzungsmodus Ersatz der ursprünglichen Tonspur / Voice-off Voice-over Voice-over Tabelle 7: aus einem Vortragsskript der Verfasserin, Oslo 2010 Die häufigsten Probleme der Voice-over-Übersetzung entstehen durch mangelhafte Skripte. Dokumentarfilme bestehen aus verschiedenen Textsorten: dem Kommentar im Voice-off, Spielszenen (Doku-Soap-Teile) und Interviews bzw. Augenzeugenberichten oder Fachkommentaren jeweils im O-Ton. Während Kommentar und Spielszenen nach einem Skript aufgenommen werden, ist dies bei Interviews natürlich nicht der Fall. Hier wird für die Übersetzung, wie oben erwähnt, ein Postproduktionsskript erstellt: Eine Scripting Agency bzw. ein Skriptdienst transkribiert den Text, den man in den Interviews und Zeitzeugenberichten hört. Heute kann man für die Transkription auch Software einsetzen. Die Qualität des Postproduktionsskripts für den Übersetzer steht und fällt aber mit dem Können des Skriptdienstes. Skriptdienste arbeiten unter hohem Zeitdruck und werden nicht besonders gut bezahlt. So ist es nicht weiter verwunderlich, dass die Skripte in der Praxis manchmal Fehler oder Lücken enthalten. Fremdwörter muss der Übersetzer in jedem Fall überprüfen. Besonders kritisch sind Eigennamen. Sie müssen in der Endfassung auf jeden Fall korrekt sein. Die zuverlässigste Schreibweise findet sich in den Bauchbinden; trotzdem sollte man die Namen und Bezeichnungen der Experten, die im Film auftauchen, recherchieren. Mal kurz nachdenken … Bei Namen aus welchen Sprachen ist das besonders heikel? Bei Namen, die in der Ausgangssprache bereits transkribiert wurden (z. B. vom Russischen / kyrillische Schrift ins Englische / lateinische Schrift), muss die Fassung gewählt werden, die 18231_Juengst_SL4�indd 145 18231_Juengst_SL4�indd 145 19�08�2020 12: 39: 14 19�08�2020 12: 39: 14 146 4 Voice-over der Betreffende selbst benutzt. Wissenschaftler, die international tätig sind, benutzen normalerweise die englische Umschrift. Wo das nicht der Fall ist, muss der Name den Regeln der Zielsprache entsprechend transkribiert werden. Experten werden außerdem mit ihren Ämtern oder Berufsbezeichnungen vorgestellt, und zu diesen findet man in der Zielsprache oft kein Äquivalent. In manchen Firmen herrscht hier Arbeitsteilung: Die Einblendungen werden dann in der Abteilung übersetzt, in der sie in den Film eingesetzt werden. Hier ist eine Absprache mit den Kollegen nötig, damit nicht im gesprochenen Text plötzlich eine andere Bezeichnung auftaucht als in der Einblendung. Die auftraggebenden Firmen geben gemeinhin Richtlinien für die Voice-over-Übersetzung vor, bis hin zur einheitlichen Textformatierung, die dem Tonstudio die Arbeit erleichtert. Die folgenden Richtlinien stammen von der Firma digim - Digital Images in Halle (aus dem Jahr 2010), die u. a. Voice-over-Übersetzungen für National Geographic betreut. Kommentar [Voice-off]: Bei den Tonaufnahmen dienen die Audiospuren des Originalkommentars lediglich als Orientierung … Der Bearbeiter des Textes soll sich als Autor verstehen und kann daher den Text und das Timing (Start- und Endzeiten von Textpassagen) frei verändern. Sollte ein Originalkommentar zu viel Text enthalten und Timingprobleme verursachen, so darf dieser Text auch ohne Rückfrage gekürzt werden. Stilistisch an klassischen deutschen Dokumentationen orientieren: Kein Schriftdeutsch, Text muss leicht les- und sprechbar sein … Sämtliche Fakten, Personen und andere Angaben sind immer kritisch zu prüfen. Nie auf den Originaltext verlassen. Einheiten müssen in das metrische System umgerechnet werden. Voice-over: Im Gegensatz zum Kommentar sind hier die stilistischen Elemente des Originals nach Möglichkeit beizubehalten. Auch wenn im Original fachliche Fehler enthalten sind, sind diese zu übernehmen (jedoch mit einer Anmerkung im Skript)! (mit freundlicher Genehmigung von digim - Digital Images, Halle / Saale) 59. Was hätten Sie nicht erwartet? Welche Kompetenzen verlangt das von den Übersetzern? Der Ausgangstext kann in unterschiedlichen Formaten und mit unterschiedlich ausgeprägten Details vorliegen. Am Beispiel eines fiktiven Tier-Dokumentarfilms werden hier Textformate vorgestellt, die sich in der Komplexität unterscheiden und unterschiedliche Bearbeitungsschritte erfordern. Der Text in den folgenden Beispielen ist natürlich kompletter Blödsinn. Er ersetzt Texte, die aus Copyrightgründen hier nicht verwendet werden dürfen. Die Formatierung wurde jedoch wie im Original belassen: 18231_Juengst_SL4�indd 146 18231_Juengst_SL4�indd 146 19�08�2020 12: 39: 14 19�08�2020 12: 39: 14 147 4.3 Einzelaspekte 60. Beginnen Sie mit dem ersten Beispiel. Was fällt Ihnen auf ? The Sproofle FINAL SCRIPT APPROVED TC IN SCRIPT Comments 10: 00: 03 The endless jungle. A canopy of green. Impenetrable 10: 00: 10 The heat, the humidity. Only the most intrepid species dare live here. 10: 00: 17 The noises they make ring through the night. 10: 00: 24 Underneath the leaves, strange creatures lurk. They hunt, eat, mate … They corg, worb and wift. 10: 00: 39 Many species have not even been found and described by scientists, but some have … 10: 00: 50 Among the strangest of them is the sproofle . 10: 01: 15 The Green Unknown Series Titles 10: 01: 51 Episode Title Graphic: The Sproofle 10: 02: 08 The green canopy of the Florean jungle stretches for miles on end. 10: 02: 22 The ocean is close by and adds the sound of the breaking waves to the uncanny noises from the creatures of the jungle. Some of of them are made by the sproofle. 10: 02: 43 Hardly ever spotted, it tends to murfk in the dark. 10: 03: 02 The rainy season is a challenge for sproofles and scientists alike. 10: 03: 22 The water gets everywhere: sproofles’ dens, scientists tents and welly boots. 10: 03: 30 Sproofles are particularly well-known for their rufziness. This is particularly evident whenever mature sproofles burk. Abbildung 31: The Sproofle , Beispiel 1 18231_Juengst_SL4�indd 147 18231_Juengst_SL4�indd 147 19�08�2020 12: 39: 15 19�08�2020 12: 39: 15 148 4 Voice-over 61. Das nächste Beispiel enthält deutlich mehr Informationen; es stammt aus der Mitte eines Filmskripts. Was fällt Ihnen hier auf ? 01: 03: 36 GRAPHICS ON SCREEN Professor Stumper 01: 03: 37 Professor Stumper OC/ VO I have devoted my life as a researcher to the sproofle. 01: 03: 34 Assistant I am very lucky to be able to work with someone like Professor Stumper. He is one of the few living authorities on the sproofle. Maybe the only one. 01: 03: 40 Professor Stumper VO Sproofles are well-known for their rufziness. Indeed, no other creature, great or small, he-he-he, is as rufzy as the sproofle. 01: 03: 51 Assistant VO This is one of the worst situations we have ever found ourselves in. 01: 03: 53 Professor Stumper OC/ VO The rufziness is particularly evident whenever mature sproofles burk. 01: 03: 59 Narrator VO Professor Stumper and his team are on a quest. A quest to find the rare toffled sproofle! 01: 04: 02 Professor Stumper OC/ VO Untoffled sproofles are in fact quite common, although … well … no-one … no-one has ever … EVER … seen one. They quite simply wunt. 01: 04: 16 Assistant OC Look! Look! It’s knurzing! 01: 04: 17 Professor Stumper OC/ VO The sproofle is quite cunning. Its brain is highly developed. 01: 04: 27 Assistant OC/ VO And strooples measure up to two feet! 01: 05: 29 Professor Stumper OC/ VO We are surrounded by untoffled sproofles It is the toffled sproofle we are after. Abbildung 32: The Sproofle , Beispiel 2 62. Es wird immer umfangreicher … auch diese Sequenz stammt aus der Mitte eines Filmskripts. Welche zusätzlichen Informationen bekommen Sie hier? 18231_Juengst_SL4�indd 148 18231_Juengst_SL4�indd 148 19�08�2020 12: 39: 16 19�08�2020 12: 39: 16 149 4.3 Einzelaspekte 10: 03: 05: 07 RECONSTRUCTION: MS of assistants somewhere green 10: 03: 07: 06 Narrator Stumper and his team make their way into the jungle on their hunt for the sproofle. This is not without danger 10: 03: 09: 11 HAZY POV SEQUENCE along a path in the jungle 10: 03: 12: 00 Narrator Sproofles have been known to be omnivorous. 10: 03: 22: 15 MS of assistants somewhere green DISSOLVE TO 10: 03: 24: 02 Narrator Stumper courageously takes the lead. His assistants follow timorously but trustfully. It is impossible to locate them in the heart of darkness they venture into. 10: 03: 30: 05 Standard footage of jungle aerial photograph 10: 03: 33: 21 RECONSTRUCTION: MS of assistant deep in the jungle (actor)(shot in Kew Gardens) 10: 03: 34: 02 10: 03: 36: 16 Assistant (actor) Only a fool would turn down the invitation to join an expedition lead by Stumper. Narrator Is that so? The little surviving footage from the expedition seems to tell a different story 10: 03: 37: 21 SLPIT SCREEN: Abbildung 33: The Sproofle , Beispiel 3 63. Als letztes Beispiel eine Einstiegsszene einer Episode einer Dokumentarserie. Was ist hier neu? Welche Zusatzaufgabe muss der Übersetzer hier vermutlich erfüllen? Dieses Beispiel enthält auch viele Informationen, die nicht übersetzt werden, zumindest nicht vom Voice-over-Übersetzer. Welche könnten das sein? 18231_Juengst_SL4�indd 149 18231_Juengst_SL4�indd 149 19�08�2020 12: 39: 16 19�08�2020 12: 39: 16 150 4 Voice-over THE SPROOFLE - Global Title (UK Title - The Hunting of the Sproofle) (aka Who made that noise? ) (aka Professor Stumper’s escapades) [THE GREEN UNKNOWN - Season 5 (aka THE FLOREAN JUNGLE 5)] Reference ID number: 007007 Credits start: 01: 49: 45 Final Script Researcher: Tim Jones Date: 06/ 24/ 2019 The Green Unknown 5 "The Sproofle" - Episode 222 INTERNATIONAL SCRIPT Pre-Title TIME VISUALS AUDIO 01: 00: 01 01: 00: 07 SCENE A CGI: Jungle from above Recreation: a group of researchers on their way into the jungle (filmed on location in Kew Gardens) CGI: sweet cuddly animal Interview: Professor Stumper COMM 01 The endless jungle. A canopy of green. Impenetrable. [Loud bang] [strange squeak] Professor Stumper: "he-he-he" Assistant: "What on earth is this? " COMM 02 Only the most intrepid explorers venture here. Stumper: "I knew this time it would be difficult." 01: 00: 16 01: 00: 22 SCENE B Recreation: Torrential rain in the jungle. Filmed on location in Kew Gardens. CGI: jungle from above Recreation: Assistant crawls out of the tent and wrings out his PJs Stumper: "It’s here! We’ve found it! Finally! " COMM 03 The explorers look happy and frightened at the same time. [strange squeak] Stumper: "This is the moment I have been waiting for all my life." COMM 04 The conditions demand the utmost of every member of the research team. Abbildung 34: The Sproofle , Beispiel 4 64. Schauen Sie sich die Skripte noch einmal an. Welche sprachlichen Funktionen / Sprachebenen / Register finden Sie? Wie würden Sie diese in Anlehnung an die oben angeführten Richtlinien wiedergeben? (Zu Registern vgl. weiterführend Matamala 2008: 120) 18231_Juengst_SL4�indd 150 18231_Juengst_SL4�indd 150 19�08�2020 12: 39: 16 19�08�2020 12: 39: 16 151 4.3 Einzelaspekte Jetzt dürfen Sie übersetzen! Viel Spaß! Der Zieltext muss unbedingt in den vorgegebenen engen Zeitrahmen passen. Wenn man selbst seinen Text parallel zum Film ausprobiert, muss man sehr diszipliniert und langsam vorlesen. Gerade Anfänger neigen dazu, ihre zu langen Texte einfach schnell vorzulesen und dann für gut zu befinden. Das werden die Mitarbeiter im Tonstudio anders sehen. Der Zieltext sollte generell nicht nur gut zu sprechen, sondern auch gut zu lesen sein. Schließlich lernt derjenige, der den Text einspricht, ihn nicht auswendig, sondern liest ihn vom Blatt ab. Selbstverständlich wird das Einsprechen geprobt. Man kann als Übersetzer den Sprechern aber die Arbeit erleichtern und sollte das als professionelles Teammitglied auch tun. Die folgenden Hinweise stammen aus einem Fachartikel über Industrievideos, deren Texte man auch als Video Narration bezeichnet, lassen sich aber auf andere Voiceover-Übersetzungen übertragen: Trennstriche ohne Rücksicht auf ästhetische Gesichtspunkte überall dort verwenden, wo das Fehlen eines Trennstriches die Lesbarkeit erschwert oder zu Missverständnissen führt: nicht ‚Produktionsauftragseingabe‘, … sondern ‚Produktionsauftrags-Eingabe‘ … Abkürzungen, die nicht als solche gesprochen werden, ausschreiben: nicht ‚i.a.‘ und ‚z.Zt.‘, sondern ‚im allgemeinen‘ und ‚zur Zeit‘ [sic]. Klammern ganz vermeiden, da sie nicht mitgesprochen werden … (Vetter 1998: 242-243) Bei Zahlen gilt, dass Zahlen unter 1.000.000 leichter in Ziffernform zu lesen sind. Mal kurz nachdenken … Warum konnten Sie diese Million so gut lesen? Bei längeren Zahlen sollte man mit Punkten die Tausender voneinander trennen, nicht mit Leerstellen. Trotzdem sollte man dem Sprecher beides anbieten: die Zahl in Ziffern und ausgeschrieben. So vermeidet man auch falsche Zahlen. Zahlendreher gehören zu den häufigsten Übersetzungsfehlern überhaupt, aber beim Ausschreiben irrt man sich fast nie. Manche Studios freuen sich, wenn man in der Zieltextdatei den unterschiedlichen Sprechernamen jeweils eine Farbe als Hintergrund zuweist (nur dem Namen, nicht dem Text). Es erleichtert dem Toningenieur oder Regisseur die Rollenzuweisung. Dass Übersetzer selbst den Text einsprechen (Voicing) ist selten, Franco et al. erwähnen das Voicing als mögliche Aufgabe (2010: 201). Bei kürzeren Texten kann es vorkommen, bei abendfüllenden Dokus nicht. Wie bereits erwähnt, wird Voice-over für unterschiedliche dokumentarische Genres eingesetzt. Der Übersetzer sollte sich mit dem betreffenden Genre unbedingt wohl fühlen. Wer nicht ohnehin gern Tierfilme sieht, wird solche Filme auch nicht gut übersetzen, weil ihm das Weltwissen zum Genre fehlt. Wer sich für das Fachthema eines Industrievideos 18231_Juengst_SL4�indd 151 18231_Juengst_SL4�indd 151 19�08�2020 12: 39: 17 19�08�2020 12: 39: 17 152 4 Voice-over nicht interessiert, macht Fehler. Diese Textsortenkompetenz ist nicht zu unterschätzen. Tierfilmfreunde können den speziellen Tonfall dieser Filme perfekt nachahmen, bis hin zur Parodie, und können so leichter einen guten Zieltext schreiben, der den Erwartungen der Zuschauer entspricht. Die meisten Dokumentarfilme, die heute im Fernsehen laufen, folgen diesem Muster und erfüllen konservative Zuschauererwartungen. Selbstverständlich muss man mit innovativen und experimentellen Dokumentarfilmen anders vorgehen. Solche Filme verlangen individuelle Lösungen. 4.3.2 Zusatztexte Ein Aspekt, den man bei Voice-over-Übersetzungen nicht vergessen darf, ist die Recherche. Wie für alle Fachtexte gilt auch hier, dass die Terminologie korrekt und konsistent sein muss. Wenn man allein einen Dokumentarfilm übersetzt, ist die Konsistenz kein Problem. Es gibt aber auch im Bereich der Dokumentarfilme Serien oder Mehrteiler, die aus Zeitgründen auf mehrere Übersetzer aufgeteilt werden müssen. In diesem Fall muss eine einheitliche Terminologieverwendung abgesprochen werden. Man benötigt zumindest ein Glossar, in das alle Beteiligten Termini mit Anmerkungen eintragen können. Wo weitere Aufträge aus demselben Fachgebiet zu erwarten sind, bietet es sich an, eine Datenbank in einer Terminologieverwaltungs-Software anzulegen oder die Texte gleich in ein CAT-System (Computer-aided Translation) zu laden. Viele Übersetzer nutzen solche Systeme ohnehin für alle Aufträge. Wenn Sie aus dem Bereich Kommunikationswissenschaften kommen, haben Sie sich wahrscheinlich noch nie mit Terminologiesoftware auseinandergesetzt. Übersetzer verfügen über jahrelange Übung mit diesen Tools. Lassen Sie sich davon nicht ins Bockshorn jagen, schauen Sie sich zum Beispiel unter www.term-portal.de den Link zu den Tools an oder lassen Sie sich von einem Übersetzer ein Terminologieverwaltungsprogramm vorführen. Es gibt Programme, die für Freiberufler kostenlos sind. Es gibt auch ein offenes TermWiki. Die Einträge dort sind jedoch mit Vorsicht zu genießen, da sie keiner Qualitätskontrolle unterliegen. Bei Dokumentarfilmen bekommt der Übersetzer manchmal vom Auftraggeber eine Terminologie-Hilfestellung in Form eines kleinen Glossars. Diese Glossare sind normalerweise einsprachig an der Ausgangssprache des Films ausgerichtet und geben Hintergrundinformationen zu spezifischen Fachbegriffen, die in dem betreffenden Film vorkommen. Besonders wichtig sind diese Glossare bei Tierfilmen. Ein typisches Tierfilm-Glossar sieht so aus (im Original hat es allerdings 36 Einträge): 18231_Juengst_SL4�indd 152 18231_Juengst_SL4�indd 152 19�08�2020 12: 39: 17 19�08�2020 12: 39: 17 153 4.3 Einzelaspekte Malabar toad Buro hololius Günther bengal tree monitor Varanus bengalensis dhole (wild dog) Cuon alpinus digger wasp Sphex (genus) draco (flying lizard) Draco (genus) elephant Elephas maximus gaur Bos gaurus Malabar giant squirrel (Indian giant squirrel) Ratufa indica silk cotton tree (bombax) Bombax (genus) Tabelle 8: Species List 65. Warum benötigt man bei Tierfilmen ein solches Glossar? Hätten Sie sich zusätzliche Angaben gewünscht? Welche? Diese Aufgabe ist wieder eher für diejenigen gedacht, die nicht aus einem translatorischen Studiengang kommen: Suchen Sie im Internet nach Fachglossaren zu den Themen Schokoladenherstellung, Tunnelbau und Windkraft. Wo sind Sie fündig geworden? Wie schätzen Sie die Qualität und Verlässlichkeit dieser Glossare ein? Glossare und Terminologie beim Voice-over werden behandelt bei Hanoulle / Hoste / Remael (2015) und bei Jüngst (2016a). Neben Glossaren für den Übersetzer enthält das Skript manchmal Aussprachehilfen für die Sprecher. Das ist besonders dann wichtig, wenn seltene Fremdsprachen im Film vorkommen, zum Beispiel bei geographischen Bezeichnungen, Namen oder Kulturspezifika. Allerdings sind die Aussprachehilfen nicht in der internationalen Lautschrift abgedruckt - die meisten Schauspieler, die den Text einsprechen, beherrschen die internationale Lautschrift nicht. Die Aussprachehilfen werden daher an die Zielsprache angepasst. Das bedeutet, dass bei einem englischen Skript Aussprachehilfen stehen, die sich an englische Muttersprachler richten. Der Übersetzer muss diese Aussprachehilfen entschlüsseln und für die neue Zielgruppe neue Aussprachehilfen anbieten. 66. Wieso ist die Nutzung englischer Aussprachehilfen bei lateinischen Begriffen besonders problematisch? 18231_Juengst_SL4�indd 153 18231_Juengst_SL4�indd 153 19�08�2020 12: 39: 18 19�08�2020 12: 39: 18 154 4 Voice-over Weitere Übungen und Überlegungen zum Thema Terminologie finden sich in Franco et al. (2010: 87-93). Dort wird auch die Frage behandelt, wie man vorgehen kann, wenn eine für Erwachsene gedrehte Dokumentation im Zielland für Kinder bearbeitet werden soll. Dieser Fall ist extrem selten und würde in Deutschland eher von Redakteuren als von Übersetzern bearbeitet; ein Ersatz des Kommentars ist in diesem Fall sehr wahrscheinlich. 4.4 Sonderfälle 4.4.1 Mehrsprachige Vorlagen Ein ganz neues Problem entsteht dann, wenn der Ausgangstext mehrsprachig ist. Das ist nicht so selten, wie man denkt. Wenn die Übersetzung in die erste Zielsprache als Untertitelung vorliegt, stellt das rein technisch kein großes Problem dar. 67. Warum nicht? Die zusätzlichen Sprachen können aber auch bereits mit Voice-over in der Sprache des vorliegenden Films bearbeitet sein; der Film wird dann dem Tonstudio in dieser Form geliefert. Wenn man zum Beispiel einen Dokumentarfilm über Pandas aus dem Englischen übersetzt, kann dieser bereits englischsprachige Voice-over-Passagen enthalten, bei denen der O-Ton Chinesisch war. Dies ist fast immer der Fall, wenn die Dokumentation von einem bestimmten Land handelt und ein Teil der Interviews in der betreffenden Landessprache geführt wird. Die Idealvorstellung ist, dass das neue Voice-over sich ebenfalls nach dem Originalton richten soll und nicht nach dem bereits vorhandenen Voice-over. Diese Idealvorstellung ist aus mehreren Gründen meist nicht zu realisieren. Erstens ist der Originalton in der vorliegenden Filmkopie schlecht zu hören, weil ja schon ein Voice-over vorhanden ist und man den Film oft in dieser Form bekommt, nicht mit trennbaren Tonspuren. Zweitens ist der O-Ton auch im Skript meist nicht zu finden. Denn das Skript wird, wie bereits erwähnt, oft in der Postproduktion nach dem Film erstellt und enthält daher den bereits vorhandenen Voice-over-Text; eine seltene Sprache kann von einem Skriptdienst nicht bedient werden. Man müsste also das Originalskript für das erste Voice-over bekommen. Das ist zeit- und arbeitsaufwändig, wenn nicht unmöglich. Drittens handelt es sich bei den Texten, die bereits mit Voice-over vorliegen, tatsächlich oft um Texte in seltenen Sprachen. Selbst wenn man den Originaltext findet, muss man noch jemanden suchen, der diese Sprache beherrscht. Für ein paar Zeilen lohnt sich das wirtschaftlich nicht; der Zeitdruck ist meist auch zu hoch. 68. Welche Folgeprobleme können sich aus dieser oft notwendigen Praxis ergeben? Bedenken Sie auch, dass der erste Voice-over-Übersetzer vielleicht nach ganz anderen Richtlinien gearbeitet hat als Sie selbst. 18231_Juengst_SL4�indd 154 18231_Juengst_SL4�indd 154 19�08�2020 12: 39: 19 19�08�2020 12: 39: 19 155 4.4 Sonderfälle Vorhin wurde erwähnt, dass Passagen in einer zweiten Ausgangssprache vom Skriptdienst aus dem O-Ton entnommen werden, wenn sie nicht untertitelt sind. Das kann der Fall sein, wenn einer der Sprecher ein fremdsprachiges Zitat anbringt oder einen Fachbegriff in einer Fremdsprache nutzt. Das kann den Skriptdienst überfordern. So meine persönliche Erfahrung mit einem Film zum Thema Molekularküche, bei dem französische Wörter im Skript lediglich mit [French] markiert waren. Die Markierung „unverständlich“ ist in diesen Fällen auch beliebt. Hier helfen nur vollständige Fachtexte in der Zielsprache, die Fachbegriffe zu dem betreffenden Gebiet enthalten. Wenn ein französischer Fachausdruck im Englischen benutzt wird, ist dies oft auch im Deutschen der Fall. 4.4.2 Voice-over zu laufenden Produktionen Es gibt vor allem in Spanien zwei grundlegende Produktionsmethoden für Voice-over mit unterschiedlichen Arbeitsabläufen, und zwar Voice-over für abgeschlossene und Voice-over für noch laufende Produktionen (Franco et al. 2010: 111-138). Das betrifft Sportsendungen oder Interviews. Mal kurz nachdenken … Nutzt man da in Deutschland auch Voice-over? Sportsendungen werden in Deutschland normalerweise direkt kommentiert. Im Beispiel bei Franco et al. (2010: 129) wird ein spanischer Athlet im Original-Filmmaterial nicht erwähnt, aber im spanischen Voice-over. In Deutschland ist das nur problematisch, wenn man ihn nicht sieht. Der Kommentator erwähnt ihn. Mal kurz nachdenken … Dafür übernehme ich eine Frage von Matamala: Welche Probleme könnten beim Voice-over von Sportereignissen auftreten? Man müsste sie kulturell anpassen. In Deutschland hat man aber für die meisten Sportereignisse Kommentatoren, kein Voice-over. Für Nischensportarten wie Skispringen haben Sportsender im deutschsprachigen Raum ihre eigene Strategie, um möglichst viele Fans glücklich zu machen. 69. Welche? Und was würde das beim Voice-over in eine andere Sprache bedeuten? Je seltener die Ausgangssprache, desto eher werden Übersetzer für Voice-over eingesetzt. Wenn es für aktuelle Sendungen produziert wird, wird vom gesprochenen Text übersetzt (vgl. Franco et al. 2010: 120). Das gilt besonders für Interviews. Solche Texte werden erst nach der Übersetzung geschnitten. Eventuell wird das Voice-over nie gesendet (Franco et al. 2010: 116). 18231_Juengst_SL4�indd 155 18231_Juengst_SL4�indd 155 19�08�2020 12: 39: 19 19�08�2020 12: 39: 19 156 4 Voice-over 70. Warum vom gesprochenen Text? Man muss den Journalisten hierzulande zugutehalten, dass sie gute Englischkenntnisse haben und bei Englisch als Ausgangssprache ihre Kommentare direkt selbst einsprechen. 4.4.3 Voice-over bei Nachrichtenformaten und TV-Magazinen Im deutschsprachigen Raum findet man Voice-over und Voice-off auch in Formaten des TV-Journalismus, und die haben wiederum ihre eigenen Regeln. Besonders kompliziert ist das Verhältnis von Voice-over und Voice-off in Nachrichtenbeiträgen (meist in längeren Beiträgen, so genannten Reporterstücken) und in Reportagen mit O-Tönen. Auch hier gibt es Voice-over und Voice-off, doch nicht immer, wenn ein Sprecher über den O-Ton spricht, handelt es sich um Voice-over. Zum Beispiel werden in den Fernsehnachrichten oft ausländische Politiker gezeigt, die eine Rede halten. Mal kurz nachdenken … Hört man dann immer die Rede? Oder vielleicht etwas anderes? Im darüber gesprochenen zielsprachlichen Text wird oft nicht der Teil der Rede wiedergegeben, den man im Hintergrund hört, sondern es wird ein redaktioneller Text eingesprochen, zum Beispiel eine Zusammenfassung der Rede oder ein Kurzbericht über das Treffen, auf dem die Rede gehalten wurde. Hier wird weder übersetzt noch gedolmetscht. Verwirrend ist, dass an anderer Stelle in derselben Nachrichtensendung Voice-over vorkommen kann und dass bei sehr aktuellen Beiträgen auch in den Fernsehnachrichten hin und wieder gedolmetscht wird. Bei selten übersetzten Sprachen und plötzlich eintreffenden Nachrichten aus den entsprechenden Kulturräumen werden manchmal Übersetzer oder auch Dolmetscher angefordert. Als 2005 die schwedische Ministerin Anna Lindh ermordet wurde, wurde beim mdr in Leipzig geradezu panisch nach einer Schwedisch-Dolmetscherin gesucht. Bei dem über den O-Ton gesprochenen Text kann es sich besonders beim Reporterstück auch um einen Kommentar des Journalisten handeln, der den Text selbst einspricht, darunter eventuell übersetzte, zusammengefasste Abschnitte, wenn es sich um Auslandskorrespondenten handelt 4.4.4 Fiktionale und halb-fiktionale Formate mit Voice-over Voice-over bei fiktionalen Genres ist im deutschsprachigen Raum selten; die slawische Synchro ist völlig unüblich (siehe Kapitel 3.6.4). Doch schon in den 2000ern wurde auch der deutsche Fernsehzuschauer plötzlich dort mit Voice-over konfrontiert, wo er es nicht erwartet hatte: Produktionen, bei denen man bisher Synchronisation oder Untertitelung gewohnt war, liefen mit Voice-over. Dies war zum Beispiel bei einigen Reality-Shows bei dem deutschen Popsender VIVA der Fall. Eine Sendung, die in der deutschen Fassung Voice- 18231_Juengst_SL4�indd 156 18231_Juengst_SL4�indd 156 19�08�2020 12: 39: 20 19�08�2020 12: 39: 20 157 4.4 Sonderfälle over hatte, war America’s Most Smartest Model . Bei dieser Sendung versteht man übrigens noch viel vom Originaltext; er ist nicht besonders stark heruntergedreht, was sehr unangenehm ist, aber eine gute Gelegenheit für eine Übersetzungsanalyse bietet. MTV setzte ebenfalls Voice-over ein, zum Beispiel bei der Serie 4Real (ausführlich dazu Dirr 2009). 4Real hat allerdings einen gewissen Dokumentarfilmcharakter, der bei America’s Most Smartest Model fehlt. Warum hat sich der Sender hier für Voice-over entschieden? Diskutieren Sie die Vor- und Nachteile im Vergleich mit Synchronisation und Untertitelung. Gehen Sie auch auf wirtschaftliche Erwägungen ein. 4.4.5 Firmenvideos / Video Narrations und aufgezeichnete Fachvorträge Die Arbeitsabläufe bei der Übersetzung von Firmenvideos für das Internet, die sich an Fachkunden richten, werden oft durch einen Besuch des Übersetzers bei der Firma ergänzt; die Arbeitsabläufe bei Baumarktvideos u. ä. unterscheiden sich kaum von denen für Dokumentarfilme. Bei beiden werden aber In-House-Übersetzer eingesetzt, so es welche gibt. Firmenvideos können auch synchronisiert oder untertitelt werden. Bei den Regeln zur Gestaltung des übersetzten Voice-over-Skripts wurden bereits die Firmenvideos bzw. Industrievideos erwähnt, bei denen die so genannte Video Narration übersetzt, nach bestimmten Regeln schriftlich fixiert und eingesprochen wird (Vetter 1998: 242-244; hier Kapitel 4.3.1); die englische Bezeichnung lautet corporate videos (Matamala 2008: 119). Die genaue Definition der Textsorte bei Vetter lautet: Unter Video Narrations ist der gesprochene Text zu Industrievideos zu verstehen. Diese stellen meist ein Produkt oder auch ein Unternehmen vor, haben also Werbecharakter, und werden z. B, auf Fachmessen oder bei eigens arrangierten Präsentationen für eine ausgewählte Gruppe von Interessenten gezeigt. (Vetter 1998: 242) 71. Suchen Sie im Internet nach Firmenvideos mit Sprachanteil. Wie komplex ist der fachsprachliche Anteil? Welche Form der AV-Übersetzung würden Sie empfehlen? Was spricht für Voice-over? Die Texte in diesen Videos haben einen fachsprachlichen Inhalt. Wenn man sich noch nie mit Parkettversiegelung beschäftigt hat, kennt man das Fachvokabular natürlich nicht. Firmenvideos richten sich an Experten aus dem eigenen oder aus anderen Fachgebieten. So kann es sich zum Beispiel um ein Video handeln, in dem für kunststoffverarbeitende Betriebe eine Spritzgussmaschine präsentiert wird. Die Kunststoffexperten könnten diese Maschine nicht bauen, wissen aber, was sie leisten soll. Der Übersetzer trägt eine hohe Verantwortung dem Auftraggeber gegenüber. 18231_Juengst_SL4�indd 157 18231_Juengst_SL4�indd 157 19�08�2020 12: 39: 20 19�08�2020 12: 39: 20 158 4 Voice-over Bei Fachvorträgen handelt es sich um ähnlich fachspezifische Texte, die nicht die Filmstruktur eines Dokumentarfilms mit seinen verschiedenen Stimmen und dem Filmschnitt haben. Sie können z. B. auf einer Tagungsplattform erscheinen. Die Materialsuche für diese Textsorte hat sich durch in der Einleitung kontrovers diskutierte Plattform TED.com erheblich vereinfacht. 39 So ist eine gewisse Bandbreite an Ausgangssprachen verfügbar, auch wenn die meisten TED-Talks auf Englisch gehalten werden. Man kann sie meist nicht mehr über die TED-Plattform herunterladen, aber über YouTube. Dieser Hinweis ist rechtlich natürlich problematisch. Wenn der YouTube-Kanal nicht zu der Organisation selbst gehört, muss man eine Einwilligung einholen. Ein großer Vorteil liegt darin, dass Skripte für die Ausgangsfilme vorliegen, wenn auch nur in Form einer Dialogliste. Einen Film zu skripten ist eine unangenehme und zeitintensive Arbeit. Skripten Sie ein Stück eines TED-Videos und vergleichen Sie das Ergebnis mit dem existierenden Skript. Durch die Struktur mit nur einem Sprecher, die wissenschaftliche Vorträge von Dokumentarfilmen unterscheidet, ist kein echtes Voice-off nötig. Wenn der Sprecher nicht im Bild ist, sondern seine Power-Point-Präsentation gezeigt wird, wird auch das als Voice-over behandelt. Die Sprecher-Tonspur wird nicht gelöscht. Jeder Sprecher macht beim Sprechen kurze Pausen. So kann man mit diesen Filmen sehr gut üben, an welcher Stelle man die Originalstimme hervortreten lässt und ein neues Voice-over-take einfügt. Die Takes sollten nicht zu lang sein. Mal kurz nachdenken … Warum denn nicht? Es ist bei sehr langen Takes aufwendig, Fehler beim Einsprechen zu korrigieren. Es wirkt auch ermüdend, wenn das Voice-over nonstop über den Vortrag läuft. 72. Was macht man, wenn der Sprecher stockt? Schauen Sie kurz in das Kapitel zur Synchronisation und lesen Sie das Unterkapitel zu den unterschiedlichen Synchronitäten. Welche Synchronitäten sollte man auch beim Voice-over beachten? Überlegen Sie erst, gleich kommt ein Beispiel. 39 Noch einmal als Kurzinformation: Die Plattform TED enthält eine große Menge an Vorträgen zu den unterschiedlichsten Themen. Die Untertitelung im Internet erfolgt ausschließlich durch Ehrenamtliche, ebenso die Qualitätskontrolle der Übersetzungen und das Skripten. Diese Praxis hat einen ausgesprochen zwiespältigen Charakter, da ein Besuch der TED-Tagungen, auf denen diese Vorträge gehalten werden, ausgesprochen teuer ist. 18231_Juengst_SL4�indd 158 18231_Juengst_SL4�indd 158 19�08�2020 12: 39: 21 19�08�2020 12: 39: 21 159 4.5 Stimmen Mal kurz nachdenken … Ein sehr beliebter TED-Talk zeigt einen Vortragenden, der vorführt, wie man seine Schuhe korrekt zuschnürt. Schauen Sie sich diesen TED-Talk an! Was muss man hier bei einer Voice-over-Version beachten? Tipp: Es geht um das Bild. Der Vortragende schnürt die Schuhe und sagt dazu, was er tut. Es muss also wieder die Gestensynchronität nach Herbst beachtet werden: Wenn der Experte während des Sprechens auf ein Objekt zeigt, muss der Voice-over-Text in diesem Moment dasselbe Objekt erwähnen (dazu auch eine Übung in Matamala 2008: 123 f.) Das Phänomen ist in der Literatur zu Voice-over bekannt und wird unter unterschiedlichen Bezeichnungen angeführt. Vetter spricht davon, dass die „inhaltliche und zeitliche Kongruenz von Bild und Ton“ gewahrt werden muss (Vetter 1998: 243). Orero spricht von „literal - kinetic - action symmetries“ (2006a in Franco et al. 2010: 80-82). Allerdings muss man diese strikten Vorschriften mit Vorsicht genießen: Ich hatte schon mehrfach mit Studierendengruppen zu tun, die die kinetic symmetry (Symmetrie von Text und Körpersprache, entsprechend der Gestensynchronität bei der Synchronisation) oder die action symmetry (Symmetrie von Text und Handlung, ebenfalls der Gestensynchronität ähnlich) beim Voice-over völlig übertrieben fanden und die es nicht störte, wenn der Text zu einer Bewegung etwas später kam. Vielleicht liegt es daran, dass wir mit dem Simultandolmetschen vertraut sind, bei dem dieser Effekt nicht zu vermeiden ist. Der Effekt, wenn diese Synchronitäten bei einer Synchronfassung nicht eingehalten werden, ist ungleich stärker. Bearbeiten Sie jetzt einen TED-Talk mit einer größeren Menge an Fachvokabular. Ich empfehle Insectsʼ kinky sex life . N.B.: Manche Kurse finden das sehr peinlich, andere lieben es. Sehen Sie sich den Film nicht gleich an, lesen Sie zunächst nur das Skript. Welche Begriffe müssen Sie unbedingt gegenchecken? An welchen Stellen ist es vermutlich wichtig, das Filmbild zu überprüfen, um eine Wort-Bild-Kongruenz zu gewährleisten? 4.5 Stimmen Die Sprecherauswahl obliegt dem Tonstudio. Beim hierzulande üblichen Voice-over wird im Normalfall für jeden Sprecher des Ausgangstextes auch ein Sprecher im Zieltext eingesetzt. Es ist also nicht üblich, dass ein Sprecher mehrere Rollen einspricht; Ausnahmen gelten dort, wo mehrere extrem kurze Sprechrollen vorkommen, wo also manche Sprecher im Ausgangstext nur einen oder zwei Sätze sagen. Der Sprecher für den Kommentar / die Narration im Voice-off ist normalerweise männlich und hat eine seriöse Nachrichtensprecher-Stimme (Aufderheide spricht von „sonorous, voice-of-God narration“ 2007: 10). Der Sprechstil ist nicht völlig emotionsfrei, da er sonst langweilig wäre, aber zurückhaltend. Für aufwendige Dokumentationen werden auch be- 18231_Juengst_SL4�indd 159 18231_Juengst_SL4�indd 159 19�08�2020 12: 39: 22 19�08�2020 12: 39: 22 160 4 Voice-over kannte Stimmen für die Narration eingesetzt. So gibt es einen Dokumentarfilm über die Nordsee, den Axel Prahl eingesprochen hat, und bei dem sich die Geister scheiden ( Die Nordsee - unser Meer , Deutschland 2013). Schauen Sie sich zumindest einen Ausschnitt aus diesem Film an! Die Fans finden genau die Aspekte gut, die die anderen stören. Welche Aspekte könnten das sein? Und schnell noch ein interkultureller Nachschlag: Wie sieht es mit dem Text für englischsprachige Zuschauer aus? Die Spielszenen, Interviews und anderen Textteile, bei denen man den Sprecher sieht, werden nie kühl und nüchtern eingesprochen. Zunächst wird eine passende Stimme ausgewählt, ähnlich wie beim Synchronisieren. Die Stimmen müssen den Originalstimmen nicht stark ähneln, aber ein junger Mann wird durch einen jungen Mann gesprochen, eine alte Frau durch eine alte Frau (siehe 4.3.1). Hier soll keine Diskrepanz auftreten. Selten werden andere Entscheidungen bei der Sprecherwahl getroffen. Orero (2006) zitiert das nachfolgende Angebot einer Voice-over-Agentur: Our multilingual production team selected highly experienced artists who were able to convey the tone the film demanded in an appropriate manner to each language. Understanding of the cultural differences is hugely important. For example, for the French version we chose a woman’s voice, whereas a male voice was more appropriate for the Turkish video. (http: / / www.ims-media. com/ docs/ voiceover_1.html) 73. Wie kommt es wohl zu derartigen Entscheidungen? Die Sprecherstimme des Kommentars ist prägend für den gesamten Film. Eine ganze Generation deutscher Tierfilmfans ist mit den unprofessionellen, aber einprägsamen Stimmen von Bernhard Grzimek und Heinz Sielmann aufgewachsen. Schauen Sie sich einen solchen Film an. Vermutlich sind Ihnen diese Tierfilmer nicht mehr bekannt. Welchen Eindruck machen die Stimmen auf Sie? Schauen Sie sich jetzt zum Vergleich einen von David Attenboroughs Tierfilmen an, zunächst im Original. Welchen Eindruck macht diese Stimme auf Sie? Schauen Sie sich jetzt die deutsche Fassung an! Wie wurde hier beim Voice-over vorgegangen? Attenborough sieht das nicht ganz unkritisch: 18231_Juengst_SL4�indd 160 18231_Juengst_SL4�indd 160 19�08�2020 12: 39: 23 19�08�2020 12: 39: 23 161 4.5 Stimmen Nach dem Interview begleitete David Attenborough die ZEITmagazin-Redakteure zur Tür. Als sie schon fast aus dem Haus waren, fasste er Christoph Amend kurz am Arm und sagte mit seiner weltberühmten Stimme, er habe noch eine Frage: ‚Synchronisieren Sie mich in Deutschland noch immer? ‘ ( ZEITmagazin Nr. 30/ 2018 18. Juli 2018; www.zeit.de/ zeit-magazin/ 2018/ 30/ david-attenborough-naturdokumentationen-tiere-bbc-leben/ komplettansicht) Mehr Glück hat Werner Herzog, der seine Kommentare selbst einspricht, auch auf Englisch: „Seine eckige Aussprache und sein teutonisches Timbre genießen inzwischen Kultstatus.“ (LOB 2019: 119) In Dokumentarfilmen werden in Deutschland Sprachfehler oder fremdsprachliche Akzente im Original in der Voice-over-Fassung nicht imitiert. Bei der vorhin erwähnten Reality-Show America’s Most Smartest Model sah das anders aus. Wenn einer der Kandidaten einen Akzent hat (in einer Staffel ist es ein in Rumänien aufgewachsener Russe) oder einen Sprachfehler (eine der Kandidatinnen hat eine leicht wimmernde Aussprache), wurde das auch im Voice-over wiedergegeben. Warum wird das wohl getan? Finden Sie das gut oder schlecht? Bedenken Sie auch folgende Anmerkung von Orero: „… one has to be English [sie bezieht sich auf die BBC; hier wäre es deutsch] to have the stereotyped accent of someone French.“ (Orero 2006: 4) Hat ein Voice-over in neutraler Hochsprache nur Vorteile? 74. Bei Sprecherdateien werden auch Sprecher zu einer Reihe von Dialekten geführt. Hören Sie sich Sprechbeispiele an. Was fällt Ihnen auf ? Besonders bei Industrievideos kann es vorkommen, dass der Übersetzer den Voice-over- Text selbst einsprechen muss (Matamala 2008: 119); das kann auch dort passieren, wo sonst das Einsprechen durch Übersetzer unüblich ist. Die Stimme sollte dafür die normalen Kriterien für das Einsprechen von Filmen erfüllen. Auch wenn eine solche Aufgabe nach einer hübschen Abwechslung klingt, sollten Sie sich nur dazu bereit erklären, wenn Sie wirklich deutlich und frei von unerwünschtem Dialekt sprechen können. Mal kurz nachdenken … Wann ist Dialekt bei einem Industrievideo vielleicht erwünscht? Schwäbische Firmen schätzen es durchaus, wenn ihre Produkte mit dem Standort in Verbindung gebracht werden. Wenn etwas im Dialekt eingesprochen werden soll, bitte grundsätzlich nur einen Native Speaker engagieren. Bühnendialekte sind inakzeptabel. 18231_Juengst_SL4�indd 161 18231_Juengst_SL4�indd 161 19�08�2020 12: 39: 23 19�08�2020 12: 39: 23 162 4 Voice-over 4.6 Forschung und weiterführende Literatur Die Voice-over-Übersetzung ist das Stiefkind der audiovisuellen Übersetzung (vgl. dazu Orero 2006, Franco / Matamala / Orero 2010 und Dirr 2009). Das gilt sowohl für den Unterrichtseinsatz als auch für Forschungsarbeiten, und diese Tatsache steht in einem deutlichen Missverhältnis zum häufigen Vorkommen von Voice-over auf dem Fernsehbildschirm. In den letzten Jahren hat sich die Situation zwar etwas verbessert, aber die Beiträge stammen von immer denselben Autorinnen, nämlich von Orero, Matamala und Franco, die in Brasilien bzw. Spanien beheimatet sind. Diese drei Übersetzungswissenschaftlerinnen sind auch diejenigen, die auf Tagungen hin und wieder Workshops zum Thema Voice-over anbieten. Das bedeutet aber auch, dass die Forschungsperspektive, der wir beim Voice-over begegnen, von der Praxis in diesen Ländern dominiert wird. Für vergleichende Untersuchungen ist interessant, dass, wie bei der Synchronisation, Spanien und Deutschland auch beim Voice-over Gemeinsamkeiten haben. Voice-over wird in Spanien, wie in Deutschland, gegenüber der interlingualen Untertitelung bevorzugt (Orero 2009: 134). Es besteht also in diesem Bereich noch Forschungsbedarf. Die exponentiell zunehmende Menge an Forschungsarbeiten, die im AV-Bereich insgesamt typisch ist, existiert hier nicht. 18231_Juengst_SL4�indd 162 18231_Juengst_SL4�indd 162 19�08�2020 12: 39: 23 19�08�2020 12: 39: 23 5 Filmdolmetschen 5.1 Definition Das Filmdolmetschen ist eine seltene Form der audiovisuellen Übersetzung. Meist wird es auf Filmfestivals eingesetzt, zum Beispiel, wenn sich für einen Film die Untertitelung nicht lohnt, wenn er also vielleicht nur einmal in der Zielsprachengemeinschaft aufgeführt werden soll, oder wenn eine geplante Synchronfassung noch nicht fertig ist. Unter Filmdolmetschen versteht man, dass ein bereits sendefähig vorliegender Film während einer Aufführung für das Publikum oder einen Teil des Publikums simultan verdolmetscht wird. Die Verdolmetschung wird entweder über einen Lautsprecher in den Zuschauerraum übertragen oder den Zuschauern, die ihn hören wollen, über Kopfhörer zugänglich gemacht. Filme werden normalerweise nur in Kinos gedolmetscht, nicht im Fernsehen. Der Originalton ist auch über die Kopfhörer leise zu hören, da die Tonspuren des Originalfilms nicht ersetzt werden. Bei einer Aufführung würden sonst in den meisten Fällen auch die Atmo- und Musikspuren gelöscht. Die Definition aus der Routledge Encyclopedia of Interpreting Studies lautet folgendermaßen: Film interpreting is an oral mode of audiovisual translation used when films are neither dubbed nor subtitled (or when foreign language subtitles are shown), as is often the case at film festivals. The interpretation is provided in simultaneous mode, either as a ‚voice-over‘, covering the original audio and involving just one interpreter, or via headphones, with interpreters working in teams from a booth. … Film interpreting may be provided directly from the soundtrack, or as sight translation / interpreting of subtitles or of a script. In the latter case, the interpreter must nevertheless rely on the audio to ensure suitable timing and to deal with any inconsistencies or gaps in the text. As a rule, there is no voice-matching for gender, and the same interpreter has to do all the characters. (Russo 2015: 163-164) 40 Pérez Gonzáles erwähnt in der Encyclopedia of Translation Studies das Filmdolmetschen ebenfalls kurz: As opposed to these pre-recorded transfer methods, other forms of revoicing are performed on the spot by interpreters, presenters or commentatory by superimposing their voices over the original sound … Simultaneous interpreting is typically carried out in the context of film festivals when time and budget constraints do not allow for a more elaborate form of oral or written language transfer … Interpreters may translate with or without scripts and dub the voices of the whole cast of characters featuring in the film (Lecuona 1994). (Pérez González 2011 [2009]: 16-17) 40 Dieser Artikel erschien nach der ersten Auflage des Lehrbuchs, daher wird im Verlauf nicht immer darauf Bezug genommen. 18231_Juengst_SL4�indd 163 18231_Juengst_SL4�indd 163 19�08�2020 12: 39: 23 19�08�2020 12: 39: 23 164 5 Filmdolmetschen Filmdolmetschen ist kein echtes Voice-over, auch wenn der Eindruck für das Publikum ähnlich ist. Beim Voice-over wird ein Textbuch übersetzt und von Profisprechern im Studio eingesprochen. Es existiert dann als Tonspur für sämtliche Aufführungen des Films. Zwischen dem Voice-over und dem Filmdolmetschen steht das Live-Einsprechen eines bereits übersetzt vorliegenden Skripts, das Russo und Pérez González erwähnen. Auch das kommt vor allem bei Filmfestivals vor, wenn eine synchronisierte Fassung oder eine Voice-over-Fassung geplant und der Filmtext übersetzt, aber noch nicht aufgenommen ist. Beim Filmdolmetschen im engsten Sinne wird der Film live gedolmetscht. Meist macht das ein einziger Dolmetscher, denn ein Film enthält im Normalfall Sprechpausen. Wo es kein Geld für eine Untertitelung gibt, gibt es auch keines für zwei Dolmetscher. Es gibt also keinen Support durch einen Kollegen. Nur bei sehr langen Filmen oder Filmen mit sehr viel Text werden auch Teams eingesetzt. Wenn bei einer Aufführung eine Reihe von Kurzfilmen aus verschiedenen Ländern gezeigt wird, teilt man die Kabine unter Umständen mit jemandem, der für Filme in anderen Fremdsprachen eingesetzt wird (eine Abfolge von Kurzfilmen in verschiedenen Originalsprachen ist auf Festivals üblich), der aber in Notfällen nicht weiterhelfen kann. Die Verdolmetschung wird nicht aufgezeichnet. Wenn derselbe Dolmetscher denselben Film ein zweites Mal dolmetscht, wird er nicht exakt denselben Text produzieren. Beim Filmdolmetschen muss der Dolmetscher sämtliche Rollen übernehmen, ähnlich wie bei der slawischen Synchronisation (siehe Kapitel 3.6.4). Das Filmdolmetschen hat eine kreative, künstlerische Komponente, die aber durch den Arbeitsdruck beim Simultandolmetschen nur bei erfahrenen Filmdolmetschern realisiert wird. Die Filmdolmetscher selbst sprechen meist nicht davon, dass sie einen Film dolmetschen, sondern dass sie ihn einsprechen. Sie benutzen also einen filmtypischen Ausdruck (siehe die Kapitel zur Synchronisation und zum Voice-over) und zeigen damit, dass sie sich als Teil der Filmwelt empfinden. Leider kommt es dadurch zu einer Begriffsverwirrung, denn, wie oben erläutert, liegt für das Einsprechen eigentlich ein übersetzter Text vor und es wird keine Dolmetschleistung erbracht. Die erfahrene Filmdolmetscherin Caroline Elias spricht in ihrem Blog und in deutschsprachigen Veröffentlichungen vom Filmdolmetschen, in englischen Beiträgen jedoch vom „live voice-overing“ (zitiert in Franco et al. 2010: 200). Zur Dolmetschleistung gehört nicht nur das Dolmetschen des gesprochenen Filmtextes. Auch wichtige Hinweisschilder, Briefe etc., die man nur im Bild sieht, müssen verdolmetscht werden. 75. Welche Probleme ergeben sich daraus? Meist sind Filmdolmetscher Helden im Hintergrund, doch es gibt auch Berühmtheiten wie Andrej Gavrilov (auch: Gawrilow), nach dem eine Variante des Filmdolmetschens benannt ist: 18231_Juengst_SL4�indd 164 18231_Juengst_SL4�indd 164 19�08�2020 12: 39: 24 19�08�2020 12: 39: 24 165 5.2 Geschichte … this modality originated in the former Soviet Union, when simultaneous interpreters were hired to translate many Western films in closed-door screenings organized by the USSR State Committee for Cinematography and also in film festivals opened to the general public. One of the most famous interpreters was Andrey Gavrilov … and this is why ‚Gavrilov translation‘ was the term used to refer to this modality. (Franco et al. 2010: 47-48) Das Gavrilov-Dolmetschen ist wiederum verwandt mit der slawischen Synchro und mit dem Voice-over (siehe Kapitel 3.6.4 und 4). Das Filmdolmetschen wird oft im Zusammenhang mit dem TV- und Mediendolmetschen allgemein erwähnt. Unter Mediendolmetschen versteht man allerdings nicht nur das Filmdolmetschen, sondern jede Form des Dolmetschens in Funk und Fernsehen (dazu mehr weiter untein Kapitel 5.4.1). Ein Dolmetscheinsatz auf einem Filmfestival muss nicht nur aus Filmdolmetschen bestehen. Auf großen Festivals finden Interviews mit Filmschaffenden statt, die für Presse und Publikum verdolmetscht werden. Diese Dolmetscheinsätze zählen jedoch nicht zum Filmdolmetschen selbst. Filmdolmetschen fasziniert die meisten Zuschauer, aber nicht alle Dolmetscher mögen es. Adams und Cruz Garcia schildern diesen Zwiespalt folgendermaßen: Simultaneous interpreting of spoken elements of the script of an audiovisual text at the time of screening is considered to be a last resort option in audiovisual translation, given the multiple disadvantages it represents in comparison with subtitling or dubbing for the translator / interpreter … The rather negative view on the usefulness of interpreting in an AV context is diametrically opposed to the extremely high level of linguistic, cultural and translation competence required in any simultaneous interpreter aiming to provide such a translation, coupled with the additional need for film knowledge and competence. (in Antwerpen 2009: 34) Für den Unterricht empfiehlt es sich, mit Studierenden zu arbeiten, die bereits Dolmetschunterricht hatten. Vieles, was man dort lernt, lässt sich 1: 1 auf das Filmdolmetschen übertragen. Die Unterschiede zwischen Filmdolmetschen und anderen Formen des AV-Übersetzens sind erheblich; Ausnahme ist das Gebärdensprachdolmetschen. 5.2 Geschichte Das Filmdolmetschen ist keine neue Technik. Filmdolmetscher, professionelle ebenso wie Amateure, gab es schon zu Stummfilmzeiten. Einerseits kam es vor, dass fremdsprachige Zwischentitel live gedolmetscht wurden. Andererseits konnte sich dieses Dolmetschen relaisartig 41 fortpflanzen, wenn das Filmpublikum beispielsweise aus Einwanderern mit unterschiedlichen Muttersprachen bestand. (vgl. Wahl 2003: 83-84). 41 Unter Relaisdolmetschen versteht man, dass ein bereits gedolmetschter Text als Grundlage für eine weitere Verdolmetschung dient. Als Beispiel: Ein Redner spricht Französisch, der erste Dolmetscher dolmetscht Französisch-Deutsch, der nächste dolmetscht ausgehend von dieser deutschen Fassung ins Englische. 18231_Juengst_SL4�indd 165 18231_Juengst_SL4�indd 165 19�08�2020 12: 39: 24 19�08�2020 12: 39: 24 166 5 Filmdolmetschen Es gibt auch sehr schöne Stummfilme auf DVD. Inszenieren Sie einmal ein solches Relais-Dolmetschen von Zwischentiteln. 5.3 Arbeitsablauf Der Dolmetscher kann sich auf das Filmdolmetschen normalerweise gut vorbereiten. Mal kurz nachdenken … Was braucht man zur Vorbereitung? Was wären gute Extras? Das Original-Textbuch wird oft zur Verfügung gestellt, und im Vergleich zu frei gehaltenen Reden, bei denen die Redner gern vom geplanten Text abweichen, ist dieses Textbuch relativ zuverlässig. Aber auch hier gibt es Einschränkungen. Wie beim normalen Dolmetschen gilt auch beim Filmdolmetschen das gesprochene Wort, also die Tonspur, die man im Original hört. Das Textbuch, das dem Dolmetscher vorliegt, kann aus einer früheren Produktionsphase stammen, so dass der Film jetzt anders geschnitten ist und Textpassagen überflüssig sind oder fehlen. Oder das Textbuch wird schlicht und einfach nicht rechtzeitig oder gar nicht geliefert. Nicht jeder hat Verständnis dafür, dass ein Textbuch dem Dolmetscher die Aufgabe erleichtert und das Dolmetschergebnis verbessert. Wenn man das Textbuch zur Verfügung hat, bereitet man es vor wie einen Redentext beim Dolmetschen. Mal kurz nachdenken … Also wie? Man schlägt Vokabeln nach, schreibt sich Anmerkungen an den Rand usw. Das Textbuch nimmt man dann auch mit in die Dolmetschkabine. Man übersetzt es aber nicht; das würde viel zu lange dauern. 76. Aus welchem anderen Grund tut man das nicht? Insbesondere bei Kurzfilmfestivals oder alternativen Filmfestivals besteht die Möglichkeit, dass die Dolmetscher eine Arbeitskopie des Films erhalten und den Dolmetscheinsatz mit Film und Textbuch vorbereiten können. Das ist ideal, denn so werden Unklarheiten im Text oft schon im Vorfeld über das Bild geklärt. Bei Filmen, die nach dem Festival ein breites Publikum erreichen sollen, ist es schwieriger, den Film zu bekommen. Viele Firmen haben Angst, dass Raubkopien gemacht werden (vgl. Elias 2008: 9). Selten, aber auch möglich, ist der Fall, dass der Dolmetscher nicht vom Filmton dolmetscht, sondern von bereits vorhandenen Untertiteln, ähnlich wie früher von den bereits erwähnten Stummfilm-Zwischentiteln. Dies findet man vor allem bei Filmen mit bei Dol- 18231_Juengst_SL4�indd 166 18231_Juengst_SL4�indd 166 19�08�2020 12: 39: 24 19�08�2020 12: 39: 24 167 5.3 Arbeitsablauf metschern sehr selten vertretenen Ausgangssprachen, zum Beispiel afrikanische Sprachen wie Kisuaheli oder asiatische Sprachen wie Mongolisch. Die Untertitel sind dann meist englisch; der Dolmetscher dolmetscht sozusagen vom Blatt. Wie bei allen Formen des Relaisdolmetschens, d. h. des Dolmetschens aus einem bereits übersetzten oder gedolmetschten Text, können sich hier Probleme ergeben. 77. Welche Probleme könnten in dieser Situation auftreten? Denken Sie auch an die Probleme, die Sie im Zusammenhang mit der Untertitelung kennen gelernt haben! Im Internet gibt es inzwischen viele Filme mit Untertiteln. Suchen Sie sich einen aus, bei dem Sie die Ausgangssprache der Tonspur nicht verstehen, aber die Zielsprache der Untertitel. Dolmetschen Sie vor jemandem, der die Ausgangssprache und Ihre Zielsprache versteht. Wie findet er das? Nachfolgend ein kurzer Bericht von Caroline Elias, in dem sie die Situation der Filmdolmetscherin auf einem Festival schildert: Die Augen springen im Text vor und zurück, ich suche das Stichwort, die Nebenniere schüttet eine Extraportion Adrenalin aus, der Puls klopft bis in die Nasenspitze. Irgendeine Replik habʼ ich falsch erkannt oder nicht gemerkt, dass mehrere Sätze in einem Untertitel zusammengefasst worden sind. Ich bin nicht mehr synchron, ich bin eine Idee zu früh! Wie immer in Schrecksituationen dehnt sich plötzlich die Zeit. Dann weiß ich wieder, wo ich bin, setze richtig ein: es gab eine kurze ‚Sendepause‘, die nur ich gehört habe. Einige Repliken später schlägt das Stresshormon erneut zu ‒ das einsetzende Post-Adrenalin-Tief produziert nun echte Fehler. Ich verspreche mich, erkenne einen einfachen Untertitel nicht. Ort der Handlung: Eine Dolmetscherkabine im Festivalpalast. Ich spreche einen Film simultan ein. (http: / / dolmetscher-berlin.blogspot.com/ 2009_02_01_archive.html) Wie oben erwähnt, sitzt der Filmdolmetscher meist allein in einer Kabine - unter Umständen nicht einmal in einer Kabine, sondern hinten im Zuschauerraum. Das kommt auf die Ausrüstung des Kinos an. Nicht jeder mag es, wenn keinerlei räumliche Distanz zu den Zuschauern vorhanden ist. Im Zuschauerraum gibt es auch keine Räuspertaste, mit der man in der Kabine die Stimme kurz wegklicken kann. Jede Äußerung des Dolmetschers ist wahrnehmbar. In der Praxis kann das Filmdolmetschen z. B. so aussehen: Der Arbeitsplatz, den ich beim Würzburger Filmfestival hatte, hatte improvisierte Anteile. Die eingesetzte Dolmetschtechnik gehörte der Filminitiative Würzburg und war perfekt. Das Kino selbst war jedoch nicht wirklich für einen Dolmetscheinsatz gerüstet. Eine Kabine gab es nicht. Direkt neben dem Tisch, auf dem mein Mikrofon stand, begann die letzte Zuschauerreihe. Tisch und Stuhl wurden aus der Cafeteria entliehen. Da man in dieser Situtation zum Dolmetschen eine kleine Lampe nutzt, um hin und wieder in das Textbuch zu schauen, ist man auch als einziger im 18231_Juengst_SL4�indd 167 18231_Juengst_SL4�indd 167 19�08�2020 12: 39: 25 19�08�2020 12: 39: 25 168 5 Filmdolmetschen Raum sichtbar. Das bedeutet auch, dass manche Zuschauer den Dolmetscher interessanter finden als den Film. Auf Festivals, bei denen den Organisatoren der Unterschied zwischen Dolmetschen und Einsprechen eines übersetzten Skripts nicht klar ist, kommt es zu zusätzlichen Problemen. Dies gilt besonders dann, wenn die Filme in Mehrzweckräumen gezeigt werden und keinerlei Dolmetschausrüstung zur Verfügung steht. Ich wurde einmal als Filmdolmetscherin angefordert und sollte dabei über Mikro dolmetschen, und zwar in einer Turnhalle. Der Film war nur über Raumklang zu hören, nicht über Kopfhörer (davon war zuvor nicht die Rede gewesen). Man hört in dieser Situation entweder nur die eigene Stimme oder alles außer der eigenen Stimme. In beiden Situationen kann man nicht dolmetschen, da man entweder das zu verdolmetschende Original nicht hört oder keine Kontrolle über die eigene Leistung hat. Der Dolmetscheinsatz wurde abgebrochen, ich zog mch mit den Zuschauern, die die Verdolmetschung dringend benötigten, auf eine Turnbank hinten im Raum zurück. Zur körperlichen kommt die emotionale Belastung, die viele begeisterte Filmfans, die als Filmdolmetscher arbeiten möchten, zunächst unterschätzen. Wenn Sie eine Neigung dazu haben, im dunklen Kinosaal heftig zu weinen, dann kann Ihnen das auch beim Dolmetschen schnell passieren. Wenn Sie Glück haben, findet das Publikum das charmant. Vermutlich aber eher nicht, denn das Publikum will in seiner Illusion möglichst wenig gestört werden und lieber selbst weinen. Das heißt nicht, dass das Publikum dem Dolmetscher gefühllos gegenübersteht. Bei einem Dolmetscheinsatz hatte ich einen Spielfilm zu dolmetschen, in dem eine Hauptfigur ganz am Anfang sagt: „Ich bin ja so nervös.“ Also sprach ich genau diesen Satz in mein Mikro. Prompt drehte sich eine Zuschauerin mit besorgtem Blick zu mir um und nickte mir zu. Auch bei Dokumentarfilmen sollten Sie vorher abklären, ob es sich eventuell um ein Thema handelt, bei dem Ihnen übel wird. Es ist keine Schande, wenn man keine Kriegsdokus dolmetschen kann. Es ist aber unprofessionell, einen solchen Auftrag anzunehmen, wenn dann angesichts der Bilder die Kehle zugeschnürt ist und die Stimme versagt. Beim Filmdolmetschen wird außerdem niemals eine gedämpfte, bereinigte Fassung ohne Schimpfwörter und ähnliches geboten (vgl. Elias 2008: 10). Der Film soll ungeschönt beim Zuschauer ankommen. Wenn Sie Hemmungen haben, Vulgärsprache zu benutzen, sollten Sie solche Aufträge ebenfalls ablehnen. Zunächst eine einfache Aufgabe: Ihnen liegt ein Film mit Textbuch vor. Sie bereiten einen Ausschnitt von etwa 10 Minuten aus der Mitte des Films vor. Dafür müssen Sie sich natürlich trotzdem den gesamten Film anschauen. Zeichnen Sie Ihre Dolmetschleistung auf. Hören Sie sich die Aufnahme parallel zu dem gedolmetschten Filmsegment an und bewerten Sie Ihre Leistung. Sie konnten sich vorbereiten, hatten also nicht den Wortfindungsstress, den man beim Simultandolmetschen ohne Vorlage hat. Was haben Sie beim Dolmetschen mit Ihrer Stimme gemacht? Hat die Entscheidung dafür, wie Sie gesprochen haben, etwas mit der Art des von Ihnen ausgesuchten Films zu tun? Würden Sie einen lustigen Film anders dolmetschen als einen ernsten? 18231_Juengst_SL4�indd 168 18231_Juengst_SL4�indd 168 19�08�2020 12: 39: 25 19�08�2020 12: 39: 25 169 5.4 Sonderfälle Tatsächlich haben die meisten Filmdolmetscher schauspielerische Fähigkeiten und genießen die Aufgabe durchaus: Meine Stimme geht minimal mit den Rollen mit, ohne jedoch mit den Schauspielern zu konkurrieren, deren Arbeit weiterhin im Vordergrund stehen soll. Ich muss zugleich vermeiden, gelangweilt oder gehetzt durchs Dialogbuch zu stolpern; die richtige Sprechhaltung und ein Bewusstsein dafür, was Filmkunst ist, führen zu einem dem Film angemessenen Output, das es dem Zuschauer erlaubt, in den Film einzusteigen. (Elias 2008: 9) Ähnlich äußert sich Mülmann: „Ich meine, dass man im Fernsehen [beim Dolmetschen] auch ein bisschen - zumindest stimmlich - schauspielern muss.“ (2002: 281). Suchen Sie sich im Fernsehen oder in einer Mediathek eine Show, bei der ein ausländischer Gast gedolmetscht wird. Können Sie die Aussagen von Elias und Mülmann bestätigen? Beim Filmdolmetschen ist eine belastbare, klare Sprechstimme besonders wichtig. Die Zuschauer müssen diese Stimme einen ganzen Film lang ertragen. Auch Sie müssen, mit den oben erwähnten Sprechpausen, 90 Minuten durchhalten. Die Stimme braucht also eine gewisse Robustheit. Üben Sie den Ernstfall: Besorgen Sie sich das Drehbuch und die DVD eines 90-Minuten-Films, den Sie noch nie gesehen haben. Bereiten Sie sich mit dem Drehbuch vor, übersetzen Sie es aber nicht. Setzen Sie sich jetzt vor den Film und dolmetschen Sie durch. Sie können zwischendurch nichts essen und nicht auf Toilette gehen. Niemand löst Sie ab. Wenn Sie mit einem kritischen Publikum leichter durchhalten, dann laden Sie es vorher ein. Und? Wie war diese Erfahrung? 5.4 Sonderfälle 5.4.1 TV- und Mediendolmetschen allgemein Filmdolmetschen und Mediendolmetschen im weiteren Sinne sind nicht identisch. Man versteht darunter sowohl das Dolmetschen von bereits fertigen Filmbeiträgen, bei denen die Zeit nicht für eine Übersetzung bzw. ein Voice-over reicht, als auch das Live-Simultandolmetschen bei Shows mit internationalen Gästen. Das Paradebeispiel ist die Samstagabendshow Wetten, dass …? , wo internationale Gäste so genannte Wettpatenschaften übernahmen und dabei für ihre neuesten Filme oder Schallplatten warben. Für diese Gäste wurden Dolmetscher eingesetzt, männliche für männliche Gäste und weibliche für weibliche Gäste (vgl. Mülmann 2002: 279). Es handelte sich um spontan gesprochene Sprache, trotzdem lässt sich eine solche Sendung gut dolmetschen. 18231_Juengst_SL4�indd 169 18231_Juengst_SL4�indd 169 19�08�2020 12: 39: 26 19�08�2020 12: 39: 26 170 5 Filmdolmetschen Mal kurz nachdenken … Warum ist das vom Inhalt her nicht so schwierig? Die Generalprobe kann weiterhelfen, da der Ablauf geklärt wird (die Stargäste werden dort allerdings gedoubelt, wie auf Festivals die Proben für die Preisverleihungen). Wenn ein Star für einen Film, eine Platte oder ein Buch wirbt, existiert Pressematerial, das man als Dolmetscher im Voraus bekommt. Viele Gäste weichen vom Inhalt dieses Pressematerials nicht ab. Während der Show selbst werden die Gespräche mit diesen Gästen über Raumklang für das Publikum gedolmetscht: der Gast bekommt über Kopfhörer eine verdolmetschte Fassung der Show zu hören. Und verlässt die Show meist, wenn er mit seinem Werbeblock durch ist. Schwieriger sind die Aufgaben, wenn ein Gast in einer Talkshow gedolmetscht werden soll. Dort kommt es zu spontaneren und oft auch komplexeren Äußerungen. Doch auch hier hilft das Pressematerial weiter. Nicht alles, was als Verdolmetschung im Fernsehen läuft, wird direkt beim Senden gedolmetscht. Ob dies noch wirkliches Filmdolmetschen bzw. TV-Dolmetschen ist, ist terminologisch unklar. In der Praxis unterschreibt man bei der Auftragsübernahme, dass man damit einverstanden ist, dass die Verdolmetschung im Fernsehen und / oder im Internet zu sehen ist. So werden z. B. Autoreninterviews auf Buchmessen, wie Das blaue Sofa beim ZDF, live auf der Buchmesse gedolmetscht, mitgeschnitten und in dieser Form gesendet und / oder ins Internet gestellt. Notfalls können diese Filme nachbearbeitet werden. Wo das nicht der Fall ist, wird die Verdolmetschung als live on tape bezeichnet; wo noch geschnitten wird, spricht man von Aufzeichnung (Workshop 2003 bei Norbert Zänker). ARTE hatte bis 2016 eigene Traditionen. Wenn man dort Voice-over hörte, war es oft kein klassisches Voice-over, eingesprochen von einem übersetzten Text, sondern eine aufgezeichnete Verdolmetschung. ARTE stellte damals den Dolmetschern eine entsprechende Software zur Verfügung, schickte ihnen die Filme und erhielt im Gegenzug die Verdolmetschung. Die Arbeit fand daheim oder in einem Büro statt, ein Studio wurde nicht benötigt. Inzwischen arbeitet der Sender mit Voice-over-Firmen zusammen und hat diese Praxis aufgegeben (mündliche Kommunikation Nicolas Beckers, ARTE, 13.08.2019; dazu auch Franco et al. 2010: 121). 78. Welche ungewöhnliche Form der Mehrsprachigkeit nutzt ARTE z. B. bei Einleitungen zu Operaufführungen? Arbeit für die Medien hat einen hohen Neidfaktor. Shibahara merkt ironisch an: „When interpreter is combined with the word broadcasting, for many Japanese people it takes on star status.“ (Shibahara 2009, 141) Tatsächlich werden die Namen der Dolmetscher bei vielen Sendern kurz eingeblendet, manchmal auch die Gesichter, was bei Freunden und Verwandten durchaus Begeisterung auslösen kann. Shibahara beschreibt aber auch, dass festangestellte Filmdolmetscher oft auch andere Aufgaben erfüllen müssen wie das Übersetzen und Einsprechen von Voice- 18231_Juengst_SL4�indd 170 18231_Juengst_SL4�indd 170 19�08�2020 12: 39: 26 19�08�2020 12: 39: 26 171 5.4 Sonderfälle over-Texten (Shibahara 2009 passim). Manchmal gehört auch dazu, dass die Filmdolmetscher Redaktionsaufgaben übernehmen wie einen Überblick über Nachrichten fremdsprachiger Sender an die Nachrichtenredaktion weiterzugeben (Shibahara 2009, 145). Obwohl der Beitrag „Dolmetschen im Medium Fernsehen“, ein Interview mit der Dolmetscherin Sybille von Mülmann, schon etwas älter ist, haben sich diese Abläufe kaum geändert (Mülmann 2002). Festangestellte Dolmetscher sind inzwischen jedoch eine Rarität. 5.4.2 Kinder als Zielgruppe Kinder stellen eine sehr häufige Zielgruppe beim Filmdolmetschen dar. Für jüngere Kinder sind Untertitel oft sehr schnell. Wo daher eine Synchronisation für ein Festival zu teuer oder unmöglich wäre, ist die Verdolmetschung die beste Lösung. Wenn der Dolmetscher im Vorführraum sitzt, sind Kinder allerdings auch oft mehr am Dolmetscher interessiert als an dem Film. 79. Das passiert besonders dann, wenn sich Kinder im Publikum bei dem Film langweilen. Was könnte man dagegen tun? Bei Kindern als Publikum muss man auch darauf gefasst sein, dass man als Dolmetscher als Kenner des Filmthemas eingeschätzt wird. Wer für Kinder dolmetscht, sollte sich sehr gut in das Thema einarbeiten! Sowohl während des Films als auch im Anschluss können Fragen zum Filminhalt kommen („Ist dem Löwen nicht zu heiß? “) 5.4.3 Probleme im Arbeitsablauf In Kapitel 5.3 war bereits die Rede von den schauspielerisch-stimmlichen Fähigkeiten, die ein Filmdolmetscher mitbringen sollte. Auch wer diese Fähigkeiten hat, wird oft mit Problemen konfrontiert, die mit diesen Besonderheiten zusammenhängen. In Russos Worten: Film interpreting differs from simultaneous interpreting in conference settings, not only in obvious features like topic and register. Thus, film interpreters do not have time to adjust to different speakers, to whom they have no direct access, and must cope with unique challenges, such as high speech rate, voice overlap, the need for minimal time lag to ensure synchronization with the characters’ speaking turns, and the ‚feigned‘ fresh-talk nature of scripted dialogue (Taylor 1999). This may force interpreters - who are not actors or dubbers and rarely have an already translated script - to make judicious cuts. (Russo 2015: 164) Fangen wir doch gleich einmal damit an! Annie Hall ( Der Stadtneurotiker , USA 1977) von Woody Allen wurde schon in Kapitel 2.5.1 angesprochen, als Problemfall für die Untertitelung. Auch für Filmdolmetscher sind die „honest subtitles“, in denen man sieht, was das Paar wirklich denkt, während beide völlig andere Dinge sagen, mehr als unangenehm. Sie dürfen auf das ausgangssprachliche Drehbuch zurückgreifen, das im Buchhandel erhältlich ist. 18231_Juengst_SL4�indd 171 18231_Juengst_SL4�indd 171 19�08�2020 12: 39: 27 19�08�2020 12: 39: 27 172 5 Filmdolmetschen 80. Wie können Dolmetscher mit dieser Fülle an Informationen umgehen? Die nachfolgenden Übungen sind dazu gedacht, einige der unangenehmeren Situationen beim Filmdolmetschen zu imitieren, wenn auch nicht so schreckliche wie bei Annie Hall . Es liegt kein Textbuch vor - einige Studierende müssen sich als Skriptdienst betätigen und das Textbuch aus dem Film rekonstruieren. Dazu kann eine Spracherkennungssoftware eingesetzt werden. Entweder wird dann eine Postredaktion vorgenommen oder nicht. Auf der Grundlage der beiden Textbücher und in Kombination mit dem Film kann man wiederum dolmetschen. Diese Aufgabe kann man noch schwieriger gestalten, indem man das Textbuch manipuliert. Hier wählt man am besten einen Filmausschnitt von etwa zehn Minuten Dauer. Stellen Sie Szenen um, löschen Sie schwierige, aber wichtige Wörter, zerstören Sie die Formatierung - kurz, tun Sie alles, was die Lesbarkeit und Leserlichkeit des Manuskripts ruiniert. Die Studierenden bekommen nur dieses Manuskript zur Vorbereitung. Wenn man die Aufgabe noch erschweren möchte, kann man die Vorbereitung unter Zeitdruck durchführen. Auch ungewöhnliches Vorbereitungsmaterial kann problematisch sein. Meine Kollegin Beate Herting erzählte mir von einem Dolmetscheinsatz vor vielen Jahren auf dem Leipziger DOKfestival, einem großen Dokumentarfilmfestival. Sie hatte zur Vorbereitung ihres Einsatzes damals nur Tonkassetten erhalten. Erst als sie den Film sah, stellte sie fest, dass die Szene nicht bei einem normalen Friseur, sondern bei einem Hundefriseur spielt. Wenn das Ganze jetzt immer noch Spaß macht, ist es Zeit für ein Festival. Gibt es an Ihrer Hochschule einen Fachbereich, an dem Filme gedreht werden? Wollten die Studierenden aus diesem Fachbereich nicht schon immer eine Filmwoche machen, bei denen sie eigene Filme und die von ausländischen Partnerhochschulen zeigen? Hier können Sie helfen! Vorsicht: Wenn man ein solches Projekt plant, braucht man einen Stab an zuverlässigen Mitarbeitern, die nicht nach anfänglicher Begeisterung das Handtuch werfen. Projekte schlucken sehr viel Zeit und kosten Nerven. Aber im Rückblick werden Sie auf jeden Fall viel gelernt haben, was allgemein nützlich für Managementaufgaben ist. Und vermutlich werden Sie begeistert davon sein und jede Menge Anekdoten zu erzählen haben - wie alle Filmdolmetscher. 18231_Juengst_SL4�indd 172 18231_Juengst_SL4�indd 172 19�08�2020 12: 39: 28 19�08�2020 12: 39: 28 173 5.5 Forschung und weiterführende Literatur 5.4.4 Und was ist mit Musik? Wenn der Film lustig ist und Sie eine Rampensau sind, können Sie auch singen. Wenn nicht: Die Zuschauer sehen / hören meist, dass gesungen wird; wenn der Text wichtig ist, können Sie ihn über die Musik sprechen. 5.5 Forschung und weiterführende Literatur Es gibt relativ wenige Forschungsarbeiten zum Filmdolmetschen. 81. Woran könnte es liegen, dass das Filmdolmetschen so wenig erforscht ist? Vergleichen Sie hier auch, wie das Verhältnis von Forschungsarbeiten zum Übersetzen im Vergleich zum Dolmetschen aussieht. Die wissenschaftliche Beschäftigung mit dem Filmdolmetschen findet vorrangig in Italien statt, was auch Russo in ihrem Beitrag in der Routledge Encylopedia of Interpreting Studies erwähnt (2015: 164). Ein gutes Beispiel ist „Simultaneous film interpreting and users’ feedback“ von Russo selbst (2005). Die meisten Arbeiten auf diesem Gebiet sind nicht publizierte Studentenarbeiten. Abgesehen von dem oben erwähnten Vortrag von Adams und Cruz Garcia ist das Filmdolmetschen auch kein typisches Thema auf Fachkongressen. Im Internet finden sich einige Erfahrungsberichte. Vieles über das Filmdolmetschen kommt eher in Form von Anekdoten daher, wie man auch an den in diesem Kapitel geschilderten Erlebnissen sehen kann. Diese können eine gewisse Neigung zur Verklärung des Berufs nicht unterdrücken. Das haben die beiden AV-Übersetzungsverfahren Filmdolmetschen und Synchronisation gemein: Man kann in weit ausgefallenere Situationen kommen, als es bei den anderen Verfahren möglich ist. 18231_Juengst_SL4�indd 173 18231_Juengst_SL4�indd 173 19�08�2020 12: 39: 28 19�08�2020 12: 39: 28 18231_Juengst_SL4�indd 174 18231_Juengst_SL4�indd 174 19�08�2020 12: 39: 28 19�08�2020 12: 39: 28 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) 6.1 Definition Unter Hörfilmen versteht man Filme, in denen „rein optische Filmsequenzen … in den Dialogpausen durch einen kurzen gesprochenen Text erläutert“ werden (Dosch / Benecke 2004: 7). Audiodeskription bedeutet also, dass Bilder mit sprachlichen Mitteln beschrieben werden ( Joel Snyders Buch zum Thema heißt The Visual Made Verbal , das von Dosch / Benecke Wie aus Bildern Worte werden ). Blinde und Sehgeschädigte bekommen in Worten das vermittelt, was der sehende Zuschauer über den Augensinn wahrnimmt. Audiodeskription gehört zu den intersemiotischen Übersetzungsverfahren wie bei Jakobson beschrieben (1971: 261), da ein Zeichensystem (Bilder) in ein anderes (Sprache) übersetzt wird. Der Begriff „Hörfilm“ ist in den letzten Jahren zugunsten des internationalen Begriffs „Audiodeskription“ zurückgedrängt worden. Unter Audiodeskription versteht man nur den von Dosch und Benecke erwähnten „kurzen gesprochenen Text“; zusammen mit dem existierenden Film wird der Film zum Hörfilm. Die Fernsehsender, die audiodeskribierte Sendungen anbieten, sprechen von AD und blenden dieses Kürzel bei denjenigen Sendungen ein, die mit Audiodeskription gesendet werden. Das Symbol mit dem durchgestrichenen Auge wird heute nicht mehr eingesetzt. Anders als bei Voice-over und Synchronisation / Filmdolmetschen sind sich hier alle Beteiligten bei der Definition des Verfahrens einig: Audiodeskription macht aus einem Film einen blindengerechten Hörfilm: Akustischen Untertiteln vergleichbar, beschreibt eine Audiodeskription in knappen Worten zentrale Elemente der Handlung sowie Gestik, Mimik und Dekors. Die Bildbeschreibungen werden in den Dialogpausen eingesprochen. (www.hoerfilm.de) In recent years, a very specific form of pre-recorded, mostly intralingual narration has become increasingly important to ensure the accessibility of audiovisual products to the visually impaired: this is known as audio description. An audio description is a spoken account of those visual aspects of a film which play a role in conveying its plot, rather than a translation of linguistic content. The voice of an audio describer delivers this additional narrative between stretches of dialogue, hence the importance of engaging in a delicate balancing exercise to establish what the needs of the spectator may be, and to ensure the audience is not overburdened with excessive information. (Pérez González 2011 [2009]: 16) Benecke (2014) bezeichnet die Audiodeskription daher als partielle Übersetzung: Nicht alles, was man sieht, wird beschrieben oder kann beschrieben werden; nicht alles muss beschrieben werden. Die Audiodeskription existiert nicht für sich, sondern sie ist ein abhängiger Text: Sie braucht den Filmton, um ihren Sinn zu erfüllen: 18231_Juengst_SL4�indd 175 18231_Juengst_SL4�indd 175 19�08�2020 12: 39: 28 19�08�2020 12: 39: 28 176 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) The verbal discourse created in the process of audio describing is ‚non-autonomous‘: it is intended to be processed in conjunction with the dialogue or speech and sound effects of the original audiovisual event. (Braun 2007: 3) Die Audiodeskription eines Films wird also schriftlich festgelegt, genau an die Dialogpausen angepasst und eingesprochen. 82. Das ist nicht einfach. Wann darf man auf keinen Fall eine Audiodeskription einsprechen? Wer keine Audiodeskription benötigt, weiß oft nicht einmal, dass es so etwas gibt. Man trifft auch immer wieder Zeitgenossen, die aus Versehen in eine Hörfilmfassung im Fernsehen oder auf der DVD geraten sind und sich erst einmal gefragt haben, was das überhaupt ist. Wenn ein Sehender zum ersten Mal einen Film mit Audiodeskription sieht, empfindet er diese Form der Darbietung oft als fremdartig, wenn nicht als verwirrend. Wer sich noch nie mit Audiodeskription befasst hat, ist sich auch nicht dessen bewusst, dass die Audiodeskription grundsätzlich ein natürlicher Vorgang ist. Sie ist nicht auf die Kommunikation zwischen Sehenden und Blinden beschränkt, sondern wird auch zwischen Sehenden genutzt. Das sagt auch Benecke (2004: 78), und Snyder unterstützt die Alltäglichkeit der Audiodeskription mit einer Anekdote über einen Steinzeitmenschen, der einen anderen vor einem Mastodon warnt (Snyder 2014: 13). Und auch Sie haben schon andere Menschen mit Audiodeskriptionen versorgt, ohne dass Ihnen dieser Fachbegriff geläufig war. Stellen Sie sich folgende Situation vor: Sie sitzen mit ihrer besten Freundin im Café und unterhalten sich angeregt, als ihr Blick auf etwas fällt, was hinter dem Rücken Ihrer Freundin geschieht. Was tun Sie? Vermutlich so etwas: Sie flüstern: „Dreh dich nicht um! Aber hinter dir hat gerade so eine Trulla ihren Chihuahua an der Schokolade lecken lassen und jetzt trinkt sie sie selbst! Iiih, jetzt schlabbert er wieder aus der Tasse! “ In unserer heutigen Welt sagt die Freundin vermutlich: „Mensch, halt doch mal das Handy drauf! “ Oder sie geht ganz altmodisch Richtung Toilette und kommt dabei ganz zufällig am Chihuahua und seinem Frauchen vorbei. Aber ob sich die Szene wiederholt? Davon abgesehen, dass man Menschen natürlich nicht einfach so mit seinem Handy filmen darf … Mal kurz nachdenken … Wo beschreiben Sie ebenfalls Dinge, die der Gesprächspartner nicht sehen kann? Und wo hören Sie solche Beschreibungen? 18231_Juengst_SL4�indd 176 18231_Juengst_SL4�indd 176 19�08�2020 12: 39: 29 19�08�2020 12: 39: 29 177 6.2 Geschichte Am Telefon natürlich! Und durchaus auch am Handy, denn, wie oben gesagt, nicht alles kann man filmen oder fotografieren, ohne dass es berechtigten Ärger gibt. Im Radio oder im Podcast hören wir Beschreibungen. Aus eigener Erfahrung wissen wir daher auch alle, dass Audiodeskriptionen unterschiedlich gut sind. In einer Situation wie der oben geschilderten können Sehende kontrollieren, ob sie eine Audiodeskription zutreffend finden oder nicht. Wenn der Zuhörer die Situation selbst in Augenschein nimmt, kann sehr wohl die Frage kommen: „Sag’ mal, wen meinst du überhaupt? “ Inzwischen ist es problemlos möglich, DVDs mit Audiodeskription zu kaufen oder zu leihen. 42 Dazu kommen die Mediatheken der Sender, in denen man eine gewisse Zeit lang Sendungen anschauen kann - auch mit Audiodeskription und Untertiteln. Wie weiter unten gezeigt, gilt das auch für Sendungen für Kinder, von denen man in den Mediatheken eine große Auswahl findet. 6.2 Geschichte In den letzten Jahren haben sich die Gesetze zur gesellschaftlichen Teilhabe und Barrierefreiheit zum Besseren verändert. Der Einsatz von Audiodeskriptionen im öffentlich-rechtlichen Rundfunk hat sich vervielfacht. Bei der Audiodeskription als eigenständigem Verfahren ist auch die geschichtliche Entwicklung interessant, und in der Forschung lohnt es sich immer noch, sich mit diesem Thema zu beschäftigen. Die Audiodeskription ist ein vergleichsweise junges Verfahren der AV-Übersetzung. Laut Synder beginnt ihre Geschichte in den 1970er Jahren in den USA (Dosch/ Benecke 2004: 7, Snyder 2008: 191). Fryer führt jedoch ein Beispiel von 1917 in Großbritannien an (Fryer 2016: 15). Jeder möchte also der Erste gewesen sein. Frühe Versuche trafen oft nicht auf große Gegenliebe, auch nicht bei Blinden (Snyder 2014: 18). Auch heute gibt es blinde Gegner der AD, wenn auch diese Haltung nicht mehr der Normalfall ist (www.oliveira-online.net/ wordpress/ 2019/ 01/ 17/ alternativen-zur-audiodeskription/ ). Erst in den 1980ern gab es in Washington die ersten regelmäßigen Audiodeskriptionen (Snyder 2008: 192); in dieser Zeit wurden in Großbritannien regelmäßige Audiodeskriptionen bei Theateraufführungen eingeführt (Fryer 2016: 16). Die Frage, wer nun wirklich was zuerst eingeführt hat, wäre ein interessantes Forschungsprojekt. In Europa kam die Audiodeskription von Filmen vermutlich 1989 an, beim Filmfest in Cannes. Das Konzept wurde von ein paar Pionieren aus Deutschland begeistert aufgenommen: Andrea Hartwig, Bernd Benecke, Robert Müller und Elmar Dosch gründeten die Münchner Filmbeschreibergruppe (Dosch / Benecke 2004: 7). Der erste audiodeskribierte Film in Deutschland war der amerikanische Spielfilm Die Glücksjäger ( See No Evil, Hear No Evil , USA 1989) der im Dezember 1989 in einem Münchner Kino gezeigt wurde. 42 Eine Liste von DVDs mit deutschsprachiger Audiodeskription findet sich unter http: / / www.hoerfilm. de. Die Seite http: / / www.hoerfilm.ev bietet eine Hörfilmdatenbank mit Suchfunktion. Welche englischsprachigen DVDs eine Audiodeskription haben, kann man beispielsweise über die Homepage des Royal National Institute of Blind People (www.rnib.org.uk) herausfinden. 18231_Juengst_SL4�indd 177 18231_Juengst_SL4�indd 177 19�08�2020 12: 39: 29 19�08�2020 12: 39: 29 178 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) 83. So bekannt ist der nun auch wieder nicht. Warum wurde er wohl ausgewählt? Das ZDF strahlte 1993 den ersten Film mit Audiodeskription im Fernsehen aus. 1997 begannen dann ARTE und der Bayerische Rundfunk als erste Sender eine regelmäßige Produktion von Hörfilmen (www.daserste.de/ specials/ service/ barrierefreiheit-geschichte-audiodeskription100.html). Die anderen öffentlich-rechtlichen Sender kamen nach und nach hinzu. Dreißig Jahre später kann man sagen, dass die Lobbyarbeit der Audiodeskriptoren und der Blindenverbände erfolgreich war. Den Deutschen Hörfilmpreis gibt es bereits seit 2002. Die Entwicklung der Audiodeskription im Film ist eng verknüpft mit der Entwicklung der bereits erwähnten Audiodeskription im Theater oder in Museen. Mal kurz nachdenken … Haben Sie im Museum schon einmal etwas Ähnliches benutzt? In Museen nutzen auch Sehende ganz selbstverständlich audiodeskriptionsähnliche Medien, wenn sie Audioguides mit einer Museumsführung anhören. Bei einer echten Audiodeskription werden allerdings die Kunstwerke selbst möglichst detailliert beschrieben und nicht nur erläutert. Zur Audiodeskription in Museen siehe Mälzer (2016b). Wie bei der Untertitelung für Hörgeschädigte gibt es auch bei der Audiodeskription die Möglichkeit, mit Greta Filme barrierefrei zu machen (https: / / gretaundstarks.de/ greta/ greta). Der Audiodeskriptionston läuft über das Handy; man muss Kopfhörer benutzen. 6.3 Zielgruppe der Audiodeskription Wie so oft bei übersetzerischen Aufgaben ist die Zielgruppe, für die Audiodeskriptionen erstellt werden, inhomogen. Die Lage ist dabei ähnlich wie bei Hörgeschädigten und Gehörlosen. Zur Zielgruppe der Audiodeskriptionen zählen Geburtsblinde, Späterblindete und Sehgeschädigte mit Restsehvermögen. Späterblindete haben eine andere Raum- und Farbvorstellung als Geburtsblinde, Sehgeschädigte mit Restsehvermögen können die Audiodeskription zumindest ansatzweise überprüfen. Eine Audiodeskription sollte so beschaffen sein, dass sie möglichst alle diese Menschen zufrieden stellt. Das bedeutet, dass man immer auch Kompromisse eingehen muss. Dazu kommt, dass Kinder als Zielgruppe wieder andere Bedürfnisse haben als Erwachsene (siehe Kapitel 6.6.3). Einblicke in die Lebenswelt Blinder findet man im Internet bei „vonhieranblind“, in der sztv-Reportage „Wie junge Blinde die Welt entdecken“ und bei Vereinen und Verbänden. Wo persönliche Kontakte möglich sind, sollte man sie natürlich nutzen. Viele Sehende sind überrascht, wenn sie erfahren, dass auch Blinde gern Filme und Fernsehsendungen sehen. Man muss sich aber nur vor Augen führen, wie oft der Fernsehkrimi vom Abend vorher Gespräch auf der Arbeit ist oder wie oft sich Menschen über Lieblings-Fernsehsendungen austauschen bzw. heute über gestreamte Serien. Von Sehenden hört man leider nicht selten den unbedachten Satz: „Aber es gibt doch so viele tolle 18231_Juengst_SL4�indd 178 18231_Juengst_SL4�indd 178 19�08�2020 12: 39: 29 19�08�2020 12: 39: 29 179 6.4 Arbeitsablauf Radiosendungen, die sind für Blinde doch super! “ Wer das sagt, sollte darüber nachdenken, wie oft er selbst Wortsendungen im Radio hört. Nur als ausgeprägter Radiofreund würde er sich als Kommunikationspartner für Blinde und Sehgeschädigte eignen, denen er diese Sendungen empfiehlt. Über Lieblings-Radiosendungen spricht aber wirklich nur ein kleiner Kreis von Aficionados. Über den Tatort vom letzten Sonntag reden alle, zumindest wenn sie 40+ sind. Die Tatort -Reihe gehört nicht ohne Grund zu den frühesten audiodeskribierten Fernsehbeiträgen in Deutschland. Hörfilme ermöglichen also Blinden und Sehgeschädigten eine Teilhabe am gesellschaftlichen Leben. Wer Hörfilme sieht 43 , kann am nächsten Morgen im Büro mitreden - und die sehenden Kollegen können mit den Sehgeschädigten über den Hörfilm reden. 6.4 Arbeitsablauf Audiodeskriptionen entstehen gewöhnlich in Teams aus Blinden und Sehenden. Diese Arbeitsweise ist sehr wichtig. Erstens wird so vermieden, dass Blinde aus dem Entstehungsprozess der Audiodeskription unnötig ausgeschlossen werden. Zweitens können Sehende manchmal überhaupt nicht einschätzen, wie ihre Bildbeschreibungen auf Blinde wirken. Bei Hörfilm e. V. heißt es: Die in Hörfilm e. V. zusammengeschlossenen Filmbeschreiber arbeiten ausschließlich in ausgebildeten Dreier-Teams, die aus zwei sehenden und einem sehgeschädigten Filmbeschreiber bestehen. Zu dritt formuliert das Team die Beschreibungen und setzt das jeweilige visuelle Bild so adäquat wie möglich in Sprache um. Im Anschluss erfolgt die Sprachaufnahme und Abmischung im Tonstudio. Für die Texterstellung eines Spielfilms von 90 Minuten benötigt ein Dreier-Team zwischen fünf und sechs Arbeitstagen. (www.hoerfilmev.de/ index.php? id=36) (ebenso bei Dosch / Benecke 2004: 14) Gibt es an Ihrer Ausbildungsinstitution blinde oder stark sehgeschädigte Kommilitonen? Fragen Sie nach, ob diese Interesse daran haben, bei Audiodeskriptionsübungen mitzuwirken! Die Situation wird professioneller und die Audiodeskription mit Sicherheit besser. Der Arbeitsablauf selbst erfordert, dass das Team sich den Film mehrfach anschaut. Zu den ersten Arbeitsschritten zählt das Erstellen eines Namensverzeichnisses; auch Hinweise auf besondere Probleme, etwa durch häufige Rückblenden oder Fachvokabular, werden jetzt gesammelt (Dosch / Benecke 2004: 14). Der nächste Arbeitsschritt ähnelt dem Spotting bei der Untertitelung. Nun wird festgelegt, wann Platz für die Audiodeskription ist, wann es zu Problemen kommen kann 43 Blinde sprechen davon, dass sie Filme sehen. Diese Formulierung wird daher auch im vorliegenden Lehrbuch genutzt. 18231_Juengst_SL4�indd 179 18231_Juengst_SL4�indd 179 19�08�2020 12: 39: 30 19�08�2020 12: 39: 30 180 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) und wann eventuell doch Geräusche und Musik übersprochen werden müssen. Auch hier gibt es inzwischen Software, die die Arbeit erleichtert, indem sie die Dialogpausen für die Audiodeskription mit Timecodes versieht ( Jekat / Oláh 2016: 82). Schauen Sie sich einen Ausschnitt aus einem beliebigen Film an (nicht den Anfang, der ist durch die Informationsdichte am schwierigsten). An welchen Stellen könnte man über Musik und Hintergrundgeräusche hinweg sprechen? An welchen sollte man das lieber nicht tun? Benecke (2014) enthält ein wissenschaftlich interessantes Modell zur Erstellung von Audiodeskriptionen; er gibt allerdings selbst zu, dass es für den Alltagseinsatz zu kompliziert und zeitaufwendig ist. Man sollte es aber kennen, denn es eignet sich sehr gut für die Fehleranalyse bei Audiodeskriptionen. Es ist immer wieder die Rede davon, dass Audiodeskriptoren möglichst neutral sein und möglichst objektiv beschreiben sollen (Kapitel 6.8, Richtlinien 1, Punkt 5). Dass das nicht so einfach ist, beschreibt Holland (er bezieht sich auf seine Arbeit am Theater): When I trained to be a describer, we were constantly reminded to be ‚impartial‘ and ‚objective‘. Our job was to ‚say what we see‘. The more description I undertake, however, the more impossible I feel that position to be. We were warned away from talking to creative people: ‚If you talk to the director or the actors‘, we were told, ‚they’ll tell you what they want you to see‘. While there is a certain amount of logic in this assertion, there is a counter claim that this information - what they ‚want you to see‘, their artistic intention if you like - is a valuable thing to know about. (Holland 2009: 173) Was der Audiodeskriptor sieht und was er nicht sieht, hängt auch von seinem Weltwissen, von seinen Gewohnheiten und seinen Interessen ab. Schauen Sie sich einen Film aus einer fremden Kultur an (wenn Sie kein Japanisch können, empfehle ich Ihnen Yasujirō Ozu). Wo hätten Sie Beschreibungsprobleme? Warum? Audiodeskription schafft Arbeitsplätze, ist aber nicht billig. Entsprechend wird auch hier, wie überall, versucht, Kosten zu senken und vielleicht irgendwann den Prozess zu automatisieren. Weiter unten kommt ein Beispiel dazu. Doch von allen AV-Übersetzungsverfahren scheint die Audiodeskription am wenigsten von einer kompletten Automatisierung gefährdet. Die maschinelle Bilderkennung steckt noch in den Kinderschuhen und es ist eher unwahrscheinlich, dass bald eine über eine reine Bilderkennung herausgehende, sinnvolle Auswahl der zu beschreibenden Elemente automatisch geleistet werden kann (so vorsichtig 18231_Juengst_SL4�indd 180 18231_Juengst_SL4�indd 180 19�08�2020 12: 39: 30 19�08�2020 12: 39: 30 181 6.5 Audiodeskription als Text und intersemiotische Übersetzung: Einzelaspekte man mit solchen Prognosen sein muss). Ganz zu schweigen von der passenden Wortwahl, die bei unterschiedlichen Filmgenres oder Regisseuren unterschiedlich ausfallen kann. Ohne eine in irgendeiner Form existierende Vorlage ist bisher keine automatisch generierte Audiodeskription entstanden. Ein entsprechender Versuch wird in Kapitel 6.5.7 beschrieben. 84. Welche Form der Bearbeitung ist bei automatisch generierten Audiodeskriptionen nicht zu vermeiden? 6.5 Audiodeskription als Text und intersemiotische Übersetzung: Einzelaspekte Mal kurz nachdenken … Was genau sollte in einer Audiodeskription beschrieben werden? In der Audiodeskription werden Personen und ihre Handlungen, Orte und Gegenstände beschrieben (Anhänge mit Richtlinien in Kapitel 6.8). Gegenstände werden nur dann beschrieben, wenn sie wichtig sind. Die Entscheidung, wann ein Gegenstand wichtig ist und wie genau bestimmte Orte und Menschen beschrieben werden, wird bei jedem Film individuell fallen. Ein paar Grundregeln gibt es jedoch. Im Nachfolgenden werden daher zunächst diese typischen Bestandteile aufgeführt. Audiodeskriptionen haben nicht nur einen charakteristischen Inhalt, sondern auch typische sprachliche Merkmale. Über die Jahre hinweg haben sich bestimmte Konventionen herausgebildet. Auch wenn viele dieser Konventionen einleuchtend erscheinen, gilt immer, dass man Gewohntes hinterfragen und neue Wege ausprobieren darf. Die Richtlinien, auf die hier Bezug genommen wird, finden sich in den Anhängen dieses Kapitels. Mal kurz nachdenken … Wie kann man Sätze konstruieren, so dass man sie in gesprochener Sprache gut versteht? Generell werden kurze Sätze bevorzugt (detaillierte Informationen zur Syntax bei Kluckhohn 2005 und in Anhang 1, Satzkonstruktionen ). Eine Abfolge von kurzen Sätzen führt allerdings zu einem monotonen Text, so dass eine gewisse Variationsbreite in der Satzlänge angenehmer zu hören ist Audiodeskriptionen stehen im Präsens. Es wird beschrieben, was gerade in diesem Moment im Film passiert. Die Audiodeskription ist möglichst genau an den Bildablauf angepasst. Dies hat einen großen Einfluss auf die Wortstellung: „Die elementare Rolle 18231_Juengst_SL4�indd 181 18231_Juengst_SL4�indd 181 19�08�2020 12: 39: 31 19�08�2020 12: 39: 31 182 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) der Wortstellung in Bezug auf die Audiodeskription liegt in der Rezeptionssteuerung des Hörers.“ (Kluckhohn 2005: 62) . Satzklammern mit trennbaren Verben müssen unbedingt vermieden werden. In der hier zitierten Tatort -Audiodeskription findet sich der Satz: „Aus einem weißen Opel steigen Kain und Ehrlicher. Sie werden von einem Polizisten erwartet.“ Mal kurz nachdenken … Warum wohl dieser Satzbau? Den Opel sieht man zuerst, dann steigen die beiden Figuren aus. Der weniger übliche Satzbau trägt den Bedürfnissen der Audiodeskription Rechnung und macht es außerdem möglich, dass der Passivanschluss im nächsten Satz direkt neben den nun ins Passiv gesetzten Figuren steht. Dadurch wird für den Zuschauer die Verarbeitung der Informationen leichter. Ein weiterer Abstand oder ein neuer Aktivsatz wären schwerer zu verarbeiten (Kluckhohn 2005: 54). Wenn man den Text für eine Audiodeskription schreibt, sollte man daher auf Möglichkeiten zur Einsparung von Text ebenso achten wie auf eine gute Gliederung. Zur Informationsgliederung in Audiodeskriptionstexten siehe auch Benecke (2007b) und Kirf (2008). Die Audiodeskription sollte als Text angenehm anzuhören sein. Wie Snyder schreibt: Images must be transferred to words: objective, vivid, specific, imaginatively drawn terms, phrases, and metaphors. Is the Washington Monument 555 feet tall or is it as high as fifty elephants stacked one on top of the other? How many different ways can be used to describe someone moving along a sidewalk? Why say ‚walk‘ when you can more vividly describe the action with ‚sashay‘, ‚stroll‘, ‚skip‘, ‚stumble‘ or ‚saunter‘? But good describers also strive for simplicity and succinctness since on many occasions ‚less is more‘. (Snyder 2008: 195) 85. Gehören die aufeinandergestapelten Elefanten in dieselbe Kategorie wie die angeführten Alternativen zu „walk“? Braun weist außerdem darauf hin, dass eine Audiodeskription das Publikum in die Lage versetzen soll, ein mentales Modell der beschriebenen Situation zu erzeugen (Braun 2007: 5). Zu diesem Zweck kann man auf gemeinsames Vorwissen zurückgreifen. 6.5.1 Personen Die Beschreibung der handelnden Personen ist besonders wichtig (Hämmer 2005). Nichts nehmen Menschen so deutlich wahr wie andere Menschen. 86. Wie kann man Personen beschreiben? Was ist wichtig? 18231_Juengst_SL4�indd 182 18231_Juengst_SL4�indd 182 19�08�2020 12: 39: 31 19�08�2020 12: 39: 31 183 6.5 Audiodeskription als Text und intersemiotische Übersetzung: Einzelaspekte Beschreiben Sie Ihre Lieblings-Filmfigur! Die anderen müssen raten. Sollte Ihre Lieblings-Filmfigur Mr. Spock sein, reicht die Erwähnung der Ohren für blinde und sehende Kenner schon beinahe zur Identifikation aus. Beinahe, es gibt ja auch noch Yoda und ein paar Elben. Beschreiben Sie sich und Ihren Nachbarn zur Linken schriftlich. Sie vergleichen dann Ihr Selbstporträt mit dem, das Ihr Nachbar zur Rechten erstellt hat. Vorsicht: Eigenschaften darf diese Beschreibung nicht enthalten! Die typischen Elemente der Personenbeschreibung finden Sie in Anhang 1, Personen ). Bei der Beschreibung der Personen gilt, dass Hauptfiguren sehr viel detaillierter beschrieben werden als Nebenrollen. Sie werden normalerweise mit Namen eingeführt und identifiziert (Hämmer 2005: 87). Bei Nebenrollen wird dagegen gern auf die Berufsbezeichnung zurückgegriffen. Wir verbinden mit bestimmten Berufen allerdings ein bestimmtes Image, so dass unter Umständen eine ergänzende Beschreibung sinnvoll ist. Wie oben geübt, werden visuelle Merkmale der betreffenden Figur zur Beschreibung genutzt, wie die Haarfarbe, Kleidung oder Haartracht (Beispiele bei Hämmer 90-92). Auch Blinde haben Farbvorstellungen, das gilt nicht nur für Haarfarben (Anhang 1, Farben ). Mal kurz nachdenken … Welche Zielgruppe für Audiodeskriptionen hat nicht nur Farbvorstellungen, sondern tatsächlich Kenntnisse von Farben? Späterblindete haben eine Farberinnerung. Sehgeschädigte meist auch, oft können sie Farben noch erkennen. 44 6.5.2 Orte Auch die Orte können viel über einen Film aussagen (Seiffert 2005). Bei der Beschreibung von Orten spielt es eine Rolle, ob die Orte dem Zuschauer vermutlich vertraut sind oder nicht (Anhang 1, Ortsnamen , Räume ). Das bedeutet, dass bei einer Audiodeskription von ausländischen Filmen für ein deutschsprachiges Publikum unter Umständen mehr Details erforderlich sind, um dem Zuschauer einen Eindruck vom Handlungsort zu verschaffen 44 Das schwarze Buch der Farben ist ein Buch, in dem Assoziationen zu Farben und die Farben selbst beschrieben werden; die Texte sind sowohl auf Deutsch als auch in Brailleschrift abgedruckt (deutsche Ausgabe Cottin / Faría 2008). Es ist für die gemeinsame Nutzung von blinden und sehenden Kindern gedacht und zeigt Sehenden, dass auch sie Farbvorstellungen haben, die nicht vom Gesichtssinn abhängen. 18231_Juengst_SL4�indd 183 18231_Juengst_SL4�indd 183 19�08�2020 12: 39: 32 19�08�2020 12: 39: 32 184 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) ( Jüngst 2005). Orte, die man aus der Alltagserfahrung kennt, müssen dagegen meist nicht genau beschrieben werden. Besonders Orte des öffentlichen Lebens haben einen generischen Charakter und die Zuschauer haben ihre prototypische Vorstellung und ihre Schemata davon. Diese Schemata ähneln den Scenes in der Scenes-and-Frames-Semantik, auf die Kussmaul seine Analysen baut (siehe Kapitel 3.4.1; allgemein zu Schemata und Orten in der Audiodeskription vgl. Seiffert; besonders zur Aktivierung von Schemata bei der Audiodeskription ebd. 76 ff.; weiteres zu Schemata bei Braun 2007). So reicht es in vielen Fällen zu sagen „ein Supermarkt“, „eine Bäckerei“, „ein Parkhaus“. Bei Orten nennt man aus Gründen der Zeitersparnis oft nur die Ortsbezeichnung und verwendet keine Präposition. Typisch sind Angaben wie „ein Parkplatz“ (nicht: „auf einem Parkplatz“), „eine Schule“ (nicht: „vor einer Schule“), „Kölner Domplatte“ (nicht: „auf der Kölner Domplatte“). Zeit- und Ortsangaben erfolgen grundsätzlich am Beginn eines Szenenwechsels. Mal kurz nachdenken … Wann müsste man auch solche Orte genauer beschreiben? Andere Orte dienen der Charakterisierung der handelnden Personen oder stellen in ihrer Form einen wichtigen Handlungsort dar. Wenn eine Hauptfigur ein schäbiges Büro hat, wenn vielleicht eine andere Hauptfigur im Vergleich dazu ein luxuriöses Büro hat, dann sollte das auch in der Audiodeskription zum Tragen kommen (Beispiel in Seiffert 2005: 72). Wenn in einem Parkhaus eine Autojagd stattfindet, trägt die Bauweise zum Ablauf dieser Jagd bei und sollte erwähnt werden. Beschreiben Sie: den Campus, die Mensa, den Unterrichtsraum, den Weg von der Mensa zum Unterrichtsraum. In der Forschung zur Audiodeskription spielt die Untersuchung dieser Themen eine wichtige Rolle. Das liegt unter anderem daran, dass die Erfahrungen und das Weltwissen der Rezipienten (und natürlich auch der Audiodeskriptoren) unterschiedlich sind. Sehen Sie sich die nachfolgenden beiden Szenen ohne Audiodeskription an und beschreiben Sie die Orte! Zunächst die Kleinstadt zu Beginn von Bibi Blocksberg . Dann die Abfolge von Gebäuden in Ost-Berlin aus Good-bye Lenin (siehe dazu auch Kapitel 2.5.1). Beschreiben Sie diese Szenen einmal für deutsche Zuschauer, einmal für englische Zuschauer (oder in einer anderen Fremdsprache). 18231_Juengst_SL4�indd 184 18231_Juengst_SL4�indd 184 19�08�2020 12: 39: 33 19�08�2020 12: 39: 33 185 6.5 Audiodeskription als Text und intersemiotische Übersetzung: Einzelaspekte 87. Wo müssen Sie Unterschiede machen? Wo treten Probleme auf ? Sehen Sie sich jetzt die Filme mit Audiodeskription an. Und zu guter Letzt kommen hier zwei Handlungsorte mit handelnden Personen: Abbildung 35: Das wissen Sie ja selbst … Abbildung 36: Live im Theater … 88. Welche Elemente / Anspielungen sind Ihnen bei diesen beiden Abbildungen als wichtig erschienen? Hat die Entscheidung für die Beschreibung mit der Zielgruppe zu tun? 18231_Juengst_SL4�indd 185 18231_Juengst_SL4�indd 185 19�08�2020 12: 39: 34 19�08�2020 12: 39: 34 186 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) 6.5.3 Handlungen Handlungen sind nicht statisch wie Orte. Sie verlangen oft ein gewisses Tempo bei der Beschreibung und sind auch oft an Geräuschen zu erkennen. Bei den Handlungen der Personen lassen sich folgende zentrale Themen feststellen: Proxemik (Territorial- und Distanzverhalten): Ehrlicher setzt sich auf ein Tischchen … Sie steht vom Schreibtisch auf und setzt sich neben ihn … Kinesik (Körperbewegungen und körperliche Aktivitäten): Er dreht ihr den Rücken zu … Ehrlicher reicht Kain den gefalteten Zettel … Gestik: Der andere Mann hält zwei Finger hoch … Mimik: Kain grinst kurz … Ehrlicher schaut ihn entgeistert an … Seine Miene wird ernst … Blickrichtung: Er blickt zum Geschäftsführer, der neben ihnen an der Rezeption steht … Sie senkt den Blick … Er fixiert sie … (Morgner und Pappert 2005a: 26-27) (Beispiele aus dem Tatort Laura, mein Engel ) Beschreiben Sie, was die Menschen um Sie herum tun: im Zug, im Park, im Zoo, auf dem Sportplatz, im Kleiderladen … Vermutlich werden Sie Handlungs- und Personenbeschreibungen kombiniert verwenden, wie es auch bei einer professionellen Audiodeskription der Fall ist. Achten Sie auf Eindeutigkeit! Auch was auf den ersten Blick eindeutig erscheint, kann missverständlich sein: „Im Zoo. Eine Familie vor dem Elefantengehege. Der Vater hat große, abstehende Ohren.“ Auch Handlungs- und Ortsbeschreibungen sind oft verquickt. In den Bildern sehen Sie dreimal die grundsätzlich gleiche Straße mit kleinen Veränderungen. Sie haben Zeit für Ihre Audiodeskription. Bitte stellen Sie sich vor, dass es sich um einen Film handelt, also um ein bewegtes Bild mit Tonspur. 89. Was beschreiben Sie? Wie unterscheiden sich die Beschreibungen? 18231_Juengst_SL4�indd 186 18231_Juengst_SL4�indd 186 19�08�2020 12: 39: 35 19�08�2020 12: 39: 35 187 6.5 Audiodeskription als Text und intersemiotische Übersetzung: Einzelaspekte Abbildung 37: Straße mit Krankenwagen Bild 1 Abbildung 38: Straße mit Krankenwagen Bild 2 Abbildung 39: Straße mit Krankenwagen Bild 3 18231_Juengst_SL4�indd 187 18231_Juengst_SL4�indd 187 19�08�2020 12: 39: 36 19�08�2020 12: 39: 36 188 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) 6.5.4 Geräusche Sehende, die zum ersten Mal und ohne die Unterstützung Blinder eine Audiodeskription erstellen, nehmen oft überflüssige Details in den Text auf. Das liegt daran, dass man als Sehender nicht dafür sensibilisiert ist, welche Geräusche einem Blinden eine ausreichende Information über bestimmte Vorgänge liefern. So kann man gut hören, wie eine Tür zuschlägt, wie ein Auto gestartet wird, wie jemand Geige spielt (Anhang 1, Geräusche ). Man kann das Hören von Geräuschen üben. Dazu eignen sich klassische Hörspiele und Radio-Features, in denen von bestimmten Orten berichtet wird. Zu diesen Textsorten mehr in Kapitel 6.5.7. Hören Sie sich ein beliebiges Radio-Feature an. Was hören Sie an Hintergrundgeräuschen? Welche Informationen können Sie diesen Geräuschen entnehmen? Vergnügen Sie sich mit den Geräuschen auf www.hoerspielbox.de. Spielen Sie diese Geräusche Ihren blinden Mitarbeitern vor. Als wie eindeutig empfinden die die Geräusche? Geräusche im Film werden oft im Studio erzeugt - man lernt im Film auch, sie zu entziffern. Das gilt besonders für die standardisierten Geräusche in Trickfilmen. Mal kurz nachdenken … Welche Geräusche lernen auch Sehende aus Filmen? Es sind Geräusche, die nicht nur durch die Bilder desambiguiert werden, sondern auch durch den logischen Handlungsablauf, so dass sich kein Erklärungsbedarf ergibt. Wie Pruys sagt: Theoretisch mag es nämlich der erwünschten Illusion hinderlich sein, daß Detektiv Rockfords Telefon klingelt, wie es kein Gerät der Bundespost tun würde, und der Anrufbeantworter doch auf deutsch antwortet. So hat sich das deutsche Publikum weitgehend daran gewöhnt, daß in der Filmwelt überall deutsch gesprochen wird, und doch die Telefone und Polizeisirenen so fremd klingen wie die Ortsnamen und Anreden der Filmfiguren. (Pruys 2009 [1997]: 127) Was hier nur auf die Synchronfassung gemünzt ist, gilt selbstverständlich auch für den synchronisierten und dann audiodeskribierten Film. Auch hier sagt man bei einem fremden Telefonsignal nicht: „Das Telefon klingelt.“ 6.5.5 Informations-Überangebot und Informationsauswahl Sie haben in den vorhergehenden Unterkapiteln liebevolle, detaillierte und trotzdem neutrale Beschreibungen eingeübt. Leider ist in der Realität kaum Platz dafür vorhanden. Filme enthalten Filmdialog, wichtige Geräusche und wichtige Musik. Die völlig freien Filmpassagen, in denen man gut audiodeskribieren kann, sind rar. Man muss auswählen und kürzen. 18231_Juengst_SL4�indd 188 18231_Juengst_SL4�indd 188 19�08�2020 12: 39: 36 19�08�2020 12: 39: 36 189 6.5 Audiodeskription als Text und intersemiotische Übersetzung: Einzelaspekte Die folgenden Übungen werden daher mit einer Stoppuhr durchgeführt. Nicht schneller sprechen als gewöhnlich! Das ist gemogelt. Die Audiodeskription muss klar und gut verständlich sein. Abbildung 40: Zwei Textquellen Dieses Beispiel ist auch für die Untertitelung interessant. Abbildung 41: Straße mit hohem Informationsangebot Sie haben 10 s Zeit, um das Bild zu beschreiben! Sie haben 5 s Zeit. Sie haben 2 s Zeit, 5 s Pause, 3 s Zeit. Sie haben 2 s Zeit. 18231_Juengst_SL4�indd 189 18231_Juengst_SL4�indd 189 19�08�2020 12: 39: 37 19�08�2020 12: 39: 37 190 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) Sie dürfen bei dieser Übung Ihre Entscheidung mit einer fiktiven Rahmengeschichte begründen! 90. Welche Aspekte sind auch bei der allerkürzesten Fassung erhalten geblieben? Wie haben Sie die Informationen verteilt, als Sie eine Pause einschieben mussten? Eine sinnvolle Auswahl kann man also nur treffen, wenn man mit dem Film bereits vertraut ist. Nur so kann man entscheiden, an welcher Stelle eine bestimmte Information unbedingt vermittelt werden muss, ob man bestimmte Informationselemente an eine spätere Stelle schieben kann oder ob man sie weglassen kann bzw. sogar weglassen muss. Snyder beschreibt das Problem der Vollständigkeit treffend wie folgt: Describers must edit or cull from what they see, selecting what is most valid, what is most important, what is most critical to an understanding and appreciation of a visual image … For instance, as you sit in a classroom and look toward the front of the space: what would you focus on in a description of a snapshot of that image? … In considering a scene from a film, you can often be guided by the director or cinematographer who has provided clues: he or she has framed the image to direct the viewer toward certain elements, letting you know what is most important. (Snyder 2008: 195) Und auch Holland sieht die Vollständigkeitsfrage pragmatisch: [AD] … is an attempt to make accessible a work of theatre - or any other audiovisual production - for an audience who are either blind or have partial sight by giving in a verbal form some of the information which a sighted person can easily access. (Holland 2009: 170) Sehende dürfen sich dabei nie überschätzen. Die menschliche Wahrnehmung ist begrenzt und Sehende sehen längst nicht alles. Absolute Vollständigkeit ist, wie schon zu Beginn gesagt, eine Illusion. Man müsste den Film anhalten, dem Zuhörer die Szene genau beschreiben und dann weiter abspielen - aber was machen sehende Mitzuschauer währenddessen? Meine Leipziger Studentin Regina Rullmann schlug vor, eine eigene Audiodeskriptions-Filmversion zu drehen, was zwar originell ist, aber dazu führen dürfte, dass die Zielgruppen für den Film wieder getrennt werden. Bei einer Privat-Audiodeskription von Freunden oder Verwandten kann es durchaus passieren, dass man den Film anhält, weil es etwas so Wichtiges zu beschreiben gibt, was aber den Filmabend ins Unendliche verlängern kann. Wird der Film nicht gestoppt und zwei Privat-Audiodeskriptoren geraten in Streit darüber, wie etwas zu beschreiben sei, geht unter Umständen der Dialogtext im Streit unter. Eine professionelle Audiodeskription ist schon aus diesen Gründen sinnvoll und trägt zu einem entspannten Filmgenuss bei. Allerdings gilt hier wirklich: Nur die tatsächlichen Dialogpausen können genutzt werden. Der Film wird nicht angehalten und es werden keine alternativen Beschreibungen angeboten. 18231_Juengst_SL4�indd 190 18231_Juengst_SL4�indd 190 19�08�2020 12: 39: 38 19�08�2020 12: 39: 38 191 6.5 Audiodeskription als Text und intersemiotische Übersetzung: Einzelaspekte 6.5.6 Der Hörfilm als Ganzes Sie haben sich bisher mit einer Reihe von Einzelaspekten befasst. Audiodeskriptionen müssen aber den ganzen Film hindurch funktionieren, alle notwendigen Bestandteile enthalten und die Zuschauer nicht langweilen. Die Hörfilmfassung eines Films, den man gut kennt, eignet sich besonders gut zum Einstieg. Die Bilder sind nicht neu, man kann sich auf die Audiodeskription konzentrieren und sich ein Bild von den dort eingesetzten Audiodeskriptionstechniken machen. Lassen Sie sich von jemandem einen Ausschnitt aus einem Film beschreiben, den Sie schon oft gesehen haben! Lassen Sie sich von jemandem einen Ausschnitt aus einem Film beschreiben, den Sie noch nie gesehen haben! Was passiert jeweils? Welchen Eindruck gewinnen Sie von dem zweiten Film? Wo liegen die Probleme? Schauen Sie sich zum nächstmöglichen Sendetermin den Vorspann der Fernsehserie Tatort ganz genau an. Wie würden Sie ihn einem Blinden beschreiben? Falls Sie über Ihren Fernseher keine Audiodeskription empfangen können, gehen Sie danach auf die Internet-Seite der ARD-Mediathek. Auf dieser Seite können Sie die Hörfilmfassung für den Tatort -Trailer anhören. Vergleichen Sie Ihre Version mit der Standard-Sendeversion! Sie werden merken: Bei allen Hörfilmen ist die Informationsdichte der Audiodeskription zu Beginn des Films relativ hoch, damit einige grundlegende Fragen geklärt sind, bevor die Zielgruppe sich auf die Handlung konzentriert. Was viele sehende Zuschauer überrascht, ist, dass auch der Vorspann beschrieben wird. Die Audiodeskription sollte jedoch möglichst früh anfangen. So sieht man auch, ob die DVD richtig eingestellt ist; die Verleih- und Produktionsfirmen sind außerdem interessiert daran, genannt zu werden. Dialogtext und Audiodeskription bilden im Hörfilm eine akustische Einheit, die auf vielfältige Art und Weise verknüpft ist (Yos 2005). Wenn man es ganz drastisch ausdrücken will, müsste man sagen, dass der Dialogtext bei der Audiodeskription stört. Wenn man sich zum ersten Mal an einer Audiodeskription versucht, greift man daher besser auf einen Stummfilm zurück, vielleicht auf einen alten Trickfilm wie den im Kapitel zur interlingualen Untertitelung benutzten Krazy Kat . Doch alle großen Publikumsfilme haben einen Dialogtext, und so muss man sich im Alltag immer um eine Balance zwischen Dialogtext und Audiodeskription bemühen. Dabei gilt, dass der Dialogtext Vorrang hat, und zwar auch an den Stellen, an denen der Audiodeskriptor ihn vielleicht so banal findet, dass er ihn gern übersprechen würde. Aber ein solches Verhalten ist Bevormundung. Die Verständlichkeit des Dialogtextes darf nie gefährdet werden. 18231_Juengst_SL4�indd 191 18231_Juengst_SL4�indd 191 19�08�2020 12: 39: 38 19�08�2020 12: 39: 38 192 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) Selbstverständlich ist das dritte Filmelement, das Filmbild, besonders wichtig. Die Audiodeskription sollte im Idealfall dann stattfinden, wenn das beschriebene Objekt im Bild ist, wenn es also auch die sehenden Zuschauer sehen. Das lässt sich nicht immer realisieren, denn genau an dieser Stelle kann ein wichtiger Filmdialog stehen. Man muss also nach Lösungen suchen, von denen eine möglichst kurze Audiodeskription nur eine ist. Oft muss man die Beschreibung verschieben (siehe Kapitel 6.6.1). Schließlich benötigt man zum Einsprechen der Audiodeskription ein Dialogbuch, in dem sowohl der Filmdialog als auch die Audiodeskription dargestellt werden: (E: Kommissar Ehrlicher. K: sein Kollege Kain. D: Audiodeskription) D: Der etwa fünfzigjährige Ehrlicher geht einen Gang entlang, gefolgt von seinem jungen Kollegen Kain. Von der Galerie blicken die beiden auf die eintretende Klasse. Sie wenden sich zur Treppe und entdecken ein Mädchen. E: Was machst du denn hier? Du hast dich wohl verlaufen. Die anderen sind alle unten. D: Das Mädchen presst eine Stofftasche an sich, aus der ein großer orangefarbener Plüschhase herausguckt. Apathisch drückt sie das Ohr des Hasen an ihren Mund und blickt den davoneilenden Beamten nach. Mit zögernden Schritten folgt sie ihnen … D: Das Mädchen rennt und holt die beiden ein. E: Was is denn? Was willst du? D: Mit großen dunklen Augen blickt sie Ehrlicher an. E: Die steht ja unter Schock. K: Vielleicht zugedröhnt. E. Na komm mal, komm mal mit. D: Er umfasst ihre Schulter. (Analyse der Tatort -Folge „Laura mein Engel“; Morgner und Pappert 2005b: vii-viii.) Dieses Beispiel zeigt eine professionelle Audiodeskription, die in einem Team erarbeitet und anschließend von einem Profisprecher eingesprochen wurde. Hier sieht man typische Textmerkmale und den für Deutschland typischen Audiodeskriptionsstil. Letzteres ist mit Vorsicht zu genießen, denn Kulturspezifik, Experimente, die fortlaufende Entwicklung und Veränderung auch dieser Textsorte führen zu neuen Regeln. 6.5.7 Verwandte Textsorten Es ist eher nicht üblich, bei der Erstellung einer Audiodeskription auf andere Textsorten zurückzugreifen. Es gibt aber Textsorten, die bei der Erstellung einer Audiodeskription hilfreich sein können, weil sie passende Formulierungen oder Strategien zur Textverteilung liefern. Mal kurz nachdenken … Welche könnten das sein? Sie haben jetzt Audiodeskriptionen gehört, analysiert und selbst erstellt - woran erinnern Sie die Texte? 18231_Juengst_SL4�indd 192 18231_Juengst_SL4�indd 192 19�08�2020 12: 39: 38 19�08�2020 12: 39: 38 193 6.5 Audiodeskription als Text und intersemiotische Übersetzung: Einzelaspekte Regieanweisungen ähneln Audiodeskriptionen in vielerlei Hinsicht, sind aber nicht identisch. An der Universität Surrey wurde von Lakritz und Salway (2002) ein breit angelegter Versuch zur automatischen Generierung von Audiodeskriptionen auf der Grundlage von Regieanweisungen durchgeführt. There is a large difference in the amount of information presented in the two media - a screenplay is approximately 3 times larger than an AD, yet it contains a significant amount of the information needed in Audio Descriptions. This text appears to be a good candidate for a summarisation task, extracting, and then adapting, only the relevant sentences from the screenplay to produce a candidate AD. (Lakritz / Salway 2002: 4) Die Ergebnisse bei der mit dieser Methode automatisch generierten Audiodeskription waren gut, wenn auch mit einigen Abstrichen: They [Befragte] also commented that the SP [screenplay] sometimes contained extraneous and inaccurate information. They found that the output sometimes mentioned events that did not occur on the screen - this is due to the 50 % precision, meaning some noisy sentences are included in the output. (Lakritz / Salway 2002: 10) Significantly, the usefulness of the output depends entirely on the accuracy of the screenplay - if a screenplay is inaccurate, the generated AD will also be inaccurate. (Lakritz / Salway 2002: 12) Eine Nachbearbeitung ist also notwendig, und nicht immer bekommt man ein Postproduktionsskript mit nutzbaren Hinweisen. Was eine automatisch generierte Audiodeskription wie bei Salway und Lakritz nie schaffen kann, ist die eigene Handschrift eines Audiodeskriptionsteams ‒ und Audiodeskriptionsteams haben durchaus Fans. Die automatisch generierte Audiodeskription ist nicht kreativ und kann nicht nach Lösungen suchen, die nicht schon in den Regieanweisungen vorgegeben sind. Trotzdem können Regieanweisungen auch bei nicht-automatischen Audiodeskriptionen eine große Hilfe sein, sofern man sie mit einer kritischen Distanz nutzt. Für Übungen zu diesem Thema setzt man am besten publizierte Drehbücher mit den enthaltenen Regieanweisungen ein. Es ist bei dieser Publikationsform nicht zu erkennen, wie weit die ursprünglichen Regieanweisungen bearbeitet wurden. Bei publizierten Drehbüchern handelt es sich aber grundsätzlich um Texte im Postproduktionszustand. Der Vorteil ist, dass Änderungen, die sich während der Dreharbeiten fast immer ergeben, eingearbeitet sind. Regieanweisungen werden für Buchausgaben gewöhnlich gekürzt. Sehen Sie sich trotzdem die Drehbücher von Michael Haneke ( Das weiße Band , Deutschland 2009) oder Florian Henckel von Donnersmarck ( Das Leben der anderen , Deutschland 2006) an. Vergleichen Sie sie mit den Audiodeskriptionen. Schauen Sie sich die Regieanweisungen in Loriots Dramatischen Werken an! 1. zu „Das Bild hängt schief “, 2. zu Pappa ante Portas . Was fällt Ihnen am Stil dieser Regieanweisungen auf ? Kann man sie für die AD nutzen? 18231_Juengst_SL4�indd 193 18231_Juengst_SL4�indd 193 19�08�2020 12: 39: 38 19�08�2020 12: 39: 38 194 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) Eine Audiodeskription muss nicht immer trocken und nüchtern sein. Zwar sind viele Nutzer das gewohnt, doch Vorlieben und Abneigungen für einen bestimmten Audiodeskriptionsstil halten sich, wie bei jeder Zielgruppe, die Waage. Die Regieanweisungen bei Loriot sind im typischen Loriot-Stil verfasst. Wenn man die Audiodeskription also auch im Loriot-Stil halten möchte, kann man sie sehr gut als Basis nehmen. Die Zeit ist leider zu knapp, als das man sie komplett als Audiodeskription nutzen könnte; es ist auch sehr bedauerlich, dass Loriot nicht mehr lebt und die Audiodeskription nicht mehr selbst einsprechen kann. Man kann diesen Stil für eine Audiodeskription aber auch ablehnen und eine nüchternere Audiodeskription selbst erstellen. Wenn Ihnen Loriot zu frivol ist, empfiehlt sich Ingmar Bergmans Tystnaden ( Das Schweigen , Schweden 1963), das ebenfalls primär aus Regieanweisungen besteht. 45 Regieanweisungen gibt es nicht nur bei Filmen, sondern auch bei Theaterstücken oder Opern. Ibsen ist bekannt für seine sehr ausführlichen Regieanweisungen. 91. Schauen Sie sich die Regieanweisungen in einem Ibsen-Drama an! Welches Problem stellt sich, wenn man diese als Basis für eine Audiodeskription nutzen möchte? Kautz (1995) geht ausführlich auf Parallelen zwischen Hörspielen und Audiodeskriptionen ein. Bei diesem Ansatz findet man zwar Anregungen, die bei der Formulierung von Audiodeskriptionen hilfreich sein können; Hörspiele kommen aber in sehr vielen Varianten vor, von denen nicht alle auf optimale Verständlichkeit abzielen. Das Künstlerische, Expressive, Individuelle spielt in der Sprache des Hörspiels eine wesentliche Rolle. Für die Audiodeskription ist es nur in Ausnahmefällen relevant. Eine experimentelle Audiodeskription wäre möglich, würde aber ihrer Rolle, nämlich einer optimalen Informationsübermittlung zu dienen, nicht gerecht. Man sollte nie vergessen, dass eine Audiodeskription eine Dienstleistung ist. Eine immer noch gute Einführung zum Thema „Hörspiel“, auch zu den Geräuschen, ist Klippert 1977. Mit anderen Radiogenres ist die Audiodeskription weit stärker verwandt. Dass man Blinde nicht mit „Es gibt ja Radio! “ abspeisen sollte, ist selbstverständlich und wurde bereits am Kapitelanfang erwähnt. Das heißt nicht, dass man Erfahrungen aus dem Radiobereich nicht für eine Audiodeskription nutzen kann und soll. Radio erreicht alle nur als Hörer - alle benötigen Informationen, wie man sie in den Audiodeskriptionen findet. Entsprechend kann man Radio-Features und Radio-Reportagen Strategien zur Beschreibung entnehmen. Radiogenres haben Audiodeskriptionen gegenüber allerdings den großen Vorteil, dass Dialoge und beschreibende Monologe so arrangiert werden können, wie es am besten passt. Man hat kein Platzproblem. Radio-Reportagen und Features können außerdem einen deutlichen Autorenstil haben. Das Lehrbuch Das Radio-Feature von Zindel und Rein 45 Leider habe ich keine deutsche Ausgabe des Filmtexts gefunden. Eine englische gibt es unter dem Titel: Ingmar Bergman (1989 [1967]): A Film Trilogy: Through a Glass Darkly, The Communicants (Winter Light), The Silence . Trans. Paul Britten Austin. NY, London: Marion Boyars. Eine schwedische Ausgabe gibt es selbstverständlich auch: En Filmtrilogi . Stockholm 1963. 18231_Juengst_SL4�indd 194 18231_Juengst_SL4�indd 194 19�08�2020 12: 39: 39 19�08�2020 12: 39: 39 195 6.5 Audiodeskription als Text und intersemiotische Übersetzung: Einzelaspekte (2007) enthält eine CD mit Beispielen. Radio-Features als Podcast findet man bei vielen Radiosendern im Internet; besonders gut sind die BBC-Documentaries. Es gibt eine Textsorte im Radio bzw. ein Radiogenre, das gerne gleichzeitig im Fernsehen als Audiodeskription eingesetzt wird, obwohl es reichlich Beispiele für die persönliche Meinung der Reporter enthält. Mal kurz nachdenken … Welches könnte das wohl sein? Tipp: Es geht um Ereignisse, die mindestens genauso gern diskutiert werden wie der letzte Tatort . Die öffentlich-rechtlichen Sender schalten bei wichtigen Fußballspielen, die sowohl im Radio als auch im TV übertragen werden, die Radioübertragung als Audiodeskription dazu. Es gibt zu diesem Thema ein sehr hilfreiches Handbuch Blindenreportage zur blindengerechten Beschreibung von Fußballspielen - schließlich werden nicht alle im Radio übertragen und auch im Stadion ist eine Audiodeskription eine schöne Sache (www.awo-passgenau.de/ wp-content/ uploads/ 2018/ 04/ Handbuch-Blindenreportage-2017.pdf). 92. Welche Elemente dieser fiktiven Fußballreportage braucht man bei einer Audiodeskription eigentlich nicht? „… und da kommt Schwarz, und Rouge läuft parallel zu ihm auf das Tor zu, der Strafraum des Gegners menschenleer, und was macht Schulz im gegnerischen Tor? Schulz steht am Torpfosten und popelt in der Nase! Das darf doch nicht wahr sein! So etwas hat die Welt noch nicht gesehen! Die 05er stürmen auf das Tor zu, schlichtweg in Höchstform, ich habe immer gewusst, das ist die beste Mannschaft der Bundesliga, hinter ihnen die Gegenmannschaft, plan- und hilflos, da zeigt sich ihr wahres Gesicht, alles Schminke, nichts dahinter! Schulz ist fündig geworden, wacht auf - zu spät: Schwarz passt zu Rouge, der schießt aufs Tor und versenkt den Ball in die linke Ecke! Treffer! In die völlig leere linke Ecke! Der Trainer der Gegenmannschaft völlig entgeistert, schreit sich heiser, springt herum wie Rumpelstilzchen. Der Physio bricht in Tränen aus. 5: 0! Die Mainzer singen Humba täterä! Ein Schützenfest für die Mainzer! “ Die Stummfilmerzählung ist ebenfalls eine der Audiodeskription verwandte Textsorte (zur Stummfilmerzählung siehe auch Voice-over und Filmdolmetschen). Normalerweise werden Stummfilme heute als Stummfilme gezeigt, ohne gesprochene Texte, meist mit Zwischentiteln, auf Festivals oft mit Live-Musik. Das Genre der Stummfilmerzählung, bei dem ein Erzähler oft eher kommentiert als beschreibt, findet man nur noch auf spezialisierten Festivals. Filmerzählungen können aber auch weit näher an der Audiodeskription liegen. Ein interessantes und vermutlich einzigartiges Beispiel bietet die englische Fassung zu dem Märchenfilm Das singende, klingende Bäumchen (DDR 1957) (mehr dazu in Kapitel 6.6.3). 18231_Juengst_SL4�indd 195 18231_Juengst_SL4�indd 195 19�08�2020 12: 39: 39 19�08�2020 12: 39: 39 196 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) 93. Schauen Sie sich die ersten zehn Minuten des Films zunächst auf Deutsch an, dann auf Englisch. Inwieweit taugt die englische Fassung als Audiodeskription? Und was fällt Ihnen beim Stil auf ? Schließlich gibt es TV-Genres, die man nicht audiodeskribieren muss, weil ununterbrochen beschrieben wird, was gerade geschieht. Entsprechende Textsorten gibt es zwar auch im Internet, doch dort wird in vielen Fällen eher auf das Bild gesetzt und weniger geredet. Mal kurz nachdenken … Welches Genre könnte das sein? Kochshows! Fernsehköche sind unterschiedlich gesprächig. Doch die meisten beschreiben ausführlich, was sie tun, während sie es tun, und geben Zusatzinformationen zu den Zutaten. Kochshows haben also eine inhärente Audiodeskription, was den Anleitungsteil betrifft. Man könnte sich höchstens Ergänzungen vorstellen: die Beschreibung des Kochs etwa oder Hinweise darauf, dass er schwitzt. Solche Inhalte sind aber nicht so wichtig, dass man für eine Kochshow eine teure Audiodeskription anfertigen würde. Bemerkungen wie „Der schwitzt ja wie 'ne Sau! “ kann man den sehenden Mitzuschauern überlassen, die man oft hat. Eine Beschreibung eines oft auftretenden Kochs mit eigener Sendung kann man sehr gut als ausgelagerte Audiodeskription realisieren: Die Beschreibung kommt auf die Webseite der Kochshow, wo auch die Mengenangaben für die Rezepte stehen. 94. Wie könnte man die gestalten? 95. Und eine letzte Frage zum Thema Textsorten: Für welche typische Fernsehsendung benötigt man keine Audiodeskription, während eine Vorstellung der Menschen und ihrer Stimmen im Internet eine vorstellbare Ergänzung wäre? 6.6 Sonderfälle 6.6.1 Zeitversetzte Audiodeskription Manchmal muss die bereits erwähnte zeitversetzte Audiodeskription stattfinden. Das bedeutet, dass man wichtige Informationen nach vorn zieht (was unter Umständen den mitschauenden Sehenden stört) oder nachreicht (aber eben nicht zu spät). 18231_Juengst_SL4�indd 196 18231_Juengst_SL4�indd 196 19�08�2020 12: 39: 40 19�08�2020 12: 39: 40 197 6.6 Sonderfälle Ein gutes Beispiel für eine vorgezogene Audiodeskription findet sich in der ersten Szene von Bibi Blocksberg (Deutschland, 2002). Hier wird die lange Dialogpause am Anfang genutzt, um eine Reihe von Aktionen zu beschreiben, die erst noch stattfinden. Überlegen Sie, welche Vor- und welche Nachteile das hat! Schauen Sie sich die Verhörszene am Anfang von Das Leben der anderen (Deutschland 2006) an, zunächst ohne Audiodeskription. Welche Elemente im Verhörzimmer und im Vorlesungssaal erscheinen Ihnen so wichtig, dass Sie sie beschreiben würden? Wo und wann im Film werden sie beschrieben? Sie haben bereits das Drehbuch in der Hand gehabt - wo sind hier die Unterschiede zur Audiodeskription? Je mehr Filme mit Audiodeskription Sie gesehen haben, desto mehr Beispiele für eine zeitversetzte Audiodeskription sind Ihnen begegnet. Die zeitversetzte Audiodeskription ist, geschickt eingesetzt, hilfreich. Man sollte dann aber schon viel Übung und einen kritischen Partner im Audiodeskriptionsteam haben. 6.6.2 Perspektive und Experimente Audiodeskription im Dialekt, gereimte Audiodeskription, Audiodeskription im Stil eines Opern-Rezitativs - es gibt eine ganze Reihe von Experimenten, die eher Fundubs ähneln als seriösen Audiodeskriptionen. Man kann so etwas ausprobieren, aber es sollte nie der Eitelkeit des Audiodeskriptors dienen. Informationsvermittlung ist nach wie vor der Grund dafür, dass man Audiodeskriptionen anfertigt. Jüngst (2018) machte den Vorschlag, Audiodeskriptionen als Slam-Veranstaltung für blinde und sehende Jugendliche zu veranstalten. Bisher wurde keine solche Veranstaltung organisiert - vielleicht möchten Sie das machen? 6.6.3 Zielgruppe Kinder Kinder, die eine Audiodeskription benötigen, sind eine ebenso diverse Gruppe wie erwachsene Audiodeskriptionsnutzer (siehe auch Jüngst 2010 und Jüngst 2019). Im Prinzip wird in Audiodeskriptionen für Kinder das beschrieben, was auch in Audiodeskriptionen für Erwachsene beschrieben wird. Die Unterschiede zwischen Audiodeskriptionen für Erwachsene und solchen für Kinder werden selten thematisiert. Eine Ausnahme bieten die auf hoerfilm.info erschienenen Empfehlungen, die aus einem Workshop von Gesina Volkmann zusammen mit blinden und sehbehinderten Kindern entstanden. 46 Dort werden Hinweise auf die in der Audiode- 46 Der Workshop fand 2018 statt. Als Basis dienten die Empfehlungen für Standards barrierefreier Filmfassungen der FFA auf www.ffa.de/ foerderung-von-barrierefreiheit-im-kino.html (Stand: Juli 2017). 18231_Juengst_SL4�indd 197 18231_Juengst_SL4�indd 197 19�08�2020 12: 39: 40 19�08�2020 12: 39: 40 198 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) skription verwendete Sprache, die zu beschreibenden Elemente und einen angemessenen Arbeitsablauf gegeben (siehe Kapitel 6,8, Anhang 2). Generell gilt: […] Kinder verfügen über weniger Lebenserfahrung und einen kleineren Wortschatz. Sie weisen einen anderen kognitiven und sprachlichen Entwicklungsstand auf. Komplexe Zusammenhänge müssen daher in einer einfachen und dem Alter angemessenen Sprache erklärt werden. […] Grundsätzlich ist eine Mitarbeit von Kindern in der Abnahme zu empfehlen, da sie am besten die angemessene Umsetzung der Audiodeskription beurteilen können. (www.hoerfilm.info/ audiodeskription-empfehlungen-kinder.html) Gehen Sie zurück zu den Bildern, ganz gleich zu welchen! Beschreiben Sie die Bilder für Kinder. Sie haben 10 s oder 5 s Zeit. In einem Hörfilmprojekt beschrieben blinde Kinder, wie eine gute Audiodeskription beschaffen sein sollte: [ Juli, ca. 8 Jahre] Mir ist wichtig, was in dem Film passiert. Mir ist wichtig, ob die Menschen oder Tiere sind, und was für Tiere. (Hörfilme für Kinder.mp4, 00: 17) [Frida] […] alles soll’s natürlich nicht sein, ein paar Sachen kriegt man ja auch also so mit. (ebd., 00: 24) Und auch Kritik an existierenden Hörfilmen gibt es: [Lynn] Ja, bei den Personenbeschreibungen habʼ ich mal gefragt, wie sehen die jetzt eigentlich so aus - haben die ʼnen Bart, haben die ʼne Brille - und wie groß sie sind oder wie alt. (ebd., 00: 50) Viele Kinderfilme sind Trickfilme, und so sollen diese in diesem Teilkapitel im Mittelpunkt stehen. Wer sich mit Trickfilm-Audiodeskriptionen befassen möchte, findet Untersuchungsmaterial vorzugsweise in den Mediatheken der öffentlich-rechtlichen Sendeanstalten. Auf DVDs sind meist nur dann Audiodeskriptionen enthalten, wenn die Filme in Deutschland oder mit deutschem Finanzierungsanteil produziert wurden, da es hier gesetzliche Vorgaben für die Barrierefreiheit gibt. Die bei Kindern und Jugendlichen beliebten japanischen Anime haben auf deutschen DVDs keine Audiodeskriptionen. Auch die Disney-Filme werden auf deutschen DVDs ohne Audiodeskription angeboten. Die beiden größten Unterschiede zwischen Trickfilmen und Realfilmen sind die Geräusche und die Umgebung, in Trickfilmen ausschließlich künstlich erzeugte Geräusche (nähere Hinweise dazu in Kapitel 3.6.5) und meist Fantasielandschaften. Es gibt auch für Kinder Trickfilme ohne Dialogspur, die viel Platz für eine ausführliche Audiodeskription bieten. Die kurzen Maus-Trickfilme in der ARD-Mediathek sind gute Beispiele. Sie liegen mit Audiodeskription vor. Trickfilme mit Filmdialog sind jedoch häufiger; auch der hier analysierte Film hat eine Dialogspur. Oben wurde erwähnt, dass man bei der Audiodeskription Handlungen nicht beschreiben muss, wenn sie durch Geräusche identifiziert werden können. Auch wenn Geräusche im 18231_Juengst_SL4�indd 198 18231_Juengst_SL4�indd 198 19�08�2020 12: 39: 41 19�08�2020 12: 39: 41 199 6.6 Sonderfälle Trickfilm künstlich erzeugt werden, gibt es doch Konventionen, z. B. um eine schnelle Bewegung oder ein Aufprallen wiederzugeben. Schulkinder sind meist schon damit vertraut und können Geräusch und Aktion miteinander verbinden. Die Fantasielandschaften stellen auf den ersten Blick eine Herausforderung dar. Doch jede Fantasielandschaft basiert auf unseren Landschaftserfahrungen; Vokabular ist vorhanden. Für die nachfolgenden Übungen wurde hier der Film Die Biene Maja - Die Honigspiele (Deutschland 2018) benutzt. Man kann selbstverständlich auch andere Filme auswählen, aber es sollten Trickfilme für Kinder sein. Die Honigspiele ist der zweite abendfüllende Film mit der neuen, computergenerierten Biene Maja. Es geht um eine Insektenolympiade, an der Maja mit ihrem Team teilnehmen will, um die Honigvorräte ihres Bienenstocks zu retten. Neben Maja, Willi und Flip treten neue Figuren auf. Mal kurz nachdenken … Was sagt die nachfolgende Audiodeskription zum Vorspann über das erwartete Wissen der Zielgruppe aus? „Eine Wolke wird zu Wickie … eine Wolke ist wie eine lachende Biene Maja geformt …“ (00: 00: 27 - 00: 00: 32) Es wird vorausgesetzt, dass die Zuschauer diese Figuren kennen. Die nachfolgende Audiodeskription des Vorspanns ist den Einblendungen immer etwas voraus, da nach dem Vorspann Raum für die Worte „Ein Animationsfilm.“ (00: 00: 52) bleiben muss. 96. Was könnte an diesem Ausdruck problematisch sein? Auch die allgemein genutzte Technik, Zeitmangel durch das Vorziehen der Audiodeskription zu beheben, die schon weiter oben anhand des Films Bibi Blocksberg beschrieben wurde, kann zu Problemen führen, wenn ein Publikum aus blinden und sehenden Kindern gemeinsam den Hörfilm schaut - die sehenden Kinder können es sich nicht immer verkneifen, darauf hinzuweisen, „dass man das noch gar nicht sehen kann“. Erst als die Handlung schon begonnen hat, folgen die Einblendung des Titels und die Audiodeskription dazu: „In bunter Schrift: Die Honigspiele.“ (00: 04: 05). Schauen Sie sich den Film ohne Audiodeskription an und schreiben Sie kurze Audiodeskriptionen zu den folgenden Abschnitten: (00: 00: 54 - 00: 01: 04) Beschreibung der Wiese (00: 12: 35) Beschreibung des Palastes (00: 22: 56) Beschreibung der Umgebung (00: 36: 33) Beschreibung der Umgebung / Stimmung Vergleichen Sie: Was fehlt Ihnen in der Originalbeschreibung? Was haben Sie zu detailliert / zu sparsam beschrieben? 18231_Juengst_SL4�indd 199 18231_Juengst_SL4�indd 199 19�08�2020 12: 39: 41 19�08�2020 12: 39: 41 200 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) In der Welt der Insekten spielen Pflanzen eine wichtige Rolle. Sie dominieren die Umgebung, wie hier am Anfang des Films: Auf einer bunten Sommerwiese. Roter Klatschmohn wiegt sich sanft im Wind. An Grashalmen hängen dicke Tautropfen. Margeriten spiegeln sich darin. Die Sonne scheint auf die blauen, geschwungenen Blütenblätter einer Lilie. (00: 00: 54 - 00: 01: 04). Die Kenntnis von Mohn und Margerite wird also vorausgesetzt, sie werden nicht beschrieben, dafür die Lilie und später der Fingerhut (00: 11: 04). Bei Trickfilmen besteht das Problem, dass die Materialien, aus denen einzelne Objekte bestehen, nur erraten werden können. Hier können die Audiodeskriptoren bei der Beschreibung jedoch logische Entscheidungen treffen. So wird der Palast beschrieben als „… aus goldgelbem Bienenwachs“ (00: 12: 35), da das Material hier typisch ist. Sonst werden zur Umgebungsbeschreibung Adjektive genutzt: „ein düsterer Hügel mit Dornenranke“ (00: 22: 56), „funkelnd[e] Sterne“ (00: 36: 33). Die Beschreibung soll auch Erinnerungen bei den Mitgliedern der Zielgruppe wecken (bzw. die bereits erwähnten Schemata abrufen), z. B. an eine Sommerwiese, über die sie gegangen sind. Je stärker man darauf vertrauen kann, dass eine Erfahrung mit den beschriebenen Räumen im wirklichen Leben besteht, desto einfacher ist die Beschreibung (vgl. dazu auch Seiffert 2005). Mal kurz nachdenken … Warum ist die folgende Formulierung unnötig kompliziert? „Sie schlüpft in eine Raupenhülle.“ (00: 30: 18) Hier wird der Fachbegriff „Kokon“ vermieden. Kinder, die bereits zur Schule gehen, dürften dieses Wort aber kennen - es ist auch in Grundschulbüchern verbreitet. Für sie ist die erklärende Umschreibung „Raupenhülle“ schwieriger zu verstehen, da die Denkleistung „Ach ja, die meinen einen Kokon! “ erbracht werden muss. Bei den Figuren richtet sich die Beschreibungstiefe auch bei Kinderfilmen vor allem danach, wie wichtig sie für den Film sind. Sie kennen Maja und Willi - beschreiben Sie sie! Welche Aspekte bleiben erhalten, wenn Sie für jede Figur nur 3-4 Sekunden haben? Schauen Sie sich dann die Beschreibungen im Film an. Beide sind Hauptfiguren und werden mit Namen eingeführt, ausführlich beschrieben, und es wird darauf geachtet, dass die Zielgruppe Stimme und Figur verbinden kann: „Auf der einen Libelle, einer blauen, sitzen Willi und Maja. Maja lenkt. Sie hat einen runden Kopf, grüne Augen und blonde Locken.“ (00: 01: 25 - 00: 01: 32). Teile der Beschreibung werden auch hier auf später verschoben, da direkt nach dieser Beschreibung wichtige Informationsgeräusche und ein Ausruf von Maja kommen. Willi hört man, bevor er beschrieben wird 18231_Juengst_SL4�indd 200 18231_Juengst_SL4�indd 200 19�08�2020 12: 39: 42 19�08�2020 12: 39: 42 201 6.6 Sonderfälle („Maja! Ich möchte lieber runter! “, 00: 01: 38): „Willi hat einen eiförmigen Kopf mit einem braunen Haarschopf. Beide Bienen haben einen pelzigen gestreiften Körper und Fühler.“ (00: 01: 50 - 00: 01: 58) Nicht erwähnt wird, dass diese Trickfilmfiguren nur vier Extremitäten haben, klar als Arme und Beine gekennzeichnet, und dass sie Flügel haben (später fliegen sie, was als Information genügt). Figuren, die aus der Serie bekannt sind, werden ebenfalls mit Namen eingeführt, so der Heuhüpfer Flip, der hier nur eine kleine Rolle als Bandleader spielt (00: 21: 22) und die Spinne Thekla. Bei der Audiodeskription „Thekla, die Spinne mit Dutt, kommt näher.“ (01: 08: 30) zeigt schon der bestimmte Artikel, dass diese Figur bekannt ist. In einem Fall wird ein Insekt falsch bezeichnet. Zu den Leitern der Honigspiele gehört eine Gottesanbeterin. Sie wird stets als „Heuschrecke“ bezeichnet (00: 27: 03 et passim). 97. Warum könnte diese Entscheidung sinnvoll sein? Besonders ausführlich ist die Einführung der Biene Violetta, die in diesem Film als Figur neu dazukommt und als Leiterin des Teams Summtropolis und damit Hauptkonkurrentin von Majas Team eine wichtige Rolle spielt. Um sie bei ihrem ersten Auftreten ausführlich zu beschreiben, fehlt der Platz. Sie wird daher erst indirekt beschrieben: „Sie [Maja] rempelt gegen eine Biene mit lila Haaren.“ (00: 13: 02), später: „Hinter ihr [Violetta] andere Bienen“ (00: 13: 20). 98. Schauen Sie sich die Stelle im Film an! Finden Sie diese Beschreibung ausreichend? Was fehlt Ihnen? Obwohl das Publikum Violettas Stimme jetzt bereits gehört hat, werden Stimme und Beschreibung noch einmal zusammengeführt. Violetta sagt: „… oder eine echte Knalltüte“, die Audiodeskription schließt an: „Die mit lila Haaren.“ (00: 15: 17) Der Name kommt erst bei der dritten Erwähnung: „… und sieht die Biene mit den lila Haaren. Sie heißt Violetta.“ (00: 20: 31). Analysieren und bewerten Sie die Entscheidung für diesen Aufbau! Den Platzmangel, unter dem Audiodeskriptionen leiden, hört man z. B. bei der Beschreibung der einzelnen Teams, die an dem Wettbewerb teilnehmen. Bienenstich stellt die Teams mit Namen vor, in der Audiodeskription werden sie schnell beschrieben. Mal kurz nachdenken … Bei welchem Team wird die Audiodeskription wohl am sparsamsten ausfallen? 18231_Juengst_SL4�indd 201 18231_Juengst_SL4�indd 201 19�08�2020 12: 39: 42 19�08�2020 12: 39: 42 202 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) Da das Team „Klatschmohnwiese“ aus Maja und ihren Freunden besteht (wie die Zuschauer wissen), gibt es dafür keine Audiodeskription (00: 21: 53 - 00: 22: 16). Handlungen, die man nicht an Geräuschen erkennen kann, müssen in der Audiodeskription erwähnt werden. Die mit Popmusik unterlegte „Trainingsphase“ (00: 39: 20 - 00: 40: 39) wird daher komplett audiodeskribiert. Mal kurz nachdenken … Welche bereits erwähnte, für Audiodeskriptionen eingesetzte Textsorte, kommt hier wohl zum Tragen? 99. Wenn Sie den gesamten Film anschauen, wird Ihnen neben der ungewöhnlichen Entscheidung Heuschrecke / Gottesanbeterin ein echter Fehler auffallen. Suchen Sie! Was man der Fairness halber aber sagen muss: Insgesamt hat die Audiodeskription eine hohe Qualität und ist gewissenhaft gemacht. Die Wahl einer leicht emotionalen Stimme für die Audiodeskription ist bei Kinderfilmen weit häufiger als bei Filmen für Erwachsene. Auch stärker erzählerische Stimmen werden bei manchen Filmgenres eingesetzt, z. B. bei Märchenfilmen. Das kommt beim Publikum gut an: „… und ich findʼ, dass die Sprecherin, die war wie so’n, ja, wie ʼne Märchenerzählerin, die hat das sehr schön gemacht, muss ich sagen.“ (Zuschauerin Barbara Rickert in „So wird ein Film zum Hörfilm“ (mdr), 00: 02: 48 - 00: 02: 54) Die „heilige Neutralität“ der Audiodeskription der frühen Jahre wird gerade im Kinderfilm immer mehr abgelöst durch kreative Lösungen. Aus dem Workshop von Gesina Volkmann existiert eine Liste, die zeigt, dass hier noch viele Möglichkeiten offen sind (hörfilm.info/ audiodeskription-empfehlungen-kinder.html), hier im Anhang des Kapitels abgedruckt. So kann man alle später erwähnten Zusatzmaterialien auch für Kinderfilme einsetzen. 6.6.4 Kulturspezifik und doppelte Übersetzung Trotz der fast identischen Definitionen hat sich das Verhältnis von Dialogtext, Filmbild und Audiodeskription kulturspezifisch unterschiedlich entwickelt. In der britischen Tradition werden die Rollennamen der Figuren gleich bei ihrem ersten Auftreten genannt - ganz gleich, ob diese Namen auch im Filmdialog schon genannt werden. Unter Umständen weiß der Hörfilmkunde dann schon mehr als derjenige, der nur den normalen Film sieht (Benecke 2007a: 51). Hörfilmfreunde kennen die Traditionen ihrer Hörfilmkultur und reagieren auf fremdartige Beschreibungstraditionen entweder irritiert oder interessiert. Als Versuche mit übersetzten Audiodeskriptionen ohne kulturelle Anpassung gemacht wurden, war das deutsche Publikum verärgert. Dabei spielte auch eine Rolle, dass die Audiodeskription nicht nur in Großbritannien übersetzt, sondern auch dort von nicht-muttersprachlichen Sprechern eingesprochen wurde (Benecke 2007a: 52-53). Bernd Benecke berichtete auf 18231_Juengst_SL4�indd 202 18231_Juengst_SL4�indd 202 19�08�2020 12: 39: 43 19�08�2020 12: 39: 43 203 6.6 Sonderfälle einer Tagung auch von der aus dem Englischen übersetzten Audiodeskription zu Wolfgang Petersens Poseidon , die leider nicht verfügbar ist. Er beschrieb den Effekt als merkwürdig. Man kann Audiodeskriptionen nicht einfach Wort für Wort übersetzen - wie jeden anderen Text auch. Auf den ersten Blick klingt ein solches Verfahren nach Arbeits- und Kostenersparnis. Ein positiver Effekt preiswerter Übersetzungen wäre, dass erheblich mehr Hörfilme auf den Markt kommen könnten. Es gibt aber absolut keinen Grund, der Zielgruppe schlampige Audiodeskriptionen anzudrehen. Es gibt auch keinen Grund, dass professionelle Übersetzer sich eine solche Arbeitsweise aufdrängen lassen. Wenn man eine Audiodeskription übersetzt, muss man sie lokalisieren, also komplett an die Bedürfnisse und Erwartungen der neuen Zielgruppe anpassen. Das bedeutet einen ebenso großen Aufwand wie das Erstellen einer neuen Audiodeskription, nur dass dafür keine Audiodeskriptoren eingesetzt werden, sondern Übersetzer. Billiger als eine neue Audiodeskription ist eine gute, lokalisierte Übersetzung mit Sicherheit nicht. Fremdsprachige Audiodeskriptionen können trotzdem als Hilfestellung für eine zielsprachliche Audiodeskription genutzt werden. Mal kurz nachdenken … Wie könnte man fremdsprachliche Audiodeskriptionen systematisch für eine Optimierung eigener Audiodeskriptionen nutzen? Textsorten profitieren vom Kulturaustausch. Vielleicht kommen Sie mit Hilfe einer fremdsprachlichen Audiodeskription auf eine besonders gute Idee. Vielleicht findet sich dort eine Erklärung für ein Phänomen, das man sonst übersehen hätte. Eine ausführliche Diskussion dieser Fragen finden Sie in Weißbach (2009) und López Vera (2006). 6.6.5 Stimmen Die Audiodeskription ist erst vollständig, wenn sie eingesprochen ist. Die Sprechstimme macht einen großen Teil des Eindrucks und der Qualität aus. Die grundlegende Frage ist hier, wie neutral diese Stimme sein soll und wie stark sie sich von den Filmstimmen abheben muss. Wie beim Inhalt soll auch beim Sprechstil dem Zuschauer die Interpretation überlassen werden, nicht dem Audiodeskriptor und nicht dem Sprecher. Hier gibt es aber auch Gegenströmungen. Die Sprecherauswahl ist ein Gebiet, auf dem viel experimentiert wird, und inzwischen werden auch nicht mehr alle Audiodeskriptionen völlig emotionslos eingesprochen (siehe Anhang 1, Sprecher ). Je nach Arbeitsteilung hat der Audiodeskriptor Einfluss auf die Auswahl des Sprechers. Viele Audiodeskriptoren sprechen die Texte auch selbst ein, z. B. Bernd Benecke vom Bayerischen Rundfunk, der zu den Hörfilm-Pionieren zählt. Der neutrale Sprecher ist der typische, ursprüngliche Audiodeskriptionssprecher. Er gehört nicht zu den Schauspielern, die in dem Film auftreten. Die Stimme ist klar und deutlich wie die eines Nachrichtensprechers, nicht dialektal verfärbt. Der Vortragsstil ist zwar 18231_Juengst_SL4�indd 203 18231_Juengst_SL4�indd 203 19�08�2020 12: 39: 43 19�08�2020 12: 39: 43 204 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) prosodisch klar gegliedert, aber frei von Emotionen. Die Hörfilmfassungen der meisten Tatort -Folgen entsprechen genau diesem Stil. Der emotional involvierte Sprecher widerspricht eigentlich der ursprünglichen Vorstellung davon, was eine Audiodeskription sein soll. Es gibt aber Filme, bei denen eine trockene Nachrichtensprecherstimme für die Audiodeskription unfreiwillig komisch anmutet. Der Film ist lustig, alle Zuschauer lachen schon, und der leidenschaftslose Charakter der neutralen Audiodeskription wirkt in dieser Situation oberlehrerhaft. Ein Beispiel für eine emotional involvierte Audiodeskription ist die Fassung von Dinner for One vom Bayerischen Rundfunk, eingesprochen von Bernd Benecke. Sie ist nicht übertrieben lustig oder albern und stellt sich auch nicht in Konkurrenz zum Dialogtext, teilt aber mit den Zuschauern das Vergnügen an der Sache. Auch der prominente Sprecher ist zunächst ein neutraler Sprecher. Er bringt aber zusätzlich seine bekannte Stimme mit. Ein Beispiel hier wäre Udo Wachtveitl, der den Fernsehzuschauern als Tatort-Kommissar bekannt ist, der aber auch Audiodeskriptionen für den Bayerischen Rundfunk eingesprochen hat, wie zum Beispiel Manche mögen’s heiß ( Some Like It Hot , USA 1959) (Dosch / Benecke 2004: 29). Webseiten für Synchronsprecher werden auch in anderen Kapiteln angesprochen, doch jetzt sollen Sie sich explizit Sprecher für eine Audiodeskription aussuchen. Welche Stimme passt als Audiodeskriptionsstimme zu welchem Film? Sind Sie sich da mit Ihren Kommilitonen einig? Welche Stimme würden Sie für die Audiodeskription Ihres Lieblingsfilmes / eines Kung-Fu-Actionfilmes / eines kitschigen Liebesfilmes wählen? Es gibt Versuche mit Audiodeskriptionen, bei denen ein Sprecher eingesetzt wird, der auch im Film auftritt. Das Standardbeispiel ist die Hörfilmfassung von Bibi Blocksberg . Der Sprecher ist in diesem Fall Ulrich Noethen, der im Film den Vater von Bibi spielt. Er verlässt für die Audiodeskription die Filmrolle nicht. 100. Welche Probleme können auftreten, wenn ein Darsteller aus dem Film die Audiodeskription in seiner Rolle spricht? An welchen Stellen könnten sich die Zuschauer an dieser Technik stören? Am besten schauen Sie sich die komplette DVD an und überprüfen Ihre Antworten. 6.6.6 Musik und Songs Musik hört man natürlich. Im Normalfall ist sie also kein Fall für die Audiodeskription. Die schlecht zu verstehenden Operntexte bleiben jedoch problematisch. Außerdem werden in manchen Filmen die Songs im Original belassen, transportieren aber wichtige Inhalte. In der Untertitelung kann man das auffangen. 18231_Juengst_SL4�indd 204 18231_Juengst_SL4�indd 204 19�08�2020 12: 39: 44 19�08�2020 12: 39: 44 205 6.6 Sonderfälle 101. Was könnte man bei der Audiodeskription tun, wenn der Songinhalt extrem wichtig ist, man aber annehmen muss, dass ein Teil der Zuschauer den Text nicht oder nur sehr unvollständig versteht? Bedenken Sie dabei, dass der Zuschauer die Original-Singstimmen gern hören möchte. In großen Opernhäusern gibt es spezielle Operneinführungen für Blinde und Sehgeschädigte, so genannte touch tours . Dort werden die Kostüme vorgeführt (man darf sie anfassen) und die Inszenierung wird erläutert. So wird die Inszenierung als wichtiger Teil einer Opernaufführung fassbar (zu diesem Thema Matamala / Orero 2007, York 2007 und ausführlich Fryer 2016: 155-163). Bei Rundfunkübertragungen von Opern wird die Handlung zwischen den einzelnen Akten ohnehin für alle Hörer zusammengefasst. Ein interessantes Verfahren, Songtexte mündlich übersetzt anzubieten, gab es im SWF III, später SWR III, Radioprogamm: Während das Intro des Songs in Endlosschleife lief, las ein Schauspieler die Übersetzung der Songtexte vor. Als Zusatzmaterial auf einer DVD wäre dieses Verfahren denkbar. 6.6.7 Taststücke, Einleger und anderes Zusatzmaterial Man kann den dem Zeitmangel geopferten Inhalt durch an anderer Stelle verfügbare Texte ergänzen. Das für Opern genutzte Einführungsverfahren funktioniert auch in anderen Kontexten. Möglich sind Einführungstexte auf der DVD oder im DVD-Einleger; letztere sollten sinnvollerweise auch in Brailleschrift vorhanden sein. Wünschenswert wären Websites, auf denen Zusatzinformationen angeboten werden. Das Internet ist durch die Lautsprachausgabe und durch die Anschlussmöglichkeit einer Brailleleiste, einem Gerät mit beweglichen Stiften, die so angeordnet sind, dass eine Ausgabe in Brailleschrift möglich ist, eine sehr gute Informationsquelle für Blinde geworden. Hammer, Mälzer und Wünsche beschreiben die Textsorte Audioeinführung, zu der an der Universität Hildesheim eine Untersuchung stattfand: Audioeinführungen für Filme lassen sich nach Benecke (2014) als ‚Zusammenfassung wichtiger Informationen zum Hintergrund eines Films und seiner formalen Auffälligkeiten‘ beschreiben (Benecke 2014: 21). Medial gesehen kann es sich dabei um eine Audiodatei handeln … (Hammer / Mälzer / Wünsche 2015: 165). In Audioeinführungen für Filme werden Aspekte aufgegriffen, die durch die Audiodeskription nicht oder nur unzureichend vermittelt werden können. Im Detail können dies einerseits Angaben zu Darstellern, zur (literarischen) Vorlage oder zu den Dreharbeiten des Films sein; sowie andererseits zu filmtechnischen Aspekten wie Kameraführung, Schnitt, Farbgebung, Bild-Ton-Beziehungen oder Beleuchtung. Auch die Figuren und die Filmhandlung können in Kürze vorgestellt werden, um für die nachfolgende Audiodeskription Ankerpunkte zu bieten. Die Entscheidung, ob und in welchem Ausmaß die bereits genannten oder weitere Aspekte, zum Beispiel die Rezeption des Films durch die Kritik, in der Audioeinführung Berücksichtigung finden sollten, hängt auch vom jeweiligen Film ab. (Hammer / Mälzer / Wünsche 2015: 166) 18231_Juengst_SL4�indd 205 18231_Juengst_SL4�indd 205 19�08�2020 12: 39: 44 19�08�2020 12: 39: 44 206 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) 102. Welche Zusatzinformationen zu Ihrem Lieblingsfilm würden Sie in einem solchen Beileger hinzufügen bzw. in einer Audioeinführung ansprechen? Unter 6.6.6 wurden bereits die touch tours im Theater erwähnt. Gerade bei Tierdokus, Kochsendungen und Trickfilmen hat man die Möglichkeit, bei Aufführungen direkt für Blinde zusätzliches Material zur Verfügung zu stellen. Mal nachdenken … Was könnte das sein? Als Inspiration können Sie sich Lehrmittel für Blindenschulen anschauen! Taststücke bzw. Tastmodelle sind eine gute Ergänzung zu vielen Filmen. Für Tierfilme kann man auf detailreich gestaltete Kunststoffmodelle zurückgreifen - wenn man die Filmvorführung nicht gleich in ein naturkundliches Museum verlegt, in dem man unter fachkundiger Leitung ausgestopfte Tiere betasten darf. Manche Museen bieten Vorlesestunden an, bei denen das möglich ist; ein Film ließe sich integrieren. Auch für andere Dokumentarfilmthemen gibt es Kunststoffmodelle, so z. B. vom Sonnensystem, an denen sich die Größe der unterschiedlichen Planeten erfühlen lässt (siehe Jüngst 2016b). Manche Handstücke bieten weniger eine taktile als eine olfaktorische Ergänzung zum Film. Für Kochsendungen sind duftende Gewürze schön, wenn auch nicht notwendig (ein bisschen erinnert das natürlich an die Smellies, die Filme mit Geruchsbegleitung, denen kein nachhaltiger Erfolg beschieden war). Man kann aber auch das Gericht nachkochen oder versuchen, es parallel zum Film zu kochen. Für Trickfilme gibt es Sammelfiguren, die man anschaffen sollte, solange der Film aktuell ist (zu dieser Art Taststücke siehe auch Jüngst 2005). Später, auf Sammlerbörsen, sind sie teuer. Oft findet man solche Sammelfiguren als Beigabe zu ungesunden Hamburger-Kinderboxen, als PEZ-Köpfe oder in Ü-Eiern. Leider, wie in der Werbung angedroht, nur in jedem siebten Ei … Die Aufgabe, diese Ü-Eier zu suchen, muss man daher an Freiwillige delegieren. Allein schafft man das nicht. 6.7 Forschung und weiterführende Literatur Die Forschung zur Audiodeskription hat in den letzten Jahren exponentiell zugenommen. Fryer (2016) ist derzeit die umfassendste Einführung in das Thema. Kautz stand 1995 mit dem Thema Audiodeskription noch recht allein da. Die frühen, stark praktisch orientierten Arbeiten von Benecke / Dosch (2004) und Snyder (2007) wurden ergänzt durch den textwissenschaftlich orientierten Sammelband von Fix (2005). Einen Überblick über den damaligen Stand der Audiodeskription europaweit gibt Orero 2007; geschichtlich durchaus noch von Interesse. Von Orero stammt auch der Beitrag zur Audiodeskription von The West Wing in einer Sondernummer der Zeitschrift intralinea (2016). Beneckes Dissertation (2014), in der er ein Analyse- und Produktionsmodell für Audiodeskriptionen entwickelt, ist im deutschsprachigen Raum hervorzuheben. Praktisch orientierte Arbeiten, oft ergänzt durch 18231_Juengst_SL4�indd 206 18231_Juengst_SL4�indd 206 19�08�2020 12: 39: 44 19�08�2020 12: 39: 44 207 6.8 Anhänge: Richtlinien für Audiodeskriptionen Befragungen, sind aber auch heute noch wichtig, so Hammer / Mälzer / Wünsche (2015) zum Thema Audioeinführungen. Zum gleichen Thema siehe Di Giovanni (2014). Wer sich für kleine Sprachen interessiert, dem sei Barambones et al. (2012) zum baskischen Fernsehen empfohlen. Theoretisch-linguistisch orientiert sind die Arbeiten von Braun; Jekat et al. (2015) entwickeln ein Analysemodell zum Vergleich von Filmen und Audiodeskriptionen. Holland (2009) handelt von der Audiodeskription im Theater, Corral et al. (2011) behandeln die Audiodeskription von Opern, bei Di Giovanni (2018) kommt noch die Frage der Publikumsbeteiligung hinzu. Ein verzwicktes Thema findet sich in Remael (2012), in dem es um mehrsprachige Filme mit Untertiteln und Audiodeskription geht. Ausgesprochen originell ist die Arbeit von Zabrocka (2018) zu gereimten Audiodeskriptionen. Es lohnt sich auch, in den Bereichen Pädagogik und Sozialarbeit nach Material und Fragestellungen zu suchen. Auch Regeln zu Bildbeschreibungen für Lehrbücher helfen bei der Audiodeskription (ausführlich unter www.blista.de/ sites/ default/ files/ visch-leitfaden.pdf). 6.8 Anhänge: Richtlinien für Audiodeskriptionen In diesen Anhängen finden sich weiterführende Richtlinien für Audiodeskriptionen, die in diesem Buch nicht alle behandelt werden können Die Richtlinien der Rundfunkanstalten sind aktuell. Weit ausführlichere Regeln und Hinweise findet man bei Fryer (2016: 54-74). Anhang 1: Allgemeine Richtlinien Rundfunkanstalten Vorgaben für die Erstellung von Audiodeskriptionen Die neun Landesrundfunkanstalten der ARD, ORF, SRF, ZDF sowie die Deutsche Hörfilm gGmbH, Hörfilm e. V. und audioskript haben sich auf eine Reihe von Grundsätzen für die Erstellung von Audiodeskriptionen im deutschsprachigen Raum verständigt. Sie sollen die Basis der redaktionellen Arbeit sein. Senderspezifische Arbeitsweisen und darüberhinausgehende Vorgaben finden sich in den Regelwerken der einzelnen Häuser. Präambel: Eine Audiodeskription resultiert aus der Ergänzung der Filmtonspur um eingesprochene Textelemente, die die Bildinhalte des Films wiedergeben bzw. akustisch verfügbar machen. Die Tonspur ist der wertvollste Zugang zum Film für blinde und sehbehinderte Menschen. Sie enthält für Nichtsehende eine Informationsdichte, die für Sehende nicht unmittelbar nachvollziehbar ist. Aus diesem Grunde ist die Einbindung von qualifizierten blinden und sehbehinderten Autoren in den Erstellungsprozess der Audiodeskription wünschenswert. Basis für eine gute Audiodeskription ist eine Analyse der inhaltlichen und formalen Aspekte des Films. Aus dieser Analyse des Films (Bild und Ton) leiten sich in den vier Schritten des Arbeitsprozesses die Entscheidungen über die Ergänzung der Tonspur durch Sprache ab. (Anm.: 1. Auswahl der zu beschreibenden Bildelemente; 2. Art und Umfang; 3. Platzierung; 4. Einbindung in die Tonspur) 18231_Juengst_SL4�indd 207 18231_Juengst_SL4�indd 207 19�08�2020 12: 39: 44 19�08�2020 12: 39: 44 208 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) Ziel der Audiodeskription ist es, den blinden und sehbehinderten Menschen ein barrierefreies Filmerlebnis zu ermöglichen, das dem Erlebnis der Sehenden entspricht. Dabei soll der Film als Gesamtkunstwerk erhalten bleiben. Eine Audiodeskription sollte immer von entsprechend ausgebildeten Redakteuren abgenommen werden. Bei der Abnahme ist auf die Einhaltung folgender Mindestanforderungen zu achten: 1. Die Audiodeskription muss Antworten auf die Fragen „Wer, Wo, Was, Wann“ in jeder für den Handlungsablauf wichtigen Situation klären. Beschreibungen sollen den Film wenig beeinträchtigen und deshalb in den Dialogpausen, aber dennoch möglichst handlungssynchron erfolgen. 2. In der Audiodeskription müssen Personen möglichst frühzeitig beschrieben werden: ▶ Aussehen der Protagonisten, Haar- und Hautfarbe, Alter, Kleidung, Körpersprache, Gesichtsausdrücke ▶ Gestik und Gesichtsausdrücke sollten sorgfältig abgewogen und eher vorsichtig beschrieben werden. Sie können schnell missverstanden werden. 3. Handlungsrelevante Geräusche sollen nicht übersprochen werden; Filmmusik berücksichtigen, relevante Akzente möglichst freilassen. ▶ Töne und Geräusche können im Einzelfall irritierend und unverständlich sein. In diesem Fall muss die Audiodeskription eingreifen und den irritierenden Ton/ das Geräusch identifizieren. 4. Farben spielen für blinde und sehbehinderte Menschen eine wichtige Rolle. Deshalb sollte man in der Beschreibung auch darauf eingehen. 5. Die Audiodeskription sollte nicht erklären, nicht bewerten und nicht interpretieren. ▶ Handlungen nicht zu stark zusammenfassen, sondern dem Genre und der Stimmung des Films anpassen. 6. [Sprache] Auf die allgemeine Formulierung "Wir sehen" wird verzichtet. ▶ Beschreibungs-Texte werden im Präsens formuliert; in Ausnahmefällen ist auch Perfekt möglich. ▶ Keine verschachtelten Sätze, keine komplizierten Satzkonstruktionen. Bei Satzstellung und Wortwahl Wiederholungen vermeiden, sodass keine Monotonien entstehen. ▶ Unbestimmter Artikel beim ersten Erwähnen von Räumen, Gegenständen etc. ▶ Es sei denn, sie sind ganz offensichtlich zuzuordnen (Bsp: seine Wohnung/ sein Bett/ seine Zahnbürste). ▶ Bei der Beschreibung sollen nur bekannte Fachbegriffe verwendet werden. Falls unbekannte Fachbegriffe notwendig sind, müssen die kurz erläutert werden. ▶ In Audiodeskriptionen sollten keine filmtechnischen Begriffe verwendet werden. Vielmehr sollte deren Wirkungsweise sprachlich transportiert werden. 7. Regional bekannte Ortsnamen nur dann verwenden, wenn sie inhaltlich relevant sind. In dem Fall sollten sie beschrieben und eingeführt werden. Bekannte Orte, Plätze usw. können benannt werden. 18231_Juengst_SL4�indd 208 18231_Juengst_SL4�indd 208 19�08�2020 12: 39: 45 19�08�2020 12: 39: 45 209 6.8 Anhänge: Richtlinien für Audiodeskriptionen 8. Rechts-Links-Frage: Bei Richtungsangaben hat die Perspektive des Betrachters Vorrang. Außer es geht um die Person, um „seinen“ linken Fuß/ Arm etc. Dann gilt das Körperprinzip. 9. Markennamen können genannt werden, wenn sie handlungsrelevant und oder wichtig für die Charakterisierung einer Figur sind. 10. Texteinblendungen (z. B. Bauchbinden) und Untertitel werden vorgelesen. 11. Die Film-Beschreibung muss in jedem Fall vor dem Beginn des Abspanns beendet sein. 12. AD-Sprecherin oder -Sprecher, Stimmlage, Sprechtempo usw. sollten immer auf das Original abgestimmt ausgewählt werden. 13. Bei der Tonmischung müssen die technischen Normen (z. B. Tonaussteuerung nach EBU R 128 - Lautheit) eingehalten werden. 14. Die Tonmischung soll den Charakter und die Atmosphäre der Originalversion unterstützen. Die Beschreibung sollte an allen Stellen des Films gut verständlich sein. Originalfilmton und Beschreiber-Text stehen dabei in einem gleichrangigen akustischen Verhältnis zueinander. www.ndr.de/ fernsehen/ service/ audiodeskription/ Vorgaben-fuer-Audiodeskriptionen,audiodeskription140.html Mit freundlicher Genehmigung der Redaktion Barrierefreiheit der ARD im NDR Anhang 2: Regeln für die Audiodeskription für Kinder Text 1: Hörfilme ermöglichen es blinden und sehbehinderten Menschen, Filme als Ganzes wahrzunehmen und zu genießen. Diese Filme sind mit einer Audiodeskription (AD) versehen, die in knappen Worten zentrale Elemente der Handlung sowie Gestik, Mimik und Dekor beschreibt. Diese Bildbeschreibungen werden in den Dialogpausen eingesprochen. Allerdings bestehen bei den Anforderungen an eine Audiodeskription wichtige Unterschiede zwischen Kindern und Erwachsenen. Kinder verfügen über weniger Lebenserfahrung und einen kleineren Wortschatz. Sie weisen einen anderen kognitiven und sprachlichen Entwicklungsstand auf. Komplexe Zusammenhänge müssen daher in einer einfachen und dem Alter angemessenen Sprache erklärt werden. Eine Audiodeskription für Kinderfilme muss sich immer an den Bedürfnissen von Kindern orientieren. Grundsätzlich ist eine Mitarbeit von Kindern in der Abnahme zu empfehlen, da sie am besten die angemessene Umsetzung der Audiodeskription beurteilen können. Die folgenden Punkte sollten hierbei beachtet werden. Sie bauen auf den bestehenden Empfehlungen für Standards barrierefreier Filmfassungen der FFA auf (Stand: Juli 2017). ▶ Nur Wörter aus dem Grundwortschatz von Kindern verwenden, lieber zu einfaches Vokabular, außerdem Wörter aus den Filmdialogen aufgreifen. 18231_Juengst_SL4�indd 209 18231_Juengst_SL4�indd 209 19�08�2020 12: 39: 45 19�08�2020 12: 39: 45 210 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) ▶ Homophone Wörter, also gleichklingende Wörter mit unterschiedlicher Bedeutung, vermeiden: z. B. „Fälle“ / „Felle“. ▶ Einfache und kurze Sätze bilden und Wortanzahl an das Alter der Kinder anpassen. Für Kinder unter 6 Jahren maximal 6 „sinntragende“ Wörter: z. B. „Das Mädchen geht zum Tisch und legt das Buch darauf“, ab 6 Jahren 6 - 10 Wörter. ▶ Die Wortfolge im Satz muss der Reihenfolge entsprechen, in der Dinge geschehen: z. B. „Jan wirft den Ball und hüpft hoch“ statt „Bevor Jan hochhüpft, wirft er den Ball". ▶ Erst die Handlung nennen, dann die nähere Bestimmung: „Peter zeigt auf den Ball. Er hat den Kopf gesenkt“ anstelle von „mit gesenktem Kopf zeigt Peter auf den Ball.“ ▶ Höchstens ein Linksattribut, also eine nähere Bestimmung, die vor einem Begriff steht: „kurzes Sommerkleid mit roten Tupfen“ anstelle von „rot getupftes kurzes Sommerkleid“ ▶ Verbklammer vermeiden: „öffnet die Tür“ besser als „macht die Tür auf“ ▶ Pronomen vermeiden. Pronomen sind zu vieldeutig, können sich auf Personen und Sachen beziehen und erschweren es Kindern, den Bezug zu verstehen: „Paul will sich setzen, doch Lotte zieht den Stuhl zurück.“ anstelle von „Als Paul sich auf seinen Stuhl setzen will, zieht sie ihn weg.“ (bezieht sich „ihn“, „auf den Stuhl“ oder „Paul“? ) Umgang mit Filminhalten Im Film jeder mehrfach auftretenden Person ein wesentliches äußeres Kennzeichen als sprachlich möglichst kurzes Attribut zuordnen, das beim ersten Auftreten eingeführt und dann wie der Name am Anfang jedes neuen Auftritts immer wieder genannt wird. Anstelle eines äußeren Kennzeichens kann auch die Funktion genannt werden: z. B. „der Hausmeister Henry“, „die Tante Irmgard“ oder „die rothaarige Lilly“. Sehende Kinder können an Kleidung, Frisur, Gestik und Mimik die Funktion und das Verhältnis der Figuren untereinander ablesen, noch bevor sie im Dialog genannt wird. Das muss in der AD für nichtsehende Kinder ausgeglichen werden. Bei der Beschreibung der Personen muss zwangsläufig eine Auswahl erfolgen. Hier sollten vorrangig solche Details genannt werden, die auch akustisch relevant sind, so werden gleichzeitig die Geräusche erklärt, z. B. das Rasseln eines Schlüssels oder das Klackern von hohen Schuhen. Filmorganisatorische Informationen , z. B. der Name einer Person oder eines Ortes, frühzeitig nennen, ggf. auch bevor sie im Bild erscheinen. Spannungsfördernde Informationen, Auflösungen, Pointen zeitgleich mit dem Erscheinen im Bild oder im Nachhinein. Zum Filmbeginn Einblendungen (z. B. zu Schauspielern) von Beschreibungen der Handlung eindeutig trennen. Beides sollte sich nicht abwechseln. Das könnte Kinder irritieren. Den tatsächlichen Beginn der Handlung zusätzlich betonen. Falls es sich um eine abweichende Filmart handelt (z. B. Zeichentrick oder Animation), diese kurz nennen und erklären. Schriftliche Einblendungen möglichst in den Text der Audiodeskription integrieren, aber ohne das Wort „Einblendung“ zu verwenden. Diese Info könnte Kinder verwirren und spielt für sie keine große Rolle. 18231_Juengst_SL4�indd 210 18231_Juengst_SL4�indd 210 19�08�2020 12: 39: 45 19�08�2020 12: 39: 45 211 6.8 Anhänge: Richtlinien für Audiodeskriptionen Bei Szenen mit vielen Darstellern, die bekannten Darsteller zumindest zahlenmäßig nennen: lieber „die drei Freunde gehen weiter“ als „die Freunde gehen weiter“. Nach dem Film einen Hinweis geben, wo es weitere Informationen gibt (z. B. im Internet unter folgender Seite). Zusätzlich können Stilelemente eingesetzt werden, die durch eine verstärkte Aussprache und ergänzende Ton-Effekte den Film für Kinder attraktiver gestalten und verständlicher machen. Diese Punkte werden bisher im Hörfilm noch nicht eingesetzt. Sie sind daher vorerst nur als Anregungen zu verstehen. Emotionen und Stilmittel bei der Aussprache hervorheben. Verschiedene Stimmlagen, eine hervorgehobene Aussprache (z. B. ein rollendes r) und parasprachliche Mittel (z. B. das Umblättern einer Seite als Merkmal für einen Szenenwechsel) erleichtern blinden Kindern, der Handlung zu folgen. Filmtechnische Kunstgriffe, wie Wechsel zwischen realem Film und Animation, Farbfilm vs. Schwarz-weiß-Film, Zeitlupe, Zeitraffer, Unschärfe oder Flackern, nicht nur benennen sondern auch in geeignete akustische Mittel übersetzen, wie Rauschen, Stimmverzerrung. Wortneuschöpfungen aus den Dialogen durch den Kontext und sehr deutliche Aussprache hervorheben: z. B. „Thilo fffindet ein Papier. Das FFFFFFundpapier.“ Hinweis: Die Empfehlungen entstanden im Rahmen eines Workshops mit blinden und sehbehinderten Kindern und unter Mitarbeit von Dr. Gesina Volkmann. Oktober 2018 hörfilm.info c/ o Deutscher Blinden- und Sehbehindertenverband (DBSV) e.V. Mit freundlicher Genehmigung des DBSV Auch der Vergleich von Richtlinien für eine so klar definierte Zielgruppe ist interessant: Vergleichen Sie die nachfolgend abgedruckten Richtlinien zur intralingualen Untertitelung von Kinderfilmen der Rundfunkanstalten mit Anhang 2! Text 2: www.ndr.de/ fernsehen/ service/ audiodeskription/ Vorgaben-fuer-Audiodeskriptionen,audiodeskription140.html Audiodeskription im Kinderfilm ▶ Audiodeskription für Kinder darf orientieren und Hilfestellung beim Verständnis der Handlung geben, aber möglichst ohne zu bewerten und zu interpretieren. ▶ Szenen werden "luftiger" beschrieben: Es gibt weniger Text in den Lücken und es wird langsamer gesprochen. So haben Kinder mehr Zeit zur Verarbeitung der Informationen. Die Sprechweise darf für Kinder emotionaler sein als für Erwachsene. 18231_Juengst_SL4�indd 211 18231_Juengst_SL4�indd 211 19�08�2020 12: 39: 45 19�08�2020 12: 39: 45 212 6 Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) ▶ Die Namen der handelnden Figuren und deren Beziehung zueinander werden schnell eingeführt, um Orientierung zu geben. Dafür kann eventuell schon der Vorspann genutzt werden. Wichtig ist ein eindeutiger Bezug zur Tonspur (zum Beispiel Stimme der Figur). ▶ Im Vorspann kann es auch eine Filmeinführung mit Hinweisen auf Produktionsweise (Zeichentrick, Puppentrick), Genre (Abenteuer- oder Liebesfilm) und Filmspielzeit (Vergangenheit oder Zukunft) geben. Es sollte aber nicht zu viel Handlung verraten werden. ▶ Wichtig bei den Figuren: Sind sie "echte" Menschen oder zum Beispiel animierte/ gezeichnete Figuren oder aus Knete? Auch auf Tiere oder Gegenstände, die wie Menschen sprechen und handeln, muss regelmäßig hingewiesen werden. ▶ Beim Aussehen der Figuren auf Haar- und Hautfarbe (Fell, Federn etc.), Frisur, Alter, Körperstatur, Gesichtsform, Augenfarbe, Nasenform, Lippen, Kleidung, Körpersprache sowie besonders auffällige Merkmale eingehen. ▶ Die Beschreibung bewegt sich vom Großen ins Kleine ("Ein Kleid mit roten Tupfen" statt "Ein rot getupftes Kleid"). Größenangaben erfolgen durch tastbare und lebenspraktische Vergleiche ("Der Elefant ist so groß wie ein Baum"). ▶ Pronomen werden nur sparsam eingesetzt oder vermieden, wenn sie missverständlich sein können. ▶ Die Sprache der Audiodeskription orientiert sich an der Filmsprache ( Jugendsprache, Kindersprache), es werden altersgerechte Worte verwendet. ▶ Es gibt einen einfachen und kurzen Satzbau (Subjekt, Prädikat, Objekt). Mehrere Informationen werden auf mehrere Sätze verteilt. Es wird verständlich und anschaulich ("großes schwarzes Auto" statt "Limousine") und lebendig formuliert (zum Beispiel "flitzen", "sausen", "düsen"). ▶ Wörter und Begriffe werden, wenn möglich, aus der Tonspur übernommen und einmal eingeführte Begriffe zu Räumen, Objekten, Figuren durchweg beibehalten. Doppeldeutige Wörter und Fremdwörter werden vermieden. ▶ Wort-Neuschöpfungen können besonders betont oder langsamer ausgesprochen werden. ▶ Kinder haben ein kleineres Farbverständnis. Deshalb reicht es zumeist, die Grundfarben zu verwenden. ▶ Es ist wichtig, Mimik zu beschreiben und Gefühle einzuordnen (zum Beispiel "Anna schaut traurig nach unten"). Für Stimmungen sollten lautmalerische Wörter benutzt werden ("warmes gelbes Licht", "grauer trüber Himmel"). ▶ Bei Filmgestaltungsmitteln ist es sinnvoller, deren Wirkungsweise altersgerecht zu beschreiben (zum Beispiel Zeitlupe: "Alles bewegt sich sehr langsam", Zeitraffer: "Alles bewegt sich sehr schnell"). Zeitsprünge und Rückblenden sollten für jüngere Kinder erklärt werden ("Sie träumt", "früher", "Er erinnert sich", "in der Vergangenheit"). ▶ Die Einbindung von Kindern bei der Texterstellung, bei der Abnahme oder auch der Einsatz von Kinderstimmen bei der Aufnahme sollten geprüft werden. Mit freundlicher Genehmigung der Redaktion Barrierefreiheit der ARD im NDR 18231_Juengst_SL4�indd 212 18231_Juengst_SL4�indd 212 19�08�2020 12: 39: 45 19�08�2020 12: 39: 45 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte 7.1 Definition Untertitel für Gehörlose und Hörgeschädigte, bzw. Untertitel für Hörgeschädigte 47 sollen dieser Zielgruppe das Verständnis des Dialogtextes von Filmen ermöglichen bzw. erleichtern. Anders als bei der Untertitelung für Nicht-Hörgeschädigte handelt es sich hier um intralinguale Untertitel. Die Erstellung intralingualer Untertitel entspricht dem intralingualen Übersetzen bei Roman Jakobson, also einer Übersetzung, bei der Ausgangs- und Zielsprache identisch sind (1971: 261). Die Untertitel werden eingeblendet, während der Film oder die Fernsehsendung unverändert mit allen Tonspuren laufen und so auch für Nicht-Hörgeschädigte konsumierbar sind. Eine andere Form der intralingualen Untertitel sind Untertitel, die explizit für das Fremdsprachenlernen oder für Migranten gedacht sind. Im deutschsprachigen Raum ist das nicht üblich, aber man findet manchmal zwei verschiedene Formen intralingualer Untertitel auf Englisch auf DVDs aus den USA. Die DVD von The Trueman Show (USA 1998), wie in Deutschland vertrieben, verfügt über diese beiden Sätze englischer intralingualer Untertitel. Sender, die auf eine internationale Ausstrahlung ausgerichtet sind, setzen ebenfalls manchmal intralinguale Untertitel ein. Ein Beispiel dafür ist TV5Monde, ein internationaler französischsprachiger Fernsehsender, der von mehreren französischsprachigen Ländern betrieben wird. Dort wurde in den 2000ern eine Reihe von kanadisch-französischsprachigen Comedy-Serien aus Québec mit Untertiteln in europäischem Französisch gesendet (unter dem Reihentitel „ma série au Canada“; man konnte die Untertitel nicht wegschalten). Aus dem heutigen Blickwinkel sind intralinguale Untertitel für Sprachminderheiten die Ausnahme und die Untertitel für Hörgeschädigte der Normalfall der intralingualen Untertitelung, doch die Definition aus der Routledge Encyclopedia of Translation Studies zeigt, dass das nicht immer der Fall war: Since the 1970s, we have witnessed the proliferation of intralingual subtitles, which are composed in the same language as the source text speech. Intralingual subtitles were traditionally addressed at minority audiences, such as immigrants wishing to develop their proficiency in the language of the host community or viewers requiring written support to fully understand certain audiovisual texts shot in non-standard dialects of their native language (Díaz Cintas 2003). However, intralingual subtitling has now become almost synonymous with subtitling for the deaf and hard of hearing … Subtitles for the hard of hearing provide a text display of the speech but also incorporate descriptions of sound features which are not accessible to this audience. (Pérez González 2011 [2009]: 16) Im Fernsehen werden zu Beginn untertitelter Sendungen je nach Sender links oder rechts oben kurz die Buchstaben UT in einem eckigen Rahmen eingeblendet. Das mehrere Jahre dafür verwendete Zeichen mit dem durchgestrichenen Ohr wird heute nicht mehr eingesetzt. 47 Gehörlose gehören zu den Hörgeschädigten. 18231_Juengst_SL4�indd 213 18231_Juengst_SL4�indd 213 19�08�2020 12: 39: 45 19�08�2020 12: 39: 45 214 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte Der deutsche Dialogtext des Filmes wird bei dieser Form der Untertitelung bearbeitet, denn auch hier ist eine Untertitelung ohne Kürzung nicht möglich. Mal kurz nachdenken … Was müssen Untertitel für Hörgeschädigte zusätzlich zu denen für Hörende enthalten? Hörgeschädigte benötigen Hinweise auf Musik, Geräusche und den Sprecher, falls letzterer nicht im Bild ist, sondern aus dem Off spricht. Auch das benötigt Platz und Standzeit. Im Englischen spricht man von subtitles for the hard-of-hearing oder HoH subs (subtitles for the hard-of-hearing) beziehungsweise von SDH ( subtitles for the deaf and hard-of-hearing ). Die letzte Bezeichnung, die explizit Gehörlose und Hörgeschädigte anführt, hat sich stärker durchgesetzt, was mit der Lobbyarbeit von Mitgliedern der Gehörlosenkultur zu tun hat. Noch vor einigen Jahren wurde diese Bezeichnung auch im deutschen Sprachraum benutzt; heute spricht man auch von Untertitelung für Hörgeschädigte, seltener von Gehörlosenuntertiteln bzw. oft nur von Untertitelung, wenn der Kontext eindeutig ist. Im Englischen existiert zusätzlich die Bezeichnung Captions gezielt für Untertitel für Hörgeschädigte (NCI ist das National Captioning Institute). Diese Bezeichnung wird aber zunehmend seltener verwendet, weil Caption auch Bauchbinde, also die Einblendung z. B. von Sprechernamen am unteren Bildrand, bedeutet. Neben der Untertitelung besteht die Möglichkeit, live mit Gebärdensprachdolmetschern (Kino, Filmfestivals) bzw. einer Live-Einblendung von Gebärdensprachdolmetschern (Fernsehen) zu arbeiten. Auf diese Möglichkeit wird weiter unten eingegangen. Die Untertitelung für Gehörlose und Hörgeschädigte ist für viele Übersetzer eine ungewohnte Aufgabe. Sie sollte nicht als zu leicht eingeschätzt werden (dazu auch Neves 2008: 172). Eine Auseinandersetzung mit dieser Frage lohnt sich aber auch für Übersetzer, die sonst interlingual arbeiten, da sich so das Kompetenzenportfolio erheblich erweitert, ganz zu schweigen von dem Einblick in eine andere Kultur. In diesem Kapitel wird an vielen Stellen Bezug auf das Kapitel zur interlingualen Untertitelung genommen. Für das Spotting und Splitting gibt es nur in Ausnahmefällen andere Richtlinien. Diese werden weiter unten behandelt; für alle anderen Fälle gilt, dass die Regeln sich nicht unterscheiden. 7.2 Geschichte Wie für die interlinguale Untertitelung kann man auch für die intralinguale Untertitelung die Zwischentitel der Stummfilme als Ursprung der Technik ansehen. Schließlich beziehen sich diese Zwischentitel auf einen Text, den man nicht hört und den man den Zuschauern der Ausgangskultur ebenso wie denen der Zielkulturen in schriftlicher Form anbieten muss. Die intralinguale Untertitelung für Hörgeschädigte, wie wir sie heute kennen, ist weit jünger. Natürlich ist auch sie von den technischen Entwicklungen abhängig, die es überhaupt möglich machten, Filme zu untertiteln. Die Untertitel für Hörgeschädigte hängen von der Entwicklung des Teletextbzw. Videotext-Systems ab und wurden zum ersten 18231_Juengst_SL4�indd 214 18231_Juengst_SL4�indd 214 19�08�2020 12: 39: 45 19�08�2020 12: 39: 45 215 7.2 Geschichte Mal 1977 über den Ceefx Teletext in Großbritannien eingesetzt, wobei es dort schon früher Wochennachrichten mit Untertiteln gab (Remael 2007: 24). Flämisch-Belgien, die Niederlande, Deutschland und Italien fingen in den 1980ern an, Untertitel über den Videotext auszustrahlen; Portugal und Spanien kamen in den 1990ern dazu (Remael 2007: 24). Der erste Einsatz der (noch verstreuten) Untertitelung für Hörgeschädigte in ARD und ZDF fand am 1. Juni 1980 statt (Carroll, zitiert nach Remael 2007: 24). Noch in den frühen 2000ern galt eine Untertitelungsquote von 20 % aller Sendungen eines Senders als nicht schlecht. Inzwischen haben sich Untertitel für Hörgeschädigte im deutschen Fernsehen und in den dazugehörigen Mediatheken durchgesetzt. Dies soll am Beispiel der ARD mit ihren Regionalsendern verdeutlicht werden: Noch 2009 wurde im deutschen Fernsehen nur eine Reihe von als wichtig eingestuften Sendungen regelmäßig untertitelt, vor allem die Hauptnachrichten und beliebte Filme und Serien. Heute untertitelt die ARD 90 % der Sendungen im Ersten (www.ard-digital.de/ empfang--technik/ inklusion/ untertitel). Die Untertitel werden teils im Sender selbst erstellt, teils von Untertitelungsfirmen produziert. In den Mediatheken der großen Sender ist praktisch alles untertitelt. Außerdem bieten alle öffentlich-rechtlichen Sender auf ihren Videotext-Seiten Informationen für Gehörlose an. Diese gehen weit über das Fernsehangebot hinaus. SWR III listet neben den Sendungen mit Untertiteln (691) Adressen von Fachdiensten für Gehörlose auf, z. B. Seelsorge für Gehörlose im Bistum Mainz (692) oder Sportveranstaltungen und andere Treffen Gehörloser (690). Bei hr 3 sind die Angebote mit Untertitelung (360) und Audiodeskription (361) leicht zu finden, da sie direkt auf der Inhaltsübersicht angeführt werden. Auch dort gibt es Übersichten zu Veranstaltungen, so auf der Seite „Lesen statt Hören“ (680). Hr 3 bietet auch Hinweise auf die Notruf-Faxformulare der Polizei. Bei BR 3 gibt es natürlich eine Seite zur Sendung Sehen statt Hören (560 mit drei Unterseiten). Sehen statt Hören ging am 1. April 1975 auf Sendung; ein ungewöhnlich frühes Angebot für Gehörlose mit Gebärdensprache. Der Klassiker hat noch immer seinen festen wöchentlichen Sendeplatz. 48 Man kann insgesamt sagen, dass die Videotextangebote auf die Bedürfnisse ihrer Zielgruppen gut eingestellt sind. Inzwischen gibt es auch Videotextseiten mit Nachrichten in Leichter Sprache. Gehörlose sind nicht die eigentliche Zielgruppe dieser Seiten, aber wer DGS-Muttersprachler ist und Probleme mit der Lautsprache und Schriftsprache hat, kann sich hier gut informieren. Dazu kommt das immer umfangreichere Angebot mit einer Verdolmetschung in die DGS (Deutsche Gebärdensprache). Die inzwischen verfügbare Technik hat hier vieles verändert. So kann bei manchen Sendungen Gebärdensprache über HbbTV zugeschaltet werden: „Die Sendungen Hart aber fair und Anne Will werden seit Januar 2018 im HbbTV-Angebot des Ersten mit Gebärdensprache begleitet.“ (www.daserste.de/ specials/ service/ barrierefreie-angebote-ard-102.html). In der Mediathek finden sich zusätzliche Sendungen mit Gebärdensprache, nämlich „ Tagesschau um 20: 00 Uhr und Panorama (Das Erste), MDR um 11 und MDR aktuell (MDR), Die Sendung mit der Maus (WDR), Report Mainz (SWR) und Unser Sandmännchen (RBB)“ (https: / / programm.ard.de/ TV/ TV-mit-Gebaerdensprache/ Startseite) 48 Danke an Isabel Wiemer vom BR für das genaue Datum! 18231_Juengst_SL4�indd 215 18231_Juengst_SL4�indd 215 19�08�2020 12: 39: 45 19�08�2020 12: 39: 45 216 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte Wenn man nicht über HbbTV verfügt, kann man mit einem „normalen“ Fernsehgerät zumindest Nachrichtensendungen mit DGS anschauen. Sie werden parallel zu den Hauptnachrichten auf Phönix gesendet. Der Nachrichtenzuschauer kann daher zwischen einer Live-Untertitelung in den Hauptprogrammen und einer verdolmetschten Fassung im Spartenkanal wählen (zur Live-Untertitelung siehe Kapitel 7.7). Im Kino sind intralinguale UT auf der Leinwand noch weit seltener als im Fernsehen, doch über die App Greta kann man im Kino UT auf dem Handy anschalten (www. gretaundstarks.de/ greta). Diese App funktioniert auch bei Filmen im Fernsehen und auf DVDs; es kommt auf die Partnerunternehmen an, die die Untertitel erstellen müssen. Viele Filmverleiher sind bereits an das System angeschlossen. Man kann die Untertitel kostenlos herunterladen, den Film auswählen und die Untertitel erscheinen synchron zum Film: Wie schon gesagt, ich finde die Idee hinter der App super und auch, dass sie beim DOK Leipzig [Dokumentarfilmfestival] anwendbar war. So gab es für Gehörlose überhaupt die Möglichkeit, die Filme zu sehen. Aber dass man quasi zwei Bildschirme gleichzeitig im Blick haben muss und immer schnell zwischen Handy und Film wechseln muss, stört manchmal. Wenn das mittels einer Datenbrille einfacher und entspannter möglich ist, klingt das großartig. (mdr-Untertitler Patrick Herzberg im Interview: www.mdr.de/ religion/ app-starks-patrick-hertz-100.html) Der Türöffner schlechthin für Gehörlose und Hörgeschädigte ist aber das Internet. Zu den oben erwähnten Mediatheken kommt eine große Zahl an speziellen Webseiten und Foren mit einer Vielzahl an barrierefrei gemachten audiovisuellen Texten. Auch bei der Untertitelung für Gehörlose und Hörgeschädigte hält die automatische Erstellung von Untertiteln Einzug. Auch wenn es Situationen gibt, in denen der Einsatz einer solchen Technik verständlich ist, gehen damit die grundlegenden Probleme automatischer Übersetzungsverfahren einher. 7.3 Zielgruppen für die Untertitelung für Gehörlose und Hörgeschädigte Nicht jeder Hörende hat schon mit Hörgeschädigten zu tun gehabt. Wie bei Sehgeschädigten gibt es auch bei Hörgeschädigten Verbände. Die großen Verbände in Deutschland sind der Deutsche Schwerhörigenbund (DSB e. V.) und der Deutsche Gehörlosenbund (DGB e. V.), bei denen man sich über die Zielgruppe informieren kann. Ähnlich wie bei Blinden und Sehgeschädigten ist auch hier die Zielgruppe äußerst heterogen. Weiter unten wird diese genauer aufgeschlüsselt. Hier geht es zunächst um den Unterschied zwischen Früh- und Spätertaubten. Menschen, die nach Abschluss des Sprachlernprozesses ihr Gehör verloren haben (postlingual Ertaubte) oder die altersschwerhörig sind, lernen oft keine Gebärdensprache mehr. Gerade den Altersschwerhörigen fehlt die geübte Feinmotorik; außerdem fällt vielen Menschen im Alter das Erlernen einer neuen Sprache schwerer als in jungen Jahren. Dafür sind sie mit der Lautsprache und der Schriftsprache aufgewachsen. 18231_Juengst_SL4�indd 216 18231_Juengst_SL4�indd 216 19�08�2020 12: 39: 46 19�08�2020 12: 39: 46 217 7.3 Zielgruppen für die Untertitelung für Gehörlose und Hörgeschädigte Von Geburt an Gehörlose lernen dagegen oft Gebärdensprache als Muttersprache; erst später oder parallel dazu kommen das Lesen und das Absehen der Lautsprache (von Laien als Lippenlesen bezeichnet). Die Gebärdensprache hat eine vollkommen andere Grammatik als die Lautsprache (dazu ausführlich Hezel 2009: 180-184 oder entsprechende Lehrwerke). Entsprechend sind Untertitel, die wir „intralingual“ nennen, für diese Zielgruppe fremdsprachlich, denn sie basieren auf gesprochener Sprache und Schriftsprache. Selbstverständlich ist auch hier eine Verallgemeinerung unfair, aber die Tatsache, dass Gehörlose eine eigene Sprache haben, führt dazu, dass viele von ihnen sich als eigene Kultur verstehen und überdies eine enge Gemeinschaft bilden. Eine Analyse dieser Kultur aus ethnographischer Perspektive bietet Uhlig 2012. Im Englischen spricht man von „deaf“, sobald der Betreffende Sprache nicht auf ausschließlich auditivem Wege wahrnehmen kann. „Deaf“ mit groß geschriebenem Anfangsbuchstaben bezeichnet diejenigen Gehörlosen, die sich als Teil der Gehörlosenkultur verstehen (Neves 2009: 154). Spätertaubte verstehen sich oft als Teil der Hörendenkultur. Auch hier ist das Internet eine große Hilfe - sowohl für Gehörlose als auch für Hörende, die sich informieren wollen. Gehörlose haben z. B. ihre eigenen Sportverbände (www.dg-sv.de/ ), und in einigen Kirchengemeinden gibt es Gebärdenchöre (Hintergrundinformationen zum Beispiel unter www. dafeg.net/ 299.0.html). Zwischen Gehörlosen und Hörenden gibt es viel Unverständnis, Missverständnisse und Reibungen, so dass viele Gehörlose sich unter anderen Gehörlosen wohler fühlen als unter Hörenden. Hierin besteht ein großer Unterschied zwischen Gehörlosen und Sehgeschädigten. Letztere teilen das Alltagsleben fast immer problemlos mit Sehenden. Inzwischen bietet das Internet eine Vielzahl von Filmen, in denen man Informationen über das Alltagsleben Gehörloser bekommt. https: / / story.br.de/ sehen-statt-hoeren/ ist ein Webspecial über die Weltwahrnehmung Gehörloser. „Life doesn’t come with subtitles“ der Lebensmittelkette Sainsbury’s (www.about.sainsburys.co.uk/ news/ latest-news/ 2016/ 04-11-2016) zeigt, wie sich Hörende und Gehörlose vorurteilsfrei verständigen können. Wichtig ist, dass der Umgang zwischen Zielgruppe und Untertitelredakteuren frei von Vorwürfen und insgesamt entspannt stattfindet: Die Wünsche der Adressaten sollten nicht als Einmischung in die Arbeit der Untertitel-Redakteure, sondern als Erleichterung ihrer Arbeit verstanden werden. Ebenso sollten sprachliche Veränderungen im Untertitel nicht als Bevormundung verstanden werden, sondern als Textoptimierung, die nicht mit der Lesekompetenz der Adressatengruppe begründet wird. (Hezel 2009: 248) Wie in Hezel 2009 ausführlich dargelegt, lässt sich die Zielgruppe der Hörgeschädigten unterteilen in Schwerhörige, Gehörlose und Ertaubte. Schwerhörige teilt man wiederum in leichtgradig, mittelgradig und hochgradig Schwerhörige ein; leicht- und mittelgradig Schwerhörige können mit Hilfsmitteln wie Hörgeräten hören (Hezel 2009: 154). Bei Gehörlosen und Ertaubten kommt zusätzlich die Unterscheidung in diejenigen mit Cochlea- Implantat 49 und diejenigen ohne hinzu (8). Diese Zielgruppen haben eine unterschiedliche 49 Ein Cochlea-Implantat erlaubt eine auditive Sprachwahrnehmung, die sich jedoch von der Lautwahrnehmung Hörender unterscheidet. Im Internet gibt es inzwischen viele Informationsmöglichkeiten und Hörbeispiele, z. B. https: / / www.kgu.de/ einrichtungen/ kliniken/ hals-nasen-ohrenheilkunde/ audiologische-akustik/ forschung-und-projekte/ demos-zur-elektrisch-akustischen-stimulation-eas/ . 18231_Juengst_SL4�indd 217 18231_Juengst_SL4�indd 217 19�08�2020 12: 39: 46 19�08�2020 12: 39: 46 218 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte Lesekompetenz. Eine schlechte Lesekompetenz bei früh Gehörlosen wird in der Literatur immer wieder erwähnt (z. B. Neves 2008: 172; Neves arbeitet eng mit Gehörlosenverbänden zusammen und steht nicht unter Vorurteilsverdacht). Romero Fresco zitiert mehrere spanische Studien, nach denen gehörlose Schüler im Lesealter sieben Jahre hinter hörenden Schülern zurückliegen (Romero Fresco 2010: 179). Inzwischen gibt es Bemühungen, gehörlose Kinder bilingual mit Gebärdensprache und Schriftsprache zu erziehen. Man darf nie zu sehr verallgemeinern: Auch bei postlingual Ertaubten gibt es Menschen, die schon vorher eine schlechte Sprach- und Lesekompetenz hatten, ebenso wie bei Hörenden (Hezel 2009: 171). Wenn jemand die Lautsprache / Schriftsprache als Fremdsprache lernt, ist die Lernanstrengung beim Lesen aber ungleich höher. Diese Kompetenzunterschiede wie auch das in unterschiedlichem Ausmaß vorhandene Resthörvermögen führen nicht nur dazu, dass Untertitel unterschiedlich gut verstanden werden. Die Untertitel erfüllen für unterschiedliche Nutzer auch unterschiedliche Zwecke. Wer die Deutsche Gebärdensprache als Muttersprache hat, nutzt Untertitel unter Umständen auch, um die eigenen Kenntnisse der deutschen Laut- und Schriftsprache zu verbessern (Hezel 2009: 155). Der Anteil der einzelnen Gruppen an den Untertitelnutzern ist ebenfalls unterschiedlich. 2009 gingen die von Hezel befragten Sender von einem höheren Anteil an Schwerhörigen aus (Hezel 2009: 190-191). Das ändert nichts daran, dass auch Ertaubte und Gehörlose auf Untertitel angewiesen sind, wenn sie fernsehen möchten. Das bedeutet, dass man für eine Zielgruppe untertitelt, deren Mitglieder zwei unterschiedlichen Kulturen angehören (Neves 2009: 158). 7.4 Das Absehen Eine Kompetenz vieler Gehörloser ist das „Absehen“ oder die „visuelle Lautsprachperzeption“. Es bedeutet, dass man versucht, Lautsprache mit Hilfe der Viseme (Mundbilder) des Sprechers zu verstehen. Versuchen Sie das selbst! Suchen Sie sich im Internet einen kurzen Film in Ihrer Muttersprache, den Sie noch nicht kennen, aber mehrfach aufrufen können, drehen Sie den Ton ab und notieren Sie, was Sie verstanden haben. Diese Übung kann auch in einer Gruppe durchgeführt werden; vergleichen Sie in diesem Fall, was die einzelnen Gruppenmitglieder verstanden haben. Welche Wörter haben Sie alle verstanden? Welche Gründe gibt es dafür wahrscheinlich? Mal kurz nachdenken … In welchem Kapitel sind Sie einer ähnlichen Fragestellung begegnet? 18231_Juengst_SL4�indd 218 18231_Juengst_SL4�indd 218 19�08�2020 12: 39: 47 19�08�2020 12: 39: 47 219 7.4 Das Absehen Absehen ist eine extrem schwierige Tätigkeit. Falls Sie das Kapitel zur Synchronisation und zur Lippensynchronität (3.4.2) bereits bearbeitet haben, haben Sie diese Erfahrung schon selbst gemacht. Wer spätertaubt ist, hat durch seine Vertrautheit mit der Lautsprache und der damit verbundenen Erwartung von bestimmten Äußerungen einen kleinen Vorteil gegenüber jemandem, für den die Gebärdensprache die Muttersprache ist. Wer schwerhörige ältere Verwandte hat, weiß jedoch, wie häufig es bei dieser Kommunikationstechnik zu Missverständnissen kommt. 50 Hüffer weist darauf hin, dass es viele Einflüsse gibt, die das Ablesen erschweren können. Da viele Übersetzer sich vermutlich nie mit dieser Thematik befasst haben, folgt ein längeres Zitat: Bevor die Lippenbewegungen näher beschrieben werden, sollen noch einige Faktoren erwähnt werden, die die Lippenstellung beeinflussen können. So spielt zum einen die Individualität der Lippen eine Rolle. Je nachdem, ob man schmale oder volle Lippen, einen kleinen oder großen Mund hat, kann dies die Sprechbewegung beeinflussen. Ein weiterer wichtiger Punkt ist die jeweilige persönliche Emotionslage beim Sprechen. So wird das ganze Mundbild verändert, wenn der Sprecher gerade fröhlich gestimmt ist und dessen Mundwinkel während des Sprechvorgangs leicht angehoben sind. Das Gleiche gilt für jemanden, den gerade eine traurige Stimmung erfasst hat und der somit seine Mundwinkel etwas herabgezogen hat. Auch die Lautfolge hat großen Einfluss auf die Lippenstellung. Beim Sprechen werden schon im voraus [sic] Laute angedeutet und unmittelbar Vorangegangenes ist häufig noch nicht völlig abgeklungen, wenn bereits der nächste Laut geformt wird. Ein letzter Aspekt, der hier erwähnt werden soll, ist die individuelle Akzentuierung. Wichtiges wird mit stärkerer Innervation gesprochen, die Lippenbilder verändern sich entsprechend, ebenso der jeweilige Kieferwinkel. (Hüffer 2001: 47-48) Die Viseme selbst sind keinesfalls so eindeutig, wie man sich das als Hörender vorstellt; in Kapitel 3.4.2 wurden relativ einfache ausgewählt: Öffnungsbewegungen, Schließbewegungen, Rundungsbewegungen, Spreizungsbewegungen, kombinierte Bewegungen (z. B. Schließung mit Rundung), Zungenbewegungen, die sich dadurch manifestieren, dass die Zungenspitze an den Zähnen oder im Zahnspalt sichtbar wird. (Lindner 1999: 118-119, zitiert nach Hüffer 2001: 48) Viseme stellen minimale Anhaltspunkte für das Absehen dar. Genauer ist die Einteilung in Kineme, „die kleinste sichtbare Einheit eines Bewegungsablaufs, vor allem der Sprechorgane“ (Lindner 1999: 194, zitiert nach Hüffer 2001: 49). Kineme sind nicht eindeutig: „Unterschiedliche Laute, die aber die gleiche Absehgestalt aufweisen, werden so ein und demselben Kinem zugeordnet“ (Hüffer 2001: 49). So gehören die Laute / b/ , / p/ und / m/ alle zum bilabialen Kinem. Hüffer listet sämtliche Kineme auf, zusammen mit Beispielen, wie man Kineme missverstehen kann (Hüffer 2001: 50-56). Viele Hörende stellen sich vor, dass Hörgeschädigte das schon irgendwie können. Für Hörgeschädigte gilt, dass es Alltagssituationen gibt, in denen sie das Absehen zumindest 50 Selbstverständlich wird auch dieses Problem in einem Film thematisiert: Monty Pythonʼs The Life of Brian ( Das Leben des Brian , Großbritannien 1979), und zwar die Szene mit der Bergpredigt. 18231_Juengst_SL4�indd 219 18231_Juengst_SL4�indd 219 19�08�2020 12: 39: 47 19�08�2020 12: 39: 47 220 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte als Stütze benötigen, weil sie mit Menschen kommunizieren wollen, die keine Gebärdensprache beherrschen. Für diese Tätigkeit müssen sie sich immer wieder neu motivieren. Wie Hüffer (oben) bietet http: / / praxis-fuer-hoergeschaedigte.de/ therapieangebot/ absehen/ immer wieder Rätsel an, bei denen ein missverständliches Wort entschlüsselt werden muss. Für Hörende ist dies eine sehr gute Möglichkeit, die Problematik des Absehens am eigenen Leibe zu erleben. Interessanterweise ähneln die Absehfehler den Fehlern, die eine automatische Spracherkennung macht. Bei Fremdsprachen ist das Absehen praktisch unmöglich, auch wenn man die betreffende Sprache sehr gut lesen kann oder vor der Ertaubung auch sprechen konnte. Man darf also nicht glauben, dass Hörgeschädigte Filmtexte einfach bei den Sprechern absehen können. Was sie aber natürlich sehen, ist die Länge der jeweiligen Äußerung. Die mangelnde Übereinstimmung einzelner, gut absehbarer Laute mit den Untertiteln ruft Misstrauen und Unzufriedenheit hervor (Prillwitz 2001: 90; Hezel 2009: 160). Der Untertitler muss dies berücksichtigen. 7.5 DGS - Deutsche Gebärdensprache Die Deutsche Gebärdensprache (DGS) ist wie alle Gebärdensprachen eine vollwertige Sprache mit eigener Grammatik und mit der Möglichkeit, alles auszudrücken, was man auch mit Lautsprachen ausdrücken kann, Abstrakta ebenso wie Konkreta. Sie ist keine „Zeichensprache“ und entwickelt sich, wie andere Sprachen, kontinuierlich weiter. Die DGS wurde in Deutschland erst 2002 als vollwertige Sprache anerkannt. Gebärdensprachen sind nicht überall gleich. Sogar in den deutschsprachigen Ländern gibt es unterschiedliche Gebärdensprachen (DGS und ÖGS). Für den internationalen Gebrauch gibt es „International Signs“ oder „Gestuno“, das aber mehr Umschreibungen enthält als die DGS und daher die Kommunikation verlangsamt. Für Hörende einfacher sind die LBG, die Lautsprachbegleitenden Gebärden, die auf der Lautsprache basieren und sie ergänzen (Quelle für dieses Unterkapitel: www.gehoerlosen-bund.de/ faq/ deutsche%20 geb%C3%A4rdensprache%20(dgs). Wer sich mit der Untertitelung für Hörgeschädigte befassen möchte, sollte sich auch mit Gebärdensprache auseinandersetzen, auch wenn er sie nicht perfekt lernen möchte. Schauen Sie sich Seiten mit DGS und zum Erlernen von DGS an! 7.6 Untertitel für Hörgeschädigte als Text: Richtlinien Untertitel für Hörgeschädigte müssen in mancher Hinsicht eine andere Form haben als die interlingualen Untertitel, die primär für Hörende konzipiert sind (letztere werden allerdings ebenfalls von Hörgeschädigten konsumiert, wenn keine anderen Untertitel vorliegen). 18231_Juengst_SL4�indd 220 18231_Juengst_SL4�indd 220 19�08�2020 12: 39: 48 19�08�2020 12: 39: 48 221 7.6 Untertitel für Hörgeschädigte als Text: Richtlinien 103. Worin könnten Übereinstimmungen zwischen intralingualen und interlingualen Untertiteln liegen? Tatort wird oft wiederholt. Schauen Sie sich einen älteren (1990er), aber schon untertitelten Tatort an. Was fällt Ihnen auf ? Wie bei der interlingualen Untertitelung gibt es auch hier bei den einzelnen Untertitelungsfirmen unterschiedliche Richtlinien; wie beim Tatort zu sehen, haben sich diese Richtlinien im deutschen Fernsehen geändert. International gesehen sind die Unterschiede noch größer. Beim Deutschen Gehörlosenbund existiert eine „Arbeitsgruppe Untertitel und Gebärdenspracheinblendung“, die sich mit dieser Problematik befasst (Hezel 2009: 148; www. deutsche-gesellschaft.de/ ueber-uns/ aktuelles/ film-der-arbeitsgruppe-untertitel-und-gebaerdenspracheinblendung), und auch auf anderen Websites und in Internetforen für Gehörlose wird diese Frage diskutiert. Inzwischen haben die großen Fernsehsender Richtlinien aufgestellt und die Sendeanstalten in Deutschland haben die Untertitelung vereinheitlicht. Im Anhang zu diesem Kapitel finden Sie die Rahmenrichtlinien, die von den Landesrundfunkanstalten der ARD, ARD Text, ORF, SRF und ZDF festgelegt wurden. Diese Richtlinien sind durch die Vielzahl der beteiligten Sendeanstalten repräsentativ. Die lange Liste spiegelt einen langen Findungsprozess wider. Zuvor konnte man Standards oder Richtlinien nur in wissenschaftlichen Publikationen oder bei Untertitelungsfirmen finden sowie bei Arbeitsgruppen von Gehörlosenverbänden. Suchen Sie im Internet nach weiteren Richtlinien zu Gehörlosenuntertiteln für Ihre Arbeitssprachen! Wo liegen die Unterschiede zwischen den einzelnen Ländern? Auf welcher Art Website werden diese Richtlinien veröffentlicht? Ein wichtiger Punkt bei der Entscheidung für bestimmte Richtlinien ist die Frage, wie vollständig die Untertitel den Filmtext wiedergeben sollen (zu Kürzungen und Veränderungen siehe Kapitel 7.6.2). Generell gilt unabhängig von allen anderen Entscheidungen: Der Untertitel sollte möglichst synchron zum Originaltext präsentiert werden (Hezel 2009: 200). Ist dies nicht der Fall, haben besonders die Zuschauer mit Resthörvermögen Probleme, da sich für sie ein Widerspruch zwischen Untertitel und Filmdialog ergibt (dazu auch Neves 2009: 160 und Tamayo 2016: 278). Und nicht nur der Filmdialog muss synchron sein (siehe Anhang 1, Punkt Synchronität ), wie auch von Zuschauern gefordert: Ich verstehe den Sinn nicht mehr, wenn der Untertitel nicht mehr zum Bild passt und zu spät kommt. Dann geht mir manchmal der Sinn des Films oder des Beitrags verloren. Es fehlen viele 18231_Juengst_SL4�indd 221 18231_Juengst_SL4�indd 221 19�08�2020 12: 39: 50 19�08�2020 12: 39: 50 222 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte Sätze und ich muss selber überlegen und Kontextwissen anwenden, um überhaupt der Sendung zu folgen. Das ist anstrengend und ich gebe schnell auf und bin nicht motiviert weiterzuschauen. (Gruppendiskussion Gebärdensprache) (TU 96) Bei vielen Sportübertragungen sehen die Untertitel anders aus als bei anderen Sendungen. 104. Sie haben hier ein Fußballspiel zu untertiteln. Wie würden Sie das machen? Abbildung 42: Fußballspiel 7.6.1 Farben und Ausrichtung Im Kino gibt es nur einfarbige Untertitel. Im Fernsehen und auf manchen DVDs (besonders bei deutschen Produktionen) können Untertitel für Gehörlose und Hörgeschädigte farbig wiedergegeben werden. Im Fernsehen werden den wichtigsten Sprechern Farben zugeordnet (Sprecheridentifikation, siehe Anhang 1, Farben ). Rolle und Farbe werden zu Beginn des Films, möglichst während des Vorspanns, kurz eingeblendet; oft dann, wenn die Schauspielernamen eingeblendet werden. Bei Nachrichtensendungen haben die Sender standardisierte Farbzuordnungen für den Nachrichtensprecher und die eingespielten Stimmen. Das Fell der kleinen Bärchen bei Käpt’n Blaubär hat lustigerweise die im Videotext gut lesbaren Farben Magenta, Gelb und Grün; sie werden aber gelb untertitelt. Suchen Sie sich einen kurzen Film, weisen Sie den Figuren Farben zu! Probieren Sie die Lesbarkeit der Farben aus! Testen Sie diese Untertitel mit älteren Schwerhörigen in Ihrem Bekanntenkreis! Oder an Kommilitonen mit zugestöpselten Ohren, die den Film nicht kennen. 18231_Juengst_SL4�indd 222 18231_Juengst_SL4�indd 222 19�08�2020 12: 39: 52 19�08�2020 12: 39: 52 223 7.6 Untertitel für Hörgeschädigte als Text: Richtlinien Mal kurz nachdenken … Wie könnte man sonst einen Sprecherwechsel markieren? Man hat nicht immer Farben zur Verfügung. Man kann einen Sprecherwechsel auch durch Anstriche oder durch die Platzierung der Untertitel beim jeweiligen Sprecher kennzeichnen (Hezel 2009: 203-208). 105. Hier folgen vier Bilder, die ein verliebtes Paar am Strand zeigen. Natürlich sagen die beiden: „Ich liebe dich! “ - „Ich dich auch! “ Schauen Sie zunächst nur auf das Bild ohne Untertitel. Wo könnte man Untertitel platzieren, die für Hörgeschädigte gut geeignet sind? Schauen Sie sich jetzt die drei Untertitel-Varianten an. Welche Vorbzw. Nachteile haben die drei Lösungen? Gibt es einen Unterschied zwischen der zweiten und der dritten Lösung? Vielleicht ist die von Ihnen und vielen Sendern bevorzugte Variante ja gar nicht dabei? Abbildung 43: Paar am Meer ohne UT Abbildung 44: Paar am Meer, durchgehender UT Abbildung 45: Paar am Meer, zwei UT Abbildung 46: Paar am Meer, überlappende UT 18231_Juengst_SL4�indd 223 18231_Juengst_SL4�indd 223 19�08�2020 12: 39: 53 19�08�2020 12: 39: 53 224 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte 106. Die nächsten beiden Bilder stammen aus dem Film Dating - Do’s and Donʼts (USA 1949). Im Original ist es ein englischsprachiger Film, aber auch interlinguale Untertitelungen kann und sollte man für Gehörlose und Hörgeschädigte nutzbar machen. Überlegen Sie vorher: Was kann man machen, wenn ein Sprecher nicht zu sehen ist? Ganz gleich, ob man Farben zur Verfügung hat oder nicht. Hier ist die Mutter in der Küche und ruft den beiden Jungs zu: „Ja, kommt rein! “ Abbildung 47: Mutter in der Küche, Jungs im Flur Im nächsten Bild liest ein Kommentator zunächst den Satz im Bild vor, dann folgt: „Whose company would you enjoy? No, it won’t be easy! “ Abbildung 48: Einblendung mit Kommentar 7.6.2 Kürzungen und Veränderungen Bei den Wünschen der Zielgruppe an die Übereinstimmung der Untertitel mit dem Filmtext scheint es kulturelle Unterschiede zu geben. Hezel berichtet von einer Umfrage des ORF von 2004, in der die Zielgruppe mit 63,3% der Stimmen der Wort-für-Wort-Untertitelung klar den Vorzug gibt. Hezel geht zwar darauf ein, dass eine relativ kleine Anzahl von Zuschauern an der Umfrage teilnahm, sieht das Ergebnis aber als eindeutig (Hezel 2009: 242-243). Zu einem anderen Ergebnis kommt Neves in Portugal: In fact, when asked to comment upon the open subtitles offered on Portuguese television programmes, the criticism that was most often made by Deaf respondents was that subtitles were ‚difficult‘. … they voiced their frustration about not following subtitles: ‚subtitles come and go rapidly‘; ‚the vocabulary is too difficult‘; ‚the sentences don’t make sense; they are too long and convoluted‘ … (Neves 2009: 158) 18231_Juengst_SL4�indd 224 18231_Juengst_SL4�indd 224 19�08�2020 12: 39: 54 19�08�2020 12: 39: 54 225 7.6 Untertitel für Hörgeschädigte als Text: Richtlinien Wie bei allen Umfragen kann man nie sagen, welcher Teil der Zielgruppe sich zu der Problematik überhaupt äußert und welcher schweigt. In Workshops mit Gehörlosen habe ich die Erfahrung gemacht, dass diejenigen Gehörlosen, die an solchen Veranstaltungen teilnehmen, eine vollständige Untertitelung bevorzugen. Wer aber zu einer Diskussion zwischen Hörenden und Gehörlosen kommt, ist eher eloquent und selbstbewusst. Laut Tamayo (2016: 276) ist jedoch eine Kürzung um ein Drittel der gesprochenen Sprache nötig: Die Zuschauer sollen auch die Filmbilder wahrnehmen, nicht nur die Untertitelung. 107. Bei welchen TV-Sendungen dürfen die Untertitel ausgiebiger ausfallen? Wie bei interlingualen Untertiteln sind auch bei den Untertiteln für Hörgeschädigte und Gehörlose Kürzungen unvermeidlich. Spezifische Kürzungsmethoden finden Sie im Kapitel zur interlingualen Untertitelung (Kapitel 2.3.5); sie werden hier nicht wiederholt. Auch bei intralingualen Untertiteln gilt natürlich: Je mehr Text der Film hat und / oder je schneller der Text gesprochen wird, desto stärker muss gekürzt werden. Die Problematik von Standzeit und Zeilenlänge, von Schriftgröße und Schriftart ändert sich dabei gegenüber interlingualen Untertiteln nicht. Für Hörgeschädigte bedeutet das, dass sie dem Untertitler vertrauen müssen. Manche Lobbygruppen in den Verbänden befürworten gerade daher eine komplette, wörtliche Einblendung des gesprochenen Texts und empfinden eine Kürzung als Bevormundung oder Verfälschung. Mal kurz nachdenken … Welche Probleme könnte das für völlig unterschiedliche Teile der Zielgruppe ergeben? Nicht nur Menschen mit Gebärdensprache als Muttersprache lesen oft langsam: Wer altersschwerhörig ist, sieht unter Umständen auch nicht mehr gut und kann daher nicht schnell genug lesen. Es wird immer wieder darauf hingewiesen, dass viele Gehörlose bei der Lautsprachenrezeption Probleme mit Abstrakta und mit bestimmten syntaktischen und grammatischen Phänomenen wie Konjunktiv und Passiv haben (Hezel 2009: 225). Manche Rundfunkanstalten entscheiden sich daher dafür, z. B. selten benutzte Fremdwörter durch gängigere Begriffe zu ersetzen oder indirekte Rede durch direkte Rede. Ein wichtiges Hilfsmittel für Kürzungen ist bei der Untertitelung für Hörgeschädigte ein Synonymwörterbuch. Oft erspart man sich durch den Einsatz eines kürzeren Synonyms inhaltliche Streichungen. 108. Welches Problem tritt auf, wenn man ein kürzeres Synonym verwendet? Bei den interlingualen Untertiteln war bereits die Rede davon, dass Tabuausdrücke oder Vulgarismen wie Schimpfwörter oder sexuell explizite Ausdrücke in schriftlicher Form 18231_Juengst_SL4�indd 225 18231_Juengst_SL4�indd 225 19�08�2020 12: 39: 55 19�08�2020 12: 39: 55 226 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte stärker wirken. Heute wird eine Abschwächung solcher Ausdrücke in den Untertiteln nicht mehr empfohlen; routinierte Praktiker wie Ivarsson und Carroll rieten schon seit jeher davon ab (Ivarsson / Carroll 1998: 127). Bei der Untertitelung für Hörgeschädigte kommt eine Abschwächung von Vulgarismen schon gar nicht in Frage. 109. Können Sie sich vorstellen, warum es bei der Untertitelung für Gehörlose und Hörgeschädigte besonders wichtig ist, Vulgarismen nicht abzuschwächen und möglichst auch nicht auszulassen? Oft wird auch die Vereinfachung des Filmtexts empfohlen. Vereinfachung und Kürzung werden nicht immer präzise unterschieden, besonders wenn es um den Einsatz von Synonymen geht. Man kann sich den Unterschied jedoch relativ einfach klar machen. Wo liegt der Unterschied zwischen Vereinfachung und Kürzung? Nehmen Sie den heutigen Leitartikel der FAZ oder der SZ und vereinfachen Sie den ersten Absatz. Nehmen Sie ihn sich noch einmal in nicht vereinfachter Form vor und kürzen Sie ihn für eine Untertitelung. Vereinfachung bei den Untertiteln ist Bevormundung. Hörende wollen schließlich auch keine vereinfachten interlingualen Untertitel. Auch wenn sich die Wort-für-Wort-Untertitelung aus Platz- und Zeitgründen meist nicht durchführen lässt, sollte man daher nur kürzen und nicht vereinfachen. Die Ausnahme sind Kinder als Zielgruppe (siehe Kapitel 7.9). In den Untertiteln sollte die Originalsprache weitgehend erhalten bleiben. Unbekannte Wörter oder Phrasen sollten nicht durch einfache Synonyme ersetzt werden. Sie sollten auch nur dann umschrieben werden, wenn das Sprechtempo das normale Lesetempo überschreitet. Hörgeschädigte können die Untertitel - oft durch ihr Resthörvermögen oder ihre Fähigkeit, von den Lippen abzulesen - kontrollieren und empfinden unnötige Abweichungen von der Originalsprache als massive Zensur oder Bevormundung. (Unveröffentliches Manuskript der Arbeitsgruppe, zitiert in Hezel 2009: 233) Eine interessante Variante bietet die Untertitel-Werkstatt Münster an. Hier wird das Fremdwort beim ersten Mal genannt und nach Möglichkeit im nachfolgenden Satz durch ein gemeinsprachliches Synonym ersetzt. Dies ist natürlich nur in Ausnahmefällen möglich (Hezel 2009: 225-226). Auch das Auslassen bzw. Umschreiben von Metaphern und Redewendungen ist eine zwiespältige Angelegenheit. Gehörlose haben unter Umständen tatsächlich Verständnisprobleme bei Metaphern, erweitern so andererseits ihre Kenntnis der Laut- und Schriftsprache (Hezel 2009: 230-233). Neves weist darauf hin, dass die Diskussionen um dieses Problem noch lange nicht abgeschlossen sind: 18231_Juengst_SL4�indd 226 18231_Juengst_SL4�indd 226 19�08�2020 12: 39: 56 19�08�2020 12: 39: 56 227 7.6 Untertitel für Hörgeschädigte als Text: Richtlinien Much more needs to be learned about rephrasing techniques in SDH. Special care in sentence formulation, such as pushing difficult words to the end of the phrase, or in substituting complex or imbedded phrases into distinct short direct sentences may increase reading speed and may make reading far more agreeable, particularly to poorer readers. (Neves 2008: 185) Die folgenden Beispiele stammen aus zwei Folgen Tatort und wurden von der Untertitel-Werkstatt Münster erstellt. Dialogtext Untertitel Das ist mein Mökki. Das ist meine Hütte. … durch die finnischen Wälder. … da herum. ( Tango für Borowski , NDR 2010) Geben Sie nicht alles gleich auf einmal aus! Nicht gleich verprassen! Alle waren in sie verliebt, einschließlich meiner Person. Alle waren in sie verliebt, auch ich. Sie haben keinen Sinn für Romantik. Sie sind nicht romantisch. ( Das ewig Böse , WDR 2006) Tabelle 9: Kürzungs- und Ersatzstrategien im Tatort 110. Welche Techniken wurden bei der Erstellung dieser Untertitel angewandt? Wie beurteilen Sie diese Untertitel? Geht Ihrer Meinung nach bei der Untertitelung etwas verloren? Wenn ja, dann was? Eine völlig andere Lösung: Polizist 1: Hallo. Polizist 2: Hallo. Polizist 3: Hallo. Polizist 4: Hallo. Polizist 5: Hallo. Polizisten rund um den Tisch grüßen zurück. ( Mankells Wallander: Rache , ARD 2009) Tabelle 10: Umformulierung Eine andere Situation existiert dort, wo Untertitel tatsächlich in Leichter Sprache erstellt werden sollen. Dies ist zwar nicht üblich, könnte aber im Zug der immer stärkeren Diversifizierung als Erweiterung zur Standarduntertitelung eingesetzt werden. Zum Abschluss dieses Unterkapitels kommen ein paar Sätze für Kürzungsübungen - oder auch für eine Umformung in Leichte Sprache, falls Sie sich schon mit dem Thema befasst haben. Sprechen Sie sie erst laut; manche verteilt man besser auf mehrere Untertitel: 18231_Juengst_SL4�indd 227 18231_Juengst_SL4�indd 227 19�08�2020 12: 39: 57 19�08�2020 12: 39: 57 228 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte Also, das sag‘ ich dem aber nochmal, dem Typ. Dienstag? Nee, Dienstag is ʼ nicht gut. Da hab ʼ ich Klavierstunde. [Lehrer] Genau. Die Flasche ist aus PET. Fritz, wiederholst du das mal bitte? Na, gepennt? Das hat mich SO traurig gemacht. Total traurig. Echt mega-traurig. (Kann man das ohne Kenntnis des Sprechtempos entscheiden? ) Oma Töffke wohnt im 6. Stock, total weit oben für eine Oma. Sie segelten immer weiter, mit dem Wind, der Sonne entgegen, bis ans Ende der Welt. Dann sagt die, hömma, also, dann sagt die … Und dann sitzt do e Motschekiepschen. (Sächsische Oma zum Kind) Erst nimmst du eine Foundation, dann Puder, und die Wimperntusche ist total wichtig. Du musst an der Brücke LINKS abbiegen! LINKS! Nicht rechts! Bei der Tante gibt es immer so komisches Zeugs: Chicoree, Romanesco … Kennst du das schöne alte Volkslied „Ein Jäger längs des Weihers ging“? Früher lebten viele Bauern im Sommer mit ihren Tieren auf den Almen. Wenn man eine gute Mathearbeit schreiben will, sollte man lernen. Er hört gern so grässliche Musik, so Rockabilly und so ’nen Scheiß. [Uroma] Meine Lieblingsschauspieler sind Heinz Rühmann und Hans Albers. Ich bin einfach ausgerutscht, weil, hier hat so ein Depp die Treppe geputzt. [Vater auf einem Ausflug] Stell dich nicht so an! Los! Hopp! Hopp! Die paar Meter wirst du wohl noch schaffen! Als ICH in deinem Alter war, war das gar nix! Tabelle 11: Fiese Sätze zum Kürzen 7.6.3 Parasprache In den Richtlinien der Rundfunkanstalten wird Parasprache unter dem Punkt „Farben“ eingeordnet (Anhang 1, Farben ). Parasprachliche Elemente geben oft wichtige Aufschlüsse über die Filmhandlung und sollten in den Untertiteln beschrieben werden: Auch andere Zusatzinformationen, die nur im akustischen Kanal des Films vorliegen, können per Untertitel visuell wiedergegeben werden. Das können neben relevanten Geräuschen auch starke sprachliche Besonderheiten eines Sprechers sein. (Hezel 2009: 208) 18231_Juengst_SL4�indd 228 18231_Juengst_SL4�indd 228 19�08�2020 12: 39: 57 19�08�2020 12: 39: 57 229 7.6 Untertitel für Hörgeschädigte als Text: Richtlinien Nicht umsonst werden Schauspieler darin geschult, mit ihrer Stimme Gefühle und Stimmungen auszudrücken. Zu den parasprachlichen Merkmalen gehören folgende Kategorien (in Auswahl): Variationen in der Tonhöhe können z. B. eine Drohung, einen erotischen ‚Unterton‘ oder eine gelangweilte Stimmung zum Ausdruck bringen. Tempo und Rhythmus können Aufregung oder ganz im Gegenteil Schläfrigkeit anzeigen … Hierzu [zur Parasprache] zählen nach Crystal z. B: Artikulationsvarianten wie undeutliche vs. präzise Aussprache, Flüstern, Nasalierung oder heisere Phonation. (Nöth 2001: 366) Nicht alle dieser parasprachlichen Elemente sind gleich wichtig. Aber auch diejenigen, die wichtig sind, können bei der Untertitelung verloren gehen, da sie in der Schriftsprache nicht sichtbar sind. Mal kurz nachdenken … Man muss sie trotzdem nicht alle in den Untertiteln erwähnen. Warum nicht? Wie kann man sie trotzdem erkennen? Viele der angeführten Artikulationsvarianten kann man sehen: Wenn jemand flüstert, beugt er sich meist zum Kommunikationspartner hinüber, flüstert ihm oft ins Ohr. Wenn jemand schreit, sieht man das an der weiten Mundöffnung und dem verzerrten Gesicht, oft auch an der Körpersprache. Parasprachliche Phänomene, die wichtig erscheinen und die man schlecht sieht, werden bei Untertiteln oft in Klammern hinzugefügt, wie z. B. (heiser). In Portugal wurden bei der Untertitelung einer Soap Opera Emoticons benutzt, um Parasprache anzuzeigen. Gehörlose nutzen SMS und sind mit den gängigen Emoticon-Konventionen vertraut. Die Untertitel kamen bei der Zielgruppe sehr gut an (Neves 2009: 161, 167). Allerdings muss man anmerken, dass dieses Experiment vor mehr als zehn Jahren gemacht wurde und es sich um die klassischen Emoticons handelte, für die die Zeichen auf der Tastatur kombiniert werden. In Portugal wurden die folgenden acht Emoticons getestet: : ( sad : ) happy : -/ angry : -S surprised : -& confused (drunk, dizzy) ; -) irony, second meanings ; -( acting out to be sad or angry : -O screaming : -° speaking softly (Neves 2009: 167-168) Mal ganz ehrlich … Hätten Sie diese altmodischen Emoticons alle verstanden? 18231_Juengst_SL4�indd 229 18231_Juengst_SL4�indd 229 19�08�2020 12: 39: 57 19�08�2020 12: 39: 57 230 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte 111. Welche Probleme könnten mit den modernen Emoticons auftreten, die vermutlich auch nie für Untertitel eingesetzt werden? Viele Beispiele zu klassischen Emoticons findet man auf www.abkuerzungen.de/ emoticons. php? language=de. 7.6.4 Geräusche Auch die Untertitelung von Geräuschen ist geregelt (Anhang 1, Geräusche ); man spricht von Geräuschuntertiteln. Geräusche geben Hörenden wichtige Aufschlüsse über das, was um sie herum in der Welt geschieht. Im Film werden Geräusche bewusst eingesetzt. Bei der Erstellung von Untertiteln für Hörgeschädigte ist es daher wichtig zu entscheiden, ob Geräusche handlungstragend sind und ob sie vielleicht über das Bild erschlossen werden können. Davon hängt es ab, ob man sie untertiteln soll oder nicht (Neves 2008: 177): Once translators become aware of the way sounds convey emotional, narrative and metatextual information it will be easier for them to identify the function of each sound effect and to make choices on the best way to transmit them. They will be able to decipher the sounds that are most relevant in each particular passage; to decide when and if there is a need to identify the source or direction of particular sounds which might lack visual clues; and to be sensitive to nuances that might establish tempo or mood. (Neves 2008: 178) Schauen Sie sich einen Film mit Untertiteln für Gehörlose und Hörgeschädigte an. Achten Sie nur auf die Geräusche, Musik etc. Wie wurde untertitelt? Schauen Sie sich denselben Film mit Untertiteln für Gehörlose und Hörgeschädigte in einer anderen Sprache an. Wo liegen die Unterschiede? Eine Übung von Josélia Neves hat sich ebenfalls als sehr gut für die Sensibilisierung gegenüber Geräuschen erwiesen: Schauen Sie sich einen Filmausschnitt ohne Ton an! Verstehen Sie, worum es geht? Welche Geräusche erwarten Sie wo? Die Zielgruppe schätzt Geräuschuntertitel: Manchmal sieht man Bilder, aber das Geräusch ist anders. Da wäre es schon schön, die Infos zu haben. Zum Beispiel: jemand schleicht durch den Wald und es brechen die Zweige und Äste unter den Schritten. Dann wird geschrieben *Musik* und die ist vielleicht bedrohlich. Dann kommt noch das Knacken der Zweige, aber es wird ja nicht auf den Waldboden gefilmt. Da gibt es eben Sachen die wir nicht sehen. Da wäre es schön, eine Info zu haben, was noch so drum herum passiert. (Gruppendiskussion Gebärdensprache) (TU 95/ 96) 18231_Juengst_SL4�indd 230 18231_Juengst_SL4�indd 230 19�08�2020 12: 39: 58 19�08�2020 12: 39: 58 231 7.6 Untertitel für Hörgeschädigte als Text: Richtlinien Geräuschuntertitel in Klammern werden manchmal als Label bezeichnet. Nach den heutigen Richtlinien werden Geräuschuntertitel im Fernsehen mit Sternchen vorn und hinten markiert (*Beifall*). Nachfolgend finden Sie zwei Beispiele für Geräuschuntertitel. Die Tür ist rechts außerhalb des Bildes, das Geräusch ist wichtig, weil man in diesem Moment nicht weiß, warum die Frau nach rechts schaut. Welchen Untertitel finden Sie besser? Warum entscheiden Sie sich für diesen Untertitel? Würden Sie vielleicht beide Untertitel einsetzen? Wenn ja: abhängig von welchen Variablen? Abbildung 49: Geräuschuntertitel: Satz Abbildung 50: Geräuschuntertitel: Onomatopöe In der Praxis begegnet man beiden. Überdies besteht neben der Möglichkeit, ein Geräusch in einem Satz wiederzugeben (zum Beispiel „Ein Hund bellt“), auch die Möglichkeit, für das Geräusch nur ein Substantiv einzusetzen (zum Beispiel „Hundegebell“) (Hezel 2009: 209). Onomatopöien, also Lautmalereien, werden in Deutschland nicht eingesetzt, weil ein großer Teil der Zielgruppe die Originaltöne noch nie gehört hat und so vielleicht die Onomatopöie auch nicht versteht (Hezel 2009: 209-210). 112. Welcher Teil der Zielgruppe versteht Onomatopöen trotzdem? Bei der Untertitelung von Geräuschen gibt es kulturspezifische Präferenzen. In Deutschland werden Geräusche eben bevorzugt sachlich beschrieben. Hört man das Geräusch einer Ladenklingel, so steht im deutschen Untertitel „Ladenklingel“ oder „Klingel“. In schwedischen Untertiteln werden dagegen gern (wenn auch nicht ausschließlich) Onomatopöien eingesetzt; bei der Ladenklingel steht im Untertitel „Plingeling“. Das gilt auch für Filme für Erwachsene mit ernstem Inhalt. 18231_Juengst_SL4�indd 231 18231_Juengst_SL4�indd 231 19�08�2020 12: 40: 00 19�08�2020 12: 40: 00 232 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte 7.6.5 Musik und Untertitel für Gehörlose und Hörgeschädigte Filmmusik ist im wahrsten Sinne des Wortes eine Wissenschaft für sich. Sie wird für eine Vielfalt von Zwecken eingesetzt und ruft beim Zuschauer oft Emotionen hervor, die allein durch den Verbaltext und das Filmbild nicht erzeugt werden. Angehende Untertitler müssen sich daher auch mit der Bedeutung von Filmmusik befassen (siehe dazu Neves 2008: 184), nicht nur mit Liedtexten wie bei der interlingualen Untertitelung. Recherchieren Sie im Internet oder in Ihrer Bibliothek vor Ort Titel zum Thema Filmmusik. Sie werden von der Menge und der Vielfalt überrascht sein. Eine sehr empfehlenswerte wissenschaftliche Seite ist www.filmmusik.uni-kiel.de/ , die Seite der Kieler Gesellschaft zur Filmmusikforschung. Auf vielen Radiosendern gibt es stundenlange Filmmusik-Übertragungen und auch die Konzerte des Filmorchesters Babelsberg sind beliebt. Dass man Musik mit Text für Hörgeschädigte in irgendeiner Form untertiteln sollte, ist klar. Die Probleme sind jedoch ähnlich wie bei der interlingualen Untertitelung (siehe Kapitel 2.6). Viel schwieriger ist es, zu entscheiden, wie man mit Musik ohne Text umgeht. Die Untertitel sollen nicht patronisierend wirken, sie sollen aber auch nichts Wesentliches verschweigen. Dies kann die Filmmusik treffen, die aber von hörenden Zuschauern oft gar nicht bewusst wahrgenommen wird: Aaron Coplands Wort, Filmmusik solle man nicht hören, spiegelt die Erfahrung, dass Filme, deren Handlung uns fesselt, oft vergessen lassen, dass sie überhaupt Musik enthalten. Es bestätigt zugleich, dass Musik im Film grundsätzlich anderen Rezeptionsbedingungen unterliegt als etwa in der Oper. (de la Motte-Haber / Emons 1980: 153) 113. Wie könnte man Filmmusik untertiteln, die vor allem eine Stimmung tragen soll und von Hörenden oft nicht bewusst wahrgenommen wird? Coplands Aussage ist nicht allgemeingültig. Zwar können nur eingefleischte Fans spontan die Indiana-Jones -Fanfare singen, aber fast jeder erkennt sie wieder, wenn er sie hört. 114. Die Indiana-Jones -Fanfare erfüllt eine spezielle Funktion beim Hörer. Welche? Und wie könnte man diese Funktion in die Untertitelung aufnehmen? 18231_Juengst_SL4�indd 232 18231_Juengst_SL4�indd 232 19�08�2020 12: 40: 01 19�08�2020 12: 40: 01 233 7.6 Untertitel für Hörgeschädigte als Text: Richtlinien Hörgeschädigte interessieren sich durchaus für Musik. 51 Und die vielen Funktionen, die Musik im Film hat, legen ebenfalls nahe, auch Instrumentalmusik nicht aus den Untertiteln herauszuhalten: Reproduktion der Außenwelt, Geräusche und Bewegungsabläufe, Geografie und Geschichte, Genrecharakteristik (de la Motte-Haber / Emons 1980: Inhalt Kapitel V ‚Musik und Bild‘) Treulich geleitet [Leitmotivik], Ankündigung und Antizipation, Ausdeutung, Veränderungen und Verwicklungen, Charakter und Charakterisierungen, Versatz und Nummer (de la Motte-Haber / Emons 1980: Inhalt Kapitel VI.3 ‚Musik und Handlung‘) Allgemeine Wirkung für die Kinosituation, Syntaktische Funktionen, Kodierung von Mitteilungen, Affektiver Einbezug (de la Motte-Haber / Emons 1980: Inhalt Kapitel VII ‚Musik und Zuschauer‘) Nach Möglichkeit wird auf die Musik hingewiesen, wenn sie nicht zeitgleich zu den Dialogen läuft. Das hat auch damit zu tun, dass zu diesem Zeitpunkt Platz für die Untertitel vorhanden ist. Die Untertitel bei den nachfolgenden Beispielen ähneln Geräuschuntertiteln. Abbildung 51: Musik ohne Text 1 Abbildung 52: Musik ohne Text 2 Mal kurz nachdenken … Das könnte man sicher auch in diesen Fällen anders machen, oder? Man könnte jeweils das Musikstück angeben, das geht natürlich auch hier. Man muss abwägen, wie präzise es sein soll bzw. sein muss. Statt „Tanzmusik“ ist hier auch „Tanzmusik der 1940er“ möglich. Übereifer, der zu zu ausführlichen Untertiteln führt, bringt nichts. Die intralinguale Untertitelung von Musik richtet sich nicht immer ausschließlich an Hörgeschädigte. Anhang 1, Musik mit Gesang , behandelt den Einsatz von Untertiteln bei Liedern und Songs, die auch für Hörende interessant sind (siehe auch Kapitel 2.6). 51 Wie Hörgeschädigte mit einem Cochlea-Implantat Musik wahrnehmen, kann man hören, unter www.kfs.oeaw.ac.at/ index.php? option=com_content&view=article&id=496: hearing-with-cochlear-implants&catid=181: psychoacoustics-a-experimental-audiology&Itemid=513&lang=de. Hörende können die Musikstücke oft erst an charakteristischen Stellen erraten. 18231_Juengst_SL4�indd 233 18231_Juengst_SL4�indd 233 19�08�2020 12: 40: 02 19�08�2020 12: 40: 02 234 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte Mal kurz nachdenken … Wie könnte man das machen, wenn der Text nicht wichtig ist? Und interessiert das wirklich nur Hörgeschädigte? Abbildung 53: Opernsängerin Vielleicht inspiriert Sie die Opernsängerin auf dem Bild. Nach den Richtlinien der Rundfunkanstalten stehen bei einem Gesangsstück mit für den Film unwichtigem Text oder bei einer Überschneidung mit Dialogen im Untertitel Angaben wie *Interpret: Song*. Solche Informationen findet man auch im Videotext. Es gibt dort eine spezielle Seite, auf der die im Tatort verwendeten Musikstücke aufgelistet werden, denn solche Informationen interessieren auch Hörende („Wie heißt der Song nochmal? “). Liedtexte, die wichtig erscheinen, werden dagegen oft in den Untertiteln wiedergegeben und nutzen ebenfalls auch Hörenden. Außerdem wird entweder durch eine kleine Note oder durch das Zeichen # [Liedtext] # (wie in den Richtlinien Anhang 1) angezeigt, dass jemand singt. Mal kurz nachdenken ... Warum muss man die gesungenen Texte in irgendeiner Form in die Untertitel integrieren, wenn der Interpret im Bild ist? Wenn man Lippenbewegungen sieht, sollte der Text in den Untertiteln stehen. 116. Wann ist die Wiedergabe von Liedtexten gerade bei intralingualen Untertiteln schwierig? Eine Sonderform der Untertitelung ist die der jeweiligen Landeshymnen bei internationalen Sportwettkämpfen oder bei Siegerehrungen. Man kann über eine Extraseite die Hymnentexte aufrufen und mitsingen. Inzwischen gibt es im ARD-Videotext eine Seite „Liedtexte“ 18231_Juengst_SL4�indd 234 18231_Juengst_SL4�indd 234 19�08�2020 12: 40: 03 19�08�2020 12: 40: 03 235 7.6 Untertitel für Hörgeschädigte als Text: Richtlinien (774), die man im Verzeichnis auch unter dem Stichwort „Karaoke“ findet. Wenn man diese Seite anwählt, erscheinen die Untertitel automatisch nur bei bestimmten Songs. 117. Wann ist es sonst sinnvoll, den Liedtext in den Untertiteln wiederzugeben? Ein Sonderfall der intralingualen Untertitelung von gesungener Musik sind die eben erwähnten Karaoke-Untertitel. Sie sind eigentlich für Hörende gedacht, stellen aber auch ausgezeichnete Untertitel für Hörgeschädigte dar. 118. Warum eignen sich gerade diese Untertitel so gut für Hörgeschädigte? Der Begriff „Karaoke“ kommt aus dem Japanischen und bedeutet „leeres Orchester“. In Karaoke-Bars können die Gäste sich Mikrophone ausleihen, an Karaoke-Computern ihre Lieblingssongs einstellen und lautstark mitsingen. Bei Opern sind Karaoke-Untertitel nicht üblich, aber bei Musikvideos und Filmsongs bekommt man sie durchaus. Typisch sind Karaoke-Untertitel bei japanischen Trickfilmen, besonders für die im Kapitel zur interlingualen Untertitelung erwähnten Fansubs zu Anime. Hier kann der europäische Zuschauer den japanischen Karaoke-Text neben einer Übersetzung und einer Transkription in das lateinische Alphabet verfolgen. Karaoke-Untertitel enthalten den vollständigen Songtext, keine Kürzungen und keine Umschreibungen. Sie erleichtern das Mitsingen, denn sie markieren auch, an welcher Stelle der Sänger gerade ist. Dies geschieht durch mehrere typische Verfahren. Einerseits gibt es den „springenden Ball“, der über dem Text erscheint und jeweils von einer zu singenden Textsilbe zur nächsten springt. Das zweite Verfahren besteht darin, dass die bereits gesungenen Silben eine andere Farbe annehmen. Diese Technik ist heute häufiger. Man findet aber auch Karaoke-Untertitel, bei denen die zu singenden Silben im Fettdruck oder in einer anderen Schriftart erscheinen, die dann wieder verschwindet. Schon dadurch, dass die japanische Bezeichnung sich durchgesetzt hat, empfinden wir heute Karaoke als eine ur-japanische Sitte. Filme zum Mitsingen gibt es aber schon lange und keineswegs nur in Japan. Der „springende Ball“ hatte seinen ersten Auftritt bereits 1924 in den USA: Das zweite wichtige Produkt [der Fima Fleischer] waren die Song Cartunes . Das waren weiß auf schwarz geschriebene Texte bekannter Lieder, wobei ein weißer Kreis, der Bouncinʼ Ball, von Silbe zu Silbe hüpfte und dem mitsingenden Publikum den Rhythmus vorgab. Dieser Kreis wurde nicht animiert, sondern war die Spitze eines Leuchtstabes, der hinter einer geschwärzten Glasplatte bewegt wurde. Der erste Song Cartune, ‚Good bye my lady love‘, hatte 1924 schon Premiere. (Luther 1982: 31-46) 18231_Juengst_SL4�indd 235 18231_Juengst_SL4�indd 235 19�08�2020 12: 40: 04 19�08�2020 12: 40: 04 236 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte 7.7 Live-Untertitelung und Re-Speaking Viele Sendungen im Fernsehen werden live übertragen. Oft sind es gerade diese Sendungen, die für das soziale Leben eine große Rolle spielen, seien es Nachrichtensendungen oder Sportereignisse. Solche Sendungen sind wichtig für die Teilhabe am gesellschaftlichen Leben - auch wenn man keine barrierefreie Vermittlung benötigt. Live-Untertitel werden heute praktisch immer in den Funkhäusern selbst erzeugt; es gibt aber auch Untertitelungsfirmen, die Live-Untertitelung als Serviceleistung anbieten. Die Übertragung von [live] gesprochener in geschriebene Sprache ist nicht immer einfach: Another constraining factor of subtitling results from the spoken word containing dialectal and sociolectal features which are extremely difficult to account for in writing. Whereas spoken language tends to contain unfinished sentences along with redundant speech and interruptions, writing has a higher lexical density and a greater economy of expression. In addition, written translations of spoken language often display a tendency toward nominalisation, whereby verbal elements are turned into nouns. Hence it is difficult to retain the flavour of the spoken mode in subtitles. When it comes to keeping the register and appropriateness of the SL-version dubbing can undoubtedly be at an advantage. (Tveit 2009: 88) Unter Live-Untertitelung versteht man, dass die Untertitel einer Fernsehsendung im Moment des Sendens erzeugt werden. Heute, mit der inzwischen ausgezeichneten Spracherkennungssoftware, wird Re-Speaking eingesetzt. Die beiden anschaulichsten Filme zum Thema kommen aus der Schweiz (www.youtube.com/ watch? v=FlIaMCoioV8, Einstein , und www.youtube.com/ watch? v=Z9SNPJ_adpI, Hallo SRF! vom 13.10.2017). Beim Re-Speaking spricht eine Sprecherin oder ein Sprecher den Text für die Untertitel direkt in ein Mikrophon; das Programm verwandelt die gesprochenen Texte in lesbare Untertitel. 119. Für welche Sendungen nutzt man wohl die Live-Untertitelung? Früher mussten die Spracherkennungsprogramme mühselig auf die einzelnen Sprecher eingestellt werden, doch heute hat sich das sehr vereinfacht: Ein paar Sätze reichen als Sprachprobe aus, um das Programm einzustellen, was Sprecherwechsel vereinfacht. Die Re-Speaker übernehmen allerdings mehr Aufgaben als nur das Einsprechen. Mal kurz nachdenken ... Welche wohl? Beim Re-Speaking wird der Text beim Einsprechen gekürzt und die Satzzeichen werden mit eingesprochen. Im Anschluss an jeden Untertitel wird dieser in einer Voransicht korrigiert und dann erst auf Sendung geschickt. Diese Arbeit wird oft unterschätzt, sie ist extrem anstrengend. Entsprechend erschöpft ist die junge Journalistin im oben angeführten Einstein - 18231_Juengst_SL4�indd 236 18231_Juengst_SL4�indd 236 19�08�2020 12: 40: 04 19�08�2020 12: 40: 04 237 7.7 Live-Untertitelung und Re-Speaking Beitrag, die sich als Re-Speakerin versucht. Charmanterweise hat der Beitrag zusätzlich hochdeutsche Untertitel zum schwyzerdütschen Ton. 120. An welche anderen Sprachmittleraufgaben erinnert Sie das Re-Speaking? Warum? Bei Fußballspielen etc. werden die Namen der Spieler extra im Re-Speaking-System gespeichert, um bei ausgefallenen Namen Fehler in der Untertitelung zu vermeiden. Nicht alles, was bei Live-Sendungen als Untertitelung erscheint, ist Re-Speaking. Bei vorbereiteten Untertiteln, die während des Sendevorgangs eingespeist werden, spricht man von Semi-Live-Untertitelung (Hezel 2009: 157) oder von einem hybriden Verfahren. Mal kurz nachdenken … Bei welchen Sendungen erwarten Sie das? Semi-Live-Untertitelung ist zum Beispiel typisch für im Fernsehen übertragene Gottesdienste, bei denen man die Liturgie schon vor der Übertragung vorbereiten kann. Ein gutes Beispiel für einen solchen Fernseh-Gottesdienst ist der Papstbesuch in Deutschland vor einigen Jahren. Die Messe selbst hat einen strengen Ablauf, und so konnten die Untertitel problemlos schon lange im Vornherein vorbereitet werden. Auch Predigttexte sind oft schon vorher verfügbar, müssen aber mit Vorsicht genutzt werden: Falls es zu Änderungen kommt, gilt das gesprochene Wort. 52 Solche sprachlich und inhaltlich komplexen Texte sind für eine echte Live-Untertitelung nicht geeignet und es ist im Interesse aller, dass sich hier keine Fehler einschleichen. Auch bei den Hauptnachrichten werden sowohl die Live-Untertitelung als auch die Semi-Live-Untertitelung genutzt. 121. Welche Teile kann man bei Fernsehnachrichten wohl gut vorbereiten? Welche Probleme kann es aber auch dabei geben? Anders als bei anderen Untertitelungsverfahren kommen bei der Live-Untertitelung relativ oft Dreizeiler vor, die einen großen Teil des Bildes verdecken. Mal kurz nachdenken … Warum macht man das und warum ist es nicht schlimm? 52 Generell zur vorproduzierten Untertitelung siehe https: / / www.daserste.de/ specials/ service/ vorproduktion-von-untertiteln100.html; zur Live-Untertitelung mittels Re-Speaking siehe https: / / www. daserste.de/ specials/ service/ live-untertitelung100.html und zu Methoden der Live-Untertitelung siehe https: / / www.daserste.de/ specials/ service/ weiterentwicklung-technischer-methoden100.html. Die Richtlinien finden sich hier in Anhang 1. 18231_Juengst_SL4�indd 237 18231_Juengst_SL4�indd 237 19�08�2020 12: 40: 05 19�08�2020 12: 40: 05 238 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte Es hat mit der Informationsdichte der untertitelten Sendung zu tun - bei Sendungen, die man zur Informationsgewinnung nutzt, werden Kürzungen nach Möglichkeit vermieden. Gerade bei Nachrichtensendungen ist dieses Verfahren unproblematisch, da der untere Teil des Bildes meist keine wichtigen Informationen enthält. Oft sieht man dort nur die Hände des Nachrichtensprechers und den Schreibtisch (Hezel 2009: 193). 122. Bei welcher Art von Sendung gilt dies ebenfalls? Da die Live-Untertitelung auf bestimmte Techniken und Arbeitsgeräte angewiesen ist, ist sie eine noch sehr junge Form der audiovisuellen Übersetzung. In einer nicht mehr verfügbaren Quelle gab die ARD noch 2010 an, Live-Untertitelung schon 1985 bei einem Fußballspiel eingesetzt zu haben (www.daserste.de/ programm/ untertitel_allround_dyn~ uid,rl4w7a- 8buthct515~cm.asp). Von 2010 stammt diese ebenfalls nicht mehr verfügbare Quelle, in der die damals übliche (und revolutionär neue) Live-Untertitelung mittels Tastatur beschrieben wurde: Der Redakteur fasst das gesprochene Wort aus dem Fernsehen in einem Untertitel zusammen und schickt ihn ab. Dabei ist gleichsam eine schnelle Auffassungsgabe und eine hohe Schreibgeschwindigkeit erforderlich. Als Variante davon kann man auch zwei Tastaturen mit zwei Redakteuren als eingespieltes Team einsetzen. Beide arbeiten gleichzeitig, verschriften abwechselnd die gesprochenen Sätze aus dem Fernsehen im ‚Reißverschlussverfahren‘. In der ARD wird dieses Verfahren bei der Untertitelung der politischen Talkshow ‚Anne Will‘ angewendet. Der Vorteil: Die kniffeligen Formulierungen der Politiker können recht präzise umgesetzt werden. Das intensive Schreiben auf der Tastatur ist kaum länger als 60 Minuten ohne Konzentrations- und Qualitätsverlust durchzuhalten. Diese Methode bietet sich also eher für kürzere Sendestrecken an. (www.daserste.de/ programm/ untertitel_allround_dyn~uid,rl4w7a8buthct515~cm.asp) Vorbereitete Textteile gibt es auch bei aktuellen Sportübertragungen und bei großen Shows (siehe auch Kapitel 5.4.1). Hier hilft eine kleine Datenbank, auf die man zurückgreifen kann, wenn gerade nichts passiert. So hat der Zuschauer, der auf Untertitel angewiesen ist, nicht das Gefühl, dass man ihm etwas vorenthält. Die Datenbank enthält zum Beispiel Hintergrundinformationen zu den einzelnen Sportlern, die eingeblendet werden können, wenn gerade nichts passiert. Beim Re-Speaking kommt es trotz der verbesserten Technik immer wieder zu lustigen Fehlern. 123. Können Sie erraten, was der Untertitel wirklich hätte enthalten sollen? 18231_Juengst_SL4�indd 238 18231_Juengst_SL4�indd 238 19�08�2020 12: 40: 06 19�08�2020 12: 40: 06 239 7.8 Gebärdensprachdolmetschen im AV-Bereich / Gebärdenspracheinblendung (Leichtathletik-EM, bei einem Laufwettbewerb) „Sizilien vorbei“ (ARD 06.08.2018) (Leichtathletik-EM) „Er wirft den Späher.“ (ebd.) (Leichtathletik-EM) „Dies ist seine Songbestleistung.“ (ZDF 09.08.2018) „Man sieht hier Gewitter Schwarten.“ (Wettervorhersage SWR III 06.08.2018) (Skispringen) „Das Springen in Sakkopanne.“ (ARD 23.02.2019) (Skispringen) „Man muss auch Frau Stefan den Hut ziehen.“ (ARD 23.02.2019) Tabelle 12: Re-Speaking-Probleme Selbstverständlich ärgert man sich als Re-Speaker, wenn so etwas passiert. Aber die meisten Fehler, die hier aufgeführt werden, sind nicht schlimm, sondern amüsieren die Zuschauer. 124. Welche? Und warum nicht? Noch ein entzückendes Beispiel von der Übertragung des Mainzer Rosenmontagszugs 2019: „Die Säufer in Gegenrichtung.“ Das klingt eigentlich realistisch. Aber ein Buchstabe ist falsch. Aus „Moguntia“ wurde „Mugunzia“. Das hätte man schon als Shortcut speichern können … 7.8 Gebärdensprachdolmetschen im AV-Bereich / Gebärdenspracheinblendung Es handelt sich hier nicht um eine Übersetzung, sondern um eine Verdolmetschung, wie bei anderen Formen des Mediendolmetschens. Neben der klassischen Untertitelung gibt es auch bei der audiovisuellen Übersetzung die Möglichkeit, einen Gebärdensprachdolmetscher einzusetzen. Oben wurde bereits erwähnt, dass Gebärdenspracheinblendungen bei den Hauptsendungen von Tagesschau und heute auf Phönix gesendet werden. Trotzdem werden diese Nachrichtensendungen parallel zur Gebärdensprachversion untertitelt. Auch Erfolgssendungen wie die Sendung mit der Maus haben in der Mediathek beides (und zusätzlich eine Audiodeskription für Blinde und Sehgeschädigte). 125. Warum werden beide Übersetzungsformen gleichzeitig angeboten? Würde nicht eine reichen? Gebärdensprachdolmetscher werden aber nicht nur im Fernsehen eingesetzt. Im Internet findet man viele Filmdokumente, bei denen Gebärdensprachdolmetscher eingeblendet werden. So kann man sich dort auch Radiosendungen mit Gebärdensprachdolmetscher 18231_Juengst_SL4�indd 239 18231_Juengst_SL4�indd 239 19�08�2020 12: 40: 06 19�08�2020 12: 40: 06 240 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte ansehen und anhören. Die Angebote variieren, waren teilweise aber schon in den frühen 2000ern verfügbar. Das Internet hat sich überhaupt zu einer hervorragenden Kommunikationsplattform für Hörgeschädigte, Sehgeschädigte und Menschen ohne Sinnesbehinderungen gleichermaßen entwickelt. Dies führt natürlich auch dazu, dass Interessengruppen hier versuchen, hör- und sehgeschädigte Zielgruppen direkt zu erreichen. Inzwischen nutzen Parteien vor den Wahlen die Möglichkeit, Wahlwerbespots mit Gebärdensprache ins Internet zu stellen. Schauen Sie sich diese Spots an! Was fällt Ihnen an den jeweiligen Gebärdensprachdolmetscherinnen auf ? Auch Songtexte können mit DGS verständlich gemacht werden. Laura Schwengber hat damit eine gewisse Berühmtheit erlangt. Wer sich ansieht, wie sie die Songs nicht nur dolmetscht, sondern tanzt, kann das verstehen (www.lauramschwengber.de/ dolmetschen. html). Gebärdensprachdolmetscher haben einen Vorteil den meisten Untertitlern gegenüber: Sie sind tatsächlich bikulturell, haben Anteil an der Kultur der Gehörlosen ebenso wie an der der Hörenden. Für Untertitler, die Rat brauchen, sind sie daher auch ideale Ansprechpartner. Doch auch hier gilt: Nicht jeder mag eine Verdolmetschung: Es sind quasi zwei Filme, die dann laufen. Einmal der Film und einmal der Dolmetscher, der dann übersetzt. Der Gebärdensprachdolmetscher bewegt sich ja. Die Schrift ist immer etwas gleichbleibendes. Aber der Dolmetscher ist aktiv dabei, das sind zwei visuelle Sachen, die nebeneinander herlaufen. Ich glaube, dann müsste man sich entscheiden, gucke ich den Film oder gucke ich mir den Dolmetscher an. (Gruppendiskussion Gebärdensprache) (TU 99) Das Horizon-2020-Projekt Content4All setzt 3D-Avatare als Gebärdensprachdolmetscher ein (http: / / content4all-project.eu/ about). Auch hier hält die Digitalisierung also Einzug. 7.9 Sonderfall Kinder als Zielgruppe In den letzten Jahren wurden mehrere ausführliche Beiträge zur Untertitelung für gehörlose und hörgeschädigte Kinder veröffentlicht. Jennewein (2016) und Kramer (2016) führten Untersuchungen in Deutschland durch, Tamayo (2016) in Spanien. Eine ausführliche Untersuchung von Mälzer und Wünsche wurde gerade abgeschlossen (Mälzer / Wünsche 2019a, 2019b). Die auf Grundlage dieser Untersuchung erstellten Handlungsempfehlungen sind hier in Anhang 2 angeführt. Viele Bedürfnisse und Wünsche der Zielgruppe Kinder unterscheiden sich nicht von der Zielgruppe Erwachsene. Untertitel müssen hilfreich sein, nicht störend. Es sollen auch praktisch dieselben Inhalte wiedergegeben werden. Ausnahme ist die Kommentierung 18231_Juengst_SL4�indd 240 18231_Juengst_SL4�indd 240 19�08�2020 12: 40: 07 19�08�2020 12: 40: 07 241 7.9 Sonderfall Kinder als Zielgruppe der Sprechweise, die bei gehörlosen Kindern für mehr Verwirrung als für Klarheit sorgte (Mälzer / Wünsche 2019: 17). Hier spielt sicher das Erlernen der Textsorte Untertitel eine Rolle. Eine Sprechweise oder begleitende Emotionen, die man aus dem Bild erschließen kann, benötigt man auch in Untertiteln für Erwachsene nicht. 126. Diese Zielgruppe bietet Formen der Heterogenität, die man bei Erwachsenen in diesem Ausmaß nicht findet. Welche könnten das sein? Kinder lesen langsamer als die meisten Erwachsenen. Das gilt nicht nur für gehörlose und hörgeschädigte Kinder, sondern auch für Leseanfänger generell und die am Anfang dieses Kapitels erwähnten sprachlichen Minderheiten. Auch wenn heute beim Lesenlernen vorrangig Ganzheitsmethoden eingesetzt werden, neigen Kinder dazu, schwierige oder seltsame Wörter Buchstabe für Buchstabe zu entziffern. 127. Wo könnten Sie Informationen über den typischen Lese-Wortschatz verschiedener Altersgruppen finden? 128. Wie würden Sie folgende Wörter in UT für gehörlose Kinder wiedergeben? Cornichon (kommt bei Käpt’n Blaubär vor), Große Hufeisennase, Doppelstockbus, Schokoladenfruchtzwerg? Bisher wurde in der Arbeit von Zarate und Eliahoo (2014) festgestellt, dass Schriftgröße, Schriftart, längere Standzeit, die Wiederholung schwieriger Wörter und ein reduzierter Textumfang die Lesbarkeit von Untertiteln bei Kindern nicht positiv beeinflussen. Dieses Ergebnis wird von Mälzer / Wünsche zwar bestätigt, die Zielgruppe reagierte jedoch positiver auf eine langsamere Präsentation der Untertitel (Mälzer / Wünsche 2019a: 12). Tamayo beispielsweise verwendete bei ihrer Untersuchung 12 cps (Zeichen / Buchstaben pro Sekunde) als Grundlage (2016: 279). Probieren Sie diese Standzeit mit einer beliebigen Kindersendung aus! Wie stark müssen Sie kürzen? Durch diese Kürzungsarbeit und notwendige Umformulierungen ist die Erstellung von Untertiteln für Gehörlose und Hörgeschädigte für Kinder extrem zeitaufwendig: KiKA überträgt seit seinem Sendestart 1997 im KiKA-TEXT (Seite 150) die Untertitel für hörgeschädigte Kinder. Dort werden die Dialoge und Kommentare als Text hinterlegt. Allerdings ist auch hier der Anteil an Fernsehsendungen, die für Kinder im Alter von Drei bis Dreizehn mit Untertiteln produziert werden, gering. Denn im Vergleich zu Erwachsenen sind Lesekompetenz 18231_Juengst_SL4�indd 241 18231_Juengst_SL4�indd 241 19�08�2020 12: 40: 08 19�08�2020 12: 40: 08 242 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte und später Lesegeschwindigkeit der jungen Zielgruppe noch eingeschränkt. Außerdem ist die Aufnahmekapazität von Wörtern, die gelesen werden, geringer als die des gesprochenen Wortes. Deshalb müssen ganze Dialoge für Untertitel neu bearbeitet und gekürzt werden. Dabei müssen die Redakteure darauf achten, dass keine Verfremdung entsteht oder der Sinnzusammenhang verloren geht. In den Texten müssen außerdem akustische Effekte, Geräusche oder Musik erklärt werden. Nur so kann das Zuschauerkind hineingenommen werden in die Dramaturgie des Geschehens. Ein Redakteur braucht für zehn Minuten Filmmaterial etwa einen achtstündigen Arbeitstag. (www. kika.de/ erwachsene/ ueber-uns/ auftrag/ barrierefreie-angebote-100.html#) 2015 gab es im Mittel 21.441 gehörlose Kinder in Deutschland ( Jennewein 2016: 17); 1999 wurde der Anteil an Kindern mit Hörbeeinträchtigung auf 20.000 bis 35.000 geschätzt (ebd.). So klein eine solche Zielgruppe zunächst erscheinen mag - auch sie hat selbstverständlich das Recht auf den Zugang zu geeigneten Medien. Jennewein beschreibt einige Eigenheiten der Zielgruppe. So legen viele Kinder und Jugendliche eher Wert darauf, dass die Sendungen unterhaltend sind als dass sie untertitelt sind ( Jennewein 2016: 49): Hinweise dafür, dass das Rezeptionserleben auch gänzlich ohne Ton sehr intensiv sein kann und die Toleranzgrenze der Kinder diesbezüglich teilweise sehr hoch ist, zeigt eine Situation unter den schwerhörigen Grundschülern am Tablet. Während der elfjährige Paul (sh) den anderen Gruppenmitgliedern ein Let’s-Play-Video seines Little Big Planet -Helden Sackboy zeigt, fällt keinem der Kinder zunächst auf, dass der Ton des Tablets nicht eingeschalten ist. Allein der visuelle Content des Videos zieht die Kinder in seinen Bann. ( Jennewein 2016: 59) Haltung UT gegenüber: teilweise Inkompetenz, teilweise Aversion, teilweise selektiv, bei Hörgeschädigten, die gerade mal etwas nicht verstanden haben. ( Jennewein 2016: 65) Ein Thema, das in diesem Kapitel bisher nicht angesprochen wurde, ist das gemeinsame Schauen von Filmen oder Fernsehsendungen, Hörgeschädigte und Hörende als gemeinsames Publikum. Hörgeschädigte Kinder haben dabei oft das Gefühl, die anderen mit ihren Bedürfnissen zu belasten und schauen lieber in einem separaten Raum fern ( Jennewein 2016: 63): Cm: aber meiste- Aber meistens guck ich alleine. Y1: du schaust auch meistens alleine, hat das nen bestimmten Grund? Cm: sie machen (stöhnt) manchmal den Fernseher zu leise, deswegen ich hör kaum was dazu. / / mhm/ / (2) bei mei=m Bruder ist das auch immer so. Y1: dein Bruder, hört dein Bruder auch normal? Cm: [nickt] nur ich, ich bin der einzige der mit Hör- Hörgeräten hört Dm: ich auch (Rs2/ sh, Z. 759-765) ( Jennewein 2016: 57) Mal kurz überlegen … Jennewein hat bei ihrer Befragung gehörloser und hörgeschädigter Kinder auch gefragt, welche Gestaltungsideen für Untertitel für Kinder diese haben. Haben Sie welche? 18231_Juengst_SL4�indd 242 18231_Juengst_SL4�indd 242 19�08�2020 12: 40: 08 19�08�2020 12: 40: 08 243 7.10 Ein paar kleine Extras … was man sonst noch mit Untertiteln tun kann … Bei Jennewein werden diese Ideen als Zeichnungen der befragten Kinder äußerst anschaulich wiedergegeben ( Jennewein 2016: 69-72). Ganz vorne rangiert der Wunsch nach einer farblichen Unterscheidung der Figuren (auf Seite 70 übrigens ein verliebtes Paar auf einer Parkbank). Dabei gingen einige Kinder noch einen kreativen Schritt weiter und wünschten sich eine Farbzuordnung zu der Kleidungsfarbe der Figuren (70). Auch Untertitel in Sprechblasen neben den sprechenden Figuren wurden vorgeschlagen (71). Mälzer / Wünsche stellten bei ihrer Befragung ebenfalls fest, dass eine deutliche Sprecherkennzeichnung bzw. Sprecheridentifikation durch die Positionierung der Untertitel oder durch passende Farben (Kleidung, Haare) von der Zielgruppe gewünscht wird (Mälzer / Wünsche 2019b: 16). Dazu kommt bei Jennewein der Wunsch nach einfacheren Synonymen bzw. nach einer Umschreibung oder Erklärung schwieriger Wörter (73). Mal kurz nachdenken … Wo haben Sie eben gelesen, dass das gar nichts bringt? Beim Verweis auf die Untersuchung von Zarate und Eliahoo (2014). Auch Mälzer / Wünsche stellten fest, dass die Zielgruppe Auslassungen gegenüber Paraphrasen bevorzugt (2019b: 14). Bei den Beispielen in der Übung oben sind Auslassungen jedoch schwierig. Eine kurze Anmerkung zum Gebärdensprachdolmetschen im Fernsehen für Kinder: Das Projekt Content4All richtet sich mit seinen Gebärdensprachavataren selbstverständlich auch an Kinder (http: / / content4all-project.e/ about/ ). 7.10 Ein paar kleine Extras … was man sonst noch mit Untertiteln tun kann … Nicht alles, was man mit Untertiteln tun kann, wird absichtlich getan. Bei der Vereidigung der österreichischen Regierung im März 2020 wurden in der ORF-Mediathek versehentlich falsche Untertitel zugeschaltet - nämlich die zu einer Soap (www.tagesspiegel. de/ gesellschaft/ medien/ regierungsvereidigung-mit-falschen-untertiteln-hoffentlich-haelt-die-strumpfhose/ 25400044.html). Das Seltsamste an der Geschichte ist, dass die Untertitel an vielen Stellen völlig überzeugend wirken, wenn auch etwas skurril. Dieser Lapsus regte die Macher der Politsendung quer im BR dazu an, einen Dialog zwischen dem Moderator und aufmüpfigen Untertiteln an den Bericht anzuschließen ( quer vom 09.01.2020). 53 Das folgende Beispiel ist mehr als ungewöhnlich. Der Nachrichtensprecher sagte wie an jedem Abend: „Und heute abend begrüßt Sie meine Kollegin Soundso.“ Leider konnte 53 Die Sendung ist in der BR-Mediathek zu finden (www.br.de/ mediathek/ video/ quer-09012020-alleingegen-die-versicherung-instagram-touristen-in-bayern-quer-jahresvorschau-av: 5dd55fd7abe6fd001accce8f). 18231_Juengst_SL4�indd 243 18231_Juengst_SL4�indd 243 19�08�2020 12: 40: 08 19�08�2020 12: 40: 08 244 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte ich den Untertitel nicht so schnell perfekt mitschreiben, und der Sender konnte mir nicht helfen. Aber er lautete ungefähr so: … begrüßt Sie die unvergleichliche, liebliche … (SWR RLP Landesschau 13.06.2019, gegen 19.55 Uhr) Die Lippenbewegungen des Sprechers vermeiden, dass man ihm diese Äußerung zurechnet. Eine belle infidèle in freier Wildbahn! Wer noch immer an dem Sinn von Untertiteln gezweifelt hat, ist jetzt sicher eines Besseren belehrt. 7.11 Forschung und weiterführende Literatur Mit Hezel (2009) und Neves (2005) liegen zwei ausführliche Forschungsarbeiten über die Untertitelungspraxis und die Haltung der Zielgruppe dazu in Deutschland bzw. Portugal vor. Auch wenn die Vorgaben teilweise überholt sind, sind die Ergebnisse auch heute noch relevant. Das Re-Speaking spielt auf praxisorientierten Fachtagungen eine größere Rolle als in der Forschung. Besonders beliebt ist dieses Thema in Italien (Stichwort „respeakeraggio“). Dazu z. B. Eugeni (2006b und 2007). Walter (2012) vergleicht Re-Speaking und Dolmetschen, 2019 fand an der Universität Wien eine Re-Speaking-Tagung statt. Eine kognitionswissenschaftliche Studie zum Thema Re-Speaking bieten Szarkowska / Krejtz / Dutka / Pilipczuk (2016). Sprachvarietäten und Untertitelung für Gehörlose und Hörgeschädigte stehen im Mittelpunkt von Jiménez Carra (2016), die Lesekompetenzen von Hörgeschädigten untersucht Aleksandrowicz (2019). Richardson (2017) beschäftigt sich mit der Gehörlosenuntertitelung im Theater. Gehörlose Kinder als Zielgruppe für intralinguale Untertitel haben in den letzten Jahren bei Forschern eine hohe Aufmerksamkeit auf sich gezogen. Dazu gehören die MA-Arbeiten von Kramer (2016) und Jennewein (2016), beide in einem Projekt an der Philosophischen und Erziehungswissenschaftlichen Fakultät der Universität Erfurt entstanden, sowie Sala Robert (2012). Der Forschungsbericht von Bosse und Hasenbrink (Aktion Mensch 2016) zur Mediennutzung von Menschen mit Behinderungen enthält Informationen zu unterschiedlichen Zielgruppen und Verfahren. Aus dem übersetzungswissenschaftlichen Bereich ist Tamayo (2016) zur Lesegeschwindigkeit gehörloser Kinder interessant. Dazu kommen die Ergebnisse der großangelegten Studie zur Untertitelnutzung bei gehörlosen Kindern von Mälzer et al. (2019). 7.12 Anhang: Richtlinien Viele der hier angeführten Richtlinien findet man auch im ESIST Code, der als Anhang zu Kapitel 2 abgedruckt ist. Vergleichen Sie! Anhang 1: Allgemeine Richtlinien Rundfunkanstalten www.daserste.de/ specials/ service/ untertitel-standards100.html 18231_Juengst_SL4�indd 244 18231_Juengst_SL4�indd 244 19�08�2020 12: 40: 08 19�08�2020 12: 40: 08 245 7.12 Anhang: Richtlinien Untertitel-Standards Untertitel schaffen Barrieren ab und sollen primär hörgeschädigten und gehörlosen Menschen Zugang zu den audiovisuellen Medien ermöglichen. Sie vermitteln denselben Kenntnisstand, den auch Hörende haben. Diese Sender haben sich auf Untertitel-Standards geeinigt-|-Bild: ARD Die neun Landesrundfunkanstalten der ARD, der ARD Text, ORF, SRF und das ZDF haben sich auf eine Reihe von Grundsätzen für die Darstellung von Untertiteln im deutschsprachigen Raum verständigt. Sie sollen die Basis der redaktionellen Arbeit sein. Weitergehende senderspezifische redaktionelle und gestalterische Vorgaben finden sich in den Styleguides der einzelnen Häuser. Form ▶ Untertitel bestehen aus maximal zwei Zeilen und werden als Textblock zentriert am unteren Bildrand ausgerichtet. ▶ Für besondere Formate können die Untertitel abweichend dargestellt werden, z.B. Sport / Fußballspiele: Untertitel am oberen Bildschirmrand ▶ Auf das sogenannte Scrolling wird verzichtet. Ende ▶ Am Ende einer Untertitelung wird ein UT mit den Herstellungs-Infos gesetzt, der mindestens Hersteller oder Auftraggeber und Produktionsjahr beinhaltet. Schriftgröße ▶ Wegen der besseren Lesbarkeit wird immer in doppelter Höhe (Videotext-Schriftgröße) untertitelt. Zeichen ▶ In einer Zeile werden maximal 37 Zeichen genutzt. 18231_Juengst_SL4�indd 245 18231_Juengst_SL4�indd 245 19�08�2020 12: 40: 09 19�08�2020 12: 40: 09 246 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte Standzeiten ▶ Die Standzeit richtet sich immer nach der Anzahl der Zeichen in einem Textblock. ▶ Die Mindeststandzeit beträgt eine Sekunde. ▶ Als Grundlage für die Berechnung der Standzeit gilt der Basiswert (Lesegeschwindigkeit) von 13-15 Zeichen/ Sekunde. ▶ Bei Kinder- und Jugendsendungen kann der Basiswert auch geringer angesetzt werden. ▶ In Ausnahmefällen (z. B. Musik) kann die Standzeit auch länger sein. ▶ Der Mindestabstand zwischen zwei Untertiteln beträgt ein Frame. ▶ Bei Live-Sendungen kann der Mindestabstand entfallen. Farben ▶ Farben dienen der Zuordnung von Sprechern und Stimmen, werden jedoch sparsam verwendet. Eingesetzt werden Weiß, Gelb, Cyan und Grün jeweils auf schwarzem Hintergrund (Box). Auf Rot und Blau wird wegen der schlechten Lesbarkeit ganz, auf Magenta nach Möglichkeit verzichtet. ▶ Für redaktionelle Hinweise (Bsp. Impressum) wird die Farbkombination weiß auf blau verwendet. ▶ Ist der Sprechende nicht im Bild oder ist die Art des Sprechens von Bedeutung, können Namen oder erklärende Angaben (z.B.: flüstert, mit tiefer Stimme) dem Text in Klammern vorangestellt werden - immer in der Farbe des Sprechers. ▶ Bei Verwendung von gleichen Farben wird ein Sprecherwechsel durch einen Spiegelstrich dargestellt. Einblendungen ▶ Einblendungen und Informationen wie z. B. Inserts sollen nach Möglichkeit frei stehen und nicht mit einem UT verdeckt werden. Synchronität ▶ Untertitel werden synchron zum Bild/ Ton eingeblendet. ▶ Schnitte werden beachtet. ▶ Möglichst lippensynchron untertiteln und so nah wie möglich am Originaltext bleiben. Orthografie ▶ Es gelten die Regeln der neuen deutschen Rechtschreibung (Dudenempfehlung). Selbsterklärendes ▶ Keine überflüssigen Untertitel, etwa über selbsterklärende Bildinhalte und Grafiken oder für jedermann erkennbare Szenen. 18231_Juengst_SL4�indd 246 18231_Juengst_SL4�indd 246 19�08�2020 12: 40: 09 19�08�2020 12: 40: 09 247 7.12 Anhang: Richtlinien Nichts verraten ▶ Untertitel sollen dem Hörgeschädigten denselben Kenntnisstand vermitteln, den auch Hörende haben, jedoch keinen Wissensvorsprung verschaffen. So darf die Farbgebung nicht schon auf den Mörder hindeuten, und der Untertitel darf z. B. nicht verraten, wer klopft, wenn man’s gar nicht sieht. Geräusche ▶ Beschreibende Untertitel werden in weiß auf schwarz dargestellt. Jeder Geräusch-Untertitel wird von zwei Sternchen eingerahmt. Musik: wie Geräusch. Musik mit Gesang: ▶ Untertitel: *Titel/ Interpret etc.* ▶ Liedtexte werden wiedergegeben, besonders wenn sie für die Handlung wichtig sind, idealerweise in der Originalsprache. ▶ # zu Beginn und am Ende des Liedtextes Abkürzungen ▶ Zulässig, wenn sie eindeutig und allgemein bekannt sind. Zahlen ▶ Ziffern von 1 bis 12 möglichst ausschreiben. ▶ Ausnahmen v. a. in Verbindung mit Zeit- und Maßangaben möglich. Stilistik ▶ Es wird immer die Originalsprache (O-Ton/ Voiceover/ Offsprecher) untertitelt. Sprachliche Eigenheiten bleiben erhalten. ▶ Wenn Dialekte übersetzt werden, beschreibender UT am Anfang, dann Hochdeutsch untertitelt. ▶ Schimpfwörter, Kraftausdrücke, Fremdwörter etc. bleiben erhalten. (Stand: April 2015) Mit freundlicher Genehmigung der Redaktion Barrierefreiheit der ARD im NDR Anhang 2: Empfehlungen für die Untertitelung für Kinder Kurzfassung der Handlungsempfehlungen aus der Studie der Universität Hildesheim (Mälzer / Wünsche 2019b: 22-23) 18231_Juengst_SL4�indd 247 18231_Juengst_SL4�indd 247 19�08�2020 12: 40: 09 19�08�2020 12: 40: 09 248 7 Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte C Handlungsempfehlungen auf einen Blick Zielgruppenspezifik Untertitel scheinen erst ab einem Alter von ca. zehn Jahren gewinnbringend für das Verständnis von Kindersendungen. Eine frühe Heranführung an Untertitel ist jedoch wünschenswert, sodass beim Untertiteln auch acht- und neunjährige Kinder im Blick sein sollten. Untertitelnutzung Die Bekanntheit und Beliebtheit von Untertiteln muss weiter ausgebaut werden. Hierzu sollten die Eltern und die Schulen einbezogen werden. Die Umsetzung von Maßnahmen zur Aufklärung der Eltern wie die Erstellung von Info-Broschüren, Webseiten, das Anbieten von Vorträgen oder Workshops für die Zielgruppe ist empfehlenswert. Wir stehen Ihnen für eine mögliche Durchführung gern unterstützend und beratend zur Seite. Untertitelgeschwindigkeit Empfohlene Untertitelgeschwindigkeit: 9 cps. Bei einer höheren Geschwindigkeit sind zwar keine Verständnisprobleme zu erwarten, jedoch eine ungünstige Aufmerksamkeitsverteilung zwischen Bild und Untertitel, bei der kaum Zeit für die Betrachtung des Bildes bleibt. Gelegentliche Überschreitungen der 9cps sind unproblematisch. Synchronität Einstiegszeit der Untertitel: bis zu zehn Frames vor dem Sprecheinsatz der Figuren, sofern es technisch-formale Vorgaben wie der Umgang mit Schnitten, Mindeststandzeiten und -abständen erlauben. Textkürzungen Es wird empfohlen durch Auslassungen statt durch Paraphrasen zu kürzen, da der größte Teil der Zielgruppe die Untertitel so positiver bewertet. Für Kinder, die zuhause DGS verwenden und gehörlose Kinder sind Paraphrasierungen unproblematisch. Figurenzuordnung Die wichtigsten Figuren werden in den Farben Gelb, Cyan und Grün dargestellt, Magenta wird nicht verwendet, da es unleserlich ist. Wenn möglich, bekommen die Figuren die Farben, die zu äußeren Merkmalen (z. B. Kleidung, Haarfarbe) passen. Der Untertitel wird unter der jeweils sprechenden Figur positioniert. Pro Zeile sollte nur eine Figur sprechen. Dialoge werden mit Dialogstrichen kenntlich gemacht. Bei Unklarheit über die sprechende Figur kann ihr Name in Klammern vor die Rede gesetzt werden. Kommentierung der Sprechweise In Klammern gesetzte Erläuterungen zur Sprechweise sollten weitestgehend vermieden werden, d. h. Emotionen werden im Untertitel nicht eigens beschrieben. Wenn Emotionen 18231_Juengst_SL4�indd 248 18231_Juengst_SL4�indd 248 19�08�2020 12: 40: 09 19�08�2020 12: 40: 09 249 7.12 Anhang: Richtlinien aus dem Bild ersichtlich werden, sollte der entsprechende Untertitel möglichst kurzgehalten werden. Medial vermittelte Rede wird mit einer Raute + Leerzeichen eingeleitet. Experimentelle Gestaltungsmerkmale Typografische Hervorhebungen sollten nicht verwendet werden, da sie keinen positiven Einfluss auf die Verständlichkeit haben und technisch nur umständlich umsetzbar sind. Komplexe Komposita, die sich außerhalb der Erfahrungswelt der Kinder befinden, sollten nicht mit einem Mediopunkt, sondern mit Bindestrich getrennt werden. Die Nutzung von Emojis stößt bei der Zielgruppe auf positive Resonanz. Zum jetzigen Zeitpunkt ist eine technische Umsetzung jedoch umständlich und der Einsatz daher nicht zu empfehlen. Mit freundlicher Genehmigung der Autorinnen 18231_Juengst_SL4�indd 249 18231_Juengst_SL4�indd 249 19�08�2020 12: 40: 09 19�08�2020 12: 40: 09 18231_Juengst_SL4�indd 250 18231_Juengst_SL4�indd 250 19�08�2020 12: 40: 09 19�08�2020 12: 40: 09 8 Games Ohne zumindest ein paar Hinweise auf das Wesen der Game-Lokalisierung ist eine Übersicht über die audiovisuelle Übersetzung heute nicht mehr vollständig. Es sei aber schon an dieser Stelle darauf hingewiesen, dass die Game-Lokalisierung trotz aller Parallelen eigenen Gesetzen gehorcht und dass eine wirklich umfassende Einführung in das Thema im Rahmen dieses Lehrbuchs nicht geleistet werden kann. Im Unterpunkt zur weiterführenden Literatur wird auf entsprechende Lehrwerke verwiesen. Wenn man sich die wissenschaftliche Literatur zum Thema anschaut, so stellt man rasch fest, dass die Schwerpunkte anders gelagert sind als es in der Literatur zu anderen Formen der AV-Übersetzung der Fall ist. Einerseits hat dies wohl damit zu tun, dass die Welt der Game-Übersetzung vielen Übersetzungswissenschaftlern und Übersetzungsdozenten fremd ist und dass sich das Gewerbe, anders als die Filmübersetzung, als Teil einer professionellen Lokalisierungsindustrie versteht. Andererseits hat die Game-Lokalisierung eben ausgeprägte Elemente der AV-Übersetzung. Reinen AV-Übersetzern erscheinen die Verfahren kompliziert, die Zahl der Beteiligten unübersichtlich; allenfalls die Abläufe erinnern an das vertraute Projektmanagement. Entsprechend hat die Literatur zur Game-Übersetzung noch immer ihren Schwerpunkt in Erläuterungen dazu, worum es überhaupt geht und welche Kompetenzen notwendig sind. Wenn sich das Thema stärker im Mainstream etabliert hat, werden auch andere Untersuchungsmethoden Fuß fassen. Denn die Game-Lokalisierung ist ein wirtschaftlich und kulturell wichtiger Bereich der Übersetzungsbranche: …[es] ist nicht zu leugnen, dass das Übersetzen einen besonders wichtigen Beitrag zum Erfolg der Videospielindustrie geleistet hat und nach wie vor leistet. Trotzdem sind Videospiele, deren Texte und Übersetzungspraxen Übersetzern und Translationswissenschaftlern nur wenig bekannt. (Kim 2019: 7) Die Game-Lokalisierung erzeugt nicht nur durch ihre Fremdheit Berührungsängste. Übersetzer jenseits der 40 haben fast ihr gesamtes Leben lang Debatten erlebt, in denen postuliert wurde, dass Games dumm oder gewalttätig machen. Games gelten bei vielen von ihnen geradezu als anrüchig. Die Generation, die mit Handy und Apps aufgewachsen ist, hat dagegen Game-Erfahrung, oft sogar umfassend und in unterschiedlichen Genres, und es gibt darunter eine ganze Reihe von Game-Fans. Die Herangehensweise an das Thema, sei sie wissenschaftlich, sei sie didaktisch, wird sich daher in den nächsten Jahren ändern. Noch heute bieten nur wenige Universitäten und Hochschulen für angewandte Wissenschaften überhaupt Kurse zur Game-Lokalisierung an. Die Liste der entsprechenden Institutionen in Bernal-Merino hat sich nur unwesentlich verändert (Bernal-Merino 2015: 230-233). Eigentlich schade, denn in der Game-Übersetzung geschieht hin und wieder etwas, das Übersetzer glücklich machen sollte: 18231_Juengst_SL4�indd 251 18231_Juengst_SL4�indd 251 19�08�2020 12: 40: 09 19�08�2020 12: 40: 09 252 8 Games Sometimes the planners are so impressed with changes to the translated version, they give us extra information or add extra scenes into the game to improve the presentation of the changes. It’s more like we’re planning the gaming together than translating. (Honeywood 2006, zitiert nach Bernal-Merino 2015: 59) 8.1 Definition Vor der Definition der Game-Lokalisierung steht die Frage, welche Bezeichnung für Games genutzt werden soll. Nach Zimmermann ist „digitale Spiele“ die korrekte wissenschaftliche Bezeichnung; er nennt außerdem „Computerspiele“ und „Videospiele“ (Zimmermann 2019: 9). Im Übersetzungsbereich wird aber fast immer von Games gesprochen, und die Branche selbst nennt sich „Games-Branche“ (GAME 2019). Auch bei der Übersetzung von Games ist meist von „Game-Lokalisierung“ oder „Games-Lokalisierung“ die Rede. Tarquini spricht in ihren Arbeiten ebenfalls von Games: Due to the variety of genres, experiences, forms and technologies that have evolved, there is no consensus about the naming and delimitation of video games as a scientific object of study (Newman, 2005). In this discussion, we will opt for the term video games, games tout court and entertainment software as synonyms of video games, and will borrow Salen and Zimmerman’s definition of the medium as: ‚an [electronic] system in which players engage in an artificial conflict, defined by rules, that results in a quantifiable outcome.‘ (2004: 80). (Tarquini 2014: page 2) In Definitionen der Game-Lokalisierung wird oft aufgezählt, was alles dazugehört, und die Komplexität der Aufgabe betont. So bei Bernal-Merino: … that these are the most complex examples of audiovisual translation, due to their multimedia and interactive characteristics. (Bernal-Merino 2015: 46) Sound, photos, videos and interactive three-dimensional environments support or contradict each other and the linguistic information given, creating a rich multichannel melange that works harmonically in the original product, but that can create serious communication problems if not interwoven equally well when translated into other languages. (Bernal-Merino 2015: 47) Game-Lokalisierung ist der Terminus, mit dem allgemein die Übersetzung von Games bezeichnet wird, aber auch die Übersetzung dazugehöriger Texte. Nicht nur die Praktiker, auch die Übersetzungswissenschaft tut sich mit Games noch schwer: Furthermore, the positioning of game localisation within the wider translation studies framework is still unclear. It has been considered by some scholars as a hybrid type of translation (Munday 2008; O'Hagan & Mangiron, 2013; Remael, 2010), because it combines features of other translation genres, mainly software localisation and AVT, but also literary and technical translation. (Mangiron 2018: 124-125). Die Termini Lokalisierung ( localization ) und Transkreation ( transcreation ) werden bei der Definition der Game-Lokalisierung immer wieder kombiniert. Lokalisierung hat sich durchgesetzt; dieser Bestandteil der Game-Übersetzung ist es auch, der sie am deutlichsten 18231_Juengst_SL4�indd 252 18231_Juengst_SL4�indd 252 19�08�2020 12: 40: 09 19�08�2020 12: 40: 09 253 8.1 Definition von anderen AV-Übersetzungen unterscheidet. Das bedeutet nicht, dass die Transkreation nicht auch eine Rolle bei der Game-Lokalisierung spielt. Zur Erinnerung: Der Ausdruck Lokalisierung wird zwar vorwiegend im Softwarekontext verwendet … aber eigentlich bezieht er sich generell auf die Anpassung von Produkten (auch von Prozessen und Inhalten, etwa von Webseiten) an die lokalen kulturellen und sprachlichen Gegebenheiten in einem Zielmarkt … (Schmitt 2016: 267) In diesem Wort - Trans-Kreation - kommt zum Ausdruck, dass ein Text 1. Von einer Sprache in die andere übersetzt wird (‚Translation‘) und 2. Zielsprachlich überarbeitet und adaptiert wird (‚Kreation‘). Es muss der Aufwand des Übersetzens und der Aufwand des Textens - des kreativen (Nach-)Schöpfungsprozesses - berücksichtigt werden. (Sattler-Hovdar 2016: 19, 25) Andere Bezeichnungen, die für die Transkreation gebraucht werden, sind adaptive Übersetzung (Adaption), kreative Adaption und Copy-Editing (Sattler-Hovdar 2016: 18). Das Verfahren ist nicht auf die Game-Lokalisierung beschränkt, sondern kann bei allen kreativen Texten vorkommen. Mangiron / O’Hagan weisen deutlich auf den Zusammenhang zwischen AV-Übersetzung und Game-Lokalisierung hin (Mangiron / O’Hagan 2013, passim). Game-Übersetzung kann man also in weiten Teilen als eine Mischung von AV-Übersetzung und Softwarelokalisierung beschreiben (eine Analyse der Elemente aus beiden bei Granell 2011: 191). Viele Aufgaben bei der Game-Lokalisierung können daher aus den Kapiteln zu Untertitelung, Synchronisation und Voice-over übernommen werden. Schließlich ist die Barrierefreiheit auch bei der Game-Lokalisierung ein wichtiges Thema. Eine ausführliche Liste zu den Möglichkeiten der barrierefreien Gestaltung von Games findet sich unter http: / / gameaccessibilityguidelines.com/ . Mal kurz nachdenken … Welche Aspekte könnten hier dazukommen, die weder bei der Audiodeskription noch bei der Untertitelung für Hörgeschädigte eine Rolle spielen? Spiele muss man nicht nur verstehen, sondern auch spielen können. Entsprechend muss auch für Barrierefreiheit bei Körperbehinderungen gesorgt werden, indem es auch Gelähmten möglich gemacht wird, die Controls zu bedienen. Auch Leichte Sprache spielt beim barrierefreien Zugang zu Games eine Rolle. Die Game Accessibility Guidelines teilen die Bereiche der Barrierefreiheit bei Games daher in folgende Bereiche ein: Motor (Bewegung), Cognitive, Vision, Hearing, Speech, General. Zu Letzterem gehört z. B. die Forderung, dass die Formen der Barrierefreiheit, die ein Game bietet, auf der Verpackung aufgeführt werden (http: / / gameaccessibilityguidelines.com/ ). Leider ist die barrierefreie Gestaltung von Games noch nicht selbstverständlich (vgl. Mangiron 2018: 127-128): Game accessibility has also received attention from a game design perspective by a group of scholars and game designers who are members of the International Game Developers' Game Accessibility Special Interest Group, who produced a number of game accessibility guidelines (Game 18231_Juengst_SL4�indd 253 18231_Juengst_SL4�indd 253 19�08�2020 12: 40: 09 19�08�2020 12: 40: 09 254 8 Games accessibility guidelines, n.d.) … In general, signing is not used in video games, although there is a recent virtual reality game, Moss (2018), the main character of which is a mouse who speaks using American Sign Language. (Mangiron 2018: 127-128) 8.2 Geschichte Anders als bei Filmen lag der Game-Übersetzung schon immer ein programmiertes Produkt zugrunde. Es gab keine analoge Phase wie beim Film. Die Games selbst haben sich aber im Laufe der Zeit verändert. Sprachliche Elemente kamen in unterschiedlichen Formen dazu, was unterschiedliche Formen der Übersetzung notwendig machte und die Aufgaben der Übersetzer erweiterte. Bernal-Merino (2015) bietet eine Übersicht der Game-Entwicklung und der dazugehörigen Entwicklung der Game-Lokalisierung von den 1970ern bis in die 2010er. Mal kurz nachdenken … Welche alten Spiele kennen Sie? Die Frage richtet sich an Dozenten ebenso wie an Studierende. Wenn wir an die ersten Games denken, denken wir an PONG oder Space Invaders . Letzteres stammt von 1978. Abgesehen von Begriffen wie „High Score“ war Sprache nur in der Anleitung enthalten, nicht im Spiel selbst (Bernal-Merino 2015: 158). Das beliebteste Beispiel aus diesem Jahrzehnt ist Pac-Man , der im japanischen Original Puck-Man (Aussprache: pack) heißt (etwa „Fresserchen“) … Mal kurz nachdenken … Warum heißt er denn im Westen Pac-Man? … und aus Angst vor obszönen Anspielungen im englischsprachigen Zielmarkt den neuen Namen erhielt (Mangiron / O’Hagan 2013: 49). In den 1980ern kamen neue Geräte auf, nämlich die Spielkonsolen. Die Spiele wurden elaborierter - Super Mario , Legend of Zelda . Bernal-Merino weist darauf hin, dass Verpackung, Spielanleitungen und sonstige Doku übersetzt wurden, der In-Game-Text jedoch englisch blieb (Bernal-Merino 2015: 163). Dieses System wird als Box-and-Docs-Übersetzung bezeichnet (Chandler / O’Malley Deming 2012: 9). Das kann man natürlich gut üben! Vielleicht sind Sie etwas enttäuscht von dieser Aufgabe. Aber Spielanleitungen und Spielverpackungen gibt es zuhauf. (Zhang 2018) In den 1990ern kam das System der partiellen Lokalisierung ( partial localization ) auf (Bernal-Merino 2015: 164). Darunter versteht man, dass In-Game-Text übersetzt wird, allerdings nur der im User Interface, also auf dem Bildschirm, sichtbare. Audios werden nicht über- 18231_Juengst_SL4�indd 254 18231_Juengst_SL4�indd 254 19�08�2020 12: 40: 10 19�08�2020 12: 40: 10 255 8.2 Geschichte setzt (Chandler / O’Malley Deming 2012: 9), Untertitel sind nicht Standard. In den 1990ern beginnt aber auch die Entwicklung von digitalen Rollenspielen und generell von Spielen, bei denen Sprache eine Rolle spielt (vgl. Bernal-Merino 2015: 166-167). Die 2000er sind eindeutig das Jahrzehnt von World of Warcraft . Dieses Spiel war und ist stilprägend, mit seiner Fantasy-Welt, den typischen Charakteren und den typischen Spielelementen wie z. B. schützenden Talismanen und mit einer großen Menge an sprachlichen Elementen. Doch auch technisch gehört WoW zur damaligen Games-Avantgarde: Es handelt sich um ein onlinebasiertes Spiel, das man abonnieren muss, um dann mit und gegen andere Abonnenten zu spielen. Diese Spiele nennt man MMO ( massively multiplayer online ) (vgl. dazu Bernal-Merino 2015: 168-169). In den letzten beiden Jahrzehnten ging die Entwicklung von der partial localization zur full localization : „A full localization includes translating the text, voiceover, manual, and packaging.“ (Chandler / O’Malley Deming 2012: 10). Bei dieser Methode kommen die AV-Übersetzungsverfahren wirklich zum Tragen. Mit Voice-over ist bei Games allerdings die Synchronisation gemeint, und bei der Game-Lokalisierung selbst existiert ein Terminologiesalat, der an den beim Voice-over erinnert (siehe auch Kapitel 4.1): In addition, terminological variation is present in this case, as the dubbing of games is referred to in the industry as voice-over (e.g., Chandler, 2005 and Chandler & Deming, 2012) or audio localisation (Bernal-Merino, 2014; O'Hagan & Mangiron, 2013; Sioli, Minazzi & Ballista, 2007). (Mangiron 2018: 126) Die Menge an Genres auf dem Games-Markt ist heute fast nicht mehr zu überblicken. Eine Tabelle in Mangiron / O’Hagan (2013: 68) listet nach der Auswertung unterschiedlicher Quellen 13 unterschiedliche Genres auf. Parallel zu den Entwicklungen neuer Genres kam die Verbreitung von Games auf unterschiedlichen Endgeräten. PC, Handy, Konsole - alle haben unterschiedliche technische Voraussetzungen (dazu Bernal-Merino 2015: 236). Auch Mangiron / O’Hagan weisen auf dieses Problem hin: The problem of space constraints is even more acute in games for handheld platforms and in games for mobile phones, due to their smaller screens. (Mangiron / O’Hagen 2013: 131) Mal kurz nachdenken … Wie sollte ein gutes Handy-Game aussehen? Trotz der heutigen fabelhaften Display-Auflösung: Spiele für Handys sollten nicht zu detailreich sein. Man muss mit dem dargestellten Bildausschnitt spielen können. Es ist auch nicht schlecht, wenn man diese Spiele ohne Ton spielen kann, auch wenn Spieler im Zug etc. meist Kopfhörer tragen. Spielen Sie selbst? Was und wie oft? Machen Sie eine Befragung in Ihrer Arbeitsgruppe! 18231_Juengst_SL4�indd 255 18231_Juengst_SL4�indd 255 19�08�2020 12: 40: 10 19�08�2020 12: 40: 10 256 8 Games 8.3 Arbeitsablauf 8.3.1 Kompetenzen des Game-Übersetzers Die Kompetenzen des AV-Übersetzers wurden, wie im Kapitel zur interlingualen Untertitelung zitiert, von Gottlieb sehr poetisch beschrieben. Auch der Game-Übersetzer benötigt eine Vielzahl von unterschiedlichen Kompetenzen. Wie wichtig eine gute Übersetzung von Games ist, zeigt sich an den immer wieder kolportierten Schnitzern bei Übersetzungen. Dietz spricht von plot stoppers, also Fehlern bei der Lokalisierung, die so massiv sind, dass das Spiel nicht zu Ende gespielt werden kann (Dietz 2007: 2). Mal kurz nachdenken … Gibt es das nur bei Games? Auch bei Filmen und Büchern sind Fehler vorstellbar, die die nachfolgende Handlung völlig unlogisch erscheinen lassen. Man kann aber weiterschauen oder weiterlesen und oft herausfinden, was bei der Übersetzung schiefgegangen ist. In fast jedem Beitrag zur Game-Lokalisierung wird betont, dass die Übersetzer mit Games vertraut sein und Games mögen sollen. Das ist insofern interessant, als nie gefordert wird, Literaturübersetzer müssten alphabetisiert sein und gern lesen oder Filmübersetzer müssten schon mal Filme gesehen haben. Solche Forderungen klingen geradezu absurd, weil wir sie in diesen Bereichen nicht gewohnt sind, aber sie besagen auch nichts anderes, als dass man sich für das interessieren soll, was man übersetzt. Hier ist das aber vielen so wichtig, dass man von der Gaming Literacy spricht, im Deutschen auch Gaming-Kompetenz. Es handelt sich um die Kompetenz, die man benötigt, „um Videospiele zu spielen und deren Inhalte zu verstehen“ (Kim 2019: 125). Kim widmet den dazugehörigen Kompetenzen ein ausführliches Kapitel (Kim 2019: 125-136). In Stellenanzeigen im Bereich Game-Lokalisierung wird ebenfalls betont, dass die Bewerber Game-affin sein sollen (Beispiel in Kim 2019: 126-127). Gaming-Kompetenz und Freude an Games erscheinen auch hier als besonders wichtig. Granell fordert die entsprechenden Kompetenzen auch bei Dozenten für die Game-Lokalisierung: [A] video game localisation lecturer must have a close connection with the gaming industry and stay active as a professional translator, even through sparingly collaborations, in order to catch up with the latest developments and novelties in the field. (Granell 2011: 189) Dietz geht noch einen Schritt weiter: Übersetzer, die in der Game-Lokalisierung arbeiten möchten, müssen zusätzlich besonders „computer-literate“ sein. Man beachte aber, dass das Zitat von 2007 stammt und dass sich die Aufgaben des Übersetzers verändert haben (Dietz 2007: 2): You have to be familiar with the specific hardware and software terminology in your source and target languages. If terminology such as ‚analog controller‘, ‚SLI mode‘ or ‚anti-aliasing‘ is alien 18231_Juengst_SL4�indd 256 18231_Juengst_SL4�indd 256 19�08�2020 12: 40: 10 19�08�2020 12: 40: 10 257 8.3 Arbeitsablauf to you, you might have problems translating games-related documents … You have to be able to deal with hardware and software conflicts. Unfinished games can be rather unstable, and might even crash your computer. You should ideally be able to update your video and sound card drivers, report error messages, even deal with any necessary hardware upgrades, such as installing more RAM or a better video card. (Dietz 2007: 2) Längst nicht alle, die in der Game-Lokalisierung arbeiten, haben tatsächlich so umfassende Fertigkeiten - schon gar nicht heute, wo die Games umfangreich sind und Arbeitsteilung bei der Game-Übersetzung die Regel ist. Und auch die Forderung nach Gaming-Kompetenz bleibt nicht unwidersprochen: Mangiron weist darauf hin, dass sie viele Game-Lokalisatoren kennt, die nicht einmal Gamer sind (2018: 133). Im Gegenteil werden bei manchen Games die Entscheidungen für die Übersetzer völlig anders getroffen: „… The Simpsons: Hit and Run (2003) game was only allowed to be translated by the official translator of the Simpsons TV series.“ (Mangiron / O’Hagan 2013: 74) Für die von Dietz angeführten Sonderaufgaben findet man im Team immer jemanden, der sich wirklich damit auskennt. 8.3.2 Arbeitsabläufe bei der Game-Lokalisierung Hier wird der generelle Ablauf dargestellt; die Besonderheiten der Untertitelung und der Synchronisation bei Games werden gesondert behandelt. Einen journalistischen Überblick über die Game-Lokalisierung bietet Böhm (2012). Bei den Anmerkungen zur Geschichte der Game-Lokalisierung wurde bereits darauf hingewiesen, dass sich die Übersetzungsmenge und die zu übersetzenden Texte über die Jahre hinweg verändert haben. Zur Erinnerung hier nochmals die Liste von Chandler / O’Malley Deming (2012), in der übersichtlichen Zusammenfassung von Kim: No Localization : Verkauf der Originalversion ohne sprachliche Lokalisierung. Packaging and Manual Localization : Verkauf der Originalversion - das heißt ohne Übersetzung von Ingame-Texten - aber deren relevante Dokumente wie Handbücher, Texte auf Packungen etc. werden übersetzt. [box-and-docs]. Partial Localization : Übersetzen der Ingame-Texte eines Videospiels und dessen relevanter Dokumente, aber audiovisuelle Übersetzungsarten bei der Originalversion wie Synchronisierung und Voice-Over werden durch eine günstigere Lösung - z. B. Untertitelung - ersetzt. Full Localization : Übersetzen der Ingame-Texte eines Videospiels und dessen relevanter Dokumente sowie Durchführen aller Arten des audiovisuellen Übersetzens. (Kim 2019: 29) Kim fügt hinzu: „ Full Localization ist die übliche Lokalisierungsart für große Videospielmärkte wie China, die USA, Japan, Südkorea, Deutschland und Frankreich etc.“ (Kim 2019: 30). Mal kurz nachdenken … Was ist bei dem Übersetzungsumfang völlig anders als bei der Filmübersetzung? 18231_Juengst_SL4�indd 257 18231_Juengst_SL4�indd 257 19�08�2020 12: 40: 10 19�08�2020 12: 40: 10 258 8 Games Bei der Übersetzung von Games gibt es eine Vielzahl von Möglichkeiten, wie Übersetzer überhaupt eingesetzt werden können und damit auch, welche Arbeitsschwerpunkte diese Übersetzer haben. Technische Texte und Verpackungstexte gehören nicht in den Bereich der AV-Übersetzung. Natürlich gibt es auch bei DVDs Hüllen für die Zielsprachenmärkte, aber dass diese übersetzt oder neu geschrieben werden müssen, wird bei der AV-Übersetzung nie erwähnt, denn diese Aufgaben werden nicht von den Übersetzern übernommen, die die Filme übersetzen. Ein wesentliches Element der Game-Lokalisierung ist das sogenannte Sim-Ship, das simultaneous shipment , also die gleichzeitige Auslieferung eines Produktes auf verschiedenen Märkten (Mangiron / O’Hagan 2013: 60): It should be highlighted that although research and training in game localisation have been embraced as part of AVT studies, translation practices differ considerably in both industries. In game localisation, translation is frequently implemented while the game is being developed. Translators working with the script of a game usually do not have access to the original game, an important source for visual context. (Mangiron 2018: 126) Die Frage, ob der Übersetzer wirklich eine Chance hat, das Spiel vor der Übersetzung zu spielen, erübrigt sich bei diesem Verfahren. Allerdings bekommen Übersetzer oft eine so genannte story bible , in der Hinweise zu den einzelnen Figuren und Handlungssträngen stehen (mündliche Information von Francisco Paredes). Den meisten Game-Übersetzungen liegt kein vollständiges Spiel, sondern ein schlichter Text zugrunde (oft in Excel-Tabellen, Information der ehemaligen Nintendo-Mitarbeiterin Ana Díaz Sánchez). Kim definiert diese Texte sehr treffend als Nekrotexte: In der Übersetzungspraxis steht generell das Videospiel, der Cybertext, nicht zur Verfügung (vgl. S. 110). Stattdessen werden nur die Textinhalte aus dem Videospiel extrahiert. Diese extrahierten Textinhalte werden in Form eines gewöhnlichen Textes den Übersetzern zur Verfügung gestellt. Dieser gewöhnliche Text hingegen ist aus dem Cybertext entstanden, aber er dient weder zum Durchqueren des Cybertextes, noch zum Durchqueren des gewöhnlichen Textes. Im Unterschied zum Cybertext, der wie ein Lebewesen mit dem Textbenutzer interagiert, bleibt der Text für den Übersetzer so bewegungslos wie eine Leiche. Deshalb wird er von mir als „Nekrotext“ bezeichnet - diese Bezeichnung leitet sich aus dem griechischen Präfix ‚Nekro-‘. ([dt.] tot) und dem Wort ‚Text‘ ab. (Kim 2019: 120) Auch Wichmann räumt mit neidvollen Vorurteilen auf: Nun gehen nicht nur in meinem privaten Umfeld viele Leute davon aus, dass Übersetzer ein Spiel vor der Veröffentlichung spielen und die Texte gemütlich nebenbei übersetzen dürfen. Ein absurder Irrglaube, denn wir bekommen das Spiel oder auch nur Teile davon während der Übersetzungsphase so gut wie nie zu sehen. Weil sich die Titel in aller Regel noch in der Entwicklung befinden, müssen wir mit schnöden Textdokumenten für Dialoge, Handbücher und Ähnlichem vorlieb nehmen. Wenn wir die Originaltexte im Zusammenhang oder unsere übersetzten Texte wirklich mal ‚live‘ im Spiel sehen oder hören wollen, müssen wir uns das Programm nach der Veröffentlichung eben kaufen. (Wichmann 2012) 18231_Juengst_SL4�indd 258 18231_Juengst_SL4�indd 258 19�08�2020 12: 40: 10 19�08�2020 12: 40: 10 259 8.3 Arbeitsablauf Diese Tatsache enttäuscht viele, die sich für die Game-Lokalisierung interessieren. Sie weist Parallelen zur Übersetzungspraxis bei der Synchronisation auf (siehe Kapitel 3.3). Bei Games geht die Problematik noch einen Schritt weiter: Nicht nur, dass der Übersetzer die audiovisuellen Elemente nicht bekommt - der Text ist „zwanghaft in einer linearen Struktur fixiert“ und somit unlogisch (Kim 2019: 121). Auch Wichmann merkt an, dass … man beim Übersetzen der vielen Quests oder Nebenquests oft gar nicht genau weiß, was gerade geschieht. Es fehlen visuelle oder akustische Anhaltspunkte, um zum Beispiel Gesten einzubeziehen oder auch nur zu erahnen, worauf die Antwort folgt, die übersetzt werden soll. Wenn etwa ein Charakter von einem ‚Threat‘ spricht, meint er dann eine (womöglich leere) ‚Drohung‘ oder eine ‚Bedrohung‘, also eine Gefahr? (Wichmann 2012) Noch extremer ist dieses Beispiel: Da kann sich ‚space‘ mal auf den Weltraum, mal auf die Leertaste beziehen - und wir müssen hoffen, dass der Kontext ausreicht, um die richtige Bedeutung zu erschließen. Noch dazu sind gerne mal noch Unklarheiten enthalten, mit denen wir uns auseinandersetzen müssen. Es ist nämlich keineswegs so, dass die Texte grundsätzlich final und in perfekt verständlichem Englisch vorliegen, sondern sich die englische Ausgangsversion oftmals ebenfalls noch in der Entwicklung befindet und kleinere oder größere Ungereimtheiten enthalten kann. (Wichmann 2012) Die Multilinearität bzw. die potenzielle Linearität, die das Übersetzen von kontextfreien Texttabellen besonders erschwert, macht aber das Wesen der Games aus: Der Spieler muss Entscheidungen treffen und auf diese Entscheidungen hin können sich unterschiedliche Storylines zum Weiterspielen ergeben, denn „… Videospiele unterscheiden sich mit ihrer Interaktivität und Nichtlinearität von herkömmlichen audiovisuellen Medien.“ (Kim 2019: 9) Weiter unten steht ein Beispiel für eine Game-Struktur, aber Sie sollten erst einmal selbst eine multilineare Struktur schaffen. Zeichnen Sie ein einfaches Entscheidungsdiagramm als Baumdiagramm! Als Thema können Sie z. B. nehmen „Eis essen gehen - ja oder nein? “ Zu jeder Entscheidung kommen jeweils zwei Unterentscheidungen. Wie sieht Ihr Diagramm nach vier Schritten mit jeweils unterschiedlichen Entscheidungen zu den übergeordneten Schritten aus? Was sagt das über die Problematik der Game-Übersetzung? Wenn man ein Baumdiagramm mit nur jeweils 2 Entscheidungsmöglichkeiten zeichnet, sieht man schon, wie rasch die Verzweigungen unüberschaubar werden. Bei jeder Verzweigung kann man je nach Spieltyp große Mengen an Text unterbringen. Wenn man nun in einer Excel-Tabelle nur die Verzweigungen der ersten Stufe hat, dann die der zweiten Stufe usw., kann man den logischen Spielverlauf kaum nachvollziehen. Zudem ist die so entstehende Textmenge so groß, dass man sie nur in Übersetzerteams bewältigen kann. 18231_Juengst_SL4�indd 259 18231_Juengst_SL4�indd 259 19�08�2020 12: 40: 10 19�08�2020 12: 40: 10 260 8 Games Die Sim-ship-Politik ist nicht der einzige Grund, warum Übersetzer das Spiel nicht als Grundlage für ihre Arbeit zur Verfügung haben: In der Übersetzungspraxis stehen Videospiele normalerweise nicht zur Verfügung. Dies beruht oft darauf, dass die Produktion des Videospiels noch nicht fertig ist oder dass das Videospielunternehmen aufgrund des Risikos der Piraterie und der Geheimhaltung von Inhalten des Videospiels den Übersetzern kein Endprodukt zur Verfügung stellt. N50: Übersetzer unterschreiben gegebenenfalls ein Non-Disclosure-Agreement. (Kim 2019: 110) Sogar in Stellenanzeigen findet man Hinweise auf diese Praxis: „Ability to work with highly confidential information“ (Mangiron / O`Hagan 2013: 253; Source: www.Nintendo.com/ corp/ jobs.jsp. Accessed July 31, 2011) Game-Lokalisierung ist Teamarbeit, und zwar in noch deutlicherer Ausprägung als bei anderen Formen der AV-Übersetzung. Nicht nur die großen Textmengen machen es nötig, in Teams zu arbeiten. Wie bei jedem größeren Übersetzungsprojekt müssen die Arbeitsabläufe koordiniert werden. Kim beschreibt die Teamzusammensetzung bei einem Übersetzungsauftrag, an dem er selbst mitarbeitete: Neben einer Korrekturleserin und einer Projektmanagerin, die sich um die Planung des Projektes, die Qualitätssicherung und die Zusammenarbeit mit dem Auftraggeber und den Übersetzern kümmerte, nahmen - je nach Umfang von Videospieltexten - drei bis sieben freiberufliche Übersetzer an dem Projekt teil. (Kim 2019: 52) Dabei liest kein Übersetzer die gesamten Videospieltexte. (Kim 2019: 110) Noch deutlicher wird der Teambedarf in dieser Aufzählung: According to Jason Shirley (2011), lead audio producer at Microsoft, the typical specifications of an audio localisation project involve: 20,000 lines of dialogue of which 1,000 need to match the source length, 70,000 words, 40 actors, 85 characters and 11 days of recording and 36 days of post production. Typical technical requirements include 15 different effects processes, 10 cinematic mixes and 48 kHz, mono, 16 bit, and .wav audio files. (Tarquini 2014: 7) Eine Tätigkeit, die Übersetzer aus allen anderen Bereichen kennen und die auch hier relevant ist, ist die Terminologiearbeit. Wie bei anderen Formen der Lokalisierung oder der Übersetzungsarbeit für Serien müssen Terminologielisten mit Erläuterungen geführt werden, oft als Teil der story bible oder in einem anderen Dateiformat (Bochmann-Tao 2019). Bochmann-Tao unterscheidet dabei zwischen zwei Situationen: 1. Der Spieleinhalt, vor allem die Hintergrundgeschichte und die Charaktere, basiert auf einem existierenden geistigen Eigentum, z. B. einem Film, einem Comic oder einem anderen Spiel. 2. Es wurde im Zuge der Spieleentwicklung neues geistiges Eigentum geschaffen. (Bochmann-Tao 2019: 13) Mal kurz nachdenken … Welche unterschiedlichen Arbeitstechniken muss man je nach Situation anwenden? 18231_Juengst_SL4�indd 260 18231_Juengst_SL4�indd 260 19�08�2020 12: 40: 11 19�08�2020 12: 40: 11 261 8.3 Arbeitsablauf Das wird direkt von Bochmann-Tao beantwortet: Im ersten Fall liegt der Schwerpunkt der Terminologiearbeit darauf, die Terminologie des bestehenden geistigen Eigentums zu recherchieren und so aufzubereiten, dass das Spiel möglichst zügig lokalisiert werden kann. Oft stellt der Lizenzgeber terminologische Informationen bereit, sodass in diesem Fall ein relativ geringer Aufwand bei der Terminologiearbeit anfällt, denn es existieren bereits Äquivalente in den Zielsprachen. Die zur Verfügung gestellten Informationen wie Namen, Äquivalente, Screenshots und Definitionen müssen oftmals nur noch in eine Terminologiedatenbank eingepflegt werden. Im zweiten Fall liegt der Schwerpunkt der Terminologiearbeit auf dem Finden von Äquivalenten zu den Benennungen in der Ausgangssprache. Natürlich müssen zuvor die Begriffe des Spiels definiert und ihre ausgangssprachlichen Benennungen aus den Spieltexten extrahiert werden. Das Finden von Äquivalenten bei der Lokalisierung von Spielen, die nicht auf bestehendem geistigem Eigentum basieren, kann aus verschiedenen Gründen für die terminologisch arbeitende Person (zumeist der Übersetzer) zu einem aufwändigen Prozedere werden, denn Spiele berühren mit ihren Inhalten die verschiedensten Fachgebiete der realen Welt. Von Sport, Geschichte, Mythologie, Landwirtschaft bis Glücksspiel - die Themenbereiche von Computerspielen sind breit gefächert. (Bochmann-Tao 2019: 13-14) Mal kurz nachdenken … Kennen Sie diese Themenvielfalt nicht aus einem anderen Kapitel? Genau, bei Voice-over zu Dokumentationen sieht die Bandbreite der möglichen Themen ähnlich aus. Kim führt eine Reihe von Übersetzungen für das zweite Szenario, die von Vorlagen unabhängigen Spiele, auf, bei denen die Terminologie fantastischer Figuren und Gegenstände zu erheblichen Übersetzungsproblemen führte. Hier sieht man klar, wie wichtig Zugang zur Terminologie für alle teilnehmenden Übersetzer ist (Beispiele in Kim 2019: 62-70 et passim). Bochmann-Tao weist außerdem darauf hin, dass gute Terminologiesammlungen auch als Grundlage für Spielguides oder Wikis genutzt werden können (Bochmann-Tao 2019: 18). Man findet zu vielen Spielen sehr gute und detaillierte Wikis von Fans. Aber nicht immer funktioniert die Terminologiearbeit optimal, was auch an den engen Zeitvorgaben liegt: … falls mehrere Übersetzer unterschiedliche Äquivalente für dieselben Termini erfinden und benutzen, kommt es zu Problemen der Uneinheitlichkeit; in der generellen Übersetzungspraxis wird zunächst die Übersetzung fortgesetzt, ohne auf die Autorisierung der übersetzten Termini zu warten, was eine zusätzliche Korrektur erforderlich macht, wenn die vorgeschlagenen Übersetzungen nicht akzeptiert werden. (Kim 2019: 102) Ein interessanter Aspekt der Terminologiearbeit sind die unterschiedlichen Terminologiepräferenzen bei unterschiedlichen Spielgenres: 18231_Juengst_SL4�indd 261 18231_Juengst_SL4�indd 261 19�08�2020 12: 40: 11 19�08�2020 12: 40: 11 262 8 Games Um Immersion zu erreichen, muss natürlich auch die Sprache (und somit die Terminologie) stilistisch dem Spielehintergrund angepasst werden. Handelt es sich um ein Spiel aus dem Horror-Genre, so kann es notwendig sein, das Prinzip der Angemessenheit im Sinne von Neutralität bei der Benennungsbildung zu ignorieren und besonders furchteinflößende Benennungen für Gegenstände und Charaktere zu finden. In Spielen mit einem mittelalterlichen Setting sollten englischsprachige Benennungen vermieden werden. In Spielen mit futuristischem Setting können englischsprachige Benennungen beispielsweise in der deutschen Version hingegen zur Immersion beitragen. (Bochmann-Tao 2019: 15) 129. Kann man das so pauschal sagen? Für all diese Aufgaben gilt: Projektmanager sind wichtige Ansprechpartner bei dieser extrem arbeitsteiligen Tätigkeit und müssen selbst über eine Vielzahl von Kompetenzen verfügen, um den Überblick zu behalten und um zu wissen, in welchen Bereichen die Übersetzer besondere Unterstützung benötigen: Falls Texte des aktuellen Projektes neue Termini hatten, deren Kontext unklar war bzw. bei deren Übersetzungen die Übersetzer nicht sicher waren, erstellten sie Q&A-Listen. Die Projektmanagerin redigierte die Listen, die von den Projektteilnehmern verfasst worden waren, und schickte sie dem für die Lokalisierung zuständigen Mitarbeiter von Gameforge. Daraufhin lieferte er zusätzliche Informationen, um den unklaren Kontext zu klären, und autorisierte die übersetzten Termini, die von den Übersetzern vorgeschlagen wurden. (Kim 2019: 73) (dort auf S. 74 ein Beispiel für eine solche Anfrage) Games wuchern. Sie entwickeln sich über Jahre, wenn nicht über Jahrzehnte weiter. Kim führt als Beispiel Warcraft: Orcs & Humans an, das sich über 20 Jahre hinweg immer stärker erweiterte. Sein Fazit: Deshalb können Informationen im Videospieltext so umfangreich sein, dass sogar nicht einmal alle Teilnehmer der Videospielentwicklung und Lokalisierungsmanager um diese Informationen und deren Kontext genau wissen können. (Kim 2019: 111) Mit dieser Unsicherheit muss man leben können. Nicht umsonst bezeichnet Wichmann seine Arbeit als „Stochern im Dunkeln“ (Wichmann 2012). Nicht nur die Übersetzer arbeiten in Teams, sondern auch die Autoren: Laut NCsofts Aussage schrieben zehn Autoren auf Basis von 500 Referenzmaterialien, zu denen Mythen, Märchen, klassische und zeitgenössisische Romane etc. aus verschiedenen Ländern gehören, das Szenario von Aion kollaborativ. (Kim 2019: 45) Mal kurz nachdenken … Macht man das nur bei Games? 18231_Juengst_SL4�indd 262 18231_Juengst_SL4�indd 262 19�08�2020 12: 40: 11 19�08�2020 12: 40: 11 263 8.4 Lokalisierungselemente und -vorgänge Das ist auch bei Fernsehserien üblich. Und auch dort bekommen Übersetzer nicht mehr immer ein fertiges Produkt zum Übersetzen, weil beim Streaming das Sim-Ship inzwischen auch üblich ist. 8.4 Lokalisierungselemente und -vorgänge 8.4.1 Untertitelung und Synchronisation bei Games Mal kurz nachdenken … Welche Probleme, die es auch bei der Filmübersetzung gibt, könnten hier auch auftreten? Granell fasst es folgendermaßen zusammen: [students] will be able to handle audiovisual texts, and translate them bearing in mind issues such as lip-sync, kinetic synchrony, isochrony or the use of dubbese in dubbed scenes; or text condensation in subtitled scenes. (Granell 2011: 191) Zu Beginn dieses Kapitels wurde bereits erwähnt, dass es Unterschiede zwischen den AV-Übersetzungsverfahren bei der Filmübersetzung und bei der Game-Lokalisierung gibt. Tarquini nutzt zur Abgrenzung den Terminus AVL (game audiovisual localisation) für diesen Unterbereich der Game-Lokalisierung (Tarquini 2014: 5). Bei der Game-Untertitelung werden viele Regeln nicht beachtet, die bei der Filmuntertitelung selbstverständlich sind: Game subtitling is essentially a verbatim transcription of spoken dialogue, the same script being used for speech and written text. This clearly means that subtitles tend to run very quickly and do not abide by standard reading times. In particular, interlingual subtitling presupposes that the original list of dialogues has been fully translated and revoiced, if required. In the latter case, subtitles and dialogues are supposed to match up not only in terms of duration, but also of word-for-word transcription. These requirements determine sui generis (and varying) time and space restrictions which flout traditional AVT norms. First of all, game subtitling is not a form of intersemiotic translation. Furthermore, it does not use the substantial condensation strategies of AVT, where they are thought to reduce the source dialogue by 20-50 per cent or more, depending on the language pair (Gottlieb, 1994). As already noted, since translators work blindfolded in a preliminary script rendering, they are supposed to keep the original text length, with respect to single line and total subtitle length, which is not standardised in the source text in first place. Apart from loose space restrictions, translators are not subject to standard norms regarding the maximum number of characters per line and per subtitle, line / phrase segmentation as well as exposure time and frame transition (Mangiron, 2012). (Tarquini 2014: 6) Subtitling standards applied in other media, such as television, DVD, and cinema, are often not applied in games. It is not uncommon to find one-line subtitles with 72 characters or more, small 18231_Juengst_SL4�indd 263 18231_Juengst_SL4�indd 263 19�08�2020 12: 40: 11 19�08�2020 12: 40: 11 264 8 Games fonts, colour clashes between the subtitle and the background, bad segmentation, and lack of synchrony between the audio and the subtitle. (Mangiron 2018: 126) Mal kurz nachdenken … Wo ist das besonders störend? Barrierefreiheit ist unter diesen Umständen noch schwerer umzusetzen. Die Synchronisation von Texten im Rahmen von Games ist noch spezieller. Im Prinzip gibt es hier zwei Fälle: die cut scenes oder cinematics und den Text im fortlaufenden Spielgeschehen (Ingame-Text bzw. In-Game-Text oder noch präziser In-Game-Dialog). Die cut scenes sind eine Besonderheit, die nicht in jedem Game vorkommt: Es handelt sich dabei um Szenen, die sich die Gamer einfach nur anschauen [müssen](Mangiron / O’Hagan 2013: 124-125), kurze Filme innerhalb eines Games: A core feature in game narration is the cut-scene, defined as ‚any non-interactive storytelling or scene-setting element of a game‘ (Hancock, 2002). Accordingly, cut-scenes are usually responsible for the narrative framing of the game storyline, they introduce characters and settings, thus also contributing by giving hints to the player. Their popularity is due to blockbuster titles that have extensively exploited them as a narrative and aesthetic device, such as Metal Gear Solid 2 and Final Fantasy followed by successful sequels. As a full motion picture insert, cut-scenes do not support user interaction but represent a linear intermission in a third-person perspective that allows cuts and fades, close-ups, long shots and other conventional filming techniques. Cut-scenes are usually provided with options allowing the user to skip them, especially when immersed in the game play sequences. Although appealing, and animated with the utmost care, detractors tend to disregard them as a non-core element to the purposes of game agency and completion. This argument may provide possible explanations as to the quality level required (by producers) for cut-scene dubs and subtitles, especially in translated versions. (Tarquini 2014: 3) Dieses Verfahren ähnelt dem bei der Filmsynchronisation. In-Game-Texte funktionieren anders als cut scenes und werden auch anders behandelt: By contrast, in-game dialogue occurs within game play and is activated by the game engine on the fly. As such, it is designed to accommodate non-linear textual patterns and segmented speech lines. This, as we will see, entails important aesthetic, technical and translation consequences in relation to cinematic dialogue. (Tarquini 2014: 3) Der folgende Vergleich von cut scenes und In-Game-Dialog zeigt die Unterschiede im Arbeitsablauf bei diesen beiden Verfahren noch einmal deutlich: … cut-scene dialogue is listed in a linear order (FMV 1 stands for full motion video 1), while ingame lines would be displayed in a random order. Although the first lines refer to the monologue of a voice-off narrator (whose name is Caretaker), they are segmented into seven parts. Game dialogue, in fact, is fragmented into single speech lines and audio files, which are countersigned by a file name written in alphanumeric characters (fourth column on the left). This feature is 18231_Juengst_SL4�indd 264 18231_Juengst_SL4�indd 264 19�08�2020 12: 40: 11 19�08�2020 12: 40: 11 265 8.4 Lokalisierungselemente und -vorgänge essential and must be checked carefully, since the engineers who will integrate the audio assets into the game code will simply replace the source file with the target file. For instance, the English audio file ‚CareFMV111_0001‘ will be replaced by ‚CareFMV111_0001_IT‘ in the Italian localised version. This ad hoc asset configuration allows dubbing actors to be recorded separately, managing flexible shifts. (Tarquini 2014: 5) Wie bei der Filmsynchronisation wird der Text in kurzen Abschnitten aufgenommen, hier als Strings bezeichnet (zu den Takes siehe Kapitel 3.3). Doch die Abfolge bei der Aufnahme ist durch die nur potenziell vorhandene Linearität ebenso unlogisch wie bei der Übersetzung der Game-Texte und es gibt natürlich kein fortlaufendes Drehbuch, mit dem man sich auf das Einsprechen vorbereiten kann. 54 Nicht nur die mangelnde Logik, auch der Mangel an Informationen zur Rolle des Strings im Spielgeschehen kann zu Problemen und unbefriedigenden Ergebnissen führen: […] dass weder den Übersetzern noch den Synchronsprechern ‚Drehbücher‘ zur Verfügung stehen, aus denen die Stimmung der Situation hervorgeht. In diesem Fall wissen auch die Sprecher nicht immer genau, in welcher Situation oder Gemütslage sich der von ihnen gesprochen Charakter gerade befindet. Und wenn dann der Dialogregisseur, der sich mit der Story eigentlich gut auskennen und den Sprechern wertvolle Informationen geben sollte, eben auch nicht im Bilde ist, stochern die Sprecher genauso im Dunklen wie wir Übersetzer. Dann wird ein Satz im Zweifelsfall eben lieber neutral eingesprochen, um missverständliche Betonungen zu vermeiden. (Wichmann 2012) 8.4.2 Games als Text Mit der Entwicklung immer komplexerer Games wurde die Lokalisierung ebenfalls komplexer und enthält: … progressively incorporated extensive instructions, colourful item and character descriptions as well as dialogue. Dubbing and subtitling are therefore a relatively new feature, deployed only by PCs, arcade platforms and more powerful consoles, like Sony Playstation, Nintendo Wii and Microsoft Xbox. (Tarquini 2014: page 3) In der Fachliteratur wie auch in der Presse werden die beliebtesten Übersetzungsfehler bei den Spieltexten wieder und wieder zitiert (schöne Beispiele findet man in Mangiron / O’Hagan 2013). Denn was an Games übersetzt wird, ist primär Text (zum Bildteil weiter unten). Dieser Text stammt nicht aus dem luftleeren Raum. Es ist nicht nur so, dass Games andere Medien beeinflussen, sie borgen auch selbst aus anderen Medien. Das betrifft Inhalte ebenso wie Darstellungskonventionen. Mal kurz nachdenken … Welche denn? 54 https: / / www.nytimes.com/ 2004/ 11/ 04/ technology/ circuits/ giving-voice-to-video-games.html ist ein sehr amüsanter Beitrag über die Kunst des Sprechens für Games. 18231_Juengst_SL4�indd 265 18231_Juengst_SL4�indd 265 19�08�2020 12: 40: 11 19�08�2020 12: 40: 11 266 8 Games Obvious as it may sound video games have a variety of characteristics that could be said to come directly from previous creations, manly books, comics, films and utility software. Being a modern entertainment product, games make no apologies for borrowing the more exciting and successful features of existing media and incorporating them into a new interactive creation. (Bernal-Merino 2015: 51) Denken Sie sich die Namen für die Akteure eines Games aus, das auf dem Märchen „Die sieben Geißlein“ beruhen soll. Alle Akteure sollen Namen und eine kurze Rollenbiographie / Charakterbeschreibung bekommen. Geben Sie auch die Namen in Ihren Zielsprachen an und begründen Sie Entscheidungen für eine eventuelle Namens-Lokalisierung. 55 Wenn Sie dieses Märchen nicht mögen, nehmen Sie ein anderes. Es sollte aber ein kurzer, allseits bekannter Text sein, und es sollten noch keine Disney-Versionen mit Namen und Charakterdifferenzierung existieren. In Games findet man nicht nur Parallelen zu anderen Medien. Sie bestehen auch aus unterschiedlichen Textsorten, für die man unterschiedliche Übersetzungskompetenzen benötigt. Mal kurz nachdenken … Bei Games wird das immer betont. Aber wie ist es bei Filmen? Auch Filme haben keinen einheitlichen Text. Die einzelnen Charaktere können sehr unterschiedliche Sprachebenen nutzen. Auch im Film kommen unterschiedliche Textsorten vor, vielleicht ein Gerichtsplädoyer, ein Heiratsantrag, ein Song, eine Politikerrede … Seltsamerweise wird das bei der Filmübersetzung weit seltener betont als bei der Game-Lokalisierung. Alle Textsorten, die Mangiron aufzählt, können auch in Filmen vorkommen: Games also frequently contain dialogues and cinematic scenes, and their script can be dubbed, subtitled, or both. In addition, some games - particularly role-playing games (RPG) and adventure games - contain narrative and literary passages, which need to be translated while preserving the literary and poetic register. There are even games that are fully written in rhyme, such as Ubisoft's Child of Light (2014). Other games require translators to carry out a thorough investigation on the functionality and terminology of mechanical technology. As an example, a translator working on the Microsoft Flight Simulator series (1986-2014) would require a similar level of understanding as a technical translator working on a piece about real planes. (Mangirion 2018: 125) Dazu kommt die beim Arbeitsablauf behandelte Terminologiekenntnis. Die Multilinearität von Games wurde bereits als Problemkomplex genannt. Man darf Multilinearität nicht mit Willkür verwechseln. Ganz im Gegenteil muss Multilinearität penibel geplant werden: 55 Bereits 1993 erschien eine Dissertation über sprachliche Elemente bei D&D ( Dungeons and Dragons ) an der Universität Mainz (Nagel 1993). 18231_Juengst_SL4�indd 266 18231_Juengst_SL4�indd 266 19�08�2020 12: 40: 11 19�08�2020 12: 40: 11 267 8.4 Lokalisierungselemente und -vorgänge It does not mean that there is no story or that games have a random and chaotic sequence of events but rather that the unravelling of the story is dependent on the individual choices and performance of the player. (Bernal-Merino 2015: 142) Linearity is crucial to storytelling, and it is therefore essential for the translator to know how the story develops. However, when handling the voiceover scripts for video games, the narrative linearity of each dialogue is not always easy to follow because of the many paths that interactive conversations can generate […] (Bernal-Merino 2015: 118-119) Textual cohesion is challenged in the translation of video games because of the need to leave deictic items referring to players and their actions as unknown, and computer engineers use variables in order to do this. (Bernal-Merino 2015: 147) Das nachfolgende Bild zeigt einen typischen multilinearen Ablauf: Abbildung 54: Multilinearer Spielverlauf In der Schnittmenge zwischen Text und Bild stehen die textual graphics , auch graphic text genannt. Es handelt sich dabei z. B. um Landkarten oder Schilder (Mangiron / O’Hagan 2013: 124). Auch diese werden oft übersetzt; vor allem dann, wenn der Inhalt wichtig für Spielentscheidungen ist. Allerdings gibt es dabei einen speziellen Arbeitsablauf: … signs, newspaper headlines, letters and banners, can all be graphically manipulated in video games (if required), especially when they are superimposed on double-layered 2D images. Accor- 18231_Juengst_SL4�indd 267 18231_Juengst_SL4�indd 267 19�08�2020 12: 40: 12 19�08�2020 12: 40: 12 268 8 Games dingly, visual-verbal elements are not translated within the subtitles, but extracted from graphic files, translated apart in the artwork localization assets, and finally placed in their exact onscreen position. (Tarquini 2014: 7) Eine besonders problematische Angelegenheit bei In-Game-Text sind die sogenannten Placeholders (dazu ausführlich Mangiron / O’Hagan 2013: 132). Es handelt sich um Textelemente, die, je nach Spielerentscheidung, eine unterschiedliche Form annehmen können. Das können Eigennamen sein, aber z. B. auch Dinge, die Spieler gekauft oder auf anderem Wege erhalten haben. Im Englischen könnte stehen „a red car“ im Gegensatz zu „a red rose“. Mal kurz nachdenken … Warum ist das so schwierig? Wenn man die Übersetzungen in sehr kleine Einheiten einteilt, muss man darauf achten, dass man in der Zielsprache andere grammatische Regeln hat. „Ein rotes Auto“, aber „eine rote Rose“. Man kann also weder den Artikel noch das Attribut einfach abspeichern und immer wieder darauf zugreifen. Es kommt zu großen Problemen, wenn solche Sätze aus dem Zusammenhang gerissen auftreten. Mangiron und O’Hagan führen als Beispiel an, dass „You win a blue car.“ gespeichert wird als „You win“ „a blue“ „car“. Diese Strings werden dann kombiniert, was bei Übersetzungen allerdings zu Problemen führen kann (Mangiron / O’Hagan 2013: 133). 130. Welche Probleme könnten das sein? Wie weiter oben beschrieben werden diese Texte in Strings eingeteilt und als Strings eingesprochen. Mangiron / O’Hagan raten zu einer pragmatischen Lösung: The safest option is to use translations that will work in all contexts, regardless of the gender and number of the noun they modify, even if this translation may not be the preferred one stylistically. (Mangiron / O’Hagan 2013: 132) Mal kurz nachdenken … Warum ist das auch problematisch? Zunächst muss gesagt werden, dass diese Lösung viele Nachfragen erspart, für die man im Lokalisierungsprozess oft keine Zeit hat. Aber wenn diese Übersetzungen vage und stilistisch nur zweitklassig sind, werden sich die Fans zu Recht beschweren. 18231_Juengst_SL4�indd 268 18231_Juengst_SL4�indd 268 19�08�2020 12: 40: 13 19�08�2020 12: 40: 13 269 8.4 Lokalisierungselemente und -vorgänge 8.4.3 Bilder und Games Wie im Unterkapitel zur Geschichte der Games erwähnt, hat sich die Qualität und die Gestaltung der visuellen Seite extrem verändert und weiterentwickelt: The graphics of early games represented 2D objects through simple lines and dots in a single screen spatial configuration (Wolf, 2001). By comparison, today’s virtual worlds display breathtaking 3D sceneries and a stunning cosmology of fictional characters and adventures thanks to the introduction of improved game engines. (Tarquini 2014: 2) Diese hochkomplexen Bilder werden bei der Lokalisierung manchmal verändert. Mal kurz nachdenken … Haben Sie davon schon einmal gehört? Worum ging es da? Vermutlich kennen Sie das Beispiel des für den deutschen Markt gelöschten und durch ein neutrales Symbol ersetzten Hakenkreuzes im Game Wolfenstein . Bernal-Merino enthält eine Gegenüberstellung von Bildern aus der deutschen Version und aus der ursprünglichen US-amerikanischen Version (Bernal-Merino 2015: 92). Es ist unklar, ob sich die Forderung, es handele sich um geschichtliche Symbole, ohne die das Spiel sinnlos sei, durchsetzt. Mal kurz nachdenken … Hatten wir etwas Ähnliches nicht schon bei Filmen? Auch wenn Games anders funktionieren als Filme: Es gibt durchaus Parallelen zur Entnazifizierung von Filmen im Nachkriegsdeutschland. Man muss den Game-Zensoren allerdings zugutehalten, dass man in ein Game selbst involviert ist und man nicht immer der Gute ist. Veränderungen an Bildern in Games haben zwar meist kulturelle Gründe, aber eben auch pädagogische. Auch die Beispiele in der Sekundärliteratur beziehen sich meist darauf, dass erotische oder sexualisierte Darstellungen in vielen Kulturen (und für viele Altersgruppen) inakzeptabel sind oder darauf, dass bestimmte Symbole gesetzlich verboten sind. Auch zu viel Blut wird bei der Lokalisierung ins Deutsche gern gelöscht, auch das geschah in der deutschen Version von Wolfenstein (Bernal-Merino 2015: 92). Mal kurz nachdenken … Es gibt noch einen anderen Bereich, in dem man Veränderungen vornehmen kann. Das wurde weiter vorne im Zusammenhang mit Trickfilmen schon angesprochen. Man kann Gesichter verändern, z. B. um Synchrontext und Mundbewegung zu synchronisieren (Bernal-Merino 2015: 79) 18231_Juengst_SL4�indd 269 18231_Juengst_SL4�indd 269 19�08�2020 12: 40: 13 19�08�2020 12: 40: 13 270 8 Games 8.5 Übungsmaterialien entwickeln Bei Übungen zur Game-Lokalisierung stellen sich besonders komplizierte Fragen der Materialsuche. Eine Möglichkeit ist die Zusammenarbeit mit Hochschulen, an denen Games entwickelt werden. Hier besteht aber das Problem, dass diese Games oft keine Sprache nutzen, sondern rein vom Bild her funktionieren. Auch hier kann man Übungen durchführen (verschiedene Beispiele weiter unten), denn nicht jeder Bereich der Lokalisierung hat mit Sprache zu tun. Die Einschränkungen sind jedoch deutlich. Im Folgenden werden analoge Übungsmöglichkeiten ebenso vorgestellt wie hybride und komplett digitale. Die Medienpädagogik bietet im Bereich creative gaming eine Vielzahl an Ansätzen, die man auch für Übungen zur Game-Lokalisierung nutzen kann. 8.5.1 Analoger Einstieg Viele Strukturen oder Textbestandteile von Games lassen sich auch mit analogem Material imitieren. Für den Einstieg ist dies sogar empfehlenswert. Analog dargestellt sind die Strukturen von Games besser zu durchschauen und man sieht, wo Probleme auftreten könnten. Mal kurz nachdenken … Kennen Sie Bücher für Kinder, die multilinear gestaltet sind? Man nennt diese Bücher „Escape-Room-Buch“ oder „Make-your-own-choice-Buch“. Im Prinzip handelt es sich um textreiche Spiele in Buchform. Auf jeder Seite muss man sich entscheiden, was man als nächstes tun wird, und wird je nach Entscheidung zu unterschiedlichen Seiten weitergeleitet. Diese Bücher sind nicht so komplex wie Games, die Struktur lässt sich gut überblicken. Ähnliche Spiele kann man selbst basteln. Das System dafür lehnt sich an das bekannte Spiel cadavre exquis an. Hier fragt man, ähnlich wie bei McLuhans Definition der Kommunikation, „wer - mit wem - was - wo - mit welcher Folge“; ein Spieler schreibt die Antwort auf die erste Frage auf ein Blatt, wobei man ihm nicht zuschauen darf, knickt das Blatt um, der zweite Spieler trägt die Antwort auf die zweite Frage ein, knickt das Blatt um etc. Wenn man dieses Verfahren für eine Übung stärker strukturieren möchte, kann man Karteikärtchen beschriften und thematisch in Stapeln angeordnet auf den Tisch legen. Die Teilnehmer heben Karten ab und müssen diese zu einem Spiel kombinieren. Zu der Aufgabe gehört auch, dass die Teilnehmer kurze Dialoge für die Figuren schreiben und dabei üben, die Sprache den Charakteren anzupassen. Natürlich wird das Ganze dann lokalisiert. Sehr empfehlenswert ist auch die Übung von Zhang, bei der die Studierenden ein Brettspiel als Grundlage für das Design eines digitalen Games nutzen (Zhang 2018 und im Druck). Mal kurz nachdenken … Filme müssen auch nicht immer zu hundert Prozent linear sein. Kennen Sie einen Film, der Handlungsalternativen beinhaltet? 18231_Juengst_SL4�indd 270 18231_Juengst_SL4�indd 270 19�08�2020 12: 40: 13 19�08�2020 12: 40: 13 271 8.5 Übungsmaterialien entwickeln Der bekannteste deutsche Film mit Handlungsalternativen ist wohl Lola rennt (Deutschland 1998). Ähnlich sind die Filme Smoking/ No Smoking (Frankreich 1993, basierend auf dem Theaterstück Intimate Exchanges von Alan Ayckbourn) strukturiert. Die Entscheidungen beziehen sich auf längere, in sich logische Textteile. Die Geschichte beginnt damit, dass eine Figur sich entweder eine Zigarette anzündet oder nicht. Das Stück wurde für die Verfilmung in zwei Filme aufgeteilt, in denen jedoch noch genügend multilineare Abläufe erhalten bleiben. Man sieht dabei jeweils einen logischen Ablauf, dann kommt die Anmerkung „oder …“ und der alternative Ablauf folgt. Anders als in einem Game sieht man alle vom Autor geplanten Abläufe hintereinander. Für Dozenten, die sich nie mit Games befasst haben, wohl aber mit Filmübersetzung, ist dies ein guter Einstieg. Interessant in diesem Zusammenhang ist auch der Beitrag von Evans (2013) zur Übersetzung von Brettspielen. Dass Brettspiele übersetzt werden, ist wenig bekannt. Zu den analogen Einstiegsübungen zählen auch Schreibübungen in den unterschiedlichen in Games verwendeten Textsorten (Bernal-Merino, Zhang). Man kann die Aufgaben so stellen, dass zum Schluss ein analoges Rollenspiel mit Biographiekarten für die einzelnen Spielfiguren, Landkarten, Handlungsabläufen und Dialogen entsteht. 8.5.2 Selbst einfache Games programmieren Dieser Vorschlag sorgt unter Übersetzern regelmäßig für Entsetzen. Doch auch hier gilt, dass es sich weit eher um ein Generationsproblem handelt als um eine allgemeine Unfähigkeit von Übersetzern, mit solchen Fragestellungen umzugehen. Dabei haben die Älteren unter uns nicht nur Nachteile: Wer auf einem C64 schreiben konnte oder das alte MS-Word (vor Windows) kennt, sieht sofort die Parallelen zu einer einfachen Programmiersprache. Auch wer eine Webseite mit HTML gestaltet hat, kann auf diese Vorkenntnisse zurückgreifen. Um einfache Games zu programmieren, muss man außerdem keine Programmiersprache von Grund auf lernen. Es gibt Vorlagen, vor allem in Bitsy, Scratch und Python, die man für Übungen in der Game-Lokalisierung einsetzen kann. Für diese Tools existieren Einführungen für Kinder, mit denen auch Menschen zurechtkommen, die noch nie in ihrem Leben ein Programm geschrieben haben. Der Vorteil bei allen dreien ist, dass der Code auch für die Lernenden durchsichtig ist. Material und ausführliche Erläuterungen bekommt man im Coderdojo 56 wie auch auf medienpädagogisch orientierten Seiten wie www.creative-games.de. Auf genaue Erläuterungen wird in diesem Lehrbuch verzichtet. Jeder weiß, wie schnell neue Software-Versionen auf den Markt kommen - eine Einführung in eine spezielle Software könnte schon bei der Drucklegung des Buches veraltet sein. Die Softwares und die 56 Man spricht das „Koderdoodcho“. Ein Dojo ist ein Trainingsraum für asiatische Kampfsportarten. Coderdojos sind analoge Räume (tatsächlich! ), in denen sich Schüler treffen und Spiele etc. programmieren. Onlineinformationen auf https: / / coderdojo.com/ de-DE/ resources. 18231_Juengst_SL4�indd 271 18231_Juengst_SL4�indd 271 19�08�2020 12: 40: 13 19�08�2020 12: 40: 13 272 8 Games Einsatzmöglichkeiten werden daher nur kurz vorgestellt; im Internet finden sich zu allen dreien Tutorials. Eine Nutzung im Unterricht ist unproblematisch, wenn nicht erwünscht. Bei allen Games kann man zwischen einer Bearbeitungsebene und einer Spielebene wechseln. Von den hier vorgestellten Tools wird von Bitsy über Scratch hin zu Python die Programmierung immer abstrakter. Python ist nicht nur eine Programmiersprache, es sieht auch so aus. Bitsy Unter allen verfügbaren Tools zur Game-Programmierung bietet Bitsy die geringsten Hürden beim Einstieg. Tatsächlich ist keine andere Möglichkeit zur Game-Programmierung so bequem, nicht einmal das später erwähnte Scratch. Die Grundlagen von Bitsy kann man in einer Stunde lernen. Bitsy ist ein nagelneues Tool für von Laien gestaltete Games. Es wurde von Adam Le Doux entwickelt und steht erst seit 2017 Nutzern zur Verfügung. Bitsy hat aber bereits die hohe kulturelle Weihe erhalten, bei ARTE behandelt zu werden (www.arte.tv/ de/ articles/ tracks-marina-diez-bitsy). Bitsy ist intuitiv gestaltet. Man sieht sofort, was man gezeichnet hat und wie die Befehle funktionieren. Das Tool ist bei medienpädagogischen Weiterbildungen ausgesprochen beliebt und man findet eine große Menge an Anleitungen und an fertigen Spielen online. Bitsy ist browserbasiert, d. h., man programmiert die Spiele im Browser, kann sie aber als HTML-Dateien herunterladen und dann auch offline spielen (https: / / ebildungslabor.de/ blog/ bitsy/ ). Diese Informationen klingen wie Nerdgeschwurbel. Tatsächlich ist Bitsy unerwartet einfach zu nutzen und die Ergebnisse sehen wie professionelle pixelige Spiele der 1970er aus. Wie man auf der eben zitierten Arte-Seite sehen kann, kann man bei Bitsy In-Game-Text erzeugen, auch beweglichen Text. Es ist auch möglich, Audiodateien einzubinden und so den Ersatz dieser Dateien zu üben. Ein Tutorial findet sich unter www.shimmerwitch.space/ bitsyTutorial.html. Die Audio ist natürlich nicht so perfekt wie bei heutigen Spielen. Es passt zu dem, was Tarquini zur Audio bei älteren Spielen sagt: The sonic palette in the first games was limited to monophonic beeps while modern audio engineering techniques provide advanced speech synthesis, hundreds of simultaneous 2D and 3D sounds, in addition to digital signal processors (Grimshaw and Schott 2007). (Tarquini 2014: page 2-3) Wen juckt es da nicht in den Fingern? Suchen Sie eine Seite, von der aus Sie auf Bitsy zugreifen können. Experimentieren Sie. Erzeugen Sie Mini-Spiele, die lokalisiert werden können. Man kann zum Beispiel den Austausch von Farben verlangen oder den Wechsel von Hund zu Katze. 18231_Juengst_SL4�indd 272 18231_Juengst_SL4�indd 272 19�08�2020 12: 40: 13 19�08�2020 12: 40: 13 273 8.5 Übungsmaterialien entwickeln Scratch Scratch ist ebenfalls eine typische Einsteiger-Software. Auch für Scratch gibt es einen Baukasten, der auch einfach einzufügende Soundbites enthält. Fans programmieren in Scratch alte Spiele nach (https: / / de.scratch-wiki.info/ wiki/ Kultspiele_in_Scratch). Die Vielfalt an Spielen, die man mit Scratch programmieren kann, sieht man auf https: / / scratch.mit.edu/ explore/ projects/ games/ . Von ganz einfachen Spielen bis zu elaborierten Spielwelten ist in Scratch alles möglich. Abbildung 55: Programmierbeispiel „Scratch“. Scratch is a project of the Scratch Foundation, in collaboration with the Lifelong Kindergarten Group at the MIT Media Lab. It is available for free at https: / / scratch.mit.edu. Leider ist dieser Screenshot nicht besonders gut - schauen Sie lieber gleich auf die Scratch-Homepage. Man kann diese Bausteine sehr einfach zusammensetzen und versteht sie sofort. Dieses Baukastenprinzip ist für Einsteiger schneller zu erlernen als eine „normale“ Programmiersprache. Man kann einzelne Bausteine ersetzen und Lokalisierungsaufgaben entsprechend gestalten. Dazu kommt, dass man bei Scratch gut Text und Audio einbinden kann, was weitere Möglichkeiten für kreative Aufgaben bietet. Scratch hat eine aktive Online-Community, die freigiebig Spiele austauscht, darunter auch einige der weiter oben erwähnten komplexen Spiele. Absprachen mit den Schöpfern und der Austausch von Code für Lokalisierungsaufgaben sind daher möglich. Eine gute Einführung in die Programmierung mit Scratch bieten Kiefer (2019) und Wainwright (2016). Python Programme wie Python sind nicht nur ein guter Einstieg ins Programmieren. Man kann viele Variablen verändern, wie es auch in der Game-Lokalisierung gemacht wird. Man muss dafür nicht selbst Code entwickeln, sondern kann auf Vorlagen zurückgreifen, muss aber 18231_Juengst_SL4�indd 273 18231_Juengst_SL4�indd 273 19�08�2020 12: 40: 13 19�08�2020 12: 40: 13 274 8 Games die Code-Ansicht öffnen, um die Variablen zu bearbeiten. Zu den Variablen kann Text ebenso gehören wie die Bildgestaltung (Form und Farbe) oder Bewegungen einzelner Elemente. Mit Python lassen sich als erster Einstieg so genannte Text-Adventures programmieren. Wie der Name schon sagt, enthalten sie keine Bilddateien, nur Code und Spieltext, und sind sehr übersichtlich. Eine gute Vorlage für ein Text-Adventure, das man mit der Tastatur steuert, bietet Kilian (2018). Die Spielebene, also die Spieleransicht eines Text-Adventures sieht in etwa so aus: Wohin möchtest du gehen? (Süden, Osten, Norden, Westen) Süden Im Süden ist das Meer. Ein Fisch frisst dich. Game over. Tabelle 12: Text-Adventure Übernehmen Sie den Code von der Webseite und übersetzen Sie den Spieltext in eine beliebige Sprache. Sieht er auf der Spieloberfläche gut aus oder müssen Sie kürzen? Text-Adventures eignen sich auch gut für das Einüben typischer Lokalisierungsaufgaben wie Datum, Dezimalpunkt vs. Dezimalkomma etc. Man muss sie nur entsprechend gestalten. Vorderman et al. (2018) ist eine Einführung in Python für Kinder (der Code für sämtliche Übungen ist zusätzlich zu den Anleitungen im Anhang zu finden). Auch hier ist ein Text- Game enthalten, nämlich ein Tierquiz (Vorderman et al. 2018: 36-43). Auch hier benötigt man nicht viel Code und alles ist sehr übersichtlich. Dieses Spiel kann man einfach übersetzen, wie das oben angeführte Text-Adventure auch. Mit Python kann man aber auch Veränderungen im Bildteil imitieren. Dazu genügen Spiele ohne Text, für die in Handbüchern wie auch Online-Vorlagen zu finden sind. „Die kleine Raupe“ (Vorderman et al. 2018: 158-167) ist ein Spiel, bei dem eine Raupe Blätter fressen muss. Hier kann man Farbe und Form der Raupe festlegen. Die Auftraggeber in der Gruppe möchten eine andere Farbe als die zuvor programmierte. 18231_Juengst_SL4�indd 274 18231_Juengst_SL4�indd 274 19�08�2020 12: 40: 14 19�08�2020 12: 40: 14 275 8.6 Forschung und weiterführende Literatur Bilder können weitere Herausforderungen bieten: „Paare finden“ ist ein digitales Memory- Spiel, bei dem man zueinandergehörige Bildpaare aufdecken muss. Python stellt dafür eine Reihe von Symbolen zur Verfügung (Vorderman et al. 2018: 180-189). Zwei der Symbole sind in der Zielkultur tabu und müssen ersetzt werden. Mit diesen Übungen ist ein allererster Einstieg möglich. Wer Game-Lokalisierung nicht mag, merkt es meist jetzt schon. 8.6 Forschung und weiterführende Literatur Auch wenn sie schon 2011 erschienen ist, ist die Sondernummer von TRANS: revista de traductología ein sehr guter Überblick über die Facetten der Games-Lokalisierung, von den unterschiedlichsten Standpunkten aus (Geopolitik, Transcreation, Beiträge zu unterschiedlichen Spieltypen, Fanübersetzungen, Wirtschaft). Die noch immer wichtigsten umfassenden Publikationen zum Thema sind Chandler / OʼMalley Deming (2012), Mangiron / O’Hagan (2013) und Bernal-Merino (2015). Bernal-Merino ist am deutlichsten didaktisch orientiert und bietet von allen dreien die größte Menge an Bildmaterial. Für wissenschaftlich Interessierte ist Mangiron / O’Hagan die beste Wahl. Mangiron / Orero / O’Hagan (2014) ist eine Sammlung zu unterschiedlichen Forschungsfragen. Zhang (2012, 2014) gehört zu den kreativsten Forscherinnen zum Thema Games. Granell empfiehlt eine Reihe von Textsorten und Quellen, die nicht wissenschaftlich orientiert sind, aber eine gute Basis und Diskussionsgrundlage für den Unterricht darstellen: […] video game-related bibliography, gaming-related web sites and blogs, content-rating web sites, video game developers ʼ style guides, glossaries & guidelines, specialised magazines, online databases for games, industry-related web sites, online translation resources (in particular related to gaming culture, cultural cross-references, etc.), online subtitling tools and other AVT tools. (Granell 2011: 198) Von den „gaming-related websites“ ist gamasutra.com besonders zu empfehlen. Hier findet man immer wieder Diskussionen zu Problemen der Game-Lokalisierung und der barrierefreien Gestaltung von Games. Die Beiträge können sehr techniklastig sein. Die Website von Frank Dietz sieht zwar zum Fürchten aus, bietet aber ein hervorragendes Glossar zum Thema Game-Lokalisierung (www.frankdietz.com/ softgloss.htm). Wer sich für weiter entfernte Märkte interessiert, ist mit Ferraz de Souza (2012) gut bedient; hier geht es um Brasilien; oder mit Zhang, die eine Reihe von Artikeln zu Games und China publiziert hat. Japanische Games stehen im Fokus von Di Marco (2007) und O’Hagan (2009b). Mangiron (2018) ist eine aktuelle Darstellung von Problemen der Game-Lokalisierung in der Praxis und im Unterricht. Es gibt auch Forschungsbereiche, die verwandte Themen behandeln und die Impulse für die Games-Lokalisierung liefern können. Kohlmaier / Mandelc (2017) befassen sich 18231_Juengst_SL4�indd 275 18231_Juengst_SL4�indd 275 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 276 8 Games mit Filmversionen von Games; dazu auch Informationen in Tarquini (2014). Schmöller (2012) untersucht Spielfilme mit alternativen Handlungsverläufen, was im Hinblick auf die Multilinearität bzw. potenzielle Linearität von Games interessante Anknüpfungspunkte bietet. 18231_Juengst_SL4�indd 276 18231_Juengst_SL4�indd 276 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 Lösungshilfen Kapitel 2: Interlinguale Untertitelung 1. ARTE und 3sat, die großen Kulturprogramme, bieten immer wieder untertitelte Sendungen. Opern werden in allen Programmen untertitelt. Bei der Erstauflage dieses Buches waren es MTV und VIVA, die englische Sendungen untertitelten. Sofern diese Sender noch existieren, scheint Voice-over die Untertitelung überrundet zu haben. 2. Unterschiedliche Sprachen haben ein unterschiedliches Platzbedürfnis. Sprachen wie Chinesisch brauchen wenig Platz, Sprachen mit Buchstabenalphabeten brauchen mehr Platz. Außerdem variiert der Satzbau von Sprache zu Sprache, so dass man beim Spotting die Zeit anders verteilen würde. 3. Schnelle Dialoge mit Schuss - Gegenschuss sind der Alptraum des Untertitlers. Man versteht darunter, dass die Kamera bei einem Dialog sehr schnell vom Gesicht des einen Sprechers auf das Gesicht des anderen Sprechers wechselt. Das geht oft mehrmals hin und her. 4. Für alle, die die erste Auflage gelesen haben: Ich habe hier meine Meinung geändert. Auch Lehrbuchautorinnen lernen hin und wieder dazu. Am besten ist das erste Beispiel. Die Sinneinheiten sind schön getrennt, das Verb ist nicht von Objekt und Subjekt weggerissen. Die Pyramidenform ist angenehm zu lesen und verdeckt wenig vom Filmbild. Das zweite Beispiel ist indiskutabel. Die obere Zeile ist zu lang. Solche Untertitel sind beim Re-Speaking nicht zu vermeiden, aber bei vorbereiteten Untertiteln ist das nicht notwendig. Das dritte Beispiel ist weder gut noch schlecht. Bei diesem Beispielsatz ist das erste Beispiel besser. Wenn man aber zwei lange Zeilen hat, ist eine solche Aufteilung, bei der das Objekt abgetrennt ist, manchmal nicht zu vermeiden. Auch das vierte Beispiel ist nur beim Re-Speaking oder anderen Formen der Live-Untertitelung akzeptabel. Dreizeiler verdecken zu viel vom Filmbild. Es ist reiner Zufall, dass in diesem Beispiel nichts Interessantes im Bild zu sehen ist. 5. Da gibt es unterschiedliche Vorlieben. Der Unterschied zwischen „einfach weiß“ und „weiß in Box“ ist größer als der zwischen „einfach weiß“ und „weiß mit Rand“. Die Lesbarkeit in der Box ist dafür besser. 6. Manfred blickt nach links oben. Die Stimme der Lehrerin kommt von oben. Wenn es eine längere Pause bis zum nächsten Untertitel gibt, stört ein Übertitel nicht so sehr. Im Normalfall würde man also auch hier einen Untertitel nehmen, so schön der Übertitel ist. 7. Der Hintergrund ist dunkel. Es wird kein Teil des Gesichts verdeckt. Der Untertitel sieht fast aus wie eine Sprechblase. Der Wechsel zwischen linksbündig - zentriert - rechtsbündig lenkt allerdings auch vom Film ab. 8. Das Gesicht ist weit unten im Bild, vor allem die Mundpartie. Wenn die Mundpartie verdeckt wird, stört das sehr. Ein zusätzliches Argument für den linksbündigen Untertitel könnte sein, dass der Untertitel so unter dem Spickzettel steht. 18231_Juengst_SL4�indd 277 18231_Juengst_SL4�indd 277 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 278 Lösungshilfen 9. Im Untertitel angeben, dass jemand Dialekt spricht. Es gibt im Fernsehen hin und wieder Versuche, Untertitel in Dialekt anzubieten (ich glaube mich an ein Beispiel in BR 3 zu erinnern). Das liest sich jedoch sehr schwer und soll eher zur Erheiterung der Zuschauer beitragen. Siehe auch die Richtlinien in 7.12. 10. Trotzdem herumfragen, ob Ihr Freundes- und Bekanntenkreis diese kennt. Im Zweifelsfall ein vereinfachtes Synonym nutzen. Der Untertitel muss aber zur sprechenden Person passen. Sie müssen sich auch fragen, ob die Unverständlichkeit geplant ist. 11. Für Saurierfans sind solche Namen kein Problem - sie erkennen die Tiere sowieso, haben daher keine Leseprobleme und erwarten den korrekten Namen. Achten Sie auf die korrekte Rechtschreibung! Wir Saurierliebhaber sind sehr empfindlich. Bei einem nicht saurierlastigen Programm, bei dem die Saurier nur nebenher auftreten, kann man anstatt „Rhamphorhynchus“ auch mal „Flugsaurier“ schreiben. 12. Man schaut sie sich vermutlich nur einmal an, und auch das nur, wenn man ein echter Fan des Films / der Darsteller ist und den Film mehrmals im Jahr sieht. 13. Großbuchstaben haben eine geringere Formenvielfalt als Kleinbuchstaben. Sie sind einheitlicher in der Breite und haben keine Unterlängen (nur das handschriftliche J fällt hier aus dem Muster). Kleinschreibung kann man gut lesen, aber Assoziationen zu Lyrikern wie Stefan George und Eugen Gomringer sind nicht zu vermeiden. Wenn das erwünscht ist (z. B. in einem Film über ebendiese Lyriker), ist die Entscheidung natürlich gut. 14. Der Untertitel sieht fast so aus, als würde er auf dem Papier stehen und wäre gar kein Untertitel. Untertitel sollten im Normalfall als Untertitel zu erkennen sein. 15. Vermutlich erinnern Sie sich nicht daran … die Beispiele stammen aus den 1960ern bis zu den 2000ern. The Munsters (USA 1964 - 1966), Monty Python’s Flying Circus (Großbritannien 1969 - 1974), Blackadder (Großbritannien 1983, 1986 - 1999) und Daria (USA 1997 - 2002) liefen alle zunächst mit Untertiteln. Die Serien unterscheiden sich erheblich: Blackadder ist eine historische Comedy, die vom Zuschauer sehr gute Kenntnisse der englischen Geschichte und Literatur verlangt. Diese anspruchsvolle Serie lief auf 3sat. Ehrlich gesagt, sehe ich keinen Sinn darin, eine solche Serie zu synchronisieren. Die Witze versteht man nur, wenn man die kulturelle Anbindung versteht. Wer das versteht, kann vermutlich sehr gut Englisch. Monty Python’s Flying Circus ist eine der bekanntesten Comedy-Serien überhaupt. Oft wird gekalauert, oft spielen Wortspiele eine Rolle. Die kulturelle Anbindung ist aber nicht so stark wie bei Blackadder . Monty Python hat eine sonderbare Verbindung zu Deutschland, denn es gibt tatsächlich auf Deutsch produzierte Teile. Daria ist ein Trickfilm für Jugendliche, der ursprünglich auf MTV lief. Daria ist eine stets gelangweilte, hochintelligente Jugendliche. Der Film spricht eine Zielgruppe an, die englischsprachige Musik hört und gute Englischkenntnisse hat. Die deutsche Synchronfassung ist gut, aber wer einmal Darias gelangweilte Originalstimme gehört hat, wird süchtig. 18231_Juengst_SL4�indd 278 18231_Juengst_SL4�indd 278 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 279 Die Serie The Munsters ähnelt der Addams Familiy, ist aber familienfreundlich, eher lustig als zynisch und längst nicht so morbide. Die Serie lief in der ARD im frühen Nachmittagsprogramm mit Untertiteln. 16. Bei Opernübertragungen wird die Handlung der einzelnen Akte im Voraus kurz zusammengefasst. Eine ähnliche Praxis gibt es bei Opern-Audiodeskriptionen für Blinde. Ähnliche Texte findet man im Programmheftchen im Theater. Kapitel 3: Synchronisation 17. Wenn man einen Film sieht, hat man zusätzlich zur Originalsprache meist Untertitel. Man muss die Fremdsprache nicht perfekt beherrschen - vielleicht hört man sie einfach nur gerne. Wenn man ein fremdsprachiges Buch liest, muss man die Originalsprache beherrschen oder eine Schulausgabe mit Vokabelangaben bzw. eine zweisprachige Ausgabe benutzen. Beides reißt deutlich stärker aus dem Lesefluss als Untertitel den Filmgenuss stören. Noch problematischer wird das Lesen mit Wörterbuch, gleich ob Print oder online. 18. Fremdheit belassen, eventuell erläutern (Platzproblem! ). Das Bild lässt sich nicht verändern, der Text lässt sich einbürgern - wobei ein Widerspruch zwischen Text und Bild auftreten kann. 19. Besonders bekannt ist „Ja, ich will! “ statt einfach „Ja.“ bei einer Trauung. Pruys führt auch an „Ich habe mit Ihnen zu sprechen (I have to talk to you.)“, „Wie ist seine Adresse? (What is his address? )“ sowie „Job“ statt „Arbeit“ und „Chance“ statt „Möglichkeit“ (2009 [1997]: 159). Letztere haben sich in der Alltagssprache inzwischen vollkommen eingebürgert. Leinert (2017: 55) erwähnt „What’s your name? “ - „Wie ist Ihr Name? “, weist aber darauf hin, dass sie in der Praxis immer „Wie heißen Sie? “ benutzen würde. Aktuelle Anglizismen, wie „in“ vor Jahreszahlen und „Iran“ ohne bestimmten Artikel, stammen allerdings meist aus dem Spiegel und nicht aus synchronisierten Filmen. 20. Je nachdem, wie das Sprichwort im Ausgangstext gebraucht wird, eignet sich „Morgenstund hat Gold im Mund“ oder „Wer zuerst kommt, mahlt zuerst“. 21. Wenn man keinen Film hat, kann man keine Gesten sehen. 22. Eventuell kann man im Dialogtext einen Hinweis einbauen, der die Geste desambiguiert. Meist wird man aber darauf hoffen, dass die Zuschauer auf kulturelle Unterschiede gefasst sind. 23. Es geht eben auch um die zuvor angeführten Synchronitäten - und um die Frage, ob man die Lippen an der betreffenden Stelle überhaupt sieht. 24. Mit einem natürlichen Text gelingt perfekte Lippensynchronität nie. Man würde unweigerlich bei einer Form von Synchronesisch landen oder einen völlig neuen, anderen Text schreiben müssen. 25. Vermutlich müssen Sie sich anstrengen, um sich an einen solchen Fall zu erinnern. Damit soll nicht gesagt sein, dass es so etwas nicht gibt. Aber wahrscheinlich war es an Lösungshilfen 18231_Juengst_SL4�indd 279 18231_Juengst_SL4�indd 279 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 280 Lösungshilfen einer Stelle, an der Ihnen nicht nur die Lippenstellung aufgefallen ist, sondern an der Sie den Ausgangstext verstanden hätten. Dann merkt man eine Diskrepanz deutlicher. 26. Wenn Italienisch schnell gesprochen wird, muss man sich im Deutschen sehr abmühen, ein entsprechendes Tempo und einen entsprechenden Effekt zu erzielen. Im Italienischen geht das durch den Vokalreichtum viel leichter. In der Oper kennt man dieses Problem besonders bei der Übersetzung von parlando ins Deutsche. 27. Vermutlich wäre das deutlicher - aber nicht wegen der Silbenzahl, sondern wegen etwaiger Begleitgesten. Das muss aber noch erforscht werden. 28. Auch hier gilt wieder: Wenn man den Film nicht hat, fehlen die Einstellungen und die Gesten. Eine Dialogliste kann im schlimmsten Fall nur aus Rollennamen und Dialogtext bestehen, ohne Regieanweisungen und Kameraeinstellungen. 29. Militärische Ränge und Militärtechnik kommen in vielen Filmen vor; Leinert weist auf die Komplexität des Hacker-Jargons in The Fifth Estate hin, einem Film über Julian Assange (Leinert 2015: 53). Auch geschichtliche Ereignisse haben in unterschiedlichen Kulturen oft unterschiedliche Namen, besonders wenn es sich um Kriegsereignisse handelt, an denen die betroffenen Nationen auf unterschiedlichen Seiten beteiligt waren. 30. In der Science-Fiction. Hier sei ein Fachartikel zu diesem Thema empfohlen: Wozniak, Monika (2014): „Technobabble on screen: Translating science fiction films“. 31. Tut mir leid, aber den Film sollten Sie sich unbedingt anschauen. Dies ist ein Lehrbuch und das darf auch mal lehrerhaft sein. Die deutschsprachige Szene ist aber grotesk und zeigt eine unerwartete Facette eines erfolgreichen deutschen Industriezweiges. 32. Dialekte lösen Klischeevorstellungen aus. Das liegt auch daran, dass diese in Fernsehserien eine sehr große Rolle spielen, vor allem in Krimis, wo Stereotype eingesetzt werden. Meist sind es dort positive Stereotype. Zu den Dialekten selbst: Wer nicht in Bayern lebt, kann vielleicht noch Fränkisch von Münchnerisch unterscheiden. Aber wie sprechen wohl die Niederbayern? 33. Selbst wenn man gut Französisch kann, ist Verlan eine große Herausforderung. Es handelt sich um einen Jugend-Soziolekt, bei dem die Wörter verdreht werden. Im (inzwischen zwar veralteten, daher aber für historische Themen attraktiven) Cockney Rhyming Slang wird ein Reim zu dem ursprünglichen Wort gebildet; das Wort wird dann aber durch einen Teil des Reims ersetzt, der nichts mit der Bedeutung des ursprünglichen Wortes zu tun hat. Verlan und Cockney Rhyming Slang haben Elemente einer Geheimsprache. Für beide Soziolekte sei linguistische Fachliteratur empfohlen. 34. Das Erste ist Ihre Entscheidung. Und das Zweite Asterix und der Arvernerschild ( Le bouclier arverne , 1972). 35. Vermutlich umgangssprachliches Hochdeutsch mit Einsprengseln wie „Damischer Hirsch, damischer! “ oder „Moin! “ 36. Dialekte können sowohl in Fundubs als auch in der Schnodder-Synchron Anwendung finden, allerdings als ironische Textelemente. 37. Ersatz von Deutsch durch Dänisch (wie hier) oder Niederländisch ist typisch (siehe auch Ivarsson / Carroll 1998) . Nur in Deutschland, Dänemark und den Niederlanden empfindet man das als dämlich. Im vorliegenden Filmausschnitt liegt ein nicht zu 18231_Juengst_SL4�indd 280 18231_Juengst_SL4�indd 280 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 281 unterschätzendes Problem darin, dass der angeblich deutsche Herrmann sehr viel schlechter Deutsch spricht als die amerikanische Ärztin. In der deutschen Version kann niemand Dänisch - es klingt furchterregend. Die dänische Aussprache ist für Deutsche schwer. Hier merkt man es mehr als deutlich. 38. Natürlich wird auch hier beschrieben, was man im Bild sieht - allerdings wird es gesungen, was nicht immer optimal verständlich ist. Für Sehende haben Literal Videos Untertitel. 39. Auch wenn die Gerüchte nicht abnehmen, dass es sich um eine clevere Mercedes-Werbung handelt, stammt auch dieses Video von Dodokay. Es ist so erfolgreich, dass zum zehnjährigen Jubiläum 2017 eine neue Version eingesprochen wurde (www.starwars-union.de/ nachrichten/ 18583/ 10-Jahre-virales-Marketing-auf-dem-Todesstern/ ). 40. Vermutlich fällt es Ihnen jetzt auf. Aber oft sieht man die Gesichter nicht, oft konzentriert man sich auf die Handlung und die Sprüche, die die Helden klopfen. 41. Eigentlich kann man Schnodder-Synchron überall dort einsetzen, wo man niemanden damit verletzt. Also durchaus auch für seriöse Filme. 42. Dafür gibt es verschiedene Erklärungen. Die wahrscheinlichste ist, dass man damit zusätzliche Witze einbauen wollte. 43. Die sogenannten Airline Versions, also Filme, wie sie bei längeren Flügen zu sehen sind, sind tatsächlich stark bearbeitet. Wie man in howstuffworks lesen kann: For the biggest blockbuster movies, studios themselves create an ‚airline version,‘ which is scrubbed of the bloodiest violence, the steamiest love scenes, as well as any references to plane crashes or terrorists. But thereʼs also a booming cottage industry of in-flight entertainment content companies whose job is to edit and distribute customized versions of Hollywood movies to suit the tastes and taboos of different international markets. Durch die Möglichkeit, Filme zu streamen und selbst über einige Inhalte zu entscheiden, hat sich diese Kategorie von Zensur etwas entschärft. Zu diesem Thema Nink 2019 und https: / / entertainment.howstuffworks.com/ what-gets-left-in-out-on-in-flight-movies-nowadays.htm. 44. Es handelt sich um eine sehr persönliche Interpretation - man muss sich dieser Meinung nicht anschließen. Dass eine Veränderung einen positiven Effekt haben soll, wenn sie eine vom Original abweichende Interpretation befördert, stört mich persönlich. Ich muss aber zugeben, dass mir die Bedeutungsebene, die die Basis der im Text folgenden Erklärung von Peiler bildet, nicht bekannt war und dass ich sie niemals erraten hätte. Aber wohlprogrammiert? Ich würde erwarten, dass ein wohlprogrammierter Computer niemanden ermordet. 45. Der Übersetzer muss die neue Musik nicht kennen, um eine gute Übersetzung abzuliefern. Aber bei der Audiodeskription und der Untertitelung für Gehörlose und Hörgeschädigte sollte man erwähnen, dass es sich nicht um die Originalmusik handelt. 46. Warum sollten sie? Sie sind ja mit den Originalstimmen und Originalakzenten vertraut. Was hätte man im Original nehmen sollen - Oxford-Englisch? Auch das ist nur eine kulturspezifische Variante des Englischen. Lösungshilfen 18231_Juengst_SL4�indd 281 18231_Juengst_SL4�indd 281 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 282 Lösungshilfen 47. Man benötigt eine Nachvertonung, wenn die Figur nicht im Bild ist. Auch bei Außenaufnahmen wird fast immer nachsynchronisiert, weil die Hintergrundgeräusche meist zu stark sind. Völlig normal ist die Nachsynchronisation bei Aufnahmen in der Totalen. Auch sonst wird häufiger nachsynchronisiert, als der Laie denkt. Die Tonqualität ist im Studio nun einmal deutlich besser. Außerdem kann man dann auch Filmaufnahmen verwenden, die besonders gut aussehen, bei denen der Ton aber nicht optimal ist (dazu auch Blunck 1998). 48. Ganz banal: Die betreffenden Schauspieler können vielleicht nicht singen. Manchmal wird aber einfach eine bekannte Singstimme gewünscht. 49. Qualitative Lippensynchronität erübrigt sich, da Balu eine Schnauze hat und man keine Lippenbewegungen sieht. Der neue Songtext passt aber sehr gut zur Gestensynchronität und auch zur Nukleussynchronität. Gesten und Text sind koordiniert, wofür auch der Rhythmus der Musik und Balus Tänzchen dazu sorgen. Trotz der Veränderungen im Text passt die Szene, bei der Mogli beinahe unter einem Stein begraben wird. Das gilt auch für die Szene, bei der sich Mogli an dem Stachel einer Frucht sticht. Bei der vorhergehenden Analyse haben Sie vermutlich festgestellt, dass andere Übersetzungen, die näher am Text sind, zwar möglich sind, dass die vorliegende Übersetzung aber durchdacht ist und sich sehr gut singt. 50. Richtig - man kann das programmieren und so die Mundbewegungen an jede Zielsprache anpassen. Natürlich hätte man das bei handgezeichneten Trickfilmen auch tun können. Der Aufwand bei computergenerierten Filmen ist aber geringer. Bei Games wird diese Praxis tatsächlich immer häufiger angewandt. 51. Wahrscheinlich müssen Sie hier schon Ihre Großeltern befragen, denn die Kinder, die sich damals den Film anschauten, kannten die Sängerinnen nicht unbedingt. Es handelte sich also schon damals um eine Doppeladressierung. Sowohl Myhre als auch Ebstein waren Schlagersängerinnen. Myhre sang eher lustige Lieder; Ebstein ist aber auch Chansonsängerin und hat eine hörbare Gesangsausbildung. Beide waren in den 1970er Jahren bekannt und beliebt und traten in vielen Unterhaltungsshows auf. 52. Für den Einsatz als intralinguale Untertitelung ist diese Untertitelfassung nicht optimal. Die Synchronfassung ist jedoch inhaltlich nicht sehr weit von der Originalfassung entfernt, so dass man die Untertitel auch als Hilfe für Gehörlose einsetzen kann. 53. Das erste Lied wird von einem Hitlerjungen gesungen. Ein englischer Text wäre hier vielleicht für deutsche Zuschauer befremdlich gewesen; jedenfalls ist es eine ungewöhnliche und interessante Entscheidung, diesen Song zu synchronisieren. Bei den anderen Sängern mag es vertragliche Auflagen gegeben haben, aber Liza Minelli und Joel Gray waren Weltstars, ihre Stimmen war bekannt und auch die Zuschauer der Synchronfassung wollten sie hören. 18231_Juengst_SL4�indd 282 18231_Juengst_SL4�indd 282 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 283 Kapitel 4: Voice-over 54. Es klingt überraschend, aber dabei treten fast keine Probleme auf. Eine Kürzung um ein paar Silben wie „äh“ und „uh“ wie auch um Wiederholungen genügt. Notfalls kann man den Text minimal schneller einsprechen als der Originalsprecher. 55. Abgebrochene Sätze, Wiederholungen, Grammatikfehler, Soziolekte, Dialekte … all das kann man in O-Tönen finden. Je nach Auftraggeber soll das im Voice-over widergespiegelt werden oder nicht. Bei Dialogen kann schnelles Unterbrechen und Parallelsprechen vorkommen, zum Glück aber selten, denn das löst man meist auf, indem man die Sätze kürzt und hintereinandersetzt. 56. Voice-off hat den Vorteil, dass man die Originalstimme nicht hört; die entsprechende Tonspur ist für die übersetzte Fassung gelöscht. Das bedeutet, dass der Voice-off-Text in Länge und Inhalt an die neue Zielgruppe angepasst werden kann, falls das nötig ist. Wenn man den Sprecher nicht hört, hat man größere Freiheiten. Dazu kommt mehr weiter unten im Kapitel - Sie können sich aber schon einmal überlegen, welche Freiheiten das sein könnten. Im Extremfall könnte man auch lügen. 57. Sicher, das Internet ist die Wissensquelle schlechthin. Gerade bei geschichtlichen Themen, bei denen unterschiedliche Länder unterschiedliche Blickwinkel haben, sollten Sie aber wissenschaftliche Nachschlagewerke verwenden. Bei Themen aus Physik und Chemie ist es gar nicht so einfach, gute Texte im Internet zu finden. Die in Wikipedia sind überraschenderweise meist nicht populärwissenschaftlich, sondern ziemlich fachsprachlich. Kindersachbücher und Schulbücher sind ein besserer Einstieg in komplexe naturwissenschaftliche Themen. 58. Oft klärt das Bild Unstimmigkeiten, besonders bei Synonymen. 59. Der Übersetzer muss über ein ausreichendes Fachwissen verfügen, um Fehler zu erkennen. Das sollte man nicht unterschätzen. Vom Übersetzer wird ein umfassendes Qualitätsmanagement verlangt. So muss der Übersetzer eigenverantwortlich einen Faktencheck durchführen. Auch hier wird erlaubt, beim Voice-off freier zu schreiben. Man sollte aber darauf achten, dass man dann nicht einfach seine eigene Meinung äußert. 60. Hier haben wir nur einen Kommentar im Voice-off im typischen allwissenden Erzählstil. Der gesamte Film, aus dem die Vorlage stammt, enthielt ausschließlich den Kommentar, Musik und Tierlaute, keine Texte für Voice-over. 61. Zumindest haben wir die Information OC, was „on camera“ bedeutet, also „im Bild“. Wir haben verschiedene Sprecher. Die Sprecher sind vermutlich nicht gleichzeitig im Bild, sondern es handelt sich um Einzelaufnahmen, die hintereinander montiert wurden. 62. Hier sind die Einstellungsgrößen enthalten sowie Informationen, welche Textteile O-Töne sind und welche nachgestellt ( recreation ). Es sind zwei Timecodes enthalten, einer für die Bildspur und einer für die Tonspur. Mit einem solchen Skript kommt man auch ohne Film gut zurecht. Lösungshilfen 18231_Juengst_SL4�indd 283 18231_Juengst_SL4�indd 283 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 284 Lösungshilfen 63. Wir wissen hier, dass es sich um eine Episode einer Serie handelt. Wir wissen, wann der Abspann anfängt (Credits). Auch die Beschreibung der Bilder ist relativ genau (CGI = computer-generated image). Geräusche sind angegeben. Der Timecode richtet sich teilweise nach dem Kommentar (hier COMM), teilweise ist die Zuordnung unklar. Das bedeutet, dass der Voice-over-Übersetzer die Timecodes für das Voice-over selbst einfügen muss. Der Filmteil vor Act One ist eine typische Eingangssequenz für dramatisch gestaltete, amerikanische Dokumentationen mit Schauspielanteil: Er ist aus einzelnen Szenen zusammengesetzt, die irgendwo im Hauptfilm vorkommen. Was der Übersetzer jedoch nie übersetzt, sind Serientitel und Episodentitel. Das macht normalerweise die Verleihfirma. 64. Der Erzähler setzt keineswegs immer einen neutralen, auf Informationsvermittlung ausgelegten Kommentatorenton ein, wie es im ersten Beispiel der Fall ist. Dort spricht er nüchterne Hochsprache. Er kann aber auch Spannung erzeugen und ziemlich marktschreierisch klingen. Das gilt besonders für die Einstiegssequenzen. Auch dort wird zwar Hochsprache benutzt, doch die Funktion ist nicht auf Information ausgerichtet, sondern auf das Erzeugen von Emotionen, von einem Sog. Dazu gehören auch die aus dem Zusammenhang gerissenen Sätze. Im Vorlagenfilm hört man den Erzähler diese Sätze raunen. In den Interviews wird frei gesprochene Sprache benutzt, mit fachsprachlichem Anteil. In den nachgedrehten Szenen sprechen die Schauspieler geskriptete Umgangssprache. 65. Die lateinischen Bezeichnungen sind verbindlich, auch wenn es bei manchen Spezies konkurrierende Bezeichnungen gibt. Über die lateinischen Bezeichnungen findet man in jeder Zielsprache die zielsprachliche Bezeichnung. Zusätzliche Angaben benötigt man hier eigentlich nicht. Wenn es aber Probleme gibt, weil die Zuordnung unpräzise ist und man genug Zeit zur Recherche hat, sollte man Zoologen kontaktieren. Museen bieten sich dazu an. 66. Lateinische Wörter werden im Englischen völlig anders ausgesprochen als im Deutschen. Oft verstehen Deutsche die englische Aussprache überhaupt nicht - wie auch umgekehrt. Auch die Betonung des Lateinischen ist im Deutschen relativ einheitlich (auch wenn Lateinlehrer nicht immer glücklich mit der Betonungsvariante sind, die sich im Alltag durchgesetzt hat) und völlig anders als im Englischen. Am besten suchen Sie im Internet eine lateinische Messe aus dem englischen Sprachraum, um eine Vorstellung von den Klangunterschieden zu bekommen. Auch bei Lehnwörtern aus anderen Sprachen ist eine am Englischen orientierte Aussprachehilfe für deutsche Sprecher sinnlos. Der Lautbestand des Englischen ist anders als der des Deutschen. Aussprachehilfen für Deutsche müssten anders aussehen. 67. Auch wenn es sich um einen Voice-over-Auftrag handelt, kann es die Vereinbarung geben, dass hier ebenfalls Untertitel genutzt werden. Außerdem kann man die Originalsprache gut hören und an einen Übersetzer dieser Sprache weiterleiten. Wenn die UT nicht fest mit dem Film verbunden sind, kann man sie löschen und durch VO ersetzen. Wenn man die UT nicht löschen kann, kann das Tonstudio oder die Leitung der Postproduktion allgemein auch entscheiden, diese Passage ebenfalls zu untertiteln 18231_Juengst_SL4�indd 284 18231_Juengst_SL4�indd 284 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 285 und dabei gegebenenfalls die deutschen UT so über die vorhandenen UT zu legen, dass man letztere nicht mehr sieht. 68. Die anderen Richtlinien kennt man vielleicht oder kann sie anfordern. Außerdem entstehen genau die Probleme, die bei Relais-Übersetzungen immer entstehen: Eine Übersetzungsentscheidung folgt der anderen, es können sich immer weitere Bedeutungsverschiebungen ergeben. Noch schlimmer: Fehler werden weiter und weiter verschleppt. 69. Beim Skispringen werden mit dem deutschsprachigen Programm Deutschland, Österreich, Teile der Schweiz und Teile Italiens erreicht. Entsprechend werden die Sprünge aus all diesen Ländern bejubelt, oft von Experten aus den verschiedenen Ländern, die als Team kommentieren. Bei Einzelsportarten ist das einfacher als bei einer Sportart, bei der sich zwei Teams gegenüberstehen. Ein Voice-over für die französische Schweiz oder die italienische Schweiz und Italien südlich von Tirol wäre ebenfalls erheblich leichter, weil man viele Begeisterungsstürme übernehmen könnte. 70. Aus rein zeitlichen Gründen: Wo es eilt, kann man nicht skripten. Heutzutage kann man ein Computerprogramm zum Skripten nutzen. Bei Galas gibt es vorbereitete Dankesreden. Wenn der Sender an diese Texte herankommt, bekommt man sie auch. Aber Vorsicht: Es gilt das gesprochene Wort! 71. Diese Videos haben oft nur Voice-off. Voice-over bietet sich aber dort an, wo ein Firmenchef zu seinem Publikum spricht. Selbstverständlich sind hier auch Untertitel möglich. Der fachsprachliche Anteil ist extrem hoch. Viele Firmen verfügen jedoch über mehrsprachige Glossare, besonders dann, wenn es internationale Niederlassungen gibt. 72. Sprecher können aus unterschiedlichen Gründen beim Sprechen stocken. Wenn sie einfach nur schlechte Sprecher sind, hat man durch das Stocken einen Zeitgewinn für das Voice-over. Wenn sie aber einen schwierigen Sachverhalt erklären, bietet sich eine Pause im Voice-over an, damit die Zuschauer die Schwierigkeit des Themas nachvollziehen können. 73. Gerade Entscheidungen zum Gender sind kulturspezifisch - aber auch genrespezifisch. Bei Dokumentarfilmen findet man in Deutschland deutlich mehr männliche Stimmen. Bei einem Film über Militärjets würde man vermutlich keine Frauenstimme nehmen, auch wenn es in Deutschland Verteidigungsministerinnen gab und gibt. Trotzdem: Ein Genderwechsel bietet sich nur für das Voice-off an, nicht für das Voice-over. Das bedarf keiner Erklärung. Eine Dokumentation über die Männer-Bundesliga würde mit ziemlicher Sicherheit auch von einem Mann als Narrator eingesprochen. Eine Frauenstimme würde auch heute noch als „Zeichen“ interpretiert und entsprechend diskutiert - es sei denn, es handelt sich um eine aus Funk und Fernsehen bekannte Sportjournalistin. 74. Es trifft nicht auf alle Sprecher zu, aber auf viele: Es handelt sich nicht um Native Speakers des betreffenden Dialekts, der Dialekt ist erlernt und wird wie eine Fremdsprache gesprochen. Das fällt natürlich besonders den Native Speakers dieses Dialekts auf und kommt nicht gut an. Lösungshilfen 18231_Juengst_SL4�indd 285 18231_Juengst_SL4�indd 285 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 286 Lösungshilfen Kapitel 5: Filmdolmetschen 75. Der Zeitdruck wird immer schlimmer - man muss dann schnell sprechen und trotzdem den Dialog nicht vernachlässigen. 76. Nicht jeder Dolmetscher kann gut vorlesen. 77. In den Untertiteln können bereits Fehler enthalten sein. Sie können auch schon weit vom Originaltext entfernt sein und werden durch die Verdolmetschung noch weiter davon entfernt. So entsteht eine zunehmende Verfremdung. 78. Die Aufführungen werden zweisprachig anmoderiert. Die Sprünge zwischen den Sprachen sind ausgesprochen elegant. Die Zweisprachigkeit wirkt völlig selbstverständlich. 79. „Interessantere Filme auswählen“ ist sicher eine gute Idee, aber auch bei Kindern sind die Geschmäcker verschieden. Kinder drehen sich durchaus zum Dolmetscher um und fragen: „Was machst’n du da? “, auch wenn der Film interessant ist. Es ist auf jeden Fall sinnvoll, das Publikum im Voraus auf die Verdolmetschung hinzuweisen. Sonst geht es wie bei der älteren Dame, die mich nicht als Dolmetscherin wahrnahm und entsetzt sagte: „Ich höre Stimmen! “ 80. Man kann nicht die verlogenen Dialoge und die ehrlichen Untertitel gleichzeitig dolmetschen. Wenn man vorher Bescheid weiß, kann man am Anfang der Szene aber sagen, dass die Figuren lügen und dass man die wahren Gedanken in den Untertiteln lesen kann. Die Zuschauer müssen sich dann ihren Teil denken. Außerdem können viele Menschen, die gesprochenes Englisch nicht gut verstehen, das Englische einigermaßen lesen. 81. Filmdolmetschen ist selten und vergänglich. Wenn man es nicht aufnimmt, kann man es nicht analysieren. Aufnahmen sind bei Festivals aber oft aus Copyrightgründen verboten. Kapitel 6: Barrierefreiheit 1: Audiodeskription für Blinde und Sehgeschädigte (Hörfilme) 82. Dass man nicht über den Filmdialog hinwegsprechen darf, ist klar. Wichtige, klar identifizierbare Geräusche darf man ebenfalls nicht überdecken. Und auch die Filmmusik sollte nicht immer der Audiodeskription weichen müssen, besonders dann nicht, wenn sie leitmotivisch gestaltet ist. 83. Die Glücksritter wurde vermutlich ausgewählt, weil die Helden der Geschichte ein Blinder und ein Gehörloser sind. 84. Auch bei einem guten automatisch generierten Text ist die Satzstellung nicht immer optimal. Noch ist fraglich, ob man einem solchen Programm die typischen Stilmittel einer Audiodeskription beibringen kann. 85. Die Alternativen, die zu „walk“ vorgeschlagen werden, sind nicht bedeutungsgleich. Sie heben besondere Aspekte der jeweiligen Fortbewegung hervor und rufen so andere Vorstellungen auf. Die aufgestapelten Elefanten hingegen sind kreativ und individuell. 18231_Juengst_SL4�indd 286 18231_Juengst_SL4�indd 286 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 287 Ob sie wirklich eine bessere Beschreibung darstellen als eine Höhenangabe in Metern, sei dahingestellt. 86. Man kann nicht pauschal sagen, was alles in die Beschreibung gehört. Besondere Merkmale wie eine ausgefallene Frisur oder ein Kleidungsstück, dass die Figur stets trägt, müssen genannt werden. Alter, Körpergröße und Gewicht tragen viel dazu bei, wie man sich eine Figur vorstellt und gehören ebenfalls in die Beschreibung. Wichtig ist auch hier, dass man nicht wertet („ein alter Mann mit ekelhaften Eiterbeulen“). 87. Ausländische sehende Zuschauer erkennen die Gebäude vermutlich nicht (vielleicht den Alexanderplatz, aber nicht die anderen). Aber - falls Sie Deutsche/ r sind - hätten Sie wirklich alle Gebäude auf den ersten Blick benennen können? Das Haus des Lehrers hat bei mir im Unterricht bisher nur eine Lehrerstochter aus Leipzig spontan erkannt, kein einziger Wessi. 88. Hat die Entscheidung für die Beschreibung mit der Zielgruppe zu tun? Sicher, das ist der Wolf aus Rotkäppchen in Großmutters Nachthemd. Es ist aber auch eine Parodie auf das Gemälde Arrangement in Grey and Black: The Artist's Mother von James McNeill Whistler. Kasper und das Krokodil sind kulturspezifisch. 89. Haben Sie in der letzten Beschreibung etwa das Martinshorn erwähnt? Wenn es sich um einen Film handelt, brauchen Sie das nicht. 90. Zur ersten Frage: Bei der Dozentin werden Sie wahrscheinlich kurz gesagt haben: Eine Dozentin an der Flipchart. Oder nur: Eine Frau an der Flipchart. Problematisch wird es hier, wenn sie nicht auch vorliest, was auf der Tafel steht. Bei der Straße ist es schwieriger. Es kommt ganz darauf an, was für einen Film Sie sich vorgestellt haben. Ist einfach nur wichtig, dass wir eine ruhige Straße sehen? Oder ist der Dackel besonders wichtig, weil er die Hauptfigur des Films ist? Vielleicht möchten Sie ihm einen Namen geben. Oder das Kind, das aus dem Fenster sieht? Oder vielleicht die karierte Reisetasche? Filmliebhaber wissen, dass karierte Reisetaschen extrem wichtig sein können. 57 Wenn Sie bei der Dozentin eine Pause machen, beschreiben Sie vermutlich im zweiten Schritt, was an der Tafel steht. Wenn Sie bei der Straßenbeschreibung eine Pause machen, beschreiben Sie vermutlich zuerst das Haus, generell das Unbelebte. Im zweiten Schritt dann den Hund und die Reisetasche. Wenn Sie die Reisetasche für besonders wichtig halten, kommt diese zuletzt, vielleicht mit einer kleinen Kunstpause. 91. Zunächst sind diese Regieanweisungen so ausführlich, dass man sie niemals vollständig in eine Audiodeskription überführen könnte. Man müsste also viele der Details weglassen. Dazu kommt, dass sich kaum ein Regisseur oder Bühnenbildner an Ibsens Regieanweisungen hält. Für Theateraufführungen nutzt das Reclam-Heft daher nichts. Man benötigt aktuelle Regieanweisungen, die sich auf die entsprechende Aufführung beziehen. 57 Falls Ihnen das nichts sagt: Schauen Sie sich doch einmal Is ʼ was, Doc? ( What’s Up, Doc? USA 1972) an. Lösungshilfen 18231_Juengst_SL4�indd 287 18231_Juengst_SL4�indd 287 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 288 Lösungshilfen 92. Eigentlich ganz OK für eine Audiodeskription, auch wenn sie persönlich gefärbt ist. „Humba-täterä“ hört man - und Fastnachtslieder singen nur wir Mainzer, also können Fußballfans es zuordnen und die Information kann bei Zeitmangel wegfallen. Man kann diese Audiodeskription allerdings besser im Stadion der 05er einsetzen als in dem der gegnerischen Mannschaft - der Reporter ist ganz klar ein Fan. Wenn in Fußballstadien live für eine Besuchergruppe audiodeskribiert wird, richtet man sich danach, welchen Verein diese unterstützen - oder gerade nicht, aber das ist nicht freundlich. Ach, und zum Inhalt des Beispiels hier: Man wird doch wohl mal träumen dürfen! 93. Es handelt sich um eine Erzählung im typischen Märchenton, bei der ein einziger Erzähler die gesprochenen Texte der Figuren wiedergibt, aber auch beschreibt und interpretiert. Vieles, was im Bild zu sehen ist, wird nicht beschrieben, könnte aber in diese Erzählung eingepasst werden. 94. Der „Held“ könnte sich selbst beschreiben. Die eigene Stimme macht das persönlicher. 95. Talkshows. Es wäre nicht schlecht, wenn sich Promis bei ihren Webauftritten auch mit einer Audio vorstellen würden. Für eine Talkshow müsste der Sender dann nur die Audios der Gäste auf seine Webseite hochladen. Einige Politiker haben Podcasts, so dass man Audios der jeweiligen Stimmen gut finden kann. 96. Die Wahl von „Animationsfilm“ statt „Trickfilm“ zeigt eine Verschiebung des Fachbegriffs in der Alltagssprache an, ist für die Zielgruppe aber nicht geeignet. 97. Man kann die Bezeichnung als taxonomischen Fehler sehen, denn man sieht im Film klar die Fangarme und den herzförmigen Kopf. Außerdem ist die Gottesanbeterin im Gegensatz zur Heuschrecke kein Sympathieträger. Für die Entscheidung spricht aber, dass Heuschrecken abgesehen von diesen Punkten nicht sehr anders aussehen als Gottesanbeterinnen, der Zielgruppe aber eher bekannt sein dürften. 98. Diese Beschreibung ist zu allgemein, da für die sehenden Zuschauer an Position und Körperhaltung der anderen Bienen erkennbar ist, dass es sich um eine Gang handelt. 99. Bei den Honigspielen scheidet jeden Abend die Mannschaft aus, die am schlechtesten abgeschnitten hat. Am ersten Abend ist das die Mannschaft „Kraut und Rüben“ (00: 31: 53). Am zweiten Tag, einem Kletterwettbewerb, heißt es in der AD jedoch: „Maja fliegt an den letzten zweien von ‚Kraut und Rüben‘ vorbei.“ (00: 42: 45) und „Tropfen treffen zwei von ‚Kraut und Rüben‘.“ (00: 41: 28). Schon bei 00: 41: 20 sieht man drei Mannschaften beim Klettern - „Dampfhammer“, „Summtropolis“ und „Klatschmohn“. Tatsächlich gehören die angeblichen „Kraut und Rüben“-Mitglieder in diesem Wettbewerb zum Team „Dampfhammer“. Man kann sie eindeutig als Hirschkäfer erkennen, wie bei der Vorstellung der Mannschaften erwähnt (00: 21: 53 - 00: 22: 16). 100. Bernhard Blocksberg ist nicht immer im Bild. Wie kann er wissen, was geschieht, wenn er nicht dabei ist? Im Film wurde das mit dem Satz: „Was ich nicht sehe …“ gelöst, der aber unlogisch wirkt, wenn Blocksberg gleich darauf beschreibt, was er eben nicht sehen kann. 101. Eine Möglichkeit wäre, den übersetzten Text zur DVD so anzubieten, dass man ihn auf einer am Computer angeschlossenen Brailleleiste in Brailleschrift ausgeben kann. 18231_Juengst_SL4�indd 288 18231_Juengst_SL4�indd 288 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 289 102. Fans erfahren gern etwas über die Drehorte und fahren hin, wenn möglich. Eventuell existiert eine Buchvorlage, über die man mehr Informationen anbieten könnte. Aber Sie haben sicher noch viele Ideen. Kapitel 7: Barrierefreiheit 2: Untertitelung und Verdolmetschung für Gehörlose und Hörgeschädigte 103. Form, Standzeit, Umfang, Schriftgröße, Einblendung, Synchronität, Orthographie, Abkürzungen, Zahlen, Stil, Selbsterklärendes. Also eine ganze Reihe von Aspekten, die Sie im Kapitel zur interlingualen Untertitelung finden. 104. Bei vielen Sportarten geschieht am unteren Bildrand mehr als am oberen Bildrand. Oft sieht man oben nur die Zuschauertribüne. Man macht also Übertitel. Abbildung 56: Da sind Spieler verdeckt - und was, wenn der Ball nach unten gespielt wird? Abbildung 57: Oben geschieht weniger! 105. Die getrennten Untertitel sind gut zuzuordnen. Beim durchgehenden Untertitel gibt es keinen so großen Unterschied zur Platzierung der vorhergehenden und der nachfol- Lösungshilfen 18231_Juengst_SL4�indd 289 18231_Juengst_SL4�indd 289 19�08�2020 12: 40: 15 19�08�2020 12: 40: 15 290 Lösungshilfen genden Untertitel und man kann ihn einsetzen, gleich wer als erster spricht. Die dritte Lösung bedeutet, dass der junge Mann zuerst spricht. In vielen Richtlinien werden aber einfach zwei untereinanderstehende Zeilen empfohlen. Abbildung 58: Mutter ruft aus der Küche Abbildung 59: Stimme im Off mit zusätzlichem Text 106. Im Englischen bietet sich (off) bzw. [off] an, um zu markieren, dass der Sprecher nicht zu sehen ist. Das wird auch im Deutschen ab und an gemacht. Man kann auch den Namen der Person im Off vor die Äußerung stellen, die Äußerung oder den Namen zusätzlich in eckige Klammern setzen. Wenn man genug Platz hat, kann man den Ort angeben, etwa [Mama in der Küche]. Beim zweiten Bild sollte man ebenfalls angeben, dass die Stimme aus dem Off kommt. Bei interlingualen Untertiteln wird das oft nicht gemacht. Hörgeschädigte nutzen schließlich auch interlinguale Untertitel; Hörenden schadet die Zusatzinformation nicht. 107. „Talking Heads“, also Teile von Nachrichtensendungen, Talkshows und die Zweitverwertungssendungen der Dritten Programme am Nachmittag mit ihren Phone-in-Expertengesprächen; auch lange Moderationstexte bei Sendungen wie XY . In all diesen Fällen ist das Bild nicht wichtig, weil man nur Moderatoren oder Nachrichtensprecher sieht, so dass man sich auf die Untertitel konzentrieren kann. 18231_Juengst_SL4�indd 290 18231_Juengst_SL4�indd 290 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 291 108. Das Absehen funktioniert dann nicht mehr; auch Schwerhörige können den schwach hörbaren Laut nicht mit dem Untertitel in Verbindung bringen. Ich kenne Schwerhörige, die beim Fernsehen lieber den Ton abstellen und die Untertitel zuschalten. 109. Das wäre wirklich Bevormundung! Stellen Sie sich vor, jemand würde das mit Ihnen machen - das ist wie ein bei jedem Schimpfwort eingeblendeter Ooops-Laut. 110. Bei dem ersten Untertitel geht der Finnland-Bezug komplett verloren. „Mökki“ ist auch für die Hörenden ein Fremdwort. Durch die Gesten im Bild kann man es eindeutig dem Gegenstand zuordnen. Der zweite Untertitel ist angenehm kurz und durch die Situation desambiguiert. Die drei anderen Beispiele stammen aus einem Münsteraner Tatort mit seinen kauzigen Charakteren, die stark durch ihre Idiolekte charakterisiert sind. Professor Börnes schwurbelige Sprache muss leider gekürzt werden, inklusive der exklusiven Wortwahl. Doch die ungewöhnliche Ersatzstrategie, in einem anderen Untertitel das Wort „verprassen“ zu wählen, gleicht dies aus. Allerdings passt sie überhaupt nicht zum Mundbild. Die beiden anderen Kürzungen sind gut lesbar. Den exzentrischen Charakter muss man an Mimik und Gestik ablesen. 111. Die neuen Emoticons sind unzählig - viele sind überdies kulturspezifisch und nicht leicht zu verstehen. Die bildliche Darstellung ist technisch dort problematisch, wo man auf eine Standardtastatur zurückgreifen muss, die keine Shortcuts zum Emoticon vorsieht. Beim klassischen Videotext im Fernsehen ist das der Fall. 112. Nein, nicht alle Spätertaubten - aber die Comicleser verstehen sie auf jeden Fall, ganz gleich, welche Form der Hörschädigung vorliegt! 113. Man kann die Stimmung beschreiben: „bedrohliche Musik“, „heitere Musik“. Man kann den Stil beschreiben: „klassische Musik“, „Jazz“. Auch die Wahl des Musikstils hat einen großen Einfluss auf die Stimmung. Videotextseiten im öffentlich-rechtlichen Fernsehen bieten zum Beispiel zum Tatort eine Liste der eingesetzten Songs und Musikstücke an. 114. Diesen Motiven gibt man am besten Namen, „Indiana-Jones-Musik“ zum Beispiel. Die Wahl hängt von den Firmenrichtlinien ab. Es handelt sich um typische Leitmotive, die anzeigen „jetzt kommt er! “ 115. Gerade im letzten Fall sollte man in den Untertiteln z. B. anmerken, dass die Musik lustig ist, obwohl im Bild eine gruselige Gangsterszene zu sehen ist. 116. Auch wichtige Songs können im Hintergrund laufen, während die Figuren sich unterhalten. Auch dann, wenn beides wichtig ist, die Filmemacher aber damit rechnen, dass man den Song im Hintergrund kennt und den Bezug zur Handlung versteht. 117. Vor allem dann, wenn das Publikum mitsingen möchte. Das können so unterschiedliche Situationen sein wie eben die Hymnen vor Fußballspielen und anderen Sportereignissen oder Übertragungen von Rock-Konzerten. Natürlich macht man es auch bei Opern - vielleicht auch zum Mitsingen, aber siehe Kapitel 2.6. 118. Karaoke-Untertitel zeigen an, welches Wort gerade gesungen wird, und stehen die gesamte „Singzeit“. Das ist nicht nur zum Mitsingen schön, sondern auch für Hörgeschädigte, die so gut verfolgen können, wo man gerade ist. Lösungshilfen 18231_Juengst_SL4�indd 291 18231_Juengst_SL4�indd 291 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 292 Lösungshilfen 119. Für alles, was nicht vorbereitet werden kann: Nachrichten, Sportereignisse, Talkshows. 120. Shadowing und Simultandolmetschen sind mit dem Re-Speaking verwandt, weit mehr als das Untertiteln bei vorbereiteten Filmen. Die Re-Speaker müssen ebenso wie Simultandolmetscher multitaskingfähig sein. 121. Moderatorentexte liegen teilweise schon vor der Sendung vor. Für „Stücke“, also längere Beiträge im Film, oder „NIFs“ (Nachricht im Film), kürzere Beiträge im Film, gilt dies ebenfalls. Wenn es aktuelle Ereignisse gibt, über die schnell berichtet werden muss, kann die Reihenfolge der Beiträge verschoben werden. Allerdings kann es passieren, dass die Beiträge nochmals verändert werden, Szenen umgestellt und neu getextet werden, und dann war die Vorarbeit umsonst. Bei plötzlichen wichtigen Ereignissen können die Beiträge auch ganz gestrichen werden. In solchen Fällen werden Stücke außerdem oft so spät eingereicht, dass man sie nur mit Re-Speaking untertiteln kann. Falls diese Stücke in einer späteren Nachrichtensendung nochmals gesendet werden, werden die Untertitel vorher oft nachbearbeitet. 122. Talkshows jeder Art. Die Bilder sind, abgesehen vom Gesichtsausdruck der Teilnehmer und gelegentlichen Übergriffen, nicht besonders informativ und können in der unteren Hälfte verdeckt werden. Das sieht man auch am nachfolgenden Beispiel: Abbildung 60: Talkrunde ohne Untertitel Abbildung 61: Dreizeiliger Untertitel 123. Sie ziehen vorbei. Er wirft den Speer. Dies ist seine Saisonbestleistung. Man sieht hier Gewitterschwaden. Das Springen in Zakopane. Man muss auch vor Stefan den Hut ziehen. 124. Beim ersten und beim zweiten Beispiel sieht man, was passiert. Auch beim vierten Beispiel ist das so. Beim fünften Beispiel wissen Skisprungfans, worum es geht. Auch beim dritten Beispiel können Fans an den eingeblendeten Werten erkennen, worum es geht, auch wenn sie das vielleicht nicht mit den Untertiteln in Verbindung bringen. 18231_Juengst_SL4�indd 292 18231_Juengst_SL4�indd 292 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 293 Das letzte Beispiel ist nicht zu entschlüsseln, weil das Bild keine Verbindung zu dem Satz hat, der dazu noch einen verständlichen, aber absurden Inhalt hat. 125. Genau - schon wieder die unterschiedlichen Zielgruppen. 126. Lesealter, DGS als Muttersprache vs. Lautsprache als Muttersprache (bei Kindern manchmal intensiver als bei Erwachsenen), Interesse an Sendungen, die für ein anderes Zuschaueralter gedacht sind. 127. Nicht nur der Wortschatz, auch der Satzbau wird bei Lesebüchern für die Grundschule wie auch bei Erstlesebüchern von Kinderbuchverlagen festgelegt. Der Satzbau ist aber natürlicher als bei Leichter Sprache und enthält deutlich häufiger Nebensätze. Wortlisten findet man im Internet. 128. Beispielsweise: kleine saure Gurke, Fledermaus, den Bus sieht man hoffentlich im Bild. Und auch der Schokoladenfruchtzwerg ist eine Fledermaus. Auch wenn Sie das vielleicht nicht erwartet haben. Kapitel 8: Games 129. Sicher, das sind Konventionen, die sich irgendwann eingebürgert haben. Fans mögen diese Lösungen erwarten. Das heißt aber nicht, dass es nicht irgendwann Änderungen gibt. 130. Neben dem zuvor erwähnten emotionslosen Einsprechstil werden sich sicher Fans beschweren, dass die Übersetzungen nicht optimal sind. Alles gewusst? Hier kommt ein Fleißbienchen! Abbildung 62: Ein Bienchen für Sie - weiterhin viel Spaß! Lösungshilfen 18231_Juengst_SL4�indd 293 18231_Juengst_SL4�indd 293 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 18231_Juengst_SL4�indd 294 18231_Juengst_SL4�indd 294 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 Bibliographie Mit dem Interesse an der audiovisuellen Übersetzung hat die Zahl der Veröffentlichungen dazu exponentiell zugenommen. Ein kompletter Überblick ist nicht mehr zu leisten, auch nicht, wenn man sich auf wenige Sprachen beschränkt. Die nachfolgende Bibliographie ist daher keine vollständige Auflistung der vorhandenen Forschungsarbeiten. Sie enthält auch triviale Quellen, da diese das allgemeine Interesse an der Thematik widerspiegeln. Auf eine Filmographie wurde ebenfalls verzichtet. Angaben zu Land und Jahr sind bei den Filmtiteln im laufenden Text angeführt. Wenn nicht anders angegeben, wurden die Links am 04.04.2020 zum letzten Mal überprüft. Fachzeitschriften Die hier angeführten Fachzeitschriften verfügen alle über einen freien Online-Zugang. Nur bei Meta ist der Zugriff auf Ausgaben beschränkt, die mindestens zwei Jahre alt sind. Für das Literaturverzeichnis wurden die Zeitschriften selektiv ausgewertet. inTRAlinea (www.intralinea.org/ ) JAT - Journal of Audiovisual Translation (www.jatjournal.org/ index.php/ jat) JOSTRANS: Journal of Specialised Translation (www.jostrans.org) Meta : Meta - journal des traducteurs / Meta: Translators’ Journal (www.erudit.org/ en/ journals/ meta/ #back-issues) New Voices in Translation Studies (www.iatis.org/ index.php/ new-voices-in-translation-studies) Rezensionszeitschrift zur Literaturübersetzung - ReLü online (www.relue-online.de) Revista Tradumàtica (https: / / revistes.uab.cat/ tradumatica) trans-kom - Zeitschrift für Translationswissenschaft und Fachkommunikation (www.trans-kom.eu) TranscUlturAl - A Journal of Translation and Cultural Studies (https: / / journals.library.ualberta.ca/ tc/ index.php/ TC/ issue/ archive) Texte (Print und PDF) AARSETH, Espen (2003): „Playing Research: Methodological Approaches to Game Analysis.“ Paper from spilforskning.dk Conference. AKTION MENSCH e. V. (2016): Mediennutzung von Menschen mit Behinderungen . Bonn etc. AGULLÓ, Belén / MATAMALA, Anna (2019): „Subtitling for the deaf and hard-of-hearing in immersive environments: results from a focus group.“ JOSTRANS 32. 217-235. www.jostrans. org/ issue32/ art_agullo.pdf. ALEXANDER, Scott / KARASZEWSKI, Larry (1995): Ed Wood . London: Faber and Faber. ALLEN, Woody (1983): Four Films of Woody Allen (Annie Hall, Manhattan, Interiors, Stardust Memories). London: Faber and Faber. 18231_Juengst_SL4�indd 295 18231_Juengst_SL4�indd 295 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 296 Bibliographie ALLEN, Woody (1981): Der Stadtneurotiker . Zürich: Diogenes. ALEKSANDROWICZ, Pawel (2019): „The Reading Comprehension Skill of d/ Deaf and Hard-ofhearing Poles and Ist Importance for Media Accessibility. A Pilot Study.“ Journal of Audiovisual Translation 2.1. 26-52. ALFARO DE CARVALHO (2012): „Quality Standards or Censorship? Language Control Policies in Cable TV Subtitles in Brazil.“ Meta 57.2. 464-477. https: / / doi.org/ 10.7202/ 1013956ar. ALONSO LION, Víctor (2014): „New Challenges in Interactive Media Localization Projects.“ In: MANGIRON / ORERO / O’HAGAN. 243-268. AMEND; Christoph / CHAIMOWITZ, Sascha (2018): „David Attenborough - Die Stimme der Tiere.“ ZEITmagazin 30 (18.07.) (www.zeit.de/ zeit-magazin/ 2018/ 30/ david-attenborough-naturdokumentationen-tiere-bbc-leben/ komplettansicht). ANDERSON, Chris (2018): TED Talks: The official TED guide to public speaking. Tips and Tricks for Giving Unforgettable Speeches and Presentations . Boston: Nicholas Brealey Publishing. ANON. (2005): „Best of Brandt.“ taz online 16.08.2005 https: / / taz.de/ ! 560450/ . ANTONINI, Rachele / CHIARO, Delia (2009): „The Perceiption of Dubbing by Italian Audiences.“ In: DÍAZ CINTAS / ANDERMAN. 97-114. ARIAS BADIA, Blanca / BRUMME, Jenny (2014): „Subtitling stereotyped discourse in the crime TV series Dexter (2006) and Castle (2009).“ JOSTRANS 22. 110-131. www.jostrans.org/ issue22/ art_badia.pdf. ARMSTRONG, Nigel (2004): „Voicing The Simpsons from English into French: A Story of Variable Success.“ JOSTRANS 2. 97-109. www.jostrans.org/ issue02/ art_armstrong.pdf. ARMSTRONG, Stephen / COLM, Caffrey / FLANAGAN, Marian (2007): „Translating DVD subtitles from English-German and English-Japanese using Example-Based Machine Translation.“ MuTra Proceedings 2006. www.euroconferences.info/ proceedings/ 2006_Proceedings/ 2006_Armstrong_ Stephen_et_al.pdf. ARUMÍ RIBAS, Marta / ROMERO FRESCO, Pablo (2008): „A Practical Proposal for the Training of Respeakers.“ JOSTRANS 10. 106-127. www.jostrans. http: / / www.jostrans.org/ issue10/ art_arumi. pdf. ASIMAKOULAS, Dimitris (2004): „Towards a Model of Describing Humor Translation: A Case Study of the Greek Subtitled Versions of Airplane and Naked Gun .“ In: Meta 49.4. 822-842. http: / / id.erudit.org/ iderudit/ 009784ar. ATTESLANDER, Peter (2008): Methoden der empirischen Sozialforschung . Berlin: Erich Schmidt. Audiovisuelle Medien barrierefrei . Symposium. 29. und 30. Juni 2016. Funkhaus des Bayerischen Rundfunks in München. AUFDERHEIDE, Patricia (2007): Documentary Film. A Very Short Introduction . Oxford: OUP. BAINES, Roger (2015). „Subtitling Taboo Language: Using the Cues of Register and Genre to Affect Audience Experience? “ Meta 60.3. 431-453. https: / / doi.org/ 10.7202/ 1036137ar. BAKER, Mona / HOCHEL, Braňo (1998): „Dubbing.“ In: BAKER, Mona (Hg.): Routledge Encyclopedia of Translation Studies . London: Routledge. 74-76. BALDRY, Anthony (2016): „Multisemiotic Transcriptions as Film Referencing Systems.“ inTRAlinea Special Issue: A Text of Many Colours - Translating The West Wing . www.intralinea.org/ specials/ article/ multisemiotic_transcriptions_as_film_referencing_systems. BAÑOS, Rocío (2014): Orality Markers in Spanish Native and Dubbed Sitcoms: Pretended Spontaneity and Prefabricated Orality. Meta 59.2. 406-435. https: / / doi.org/ 10.7202/ 1027482ar. BAÑOS, Rocío (2019): „Parodic dubbing in Spain: digital manifestations of cultural appropriation, repurposing and subversion.“ JOSTRANS 32.. 171-193. www.jostrans.org/ issue32/ art_banos.pdf. 18231_Juengst_SL4�indd 296 18231_Juengst_SL4�indd 296 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 297 BARAMBONES, Josu / MERINO, Raquel / URIBARRI, Ibon (2012): „Audiovisual Translation in the Basque Country: The Case of Basque Television ‒ Euskal Telebista (ETB).“ Meta . 57.2. 408-422. https: / / doi.org/ 10.7202/ 1013953ar. BARTOLL, Eduard (2006): „Subtitling multilingual films.“ MuTra Proceedings 2006. www.euroconferences.info/ proceedings/ 2006_Proceedings/ 2006_Bartoll_Eduard.pdf. BARTRINA, Francesca (2009): „Teaching Subtitling in a Virtual Environment.“ In: DÍAZ CINTAS / ANDERMAN. 229-239. BAUMGARTEN, Nicole (2008): „Yeah, that’s it! : Verbal Reference to Visual Information in Film Texts and Film Translations.“ Meta 53.1. 6-25. http: / / id.erudit.org/ iderudit/ 017971ar. BEILHARZ, Roman (2008): „Filmton und Tondramaturgie.“ FKT . www.uvasonar.de/ wordpress/ wp-content/ media/ PDF_FKT08-10_Filmton.pdf. BELZ, Anka (2007): Die Übersetzung von Komik in wenigen Worten. Überetzungsprobleme und Lösungsstrategien bei der Untertitelung der britischen Sitcom „The Office“. Diplomarbeit IALT Universität Leipzig,unveröffentlicht. BENECKE, Bernd (2004): „Audio-Description.“ Meta 49.1. 78-80. https: / / doi.org/ 10.7202/ 009022ar. BENECKE, Bernd (2007a): „Audio Description: The race between costs and quality.“ In: SCHMITT, Peter A. / JÜNGST, Heike E. (Hg.): Translationsqualität . Frankfurt am Main: Lang. 51-53. BENECKE, Bernd (2007b): „Audio Description: Phenomena of Information Sequencing.“ MuTra Proceedings 2007 . www.euroconferences.info/ proceedings/ 2007_Proceedings/ 2007_Benecke_ Bernd.pdf. Benecke, Bernd (2012): „Audio description and audio subtitling in a dubbing country: Case studies.“ In: PEREGO, Elisa (Hg.): Emerging Topics in Translation: Audio Description . Triest: EUT. 99-104. BENECKE, Bernd (2014): Audiodeskription als partielle Translation. Modell und Methode . mitSprache Band 4. Berlin: Lit Verlag. BENECKE, Bernd / DOSCH, Elmar (2004): Wenn aus Bildern Worte werden . München. BENEDICT, Benjamin (2014): Kreatives Schreiben - Schreiben für Film und Serie. Drehbücher selbst entwickeln . Mannheim: Duden. BERGNER, Walter (1990): Grundlagen der Typografie . Leipzig: Fachbuchverlag 1990 (Lizenz von Schule und Beruf, Itzehoe). BERRY, Jessica (2018): Kino der Sprachversionen. Mediale Praxis und Diskurse zu Beginn des Tonfilms, 1929-1933 . Film- und Medienwissenschaft Band 40. Stuttgart: ibidem. BERNAL MERINO, Miguel (2006): „On the Translation of Video Games.“ JOSTRANS 6. 22-36. www. jostrans.org/ issue06/ art_bernal.pdf. BERNAL-MERINO, Miguel Á. (2009): „Video games and children’s books in translation.“ JOS- TRANS 11. 234-247. www.jostrans.org/ issue11/ art_bernal.pdf. BERNAL-MERINO, Miguel A. (2017 [2015]): Translation and Localisation in Video Games. Abingdon, New York: Routledge. BISCIO, Marie (2013): „The Subtitling of French Contemporary Accented Films: Le Grand Voyage.“ New Voices in Translation Studies 9. 69-83. BLUM, Andreas (2015): „Höfliche und vertrauliche Anrede in der Filmübersetzung.“ In: BRÄUTI- GAM / PEILER. 77-96. BLUM, Wolfgang: „Der frühe Vogel fängt den Wurm.“ Die ZEIT 8.4.1994. www.zeit.de/ 1994/ 15/ derfruehe-vogel-faengt-den-wurm. BOCHMANN-TAO, Michael (2019): „Terminologiearbeit in der Spielelokalisierung.“ In: edition 1. 13-16. Bibliographie 18231_Juengst_SL4�indd 297 18231_Juengst_SL4�indd 297 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 298 Bibliographie BÖHM, Markus (2012): „Videospiel-Übersetzungen: Wenn Zwerge sächseln.“ Spiegel Online 12.06.2012. www.spiegel.de/ netzwelt/ games/ lokalisierung-von-videospielen-wie-die-uebersetzungen-entstehen-a-837075.html. BOGUCKI, Łukasz (2004): „The Constraint of Relevance in Subtitling.“ JOSTRANS 1. 71-88. www. jostrans.org/ issue01/ art_bogucki_pl.pdf. BOGUCKI, Łukasz (2009): „Amateur Subtitling on the Internet.“ In: DÍAZ CINTAS / ANDERMAN. 49-57. BOLAÑOS GARCÍA-ESCRIBANO, Alejandro (2017): „The effects of fansubs on EFL education for Translation and Interpreting students: an empirical approach.“ JOSTRANS 28. 122-163. www. jostrans.org/ issue28/ art_bolanos.pdf. BOLLETIERI, R.M. / DI GIOVANNI, E. / ROSSATO, L. (2014): „New Challenges in Audiovisual Translation.“ inTRAlinea Special Issue: Across Screens, Across Boundaries. www.intralinea.org/ archive/ article/ 2078. BONSIGNORI, Veronica / BRUTI, Silvia (2014). „Representing varieties of English in film language and dubbing: The case of Indian English.“ inTRAlinea Special Issue: Across Screens, Across Boundaries. www.intralinea.org/ archive/ article/ 2066. BOURNE, Julian / JIMÉNEZ HURTADO, Catalina (2007): „From the Visual to the Verbal in Two Languages: A Contrastive Analysis of the audio description of The Hours in English and Spanish.“ In: DÍAZ CINTAS / ORERO / REMAEL. 175-188. BRAUN, Sabine (2007): „Audio Description From a Discourse Perspective: a socially relevant framework for research and training.“ Linguistica Antverpiensia . 6. 357-369. https: / / lans-tts. uantwerpen.be/ index.php/ LANS-TTS/ article/ view/ 197/ 128 . BRAUN, Sabine (2011). „Creating Coherence in Audio Description.“ Meta . 56.3. 645-662. https: / / doi.org/ 10.7202/ 1008338ar. BRAUN, Sabine / STARR, Kim (2019): „Finding the Right Words. Investigating Machine-Generated Video Description Quality Using a Corpus-Based Approach.“ Journal of Audiovisual Translation 2.2. 11-35. BRÄUTIGAM, Thomas (2009): Stars und ihre deutschen Stimmen . Marburg: Schüren. BRÄUTIGAM, Thomas (2015). „Internationalität für die Menge. Filmsynchronisation im Kontext der alliierten Filmpolitik 1945-1950.“ In: BRÄUTIGAM / PEILER. 140-162. BRÄUTIGAM, Thomas (2017): „Filmgeschichte: Deutschland, eine Synchronnation.“ Copyright Text: Goethe-Institut, Thomas Bräutigam. www.goethe.de/ de/ kul/ flm/ 20894148.html. BRÄUTIGAM, Thomas / PEILER, Nils Daniel (2015a): Film im Transferprozess. Transdisziplinäre Studien zur Filmsynchronisation . Marburger Schriften zur Medienforschung Band 58. Marburg: Schüren. BRÄUTIGAM, Thomas / PEILER, Nils Daniel (2015b): „Erkenntnispotentiale einer Beschäftigung mit Filmsynchronisation.“ In: BRÄUTIGAM / PEILER. 13-28. BRISSET, Frédérique (2017): „Le doublage, à la frontière entre traduction et adaptation? “ TranscUlturAl 9.2. 32-46. https: / / journals.library.ualberta.ca/ tc/ index.php/ TC/ article/ view/ 29339/ 21424. BRONDEEL, Herman (1994): „Teaching Subtitling Routines.“ Meta 39.1. 26-33. http: / / id.erudit.org/ iderudit/ 002150ar. BRUTI, Silvia (2006): „Cross-cultural Pragmatics: The Translation of Implicit Compliments in Subtitles.“ in JOSTRANS 185-197. www.jostrans.org/ issue06/ art_bruti.pdf. BRUTI, Silvia (2016): „Audiovisual Texts and Subtitling in the Teaching of Pragmatics.“ trans-kom 9.2. 186-207. www.trans--kom.eu/ bd09nr02/ trans-kom_09_02_02_Bruti_Pragmatics.20161220. pdf. 18231_Juengst_SL4�indd 298 18231_Juengst_SL4�indd 298 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 299 Bundeskompetenzzentrum Barrierefreiheit / Deutsche Blindenstudienanstalt (2012): VISCH - Visualisierte Informationen in Schulbüchern zugänglich machen . Marburg. www.blista.de/ sites/ default/ files/ visch-leitfaden.pdf. BURGER, Dominique (1996): New Technologies in the Education of the Visually Handicapped . Paris. BURSTON, Jack (2005): „Video Dubbing Projects in the Foreign Language Curriculum.“ Calico Journal 23.1. 79-92. BURTON, Jonathan (2009): „The Art and Craft of Opera Surtitling.“ In: DÍAZ CINTAS / ANDER- MAN. 58-70. CAIMI, Annamaria (2006): „Audiovisual Translation and Language Learning: The Promotion of Intralingual Subtitles.“ JOSTRANS 6. 85-98. www.jostrans.org/ issue06/ art_caimi.pdf. CAIMI, Annamaria (2008): „Subtitling: Language Learners Needs vs. Audiovisual Market Needs.“ In: DÍAZ CINTAS / ANDERMAN. 240-253. CAMBRA, Cristina / LEAL, Aurora / SILVESTRE, Núria (2013): „The interpretation and visual attention of hearing impaired children when watching a subtitled cartoon.“ JOSTRANS 20. 134- 146. www.jostrans.org/ issue20/ art_cambra.pdf. CAMILLI, Lana (2019): „The Dubbing of Wordplay: The Case of A Touch of Cloth .“ Journal of Audiovisual Translation 2.1. 75-103. www.jatjournal.org/ index.php/ jat/ article/ view/ 24/ 18. CANIATO, Manuela / CROCCO, Claudia / MARZO, Stefania (2015): „Doctor or Dottore? How well do honorifics travel outside of Italy? “ JOSTRANS 23.. 181-204. www.jostrans.org/ issue23/ art_caniato.pdf. CAÑUELO SARRION, Susana (2009): „Transfer Norms for Film Adaptations in the Spanish-German Context.“ In: DÍAZ CINTAS / ANDERMAN. 115-129. CAPITANI, Federica (2016): „The Job of a Subtitler: Theoretical, Technical and Professional Aspects of Interlingual Subtitling.“ trans-kom 9.2. 254-265. www.trans-kom.eu/ bd09nr02/ transkom_09_02_05_Capitani_Subtitler.20161220.pdf. CARD, Lorin (1998): „Je vois ce que vous voulez dire: un essai sur la notion de l'équivalence dans les sous-titres de 37°2 Le matin et de Au revoir les enfants .“ In Meta 43.2. 1998. http: / / id.erudit. org/ iderudit/ 002203ar. CARREIRA, Oliver / ARRÉS, Eugenia (2014): „Video Game Localization Training on Offer in Spanish Universities at an Undergraduate Level.“ In: MANGIRON / ORERO / O’HAGAN. 243-269. CARROLL, Mary (2005): „Audiovisual Media: New Profiles for Translators and Interpreters.“ In: MAYER, Felix (ed.): 20 Jahre Transforum. Koordinierung von Praxis und Lehre des Dolmetschens und Übersetzens . Hildesheim: Georg Olms. 73-89. CARROLL, Mary / GERZYMISCH-ARBOGAST, Heidrun / NAUERT, Sandra (eds.) (2006): MuTra: Audiovisual Translation Scenarios. Copenhagen 1-5 May 2006 . www.euroconferences.info/ proceedings/ 2006_Proceedings/ 2006_proceedings.html. CASARINI, Alice (2014): „Viewership 2.0: New forms of television consumption and their impact on audiovisual translation.“ inTRAlinea Special Issue: Across Screens, Across Boundaries. www. intralinea.org/ specials/ article/ viewership_2.0. ČEMERIN, Vedrana (2019): „Treatment of Realia in the Subtitling of Ekphrastic Texts.“ Journal of Audiovisual Translation 2.1. 104-125. www.jatjournal.org/ index.php/ jat/ article/ view/ 10/ 19. CEDEÑO ROJAS, Maribel (2007): Arbeitsmittel und Arbeitsabläufe beim Überesetzen audiovisueller Medien: Synchronisation und Untertitelung in Venezuela und in Deutschland. Trier: Wissenschaftlicher Verlag. CEREZO MERCHÁN, B. / HIGES ANDINO, E. / GALÁN, E. / ARNAU ROSELLÓ, R. (2017): „Montaje audiovisual e intergración de la audiodescripción en la producción documental.“ inTRAlinea Bibliographie 18231_Juengst_SL4�indd 299 18231_Juengst_SL4�indd 299 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 300 Bibliographie Special Issue: Building Bridges between Film Studies and Translation Studies. www.intralinea. org/ archive/ article/ 2252. CHANDLER, Heather Maxwell / O’MALLEY DEMING, Stephanie (2012): The Game Localization Handbook . Sudbury, MA etc.: Jones & Bartlett. CHAUME, Frédéric (2004a): „Discourse Markers in Audiovisual Translation.“ Meta 49.4. 843-855. http: / / id.erudit.org/ iderudit/ 009785ar. CHAUME, Frédéric (2004b): „Film Studies and Translation Studies: Two Disciplines at Stake in erezovisual Translation.“ Meta 49.1. 12-24. http: / / id.erudit.org/ iderudit/ 009016ar. CHAUME, Frédéric (2013): „Subtitling Language Diversity in Spanish Immigration Films.“ Meta 58.1. 134-145. https: / / doi.org/ 10.7202/ 1023813ar CHAUME, Frédéric (2016): „Dubbing a TV Drama Series. The Case of The West Wing .“ inTRAlinea Special Issue: A Text of Many Colours - Translating The West Wing . www.intralinea.org/ archive/ article/ 2194. CHAUME, Frédéric (2018a): „Is audiovisual translation putting the concept of translation up against the ropes? “ JOSTRANS 30. 84-104. www.jostrans.org/ issue30/ art_chaume.pdf. CHAUME, Frédéric (2018b): „An overview of audiovisual translation: Four methodological turns in a mature discipline.“ Journal of Audiovisual Translation . 1.1. 40-63. www.jatjournal.org/ index. php/ jat/ article/ view/ 43/ 3. CHEN, Chapman (2004): „On the Hong Kong Chinese Subtitling of English Swearwords" Meta 49.1. 135-147. http: / / id.erudit.org/ iderudit/ 009029ar. CHEN, Sheng-Jie (2004): „Linguistic Dimensions of Subtitling. Perspectives from Taiwan.“ Meta 49.1. 115-124. http: / / id.erudit.org/ iderudit/ 009027ar. CHIARO, Delia (2006): „Verbally Expressed Humour on Screen: Reflections on Translation and Reception.“ JOSTRANS 6. Juli 2006, 198-208. www.jostrans.org/ issue06/ art_chiaro.pdf. CHIARO, Delia (2016): „„Walk and Talk“ in Italian: Dubbing Cool Politics.“ inTRAlinea 18. Special Issue: A Text of Many Colours - Translating The West Wing . www.intralinea.org/ specials/ article/ walk_and_talk_in_italian_dubbing_cool_politics. CONWAY, Kyle (2014): „Vagaries of News Translation on Canadian Broadcasting Corporation Television: Traces of History.“ Meta 59.3. 620-635. https: / / doi.org/ 10.7202/ 102866ar. CORRAL, Anna / LLADÓ, Ramon (2011): „Opera Multimodal Translation: Audio Describing Karol Szymanowski’s Król Roger for the Liceu Theatre, Barcelona.“ JOSTRANS 15. 164-179. www. jostrans.org/ issue15/ art_corral.pdf. COTTIN, Menena / FARÍA, Rosana (2008): Das schwarze Buch der Farben. El libro negro de los colores . Übersetzt von Helga Preugschat. Frankfurt am Main: Fischer Schatzinsel. DANAN, Martine (1991): „Dubbing as an Expression of Nationalism.“ Meta 36.4. 606-614. http: / / id.erudit.org/ iderudit/ 002446ar. DANAN, Martine (2004): „Captioning and Subtitling: Undervalued Language Learning Strategies.“ Meta 49.1. 67-77. http: / / id.erudit.org/ iderudit/ 009021ar. DAWSON, Hayley (2019): „Feasibility, Quality and Assessment of Interlingual Live Subtitling.“ Journal of Audiovisual Translation 2.2. 36-56. www.jatjournal.org/ index.php/ jat/ article/ view/ 72/ 24. DE BONIS, Giuseppe (2015): „Translating multilingualism im film: A case study on Le concert .“ New Voices in Translation Studies 12. 50-71. DE HIGES-ANDINO, Irene / PRATS-RODRÍGUEZ, Ana Maria / MARTÍNEZ-SIERRA, Juan José / CHAUME, Frédéric (2013): „Subtitling Language Diversity in Spanish Immigration Films.“ Meta 58.1. 134-145. https: / / doi.org/ 10.7202/ 1023813ar. 18231_Juengst_SL4�indd 300 18231_Juengst_SL4�indd 300 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 301 DE LA MOTTE-HABER, Helga / EMONS, Hans (1980): Filmmusik. Eine systematische Beschreibung. München etc.: Hanser. DE LOS REYES, Lozano (2017): „La música referencial y su influencia en la traducción del cine de animación.“ inTRAlinea Special Issue: Building Bridges between Film Studies and Translation Studies. www.intralinea.org/ specials/ article/ musica_referencial_y_su_influencia_en_la_traduccion_del_cine_de_animacion. DE MARCO, Marcella (2006a): „Multiple portrayals of gender in cinematographic and audiovisual translation discourse.“ MuTra Proceedings 2006 . www.euroconferences.info/ proceedings/ 2006_ Proceedings/ 2006_DeMarco_Marcella.pdf. DE MARCO, Marcella (2006b): „Audiovisual Translation from a Gender Perspective.“ JOSTRANS 6. 168-184. www.jostrans.org/ issue06/ art_demarco.pdf. DECKERT, Mikołaij (2015): „The automated interlingual mapping effect in trainee subtitlers.“ JOS- TRANS 24. 28-43. www.jostrans.org/ issue24/ art_deckert.pdf. DELABATISTA, Dirk (1989): „Translation and Mass Communication: Film and TV Translation as Evidence of Cultural Dynamics.“ Babel 35.4. 193-218. DESBLACHE, Lucile (2009): „Challenges and Rewards of Libretto Adaptation.“ In: DÍAZ CINTAS / ANDERMAN. 71-84. DEUTSCHE BLINDENSTUDIENANSTALT e. V. (Hrsg.) (2012): VISCH - Visualisierte Informationen in Schulbüchern zugänglich machen. Leitfaden mit Beispielen . Redaktion: Jutta Duncker, Marianne Haug-Gottschalk, Andrea Katemann, Amélie Schneider, Manfred Fuchs, Tobias Kalina, Ulrich Kalina, Wilfried Laufenberg, Rudolf Ullrich. Marburg: blista. Download von www.blista.de. DI GIOVANNI, Elena (2016): „Reception Studies in Audiovisual Translation Research. The Case of Subtitling at Film Festivals.“ trans-kom 9.1. 58-78. www.trans-kom.eu/ bd09nr01/ transkom_09_01_05_Di_Giovanni_Reception.20160705.pdf. DI GIOVANNI, Elena (2014): „Audio introduction meets audio description: an Italian experiment.“ inTRAlinea Special Issue: Across Screens, Across Boundaries. www.intralinea.org/ specials/ article/ audio_introduction_meets_audio_description.. DI GIOVANNI, Elena (2018): „Audio description for live performances and audience participation.“ JOSTRANS 29. 189-211. www.jostrans.org/ issue29/ art_digiovanni.pdf. DI MARCO, Francesca (2007): „Cultural Localization: Orientation and Disorientation in Japanese Video Games.“ Revista tradumàtica 5. www.fti.uab.cat/ tradumatica/ revista/ num5/ articles/ 06/ 06.pdf.. DÍAZ CINTAS, Jorge (2004): „Subtitling: the long journey to academic acknowledgement.“ JOS- TRANS 1. 50-70. www.jostrans.org/ issue01/ art_diaz_cintas.pdf DÍAZ CINTAS, Jorge (2005): „Back to the Future in Subtitling.“ MuTra Conference Proceedings 2005. www.euroconferences.info/ proceedings/ 2005_Proceedings/ 2005_ proceedings.html. DÍAZ CINTAS, Jorge (2008) (ed.): The Didactis of Audiovisual Translation . Amsterdam: John Benjamins. DÍAZ CINTAS, Jorge (2012): „Clearing the Smoke to See the Screen: Ideological Manipulation in Audiovisual Translation.“ Meta . 57.2. 279-293. https: / / doi.org/ 10.7202/ 1013945ar. DÍAZ CINTAS, Jorge (2018): „Subtitling’s a carnival: New practices in cyberspace. “ JOSTRANS 30. 127-149. www.jostrans.org/ issue30/ art_diaz-cintas.pdf. DÍAZ CINTAS, Jorge / ANDERMAN, Gunilla (eds.) (2009): Audiovisual Translation: Language Transfer on Screen. Houndmills: Palgrave Macmillan. DÍAZ CINTAS, Jorge / MUNOZ SÁNCHEZ, Pablo (2006): „Fansubs: Audiovisual Translation in an Amateur Environment.“ JOSTRANS 6. 37-52. www.jostrans.org/ issue06/ art_diaz_munoz.pdf. Bibliographie 18231_Juengst_SL4�indd 301 18231_Juengst_SL4�indd 301 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 302 Bibliographie DÍAZ CINTAS, Jorge / REMAEL, Aline (2007): Audiovisual Translation: Subtitling . Translation Practices Explained 11. Manchester: St. Jerome. DÍAZ-CINTAS, Jorge / ORERO, Pilar / REMAEL, Aline (2007): Media for All. Subtitling for the Deaf, Audio Description and Sign Language . Amsterdam/ New York: Approaches to Translation Studies. DIETZ, Frank: (2007): „How difficult can that be? The Work of Computer and Vido Game Localization.“ Revista tradumàtica 5. www.fti.uab.cat/ tradumatica/ revista/ num5/ articles/ 04/ 04.pdf.. DIRR, Stefan (200): Die Voice-Over-Bearbeitung der Serie „4REAL“. Diplomarbeit IALT Universität Leipzig unveröffentlicht. DONG, Luo / MANGIRON, Carmen (2018): „Journey to the East: Cultural adaptation of video games for the Chinese market.“ JOSTRANS 29. 149-168. www.jostrans.org/ issue29/ art_dong.pdf. DOSCH, Elmar / BENECKE, Bernd (2004, 3. Auflage): Wenn aus Bildern Worte werden. München: Bayerischer Rundfunk. DRIES, Josephine (1995): Dubbing and Subtitling. Guidelines for Production and Distribution . Düsseldorf: European Institute for the Media. DUNCAN, Williams / LEE, Newton (2018): Emotion in Video Game Soundtracking . Cham: Springer International. EBU Dubbing and Subtitling Conference , Stockholm 1987. EBU Review 38. 6. 8-31. EDWARDS, Kate (2014): „Beyond Localization: An Overview of Game Culturalization“. In: MAN- GIRON / ORERO / O’HAGAN. 287-304. ELEFANTE, Chiara (2004): „ Arg . et pop ., ces abréviations qui donnent les jetons aux traducteurs-dialoguistes.“ Meta 49.1. 193-207. http: / / id.erudit.org/ iderudit/ 009034ar. ELGABAY, Nermine (2012): „Accommodating Audience Needs in Islamic Subtitling: A Case of Manipulation? “ Meta 57.2. 423-438. https: / / doi.org/ 10.7202/ 1013954ar. ELIAS, Caroline (2008): „Als Dolmetscherin beim Film: Parlez-vous cinéma? “ MDÜ 3: 9-12. ELIAS, Caronline (2009): „Berlinalegeflüster X.“ http: / / dolmetscher-berlin.blogspot. com/ 2009_02_01_archive.html ESIST Code of Good Subtitling Practice (2016) Basierend auf: IVARSSON / CARROLL. www.esist. org/ wp-content/ uploads/ 2016/ 06/ Code-of-Good-Subtitling-Practice.PDF.pdf. Multidimensional Translantion - MuTra . (2007). www.euroconferences.info. EUGENI, Carlo (2006a): „Il sopratitolaggio. Definizione e differenze con il sottotitolaggio.“ inTRAlinea 6. www.intralinea.org/ archive/ article/ Il_sopratitolaggio. EUGENI, Carlo (2006b): „Introduzione al rispeakeraggio televisivo.“ inTRAlinea Special Issue: Respeaking . www.intralinea.org/ specials/ article/ Introduzione_al_rispeakeraggio_televisivo. EUGENI, Carlo (2007): „Il rispeakeraggio televisivo per sordi: Per una sottotitolazione mirata des TG.“ inTRAlinea 9. www.intralinea.org/ archive/ article/ Il_rispeakeraggio_televisivo_per_sordi. EUROPÄISCHE KOMMISSION (2006): Eurobarometer Spezial: Die Europäer und ihre Sprachen. Die hier genutzte Vollversion ist nicht mehr online erhältlich. Zusammenfassung: https: / / ec.europa. eu/ commfrontoffice/ publicopinion/ archives/ ebs/ ebs_243_sum_de.pdf. EUROPÄISCHE KOMMISSION (2012): Eurobarometer Spezial 386: Die europäischen Bürger und ihre Sprachen https: / / ec.europa.eu/ commfrontoffice/ publicopinion/ archives/ ebs/ ebs_386_de.pdf. FALBE, Sandra (2012): „Hyperbole in original and translated television dialogue. The case of teen talk in the German TV series Türkisch für Anfänger .“ In: FISCHER / WIRF NARO. 377-394. Featured video: Pablo Romero Fresco’s documentary on audio description. JOSTRANS 20. Juli 2013. www.jostrans.org/ issue20/ int_romero.php. 18231_Juengst_SL4�indd 302 18231_Juengst_SL4�indd 302 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 303 FERRAZ DE SOUZA / VINICIUS, Ricardo (2012): „Video game localization: the case of Brazil.“ TradTerm 19. 289-326. https: / / doi.org/ 10.11606/ issn.2317-9511.tradterm.2012.47438. FERNÁNDEZ COSTALES, Alberto (2014): „Translating Fun for All: Promoting Accessibility in Video Games.“ In: MANGIRON / ORERO / O’HAGAN. 45-66. FERNÁNDEZ-TORNÉ, Anna / MATAMALA, Anna (2015): „Text-to-speech vs. human voiced audio descriptions: a reception study in films dubbed into Catalan.“ JOSTRANS 24. 61-88. www. jostrans.org/ issue24/ art_fernandez.pdf. FISCHER, Martin B. / WIRF NARO, Maria (Hg.): Translating Fictional Dialogue for Children and Young People . Berlin: Frank & Timme. FIX, Ulla (Hg.) (2005): Hörfilm. Bildkompensation durch Sprache . Berlin: Erich Schmidt. FIX, Ulla / MORGNER, Henrike (2005): „Narration im Hörfilm - Theorie und Analyse.“ In: FIX. 117-152. FODDY, William (1994): Constructing Questions for Interviews and Questionaires: Theory and Practice in Social Research . Cambridge: CUP. FODOR, Istvan (1976): Film Dubbing: Phonetic, Semiotic, Esthetic and Psychological Aspects. Hamburg: Helmut Buske. FOX, Wendy (2017): „A propose set of placement strategies for integrated titles based on an analysis of existing strategies in commercial films.“ inTRAlinea Special Issue: Building Bridges between Film Studies and Translation Studies. www.intralinea.org/ specials/ article/ a_proposed_set_of_placement_strategies_for_integrated_titles. FRANCO, Eliana / MATAMALA, Anna / ORERO, Pilar (2010): Voice-over Translation. An Overview . Bern: Lang. FRIEDRICH, Gunnar (2011): „Lokalisierung von digitalen Spielen - Evaluierung der deutschen Version von Tropico 3.“ Lebende Sprachen 55.1. 100-145. FRITSCHE, Sabrina / HERRERO SOTO, Miguel (2013): „Wie viel Zeit bleibt Dir? Sabrina Fritsche und Miguel Herrero Soto sprachen mit Katrin Goldenstein und Elisabeth Schmalen über deren erste Erfahrungen als Filmuntertiteltlerinnen.“ Rezensionszeitschrift für Literaturübersetzen - ReLü online . Ausgabe 14. www.relue-online.de/ 2013/ 03/ wie-viel-zeit-bleibt-dir/ FRYER, Louise (2016): An Introduction to Audio Description: A Practical Guide . Abingdon, New York: Routledge. FRYER, Louise, (2018). „The Independent Audio Describer is Dead: Long Live Audio Description! “ Journal of Audiovisual Translation . 1.1. 170-186. www.jatjournal.org/ index.php/ jat/ article/ view/ 52/ 11. FRYER, Louise / ROMERO-FRESCO, Pablo (2014): „Audiointroductions.“ In: MASZEROWSKA, Anna / MATAMALA, Anna / ORERO, Pilar: Audio Description. New Perspectives Illustrated . Amsterdam / Philadelphia: 11-28. GAELL, Ruth (ed.) (1999): Subtitling Consumer Report . Royal National Institute for Deaf People. GALLO, Carmine (2014): Talk Like TED: The 9 Public Speaking Secrets of the World’s Top Minds . New York: St. Martin’s Press. GAMBIER, Yves (ed.) (1998): Translating for the Media. Papers from the International Conference Languages & the Media . Berlin, November 22-23, 1996. Univ. of Turku, Centre for Translation and Interpreting, Turku. GAMBIER, Yves (2003): „Screen Transadaptation: Perception and Reception.“ The Translator. 9.2. 171-190. GAMBIER, Yves (ed.) (2003): Screen Translation Special Issue. The Translator Studies in Intercultural Communication . 2.9. Manchester: St. Jerome Publishing. Bibliographie 18231_Juengst_SL4�indd 303 18231_Juengst_SL4�indd 303 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 304 Bibliographie GAMBIER, Yves (2004). „La traduction audiovisuelle: un genre en expansion.“ Meta 49.1. 11-1. http: / / id.erudit.org/ iderudit/ 009015ar. GAMBIER, Yves / GOTTLIEB, Henrik [eds.] (2001): (Multi) Media Translation: concepts, practices and research . Amsterdam: John Benjamins Publishing Co. game (Verband der deutschen Games-Branche (2019): Arbeiten in der Games-Branche: Kreativität trifft Technologie . Berlin. GARNCARZ, Michał (2006): „Translating Films.“ (auf Polnisch). JOSTRANS 5.110-119. www.jostrans.org/ issue05/ art_garcarz.pdf. GARNCARZ, Joseph (2015): „Europas alter Märchenzauber und Hollywoods neues Zaubermärchen: Walt Disneys Snow White and the Seven Dwarfs in Deutschland.“ In: BRÄUTIGAM / PEILER. 226-259. GEENS, Rita (2007): „Live Subtitling through Respeaking.“ www.iti-conference.org.uk/ itic21/ sessions/ geens-%20live%20subtitling%20through%20respeaking.pdf. GEORGAKOPOULOU, Panayota (2006): „Subtitling and Globalisation.“ JOSTRANS 6. 115-120.. www.jostrans.org/ issue06/ art_georgakopoulou.pdf. GEORGAKOPOULOU, Panayota (2009): „Subtitling for the DVD Industry.“ In: DÍAZ CINTAS / ANDERMAN. 21-35. GEORGAKOPOULOU, Panayota (2012): „Challenges for the audiovisual industry in the digital age: the ever-changing needs of subtitle production.“ JOSTRANS 17. www.jostrans.org/ issue17/ art_georgakopoulou.pdf. GEORGAKOPOULOU, Panayota (2019): „Template Files: The Holy Grail of Subtitling. Practice Report.“ Journal of Audiovisual Translation 2.2. 137-160. www.jatjournal.org/ index.php/ jat/ article/ view/ 84/ 27. GERZYMISCH-ARBOGAST, Heidrun (2005): „Introducing Multidimensional Translation.” MuTra Conference Proceedings 2005 . www.euroconferences.info/ proceedings/ 2005_Proceedings/ 2005_ proceedings.html. GONZÁLEZ VERA, Pilar (2012): „The translation of linguistic stereotypes in animated films: a case study of DreamWorks’ Shrek and Shark Tale .“ JOSTRANS 17. 104-123. www.jostrans.org/ issue17/ art_gonzalez.pdf. GOTTLIEB, Henrik (1998): „Subtitling.“ In: BAKER (ed.): Encyclopedia of Translation Studies. London: Routledge. 244-248. GOTTLIEB, Henrik (2002): „Untertitel. Das Visualisieren filmischen Dialogs.“ In: FRIEDRICH, Hans-Edwin (Hg.): Schrift und Bild im Film . Bielefeld: Aisthesis. 185-214. GOTTLIEB, Henrik (2005): „Multidimensional Translation: Semantics turned Semiotics.“ MuTra Conference Proceedings 2005 . www.euroconferences.info/ proceedings/ 2005_Proceedings/ 2005_ Gottlieb_Henrik.pdf. GRAMMENOS, Dimitris (2014): „From Game Accessiblity to Universalls Accesible Games.“ In: MANGIRON / ORERO / O’HAGAN. 21-44. GRANELL, Ximo (2011): „Teaching Video Game Localisation in Audiovisual Translation courses at university.“ In: JOSTRANS 16. 185-202. www.jostrans.org/ issue16/ art_granell.pdf. GRECO, Gian Maria (2018). „The nature of accessibility studies.“ Journal of Audiovisual Translation . 1.1. 205-232. GRECO, Gian Maria / JANKOWSKA, Anna (2019): „Framing Media Accessibility Quality.“ Journal of Audiovisual Translation 2.2. 1-10. www.jatjournal.org/ index.php/ jat/ article/ view/ 51/ 10. GREENING, Joan / ROLPH, Deborah (2007): „Accessibility: Raising Awareness of Audio Description in the UK.“ In: DÍAZ CINTAS / ORERO / REMAEL. 127-138. 18231_Juengst_SL4�indd 304 18231_Juengst_SL4�indd 304 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 305 GRIESEL, Yvonne (2005): „Surtitles and Translation. Towards an Integrative View of Theater Translation.“ MuTra Conference Proceedings 2005 . www.euroconferences.info/ proceedings/ 2005_ Proceedings/ 2005_proceedings.html GRIESEL, Yvonne (2007): Die Inszenierung als Translat: Möglichkeiten und Grenzen der Theaterübertitelung. Berlin: Frank & Timme. GUILLOT, Marie-Noëlle (2007): „Oral et illusion d’oral : indices d’oralité dans les sous-titres de dialogues de film.“ Meta 52.2. 239-252. http: / / id.erudit.org/ iderudit/ 016068ar. GUILLOT, Marie-Noëlle (2016): „Communicative Rituals and Audiovisual Translation - Representation of Otherness in Film Subtitles.“ Meta 61.3. 606-628. https: / / doi.org/ 10.7202/ 1039221ar. HAEB, Ingo / COLLI, Stephan (2015): „Es soll sich nicht naturalistisch oder dokumentarisch anhören, aber auch nicht absurd oder überspitzt. Ingo Haeb und Stephan Colli über ihre Synchronisationsphilosophie und die Arbeiten an ihrem Film Das Zimmermädchen Lynn .“ In: BRÄUTI- GAM / PEILER. 66-76. HAJMOHAMMADI, Ali (2005): „The Viewer as the Focus of Subtitling. Towards a Viewer-oriented Approach.“ www.babelport.com/ articles/ 38. HAMAIDIA, Lena (2007): „Subtitling Slang and Dialect.“ MuTra Proceedings 2007. www.euroconferences.info/ proceedings/ 2007_Proceedings/ 2007_Hamaidia_Lena.pdf. HAMMER, Philipp / MÄLZER, Nathalie / WÜNSCHE, Maria (2015): „Audioeinführungen als Zusatzangebot zu Audiodeskriptionen? “ trans-kom 8.1. 164-178. ww.trans-kom.eu/ bd08nr01/ transkom_08_01_08_Hammer_Maelzer_Wuensche_Audioeinfuehrung.20150717.pdf. HÄMMER, Karin (2005): „Personenkennzeichnungen in Audiodeskriptionen.“ In: FIX. 87-98. HANEKE, Michael (2009): Das weiße Band. Eine deutsche Kindergeschichte. Das Drehbuch zum Film . Berlin: Berlin-Verlag. HANOULLE, Sabien / HOSTE, Véronique / REMAEL, Aline (2015): „The Translation of Documentaries: Can Domain-Specific, Bilingual Glossaries Reduce the Translators’ Workload? “ New Voices in Translation Studies 13. 25-49. HAYAKAWA, Megumi (2015) „Japanischer als im Original? Die Besetzungsstrategien der Synchronsprecher für Ken Watanabe und Hiroyuki Sanady in deren Hollywood-Filmen.“ In: BRÄU- TIGAM / PEILER. 260-279. HEDRICH, Andreas / SCHWINGE, Christiane (2019): „Creative Gaming - Zum subversive Potenzial digitaler Spiele.“ Aus Politik und Zeitgeschichte 69.31-32. 40-46. HEERDEGEN-WESSEL, Ursula (2016): „Barrierefreie Angebote der ARD und des NDR.“ In: MÄL- ZER 2016a. 277. HEISS, Christine (2004): „Dubbing Multilingual Films: A New Challenge? “ Meta 49.1. 208-220. http: / / id.erudit.org/ iderudit/ 009035ar. HEISS, Christine (2016): „Sprachhegemonie und der Gebrauch von Untertiteln in mehrsprachigen Filmen.“ trans-kom 9.1. 5-19. www.trans-kom.eu/ bd09nr01/ trans-kom_09_01_02_Heiss_Sprachhegemonie.20160705.pdf. HELLEBRAND, Sabine (2007): Untertitel für Hörgeschädigte im Fernsehen. Untersuchung einer 1: 1-Untertitelung . Diplomarbeit im Studiengang Medienwissenschaft / Medienpraxis, Eberhard-Karls-Universität Tübingen. HENCKEL VON DONNERSMARCK, Florian (2006): Das Leben der anderen . Frankfurt am Main: Suhrkamp. HERBST, Thomas (1994): Linguistische Aspekte der Synchronisation von Fernsehserien: Phonetik, Textlinguistik, Übersetzungstheorie . Tübingen: Niemeyer. Bibliographie 18231_Juengst_SL4�indd 305 18231_Juengst_SL4�indd 305 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 306 Bibliographie HERBST, Thomas (2015): „Filmsynchronisation als sprachliche Redundanzreduzierung. Fragen für die (kognitive) Linguistik.“ In: BRÄUTIGAM / PEILER. 97-120. HERNÁNDEZ-BARTOLOMÉ, Anna / MENDILUCE-CABRERA, Gustavo (2004): „Audesc: Translating Images into Words for Spanish Visually Impaired People.“ Meta 49.2. 264-277. http: / / id.erudit.org/ iderudit/ 009350ar. HESSE-QUACK, Otto (1969): Der Übertragungsprozess bei der Synchronisation von Filmen . München: Reinhardt HEZEL, Susanne (2009): Untertitelung für Hörgeschädigte für das deutsche Fernsehen: Vorgehensweisen, Forderungen, Richtlinien . In: NAGEL et al. 147-264. HICKETHIER, Knut (1993): Film- und Fernsehanalyse . Stuttgart: Metzler. HINDERER, Katharina (2009): Untertitelung in Tschechien und Deutschland . In: NAGEL et al. 265- 332. HIRVONEN, Maija (2012): „Contrasting Visual and Verbal Cueing of Space: 21 strategies and devices in the audio description of film.“ New Voices in Translation Studies 8. 21-43. HÖBEL, Wolfgang (2020): „Verborgener Schatz.“ Der Spiegel 7 (08.02.) 114-115. HOFFMANN, Julie (2015): „Im Kino sprechen alle deutsch.“ taz archiv . https: / / taz.de/ ! 232289/ . HOLLAND, Andrew (2009): „Audio Description in the Theatre and the Visual Arts: Images into Words.“ In: DÍAZ CINTAS / ANDERMAN. 170-185. HOŁOBUT, Agata (2012): „Three Lives of The Saint in Polish Voiceover Translation.“ Meta 57.2. 478-495. https: / / doi.org/ 10.7202/ 1013957ar. HOORICKX-RAUCQ, Isabelle (2005): „Mediating the Scientific Text. A Cultural Approach to the Discourse of Science in some English and French Publications and TV Documentaries.“ JOS- TRANS 3. 97-108. www.jostrans.org/ http: / / www.jostrans.org/ issue03/ art_hoorickx_raucq.pdf. HÜFFER, Daniela (2001): Thematisierung von „Schwerhörigkeit“ und „Absehen“ in einer Integrationsklasse . Normalerweise. www.foepaed.net/ volltexte/ hueffer/ hoeren.pdf. Seite wird derzeit umgebaut. IGAREDA, Paula / MATAMALA, Anna (2011): „Developing a learning platform for AVT: challenges and solutions.“ JOSTRANS 16. [fehlerhafte Nummerierung] www.jostrans.org/ issue16/ art_igareda_matamala.pdf. Interview mit Christoph Maria Herbst . Moma 29.05.2019, 5 Minuten Laufzeit. Zur Synchronisation von „Mr. Linke - Ein fellig verrücktes Abenteuer.“ Bis 29.05.2020 in der ARD-Mediathek. Interview : Anne Hansen: „Was macht eigentlich Dunja Rajter? “ Stern 22.10.2015. 156. Interview : Ula Brunner (2017): „Synchron-Regie: Unser Job ist es, nicht aufzufallen.“ Copyright Text: Goethe-Institut, Ula Brunner. www.goethe.de/ de/ kul/ flm/ 20894151.html. Interview : Teresa Tomaszkiewicz on censorschip in interpreting and audiovisual translation. JOS- TRANS 9. 2008. www.jostrans.org/ issue09/ int_tomaszkiewicz.php. Interview with Federico Spoletti, Managing Director of Sub-Ti . JOSTRANS 6. 2006. www.jostrans. org/ issue06/ interviews.php. Interview: Frederic Chaume interviewed by Jorge Díaz Cintas on developments in translation, part one. JOSTRANS 30. 2018. https: / / vimeo.com/ 234624661. Part two www.jostrans.org/ issue30/ int_chaume%20part2.php. Interview: Music for the Deaf: Pierre Schmitt interviewed by Lucile Desblache. JOSTRANS . 26. 2016. www.jostrans.org/ issue26/ int_schmitt.php Interview: The Translation of Musicals: Marta Mateo interviewed by Lucile Desblache. JOSTRANS 26. 2016. www.jostrans.org/ issue26/ int_mateo.php. 18231_Juengst_SL4�indd 306 18231_Juengst_SL4�indd 306 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 307 Interview: Lucile Desblache interviews Daniel Pageon on the fast-developing world of audiovisual translation. JOSTRANS 24. www.jostrans.org/ issue24/ int_pageon.php. Interview: Lucile Desblache interviews Jean-François Cornu on the history of audiovisual translation in France (in French, subtitled by Zoe Moores and Helen Hayes). JOSTRANS 23. 2015.https: / / www.jostrans.org/ issue23/ int_cornu.php. Interview: Lindsay Bywood interviews Yota Georgakopoulou on machine translation development in audiovisual translation. JOSTRANS 21. 2014. www.jostrans.org/ issue21/ int_georgakopoulou. php. Interview withfreelance audiovisual translator Anna Matamala (25 September 2004). JOSTRANS 4. 2005. 45-48. www.jostrans.org/ issue04/ art_matamala.pdf. Interview with Gonzalo Abril: Lip synchroniser, dubbing director and dubbing actor . JOSTRANS 4. 2005. www.jostrans.org/ issue04/ interviews.php. Interview with Jose Llurba: Free-lance audiovisual translator. JOSTRANS 4. Juli 2005. www.jostrans.org/ issue04/ interviews.php. Interview : Lonny Evans, Audio Descrieber, interviewed by Lindsay Bywood on subjectivity and creativity in AD (2019). JOSTRANS 32. Juli 2019. www.jostrans.org/ issue32/ interviews.php Interview with Professor Aline Remael . JOSTRANS 12. www.jostrans.org/ issue12/ int_remael.php Interview with Thomas Blomberg, Head opf Languaging Services, Red Bee Media. JOSTRANS 6. 2006. www.jostrans.org/ issue06/ interviews.php. ITC Guidance on Standards for Subtitling (1997) www.ofcom.org.uk/ static/ archive/ itc/ itc_publications/ codes_guidance/ standards_for_subtitling/ index.asp.html. IVARSSON, Jan (1992): Subtitling for the Media. A Handbook of an Art. Stockholm: TransEdit. IVARSSON, Jan / CARROLL, Mary (1998): Subtitling . Simrishamn: TransEdit. IZWAINI, Sattar (2019): „The Translation of Substitution and Ellipsis in Arabic Subtitling.“ Journal of Audiovisual Translation. 2.1. 126-151. IZYKOWSKI, Alexandra (2007): Cockney in der Filmübersetzung. Vergleichende Betrachtung der Übersetzung des Londoner Soziolekts ins Deutsche . Diplomarbeit IALT Universität Leipzig,unveröffentlicht. JÄGER, Juliane Yvonne (2016): Disneys „Das Dschungelbuch“ - eine Analyse der Übersetzungen ausgewählter Songtexte. BA-Arbeit FHWS, unveröffentlicht. JAKOBSON, Roman (1971): Fundamentals of Language . Den Haag: Mouton. JANKOWSKA, Anna / WALCZAK, Agnieszka (2019): „Audio description for films in Poland: history, present state and future prospects.“ JOSTRANS 32. 236-261. www.jostrans.org/ issue32/ art_jankowska.pdf. JEKAT, Susanne J. / PRONTERA, Daniel / BALE, Richard (2015): „On the Perception of Audio Description: Developing a Model to Compare Films and Their Audio Described Versions.“ transkom 8.2. 446-464. www.trans-kom.eu/ bd08nr02/ trans-kom_08_02_06_Jekat_ua_Audio_Description.20151211.pdf. JENNEWEIN, Nadja (2016): Barrierefreiheit imKontext audiovisueller Medien: Eine Untersuchung des Medienhandelns hörgeschädigter Kinder mit Schwerpunkt auf TV- und Telemedienangeboten . Masterarbeit Universität Erfurt, Philosophische und Erziehungswissenschaftliche Fakultät. JIMÉNEZ CARRA, Nieves (2016): „De Argentina a España: la adaptación de la variación lingüística en el subtitulado intralingüístico de El secreto de sus ojosFrom Argentina to Spain: adapting linguistic variation in the intralinguistic subtitles of El secreto de sus ojos(The Secret in Their Eyes).“ JOSTRANS 26. 211-231. www.jostrans.org/ issue26/ art_jimenez.pdf. Bibliographie 18231_Juengst_SL4�indd 307 18231_Juengst_SL4�indd 307 19�08�2020 12: 40: 16 19�08�2020 12: 40: 16 308 Bibliographie JIMÉNEZ HURTADO, Catalina (ed.) (2007): Traducción y accesibilidad: subtitulación para sordos y audiodescripción para ciegos. Nuevas modalidades de traducción audiovisual . Frankfurt/ M. u. a.: Lang. JOSEPHY-HERNÁNDEZ, Daniel E. (2017): „The Translation of Graphemes in Anime in Its Original and Fansubbed Versions.“ TranscUlturAl 9.1. 78-104. https: / / journals.library.ualberta.ca/ tc/ index. php/ TC/ article/ view/ 29189/ 21383. JOSTRANS ISSUE 06 - JULY 2006: Sondernummer zum Audiovisuellen Übersetzen. www.jostrans. org/ archive.php? display=06. JUDIKAITĖ PAŠVENSKIENĖ, Ligita (2013): „Translation of Anthroponyms in Children’s Cartoons: a comparative analysis of English dialogue and Lithuanian subtitles.“ New Voices in Translation Studies 10. 87-108. JÜNGST, Heike Elisabeth (2005): „Das Bild des Fremden hörbar machen - Vorschläge zur Behandlung von Kulturspezifika im Hörfilm.“ In: FIX. 153-170. JÜNGST, Heike Elisabeth (2008): „Audiovisuelles Übersetzen - Wie unterrichte ich das? “ Lebende Sprachen 53.2. 50-52. JÜNGST, Heike Elisabeth (2010): Audiovisuelles Übersetzen. Ein Lehr- und Arbeitsbuch . Tübingen: Narr. JÜNGST, Heike Elisabeth (2011a): „Audiovisuelle Übersetzung. Vom exotischen Sonderfall zum Modell in Forschung und Lehre.“ In: SCHMITT, Peter A. / HEROLD, Susann / WEILANDT, Annette (Hg.): Translationsforschung . Leipziger Studien zur angewandten Linguistik und Translatologie 10. Frankfurt: Peter Lang. 379-386. JÜNGST, Heike Elisabeth (2011b): „Filmübersetzung in Europa - Das Nonplusultra des Sprachenlernens? “ In: BUSCH-LAUER, Ines Andrea / FIEDLER, Sabine: Sprachraum Europa - Alles Englisch oder …? Berlin: Frank und Timme. 77-88. JÜNGST, Heike Elisabeth (2012a): „Filmdolmetschen - Die Stimme aus dem Dunkeln.“ In: ZYBA- TOW, Lew / PETROVA, Alena / USTASZEWSKI, Michael (Hg..): Translationswissenschaft: Alte und neue Arten der Translation in Theorie und Praxis. Frankfurt etc.: Lang. 235-240. JÜNGST, Heike Elisabeth (2012b): „Simultaneous Film Interpreting for Children.“ In: FISCHER / WIRF NARO. 287-300. JÜNGST, Heike Elisabeth (2013a): „Was die Filmübersetzung von der Comicübersetzung lernen kann.“ ENDE, Anne-Kathrin / HEROLD, Susann / WEILANDT, Annette (Hg..): Alles hängt mit allem zusammen. Translatologische Interdependenzen. Festschrift für Peter A. Schmitt . Berlin: Frank und Timme. 243-250. JÜNGST, Heike Elisabeth (2013b): „Potential of Integrating Dubbing Activities in the Translation Classroom.“ Trans-Revista de traductología 17. 103-114. JÜNGST, Heike Elisabeth (2016a): „Terminology in Nature Documentaries: Visuals and Avoidance.“ In: LUŠICKY, Vesna / BUDIN, Gerhard (Hg.). Multilingualism in Specialized Communication: Challenges and Opportunities in the Digital Age . Proceedings of the 20th European Symposium on Languages for Special Purposes, 8-10 July 2015, Vienna, Austria. Vienna: University of Vienna, 2016. http: / / phaidra.univie.ac.at/ o: 474773. 56-62. JÜNGST, Heike Elisabeth (2016b): „Taststücke als Ergänzung zur Audiodeskription - Zwischenbericht aus einer Studie.“ In: MÄLZER (2016a). 245-256. JÜNGST, Heike Elisabeth (2018): „AD-Slam.“ Unveröffentlichtes Manuskript des Vortrags auf der Languages and the Media , Oktober 2018. JÜNGST, Heike Elisabeth (2019): „Der Trickfilm als Hörfilm. Audiodeskription von Trickfilmen für blinde und sehbehinderte Kinder.“ In: SCHMIDELER, Sebastian (Hg.): Filmreif erzählt? Kinderanimationsfilme und -serien zwischen Kunst und Kommerz. kjl&m 19.3. 58-65. 18231_Juengst_SL4�indd 308 18231_Juengst_SL4�indd 308 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 309 JUNKERJÜRGEN, Ralf (2015): „Almodóvar auf Deutsch. Herausforderungen an Synchronisationen aus dem Spanischen.“ In: BRÄUTIGAM / PEILER. 163-178. KÄBER, Marco (2016): „Die Geschichte der Liveuntertitelung - ein Praxisbericht.“ In: MÄLZER (2016a). 295-306. KAINDL, Klaus (1995 ): Die Oper als Textgestalt . Tübingen: Stauffenburg. KAINDL, Klaus (2005): „Kreativität in der Übersetzung von Popularmusik.” Lebende Sprachen 50.3. 118-124. KAINDL, Klaus / OITTINEN, Riitta (2008): „Introduction: Le verbal, le visuel, le traducteur / The Verbal, the Visual, the Translator.“ Meta 53.1: 5. https: / / doi.org/ 10.7202/ 017970ar. KANG, Ji-Hae (2012): „Translating Mad Cow Disease: A Case Study of Subtitling for a Television News Magazine.“ Meta 57.2. 439-463. https: / / doi.org/ 10.7202/ 1013955ar. KAPSASKIS, Dionysis (2008): „Translation and Film: On the Defamiliarizing Effect of Subtitles.“ New Voices in Translation Studies 4, Special Conference Issue: With/ out Theory: The Role of Theory in Translation Studies Research, UCL, UK, April 2008. 42-52. KAPSASKIS, Dionysios (2011): „Professional identity and training of translatorsin the context of globalisation: The example of subtitling.“ JOSTRANS 16. 162-184. www.jostrans.org/ issue16/ art_kapsaskis.pdf. KARAMITROGLOU, Fotios (1998): „A Proposed Set of Subtitling Standards in Europe.“ Translation Journal 2.2. https: / / translationjournal.net/ journal/ 04stndrd.htm.. KASPER, Stefanie (2009): Egalisierung am Beispiel der US-Mystery-Serie „Heroes“. Diplomarbeit IALT Universität Leipzig, unveröffentlicht. KAUFMANN, Francine (2004): „Un exemple d’effet pervers de l’uniformisation linguistique dans la traduction d’un documentaire : de l’hébreu des immigrants de „Saint-Jean“ au français normatif d’ARTE.“ Meta 49.1. 148-160. http: / / id.erudit.org/ iderudit/ 009030ar. KAUNZNER, Ulrike A. (2016): „Die Bedeutung von Suprasegmentalia bei der Untertitelung.“ transkom 9.1. 20-33. www.trans-kom.eu/ bd09nr01/ trans-kom_09_01_03_Kaunzner_Suprasegmentalia.20160705.pdf. KEAZER, Henry (2015): „Von „cromulent“ bis „craptacular“? Die Synchronisation der Cartoon-Serie Die Simpsons zwischen global und glokal.“ In: BRÄUTIGAM/ PEILER. 179-198. KAUTZ, Harald (1995): Audiodeskription . Adaptation von Kinofilmen und Fernsehsendungen für Sehbehinderte. Diplomarbeit. Berlin. KAYAHARA, Matthew (2005): „The Digital Revolution: DVD Technology and the Possibilities for Audiovisual Translation Studies.“ JOSTRANS 03, 2005. 45-48. www.jostrans.org/ issue03/ art_kayahara.pdf. KIEFER, Philip (2019): Programmieren lernen mit der Maus . Bonn: Rheinwerk. KILIAN, Oliver (2018): „Text-Adventures selbst entwickeln.“ c’t wissen: Python-Projekte . 72-79. Nachdruck in: c’t Spaß mit Technik: Einfache Computerprojekte zum Selbermachen . 136-140. KIM, Changgun (2019): Übersetzen von Videospieltexten. Nekrotexte lesen und übersetzen . TranSÜD Band 103. Berlin: Frank & Timme. KIRF, Natalie (2008): Zur Informationsgliederung im Rahmen der Audiodeskription . Diplomarbeit Universität Saarbrücken. www.translationconcepts.org/ pdf/ Diplomarbeit_NatalieKirf.pdf. KLIPPERT, Werner (1977): Elemente des Hörspiels . Ditzingen: Reclam. KLUCKHOHN, Kim (2005): „Informationsstrukturierung als Kompensationsstrategie - Audiodeskription und Syntax.“ In: FIX. 49-66. KOHLMAIER, Stefan / MANDELC, Roman (2017): Spiel.Film. Videospiel-Ästhetik und die Schwierigkeit ihrer filmischen Adaption . Marburg: Schüren. Bibliographie 18231_Juengst_SL4�indd 309 18231_Juengst_SL4�indd 309 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 310 Bibliographie Kolloquium des Filmmuseums 2004 vom 18./ 19.6.2004 zum Thema Filmsynchronisation (nicht mehr online). KOOLSTRA, Cees M. / PEETERS, Allerd L. / SPINHOF, Herman (2002): „The Pros and Cons of Dubbing and Subtitling.“ European Journal of Communication 17. 325. http: / / ejc.sagepub.com/ cgi/ content/ abstract/ 17/ 3/ 325. KÖPPL, Rainer Maria (2015): „NEWSPEAK. Filmsynchronisation als Politik.“ In: BRÄUTIGAM / PEILER. 121-139. KOTHARI, Brij (2004): „Reading Out of the ‚Idiot Box‘‘: Same-Language Subtitling on Television in India.“ The Massachusetts Institute of Technology: Information Technologies and International Development 2.1. 23-44. (nicht mehr online). KRAMER, Evelyn (2016): Barrierefreies Fernsehen für hörgeschädigte Kinder mit Fokus auf die Untertitelungspraxis . Masterarbeit Universität Erfurt, Philosophische und Erziehungswissenschaftliche Fakultät KRAUTKRÄMER, Florian (2013): Schrift im Film . MedienWelten Band 21. Münster etc.: lit Verlag. KRASNOPEYEVA, Ekaterina (2018): Understanding the Dynamics of User-Generated Translation on YouTube: A Bourdieusian Perspective. New Voices in Translation Studies 18. 38 - 83. KRUGER, Jan-Louis (2012): „Ideology and Subtitling: South African Soap Operas.“ Meta 57.2. 496-509. https: / / doi.org/ 10.7202/ 1013958ar. KURCH, Alexander / MÄLZER, Nathalie / MÜNCH, Katja (2015): „Qualitätsstudie zu Live-Untertitelungen - am Beispiel des TV-Duells .“ trans-kom 8.1. 144-163. www.trans-kom.eu/ bd08nr01/ trans--kom_08_01_07_Kurch_Maelzer_Muench_Duell.20150717.pdf. KURZ, Christopher (2006): Filmsynchronisation aus übersetzungswissenschaftlicher Sicht. Eine kontrastive Synchronisationsanalyse des Kinofilms Lock, Stock and Two Smoking Barrels . Hamburg: Kovač. KURZ, Ingrid / MIKULASEK, Brigitta (2004): „Television as a Source of Information for the Deaf and Hearing Impaired. Captions and Sign Language on Austrian TV.“ Meta . 49.1. 81-88. http: / / id.erudit.org/ iderudit/ 009023ar. KUßMAUL, Paul (2007): Verstehen und Übersetzen . Tübingen: Narr. LAKRITZ, James / SALWAY, Andrew (2002): „The Semi-Automatic Generation of Audio Description from Screenplays.“ University of Surrey, Department of Computing. www.bbrel.co.uk/ pdfs/ CS-06-05.pdf. LANDESANSTALT für Medien NRW / Initiative Hören [ca. 2008]: Auditorix Hörspielwerkstatt für Kinder . CDs mit Anleitung. Languages & the Media. Les langues dans l'audiovisuel. Sprachen & Medien . (1998) Book of Abstracts, 2nd International Conference and Exhibition on Quality and Standards in Audiovisual Language Transfer, October 15-16, 1998, (ed. Andreas Marks). Berlin: ICEF. LEE, Taehyung (2011): „English into Korean Simultaneous Interpretation of Academy Awards Ceremony Through Open Captions on TV.“ Meta 56.1. 145-161. https: / / doi.org/ 10.7202/ 1003514ar. LEINERT, Claudia (2015) : „Kann Synchronisation dem Original gerecht werden? Anmerkungen einer Supervisorin.“ In: BRÄUTIGAM / PEILER. 49-65. LEISNERING, Conny (2014): „Filmmusik - translatorische Relevanz und Übersetzungsstrategien.“ Lebende Sprachen 59.2. 209-240. LENSING, Jörg (2009): Gestaltung von Filmton . Heidelberg: dpunkt. LEPRE, Ornella (2014): „Divided by Language, United by Gameplay An Example of Ludological Game Localization.“ In: MANGIRON / ORERO / O’HAGAN. 111-128. 18231_Juengst_SL4�indd 310 18231_Juengst_SL4�indd 310 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 311 LERTOLA, Jennifer / MARIOTTI, Cristina (2018): „Reverse Dubbing and Subtitling: Raising Pragmatic Awareness in Italian English as a Second Language (ESL)Learners.“ JOSTRANS 28. 103-121. www.jostrans.org/ issue28/ art_lertola.pdf. LESZCYŃSKA, Urszula / SZARKROWSKA, Agnieszka (2018): „‚I don't understand, but it makes me laugh.‘ Domestication in contemporary Polish dubbing.“ JOSTRANS 30. 203-231. www.jostrans.org/ issue30/ art_leszczynska_szarkowska.pdf. Lictra 2010 . Abstractband. Universität Leipzig. LINDNER, Peter (2016): „Vorproduktion - Semi-Live - Live. Ein Arbeitstag in der Untertitelredaktion des NDR.“ In: MÄLZER (2016a). 307-316. LISCHKA, Konrad (2009): „Verknallt in die Brillen-Bibliothekarin.“ www.spiegel.de/ netzwelt/ web/ 0.1518.663720.00.html 01.12.2009. LOB (2019): „Deutscher Darth Vader? “ Spiegel 36 (31.08.2019). 119. LÓPEZ VERA, Juan Francisco (2006): „Translating Audio description Scripts: The WayForward? Tentative First Stage Project Results.“ MuTra Proceedings 2006. http: / / www.euroconferences. info/ proceedings/ 2006_Proceedings/ 2006_Lopez_Vera_Juan_Francisco.pdf. LORIOT (1991): Pappa ante portas . Zürich: Diogenes. LORIOT (2016): Dramatische Werke . Zürich: Diogenes. LUYKEN, Georg-Michael et al. (eds.) (1991): Overcoming language barriers in television: Dubbing and subtitling for the European audience . Manchester: European Institute for the Media. LÅNG, Juha / MÄKISALO, Jukka / GOWASES, Tersia / PIETINEN, Sami (2013): „Using Eye Tracking 72 to Study the Effect of Badly Synchronized Subtitles on the Gaze Paths of Television Viewers.“ New Voices in Translation Studies 10. 72-86. MÄLZER, Nathalie (Hg.)(2016a): Barrierefreie Kommunikation - Perspektiven aus Theorie und Praxis . Berlin: Frank & Timme. MÄLZER, Nathalie (2016b): „Audiodeskription im Museum - Ein inklusiver Audioguide für Sehende und Blinde.“ In: MÄLZER (2016a). 209-230. MÄLZER, Nathalie / WÜNSCHE, Maria (2019a): Ergebnisse des EFRE-Forschungsprojekts „TV-Untertitel für gehörlose und schwerhörige Kinder . Universität Hildesheim www.uni-hildesheim.de/ sdh4kids. MÄLZER, Nathalie / WÜNSCHE, Maria (2019b): Handlungsempfehlungen für die TV-Untertitelung für gehörlose und schwerhörige Kinder zwischen acht und zwölf Jahren . Universität Hildesheim www.uni-hildesheim.de/ sdh4kids. MAIER, Simone (2014): Lokalisierung von Computerspielen - Die Übersetzung der Sprüche und Witze in League of Legends . MA-Arbeit FHWS Würzburg, unveröffentlicht. MAIER, Wolfgang (1997): Spielfilmsynchronisation . Frankfurt/ M. etc.: Lang. MAIRENA, Javier (2014): „How to Make Universally Accessible Video Games.“ In: MANGIRON / ORERO / O’HAGAN. 91-110. MANDIBERG, Stephen (2014): „Games, Localization and Diaspora.“ In: MANGIRON / ORERO / O’HAGAN. 217-242. MANGIRON, Carmen (2018). „Game on! Burning issues in game localisation.“ Journal of Audiovisual Translation 1.1. 122-138. MANGIRON, Carmen / O’HAGAN, Minako (2006): „Game Localisation: Unleashing Imagination with ‚Restricted‘ Translation.“ JOSTRANS 6. www.jostrans.org/ issue06/ art_ohagan.pdf. MANGIRON, Carmen / ORERO, Pilar / O’HAGAN, Minako (2014): Fun for All. Translation and Accesibility Practices in Video Games . Bern: Peter Lang. MANHART, Sibylle (1999): „Synchronisation.“ In: SNELL-HORNBY et al. 246-265. Bibliographie 18231_Juengst_SL4�indd 311 18231_Juengst_SL4�indd 311 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 312 Bibliographie MANHART, Sibylle (2000). „When Worlds Collide: Betrachtungen über fremde Kulturen im filmtranslatorischen Handlungsgefüge.“ In: KADRIC, Mira / KAINDL, Klaus / PÖCHHACKER, Franz: Translationswissenschaft . Tübingen: Narr. 167-181. MANTHEY, Dirk (1998): Making of … wie ein Film entsteht . 2 Bände. Reinbek bei Hamburg: Rowohlt. MARCHAND, Marie-Fleur (2012): „Ways to translate variety and register in dubbing and subtitling. A case study of Walt Disney’s The Jungle Book (1967).“ In: FISCHER / WIRF NARO. 317- 334. MARLEAU, Lucien (1982): „Les sous-titres un mal nécessaire.“ Meta 27.3. 271-285. http: / / id.erudit. org/ iderudit/ 003577ar. MARTÍN-MOR, Adrià / SÁNCHEZ-GIJÓN, Pilar (2016): „Machine translation and audiovisual products: a case study.” JOSTRANS 26. 172-186. DOI www.jostrans.org/ issue26/ art_martin.pdf. MARTÍNEZ SIERRA, Juan José (2009): „Doblar o subtitular el humor,esa no es la cuestión.“ JOS- TRANS 12. 180-198. www.jostrans.org/ issue12/ art_martinez_sierra.pdf. MARTÍNEZ SIERRA, Juan José / CEREZO MERCHAN, Beatriz (2017). „Film Studies and Translation Studies: A Necessary Mutual Understanding.“ inTRAlinea Special Issue: Building Bridges between Film Studies and Translation Studies. www.intralinea.org/ specials/ article/ film_studies_and_translation_studies_a_necessary_mutual_understanding1. MARTINS, Cláudia / FERREIRA, Cláudia (2019): „Project-Based Learning in Audiovisual Translation.“ Journal of Audiovisual Translation 2.1. 152-182. www.jatjournal.org/ index.php/ jat/ article/ view/ 109/ 21. MASZEROWSKA, Anna (2013): „Language Without Words: Light and Contrast in Audio Description.“ JOSTRANS 20. 165-180. www.jostrans.org/ issue20/ art_maszerowska.pdf. MATAMALA, Anna (2008): „Teaching voice-over.“ In: DÍAZ CINTAS 2008. 115-127. MATAMALA, Anna (2009): „Interjections in Original and Dubbed Sitcoms in Catalan: A Comparison.“ Meta 54.3. 485-502. https: / / doi.org/ 10.7202/ 038310ar. MATAMALA, Anna (2011): „Dealing with Paratextual Elements in Dubbing: A Pioneering Perspective from Catalonia.” Meta 56.4. 915-927. https: / / doi.org/ 10.7202/ 1011260ar, MATAMALA, Anna / ORERO, Pilar (2007): „Accessible Opera in Catalan: Opera for All.“ In: DÍAZ CINTAS / OREREO / REMAEL. 201-214. MATAMALA, Anna / ORERO, Pilar (2017): Researching Audio Description . Basingstoke: Palgrave Macmillan. MATAMALA, Anna / ORERO, Pilar. (2018). „Standardising accessibility: transferring knowledge to society.“ Journal of Audiovisual Translation 1.1. 139-154. www.jatjournal.org/ index.php/ jat/ article/ view/ 49/ 8. MATAMALA, Anna / ROMERO-FRESCO, Pablo / DANILUK, L. (2017): „The Use of Respeaking for the Transcription of Non-Fictional Genres: An Exploratory Study.“ inTRAlinea 19. www.intralinea.org/ archive/ article/ the_use_of_respeaking_for_the_transcription_of_non_fictional_genres. MATTSON, Jenny (2006): „Linguistic Variation in Subtitling: The subtitling of swearwords and discourse markers on public television, commercial television and DVD.“ MuTra Proceedings 2006 . www.euroconferences.info/ proceedings/ 2006_Proceedings/ 2006_Mattsson_Jenny.pdf. MAX-PLANCK-GESELLSCHAFT Presseinformation (2009): G / 2009 (235): „Film-Untertitel helfen beim Sprachenlernen.“ www.mpg.de/ bilderBerichteDokumente/ dokumentation/ pressemitteilungen/ 2009/ pressemitteilung200911121/ index.html. MAZUR, Iwona / CHMIEL, Agnieszka (2016): „Polish voice-over of In excelsis Deo : Technical constraints and critical points in translation decision-making.“ inTRAlinea Special Issue: A Text 18231_Juengst_SL4�indd 312 18231_Juengst_SL4�indd 312 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 313 of Many Colours - Translating The West Wing . www.intralinea.org/ specials/ article/ polish_voice_over_of_in_excelsis_deo. MÉAN, Yves-Manuel (2011): Einheitliche Untertitel für Hörgeschädigte im deutschsprachigen Fernsehen - Chance oder Utopie? Ein Vergleich der Untertitelungsrichtlinien in Deutschland, Österreich und der Schweiz . Masterarbeit an der Zürcher Hochschule für Angewandte Linguistik. MEDIA CONSULTING GROUP (2007): Study on Dubbing and Subtitling Needs and Practices in the European Audiovisual Industry. Final Report, Media Consulting Group, Paris / Peacefulfish . London (nicht mehr online). MEDIA CONSULTING GROUP (2011): Studie über die Verwendung von Untertiteln: Das Potenzial von Untertiteln zur Förderung des Fremdsprachenlernens und zur Verbesserung der Fremdsprachenbeherrschung. Abschlussbericht . Luxemburg: Amt für Veröffentlichungen der Europäischen Union. https: / / op.europa.eu/ en/ publication-detail/ -/ publication/ e4d5cbf4-a839-4a8a-81d0- 7b19a22cc5ce/ language-de. Media for All 2007 . Abstractband. Leiria. Media for All 2009 . Abstractband Antwerpen. MELE SCORCIA, Antonia (2018): „Surtitling and the audience: A love-hate relationship.“ JOS- TRANS 30. 181-202. www.jostrans.org/ issue30/ art_mele.pdf. MEREU, Carla (2012): „Censorial Interferences in the Dubbing of Foreign Films in Fascist Italy: 1927-1943.“ Meta 57.2. 294-309. https: / / doi.org/ 10.7202/ 1013946ar. METZ, Markus / SEEßLEN, Georg (2009): „Das Kino spricht deutsch. Glanz und Elend der Synchronisation.“ Deutschlandfunk Kultur - Zeitreisen . 11.02.2009, 19.30 Uhr (Archiv). www.deutschlandfunkkultur.de/ das-kino-spricht-deutsch.984.de.html? dram: article_id=153454. MEVEL, Pierre-Alexis (2014): „On the use of verlan to subtitle African American Vernacular English into French: transnational hybridity.“ inTRAlinea Special Issue: Across Screens, Across Boundaries. www.intralinea.org/ specials/ article/ on_the_use_of_verlan_to_subtitle_african_ american_vernacular_english_into_f. MILLER, Clive (2007): „Access symbols for use with video content and information and communications technology devices.“ In: DÍAZ CINTAS / ORERO / REMAEL. 53-70. MINGANT, Nolwenn (2010): „Tarantino’s Inglourious Basterds : a blueprint for dubbing translators? “ Meta 55.4. 712-731. https: / / doi.org/ 10.7202/ 045687ar. MONACO, James (1991): Film verstehen . Reinbek: Rowohlt. MORGNER, Henrike / PAPPERT, Steffen (2005a): „Einstellunganalyse und Transkription Laura mein Engel .“ In: FIX. v-xcl. MORGNER, Henrike / PAPPERT, Steffen (2005b): „Darstellung des Untersuchungsmaterials.“ In: FIX. 13-32. MOSSOP, Brian (2013): „Singing in Unknown Languages: a small exercise in applied translation theory.“ JOSTRANS 33-48. www.jostrans.org/ issue20/ art_mossop.pdf. MUBENGA, Kajingule Somwe (2009). „Towards a Multimodal Pragmatic Analysis of Film Discourse in Audiovisual Translation.“ Meta 54.3. 466-484. https: / / doi.org/ 10.7202/ 038309ar. MÜLLER GALHARDI, Rafael (2014): „Games and Fan Translations: A Case Study of Chrono Trigger .“ In: MANGIRON / ORERO / O’HAGAN. 175-196. MuTra 2006 . Abstractband des Kongresses Multidimensional Translation Kopenhagen 2006. NADIANI, Giovanni / HEISS, Christine (1996): Repertorio bibliografico sulla traduzione multimediale per il cinema, la televisione e la scena (Bibliography of multimedia translation for cinema, TV and theater). (nicht mehr online). Bibliographie 18231_Juengst_SL4�indd 313 18231_Juengst_SL4�indd 313 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 314 Bibliographie NAGEL, Rainer (1993): Fachsprache der Fantasy-Rollenspiele: Wortbildungselemente und -prozesse im Englischen. Frankfurt: Peter Lang Verlag NAGEL, Silke (2009): Das Übersetzen von Untertiteln: Prozess und Probleme der Kurzfilme Shooting Bokkie, Wasp und Green Bush . In: NAGEL et al. 23-146. NAGEL, Silke/ HEZEL, Susanne/ HINDERER, Katharina/ PIEPER, Kathrin: Audiovisuelle Übersetzung. Filmuntertitelung in Deutschland, Portugal und Tschechien . Frankfurt am Main etc.: Lang. NARDI, Antonella (2016): „Sprachlich-textuelle Faktoren im Untertitelungsprozess. Ein Modell zur Übersetzerausbildung Deutsch-Italienisch.“ trans-kom 9.1. 34-57. www.trans-kom.eu/ bd09nr01/ trans-kom_09_01_04_Nardi_Unterttel.20160705.pdf. National Captioning Institute (2002): NCI's Glossary of Captioning terms . www.ncicap.org/ viewer-resources/ about-captioning/ captioning-terms/ . NAUMANN, Gerd (2015): „Das unsichtbare Handwerk. Zu grundlegenden Aspekten der Synchronarbeit.“ In: BRÄUTIGAM / PEILER. 29-48. NAUMANN, Gerd (2016): Filmsynchronisation in Deutschland bis 1955 . Medienästhetik und Mediennutzung Band 5. Frankfurt am Main etc.: Lang. NEDERGAARD-LARSEN, Birgit (1993): „Culture-bound problems in subtitling.“ Perspectives 1993.2. 207-242. NEVES, Josélia (2005): Audiovisual Translation: Subtitling for the Deaf and Hard-of-Hearing . PhD thesis. Roehampton University. https: / / pure.roehampton.ac.uk/ portal/ en/ studentTheses/ audiovisual-translation-subtitling-for-the-deaf-and-hard-of-heari. NEVES, Josélia (2007): „A World of Change in a Changing World.“ In: DÍAZ CINTAS / ORERO / REMAEL. 89-98. NEVES, Josélia (2008a): „10 fallacies about Subtitling for the d/ Deaf and the hard of hearing.“ JOS- TRANS 128-143. www.jostrans.org/ issue10/ art_neves.pdf. NEVES, Josélia (2008b): „Training in subtitling for the d/ Deaf and hard-of-hearing.“ In: DÍAZ CIN- TAS 2008. 171-190. NEVES, Josélia (2009): „Interlingual Subtitling for the Deaf and Hard-of-Hearing.“ In: DÍAZ CIN- TAS / ANDERMAN. 151-169. NINK, Stefan (2019): „Wieso verstehe ich die Filme im Flugzeug manchmal nicht? “ ZEIT online . www.zeit.de/ 2019/ 52/ zensur-flugzeug-filme-airlines. NÖTH, Winfried (2000): Handbuch der Semiotik . Stuttgart / Weimar: Metzler. O'CONNELL, Eithne (2003): Minority Language Dubbing for Children. Screen Translation from German to Irish. Frankfurt am Main etc.: Lang. O'CONNELL, Eithne (2004): „Serving Our Purposes: audiovisual media, language planning and minority languages.“ Mercator Media Forum 7.1. 29-41. O’HAGAN, Minako (2005): „Multidimensional Translation: A Game Plan for Audiovisual Translation in the Age of GILT.“ MuTra Conference Proceedings. www.euroconferences.info/ proceedings/ 2005_Proceedings/ 2005_proceedings.html. O’HAGAN, Minako (2009a): „Putting Pleasure First: Localizing Japanese Video Games.“ TTR - Traduction, Terminologie, Rédaction. 22.1. https: / / id.erudit.org/ iderudit/ 044785ar. https: / / doi. org/ 10.7202/ 044785ar. O’HAGAN, Minako (2009b): „Towards a cross-cultural game design: an explorative study in understanding the player experience of a localised Japanese video game.“ JOSTRANS 211-233. www.jostrans.org/ issue11/ art_ohagan.pdf. O’HAGAN, Minako / MANGIRON, Carmen (2013): Game Localization . Amsterdam: Benjamins. 18231_Juengst_SL4�indd 314 18231_Juengst_SL4�indd 314 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 315 ORERO, Pilar (2004): „The Pretended Easiness of Voice-over Translation of TV.“ JOSTRANS 2. 76- 96. www.jostrans.org/ issue02/ art_orero.pdf. ORERO, Pilar (2006): „Voice-over: A Case of Hyper-reality.“ MuTra Proceedings 2006 . www.euroconferences.info/ proceedings/ 2006_Proceedings/ 2006_Orero_Pilar.pdf. ORERO, Pilar (2007): „Sampling Audiodescription in Europe.“ In: DÍAZ CINTAS / ORERO / REMA- EL. 111-125. ORERO, Pilar (2009): „Voice-over in Audiovisual Translation.“ In: DÍAZ CINTAS / ANDERMAN. 130-139. ORERO, Pilar (2016): „Audiodescribing the TV series The West Wing .“ inTRAlinea Special Issue: A Text of Many Colours - Translating The West Wing . Towards a coherent practice.“ www. intralinea.org/ specials/ article/ audio_describing_the_tv_series_the_west_wing_towards_a_coherent_practice. ORERO, Pilar et al. (2018): „Conducting experimental research in audiovisual translation (AVT): A position paper.“ JOSTRANS 30. 105-126. www.jostrans.org/ issue30/ art_orero_et_al.pdf. ORREGO-CARMONA, David et al. (2018): „Using translation process research to explore the creation of subtitles: an eye-tracking study comparing professional and trainee subtitlers.“ JOS- TRANS 30. 150-180. www.jostrans.org/ issue30/ art_orrego-carmona_et_al.pdf. ORTIZ-BOIX, Carla / MATAMALA, Anna (2016): „Post-editing wildlife documentary films: A new possible scenario? “ JOSTRANS 26. 187-210. www.jostrans.org/ issue26/ art_ortiz.pdf. PAECH, Joachim (2013): „Synchronisation: Zur technischen Koppelung der Sinne.“ In: MEURER, Ulrich et al. (Hg.): Übersetzung und Film. Das Kino als Translationsmedium . Bielefeld: transcript. 45-62. PAOLINELLI, Mario (2004): „Nodes and Boundaries of Global Communications: Notes on the Translation and Dubbing of Audiovisuals.“ Meta 49.1. 172-181. http: / / id.erudit.org/ iderudit/ 009032ar. PARINI, Ilaria (2012): „Censorship of Anime in Italian Distribution.“ Meta 57.2. 325-337. https: / / doi.org/ 10.7202/ 1013948ar. PAVESI, Maria (2013). „This and That in the Language of Film Dubbing: A Corpus-Based Analysis.“ Meta 58.1. 103-133. https: / / doi.org/ 10.7202/ 1023812ar. PAVESI, Maria (2018). „Reappraising verbal language in audiovisual translation. From description to application.“ Journal of Audiovisual Translation 1.1. 101-121. PAVESI, Maria / PEREGO, Elisa (2006): „Profiling Film Translators In Italy: A Preliminary Analysis.“ JOSTRANS 06. 99-144. www.jostrans.org/ issue06/ art_pavesi.pdf. PEDERSEN, Jan (2005): „How is culture rendered in subtitles? “ MuTra Proceedings 2005. http: / / www.euroconferences.info/ proceedings/ 2005_Proceedings/ 2005_proceedings.html. PEDERSEN, Jan (2007): Scandinavian Subtitles: A Comparative Study of Subtitling Norms in Sweden and Denmark with a Focus on Extralinguistic Cultural References. Doctoral thesis. Stockholm University. PEDERSEN, Jan (2015): „On the subtitling of visualised metaphors.“ JOSTRANS 23. www.jostrans. org/ issue23/ art_pedersen.pdf. PEDERSEN, Jan (2016): „In Sweden, we do it like this. On cultural references and subtitling norms.“ inTRAlinea Special Issue: A Text of Many Colours - translating The West Wing . www. intralinea.org/ specials/ article/ in_sweden_we_do_it_like_this. PEDERSEN, Jan (2017): „The FAR model: assessing quality in interlingual subtitling.“ JOSTRANS 28. 162-180. www.jostrans.org/ issue28/ art_pedersen.pdf. Bibliographie 18231_Juengst_SL4�indd 315 18231_Juengst_SL4�indd 315 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 316 Bibliographie PEDERSEN, Jan (2018). „From old tricks to Netflix: How local are interlingual subtitling norms for streamed television? “ Journal of Audiovisual Translation 1.1. 81-100. www.jatjournal.org/ index. php/ jat/ article/ view/ 46/ 5. PEILER, Daniel Nils (2015): „HAL singt Hänschen klein? Zur Synchronisation von Stanley Kubricks 2001: A Space Odyssey .“ In: BRÄUTIGAM / PEILER. 199-225. PERDIKAKI, Katerina (2014): „The New Norm(al) in TV Comedy: Rendering Culturally-Derived Humour in The New Normal .“ New Voices in Translation Studies 11: 164-187. PEREGO, Elisa (2002): „Bibliografia ristretta a contributi sulla traduzione filmica dei sottotitoli.“ RILA - Rassegna Italiana di Linguistica Applicata . 34.1-2. 399-424. PEREGO, Elisa (2016): „Empirical research in accessible audiovisual translation: general remarks and a case study on audio description.“ In: MÄLZER (2016a). 231-244. PEREGO, Elisa (2018). „Cross-national research in audiovisual translation: Some methodological considerations.“ Journal of Audiovisual Translation 1.1. 64-80. www.jatjournal.org/ index.php/ jat/ article/ view/ 44. PÉREZ GONZÁLEZ, Luis (2011 [2009]): „Audiovisual Translation.“ In: BAKER, Mona / SALDAN- HA, Gabriela (Hrsg.): Routledge Encyclopedia of Translation Studies . London, New York: Routledge. 13-20. PÉREZ GONZÁLEZ, Luis (2014): Audiovisual Translation: Therories, Methods and Issues . Abingdon: Routledge. PETTIT, Zoë (2004): „The Audio-Visual Text: Subtitling and Dubbing Different Genres.“ Meta 49.1. 25-38. http: / / id.erudit.org/ iderudit/ 009017ar. PETTIT, Zoë (2005): „Translating register, style and tone in dubbing and subtitling.“ JOSTRANS 4. 49-65. www.jostrans.org/ issue04/ art_pettit.pdf. PFEIFFER, Silke (2013): „Aus Respekt vor dem Couscous und dem Untertitler. Silke Pfeiffer über die DVD-Untertitelung von Couscous mit Fisch, aus dem Französischen untertitelt von Isabel Meyn und Andrea Kirchhartz. Rezensionszeitschrift für Literaturübersetzung - ReLü onlin e. Ausgabe 14. www.relue-online.de/ 2013/ 03/ aus-respekt-vor-dem-couscous-und-dem-untertitler/ . PIEPER, Katrin (2009): Zensur und Untertitelung während des Estado Novo in Portugal am Beispiel des Films Hunde wollt ihr ewig leben . In: NAGEL et al. 333-476. PIEPER, Katrin (2018a): „Censoring Sexuality - the Filtered Reception of Sexual Content in Portuguese Cinemas during the Dictatorship: The Case of Helga .“ CLINA 4.2. 27-46. PIEPER, Katrin (2018b): „The Claws of Ideology: Censorship and Subtitling of War Films during the Estado Novo in Portugal.“ Transletters: International Journal of Translation and Interpreting.2. 155-181. PLACK, Iris (2009): „Filmsynchronisation: Die Kunst des tönenden Trugbildes.“ Zeitschrift für Angewandte Linguistik . Heft 51. 3-44. PLEWA, Elżbieta (2016): „Untertitelung, Mehrsprachenversionen und Synchronisation in Polen im Jahr 1930. Die Suche nach der optimalen Übersetzungsmethode.“ trans-kom 9.2. 266-282. www. trans-kom.eu/ bd09nr02/ trans-kom_09_02_06_Plewa_Untertitel.20161220.pdf. POETHE, Hannelore (2005): „Audiodeskription - Entstehung und Wesen einer neuen Textsorte.“ In: FIX. 33-48. PRATS RODRÍGUEZ, Ana (2012): „Descriptive and compartative study of the language of dubbing in Catalan. The case of animation and anime programmes in the Balearic TV system.“ In: FISCHER / WIRF NARO. 335-376. PRILLWITZ, Siegmund (2001): Angebote für Gehörlose im Fernsehen und ihre Rezeption . Kiel. 18231_Juengst_SL4�indd 316 18231_Juengst_SL4�indd 316 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 317 PRUYS, Guido Marc (1997): Die Rhetorik der Filmsynchronisation: Wie ausländische Spielfilme in Deutschland zensiert, verändert und gesehen werden . Tübingen: Narr. PÜSCHEL, Nadine (2013): „Beim Untertiteln muss man kürzen - aber bitte nicht am Honorar! Nadine Püschel über die Situation von Übersetzern audiovisueller Medien.“ Rezensionszeitschrift für Literaturübersetzung - ReLü online . www.relue-online.de/ 2013/ 03/ beim-untertiteln-mussman-kuerzen-aber-bitte-nicht-am-honorar/ PUJOL, Dídac (2006): „The Translation and Dubbing of ‚Fuck‘ into Catalan: The Case of From Dusk till Dawn .“ JOSTRANS 6. 121-133. www.jostrans.org/ issue06/ art_pujol.pdf. PUJOL-TUBAU, Miquel (2017): „The role of dubbing and signifying codes in the protrayal of characters in transmedia films and video games.“ inTRAlinea Special Issue: Building Bridges between Film Studies and Translation Studies. www.intralinea.org/ archive/ article/ 2248. QIAN, Shaochang (2004): „The Present Status of Screen Translation in China.“ Meta 49.1. 52-58. http: / / id.erudit.org/ iderudit/ 009019ar. RAMIÈRE, Nathalie (2004): „Comment le sous-titrage et le doublage peuvent modifier la perception d’un film: analyse contrastive des versions sous-titrées et doublées en français du film d’Elia Kazan, A Streetcar Named Desire (1951).“ Meta 49.1. 102-114. http: / / id.erudit.org/ iderudit/ 009026ar. RAMIÈRE, Nathalie (2006): „Reaching a Foreign Audience: Cultural Transfers in Audiovisual Translation.“ JOSTRANS 6. 152-166.http: / / www.jostrans.org/ issue06/ art_ramiere.pdf. RANZATO, Irene (2011): „Translating Woody Allen into Italian: Creativity in Dubbing.“ JOSTRANS 15. 121-141. www.jostrans.org/ issue15/ art_ranzato.pdf. RANZATO, Irene (2012): „Gayspeak and Gay Subjects in Audiovisual Translation: Strategies in Italian Dubbing.“ Meta 57.2. 369-384. https: / / doi.org/ 10.7202/ 1013951ar. RĘDZIOCH-KORKUZ, Anna (2016): „Standards in Opera Surtitling as a Means Towards Opera Accessibility.“ In: MÄLZER (2016a). 171-192. RĘDZIOCH-KORKUZ, Anna (2018): „Constraints on Opera Surtitling: Hindrance or Help? “ Meta 63.1. 216-234. https: / / doi.org/ 10.7202/ 1050522ar. REINART, Sylvia (2004): „Zu Theorie und Praxis von Untertitelung und Synchronisation.“ In: KOHLMAYER, Rainer / PÖCKL, Wolfgang (eds.) (2004): Literarisches und mediales Übersetzen . Frankfurt a. M. etc.: Lang. 73-112. REINART, Sylvia (2009): „Das Übersetzen von Untertiteln - ein Translationsprofil.” In: ZYBATOW 2009. 151-166. REMAEL, Aline (2008): „Screenwriting, scripted and unscripted language: What do subtitlers need to know? “ In: DÍAZ CINTAS (2008). 57-68. REMAEL, Aline (2009): „Sampling subtitling for the deaf and the hard-of-hearing in Europe.“ In: DÍAZ CINTAS / ORERO / REMAEL. 23-52. REMAEL, Aline (2012): „Audio Description with Audio Subtitling for Dutch Multilingual Films: Manipulating Textual Cohesion on Different Levels.“ Meta 57.2. 385-407. https: / / doi. org/ 10.7202/ 1013952ar. REMAEL, Aline (2016): „Experimenting with AD for in house TV series: THUIS . An example from Flanders.“ JOSTRANS 26. 248-274. www.jostrans.org/ issue26/ art_remael.pdf. REMAEL, Aline / DE HOUWER, Annick / VANDERKERCKHOVE, Reinhild (2008): „Intralingual open subtitling in Flanders: audiovisual translation, linguistic variation and audience needs.“ JOSTRANS 10. 76-105. www.jostrans.org/ issue10/ art_houwer.pdf. REUS, Tim (2018): „Exploring Skopos in the Dutch Dubbed Versions of the Songs of Disney's Frozen .“ New Voices in Translation Studies 19. 1-24. Bibliographie 18231_Juengst_SL4�indd 317 18231_Juengst_SL4�indd 317 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 318 Bibliographie REVIERS, Nina (2016): „Audio description services in Europe: an update.“ JOSTRANS 26. 232-274. www.jostrans.org/ issue26/ art_reviers.pdf. REVIERS, Nina / REMAEL, Aline (2015): „Recreating Multimodal Cohesion in Audio Description: A Case Study of Audio Subtitling in Dutch Multilingual Films.“ New Voices in Translation Studies 13. 50-78. RICHARDSON, Michael (2017): „Sign Language Interpreting in Theatre: Using the Human Body to Create Pictures of the Human Soul.“ TranscUlturAl 9.1. 45-62. ROBERT, Isabelle S. / REMAEL, Aline (2016): „Quality Control in the Subtitling Industry: An Exploratory Survey Study.“ Meta 61.3. 578-605. https: / / doi.org/ 10.7202/ 1039220ar. ROBERT, Isabelle S. / SCHRIJVER, Iris / DIELS, Ella (2019): „Trainersʼ and Employersʼ Perceptions of Training in Intralingual and Interlingual Live Subtitling: A Survey Study.“ Journal of Audiovisual Translation 2.1. 1-25. RODRÍGUEZ-MEDINA, María Jesús (2015): „Appraising the Translation of Dyphemisms. Insights into the Spanish Crime Film Dubbese.“ inTRAlinea http: / / www.intralinea.org/ archive/ article/ 2139. ROJKOV, Alexandra (2012): „Sie zeigt’s allen. Julia Probst will als erste Gehörlose ins Parlament, doch über ihre Behinderung spricht die Piratin nicht.“ Die ZEIT 46 (08.11.). 13. ROMERO-FRESCO, Pablo (2006): „The Spanish Dubbese: A Case of (Un)idiomatic Friends.“ JOS- TRANS 6. 134-151. www.jostrans.org/ issue06/ art_romero_fresco.pdf. ROMERO FRESCO, Pablo (2009): „Naturalness in the Spanish Dubbing Language: a Case of Notso-close Friends.“ Meta 54.1. 49-72. https: / / doi.org/ 10.7202/ 029793ar. ROMERO-FRESCO, Pablo (2013): „Accessible filmmaking: Joining the dots between audiovisual translation, accessibility and filmmaking.“ JOSTRANS 20. 201-223. www.jostrans.org/ issue20/ art_romero.pdf. ROMERO-FRESCO, Pablo (2017): „Accessible Filmmaking in Documentaries.“ inTRAlinea Special Issue: Building Bridges between Film Studies and Translation Studies. www.intralinea.org/ specials/ article/ accessible_filmmaking_in_documentaries. ROMERO-FRESCO, Pablo. (2018). „In support of a wide notion of media accessibility: Access to content and access to creation.“ Journal of Audiovisual Translation 1.1. 187-204. www.jatjournal. org/ index.php/ jat/ article/ view/ 53. ROMERO-FRESCO, Pablo (2019): Accessible Filmmaking: Integrating translation and accessibility into the filmmaking process . Abingdon: Routledge. ROOFTHOOFT, Hanne / REMAEL, Aline / VAN DEN DRIES, Luc (2018): „Audiodescription for (postdramatic)theatre. Preparing the stage.“ JOSTRANS 30. 232-248. www.jostrans.org/ issue30/ art_roofthooft_et_al.pdf. RUSSO, Mariachiara (2015): „Film Interpreting.“ In: PÖCHHACKER, Franz (Hrsg.): Routledge Encyclopedia of Translation Studies . London: Routledge. 163-164. RUSSO, Katherine E. (2014): „Transmedia Storytelling, Translocal Productions: Audiovisual Strategies of Globalization in Australia.“ inTRAlinea Special Issue: Across Screens Across Boundaries. www.intralinea.org/ specials/ article/ transmedia_storytelling_translocal_productions. SAHLBERGER, Frank (2013): „Wo der Helikopter noch landen kann, ist es für den Hubschrauber schon zu eng.“ Frank Sahlberger über seine Arbeit als Untertitler am Beispiel des Cop-Thrillers End of Watch von David Ayer . Rezensionszeitschrift zu Literaturübersetzung -- ReLü online 14. www.relue-online.de/ 2013/ 03/ wo-der-helikopter-noch-landen-kann-ist-es-fuer-den-hubschrauber-schon-zu-eng/ 18231_Juengst_SL4�indd 318 18231_Juengst_SL4�indd 318 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 319 SALA ROBERT, ÈLIA (2012): „Subtitling for deaf children: Beyond the existing guidelines.“ In: FISCHER / WIRF NARO. 301-316. SALWAY, Andrew (2007): „A Corpus-based Analysis of Audio Description.“ In: DÍAZ CINTAS / ORERO / REMAEL. 151-174. SÁNCHEZ MOMPEÁN, Sofía (2015): „Dubbing animation into Spanish: behind the voices of animated characters.“ JOSTRANS 23. 270-291. www.jostrans.org/ issue23/ art_sanchez.pdf. SANTIAGO ARAÚJO, Vera Lúcia (2004): „To Be or Not to Be Natural: Clichés of Emotion in Screen Translation.“ Meta 49.1. 161-171. http: / / id.rudit.org/ iderudit/ 009031ar. SANTIAGO ARAÚJO, Vera Lúcia (2007): „Subtitling for the deaf and hard-of-hearing in Brazil.“ In: DÍAZ CINTAS / ORERO / REMAEL. 99-108. SANZ-ORTEGA, Elena (2011): „Subtitling and the Relevance of Non-verbal Information in Polyglot Films.“ New Voices in Translation Studies 7. 19-34. SCANDURA, Gabriela L. (2004): „Sex, Lies and TV: Censorship and Subtitling.“ Meta 49.1. 125-134. http: / / id.erudit.org/ iderudit/ 009028ar. SCHLENKER, Annett (2008): Die Synchronisation der Serie „Scrubs“ - eine Übersetzungskritik . Diplomarbeit IALT Universität Leipzig, unveröffentlicht. SCHMITT, Peter A. (2016): Handbuch Technisches Übersetzen . Berlin: BDÜ Verlag. SCHMÖLLER, Verena (2012): Was wäre, wenn … im Film. Spielfilme mit alternativen Handlungsverläufen . Marburg: Schüren. SCHRÖPF, Ramona (2008): Die fabelhafte Welt der Untertitelung . Saarbrücken: Verlag Dr. Müller. SCHÜTTE, Matthias / HOLZ, Matthias / SCHÖNAU, Mats (2018): „Grafik: Synchronsprecher. Verwandte Stimmen.“ Die ZEIT 9 (22.02.). 42. SCHWARZ, Barbara (2002-3): „Translation in a Confined Space.“ Translation Journal 6.4. und 7.1. https: / / translationjournal.net/ journal/ 22subtitles.htm. und https: / / translationjournal.net/ journal/ 23subtitles.htm. SCHWARZ, Ulrike (2009): Synchronisation und Untertitelung von Filmen und kulturelle Referenzen am Beispiel von „Das Leben des Brian“. Diplomarbeit IALT Universität Leipzig, unveröffentlicht. SEIFFERT, Anja (2005): „Räumliches hören. Eine schemaorientierte Analyse der audiodeskriptiven Darstellung der Handlungsräume.“ In: FIX. 67-86. SEIFFERTH, Veronika (2009): Die deutsche Synchronisation amerikanischer Fernsehserien . Trier: Wissenschaftlicher Verlag. SHIBAHARA, Tomoyuki (2009): „Broadcasting Interpreting: A Comparison between Japan and the UK.“ In: DÍAZ CINTAS / ANDERMAN. 140-150. SIMONEAU-JOïRG, Maryvonne (1996): „Interpreting to describe: the describer’s role as an image translator.“ In: BURGER. 97-101. SKUGGEVIK, Erik (2009): „Teaching Screen Translation: The Role of Pragmatics in Subtitling.“ In: DÍAZ CINTAS / ANDERMAN. 197-213. SNELL-HORNBY, Mary et al. (eds.) (1998): Handbuch Translation . Tübingen: Stauffenburg. SNYDER, Joel (2008): „Audio description: The visual made verbal.“ In: DÍAZ CINTAS (2008). 191- 198. SNYDER, Joel (2014): The Visual Made Verbal . Arlington, VA: American Council for the Blind. SOH TATCHA, Charles (2009): „Doublage cinématographique et audiovisuel : équivalence de son, équivalence de sens.“ Meta 54.3. 503-519. https: / / doi.org/ 10.7202/ 038311ar. SOKOLI, Stavroula (2006): „Learning via subtitling (LvS): A tool for the creation of foreign language learning activities based on film subtitling.“ MuTra Proceedings 2006. www.euroconferences. info/ proceedings/ 2006_Proceedings/ 2006_Sokoli_Stravoula.pdf. Bibliographie 18231_Juengst_SL4�indd 319 18231_Juengst_SL4�indd 319 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 320 Bibliographie SOKOLI, Stavroula (2009): „Subtitling Norms in Greece and Spain.” In: DÍAZ CINTAS / ANDER- MAN. 36-48. SOLER GALLEGO, Silvia / JIMÉNEZ HURTADO, Catalina (2013): „Traducción accesible en el espacio museográfico multimodal: las guías audiodescriptivas.“ JOSTRANS 20. 181-200. www. jostrans.org/ issue20/ art_jimenez.pdf. SOLER PARDO, Betlem (2013): „Translating and Dubbing Verbal Violence in Reservoir Dogs . Censorship in the Linguistic Transference of Quentin Tarantino’s (Swear)Words.“ JOSTRANS 20. 122-133. www.jostrans.org/ issue20/ art_pardo.pdf. SPONHOLZ, Christine (2003): Teaching Audiovisual Translation. Theoretical Aspects, Market Requirements, University Training and Curriculum Development . Diplomarbeit FASK Germersheim. http: / / isg.urv.es/ library/ papers/ thesis_Christine_Sponholz.doc. STEFFENSEN, Kenn Nakata. (2012): „BBC English with an Accent: ‚African‘ and ‚Asian‘ Accents and the Translation of Culture in British Broadcasting.“ Meta 57.2. 510-527. https: / / doi. org/ 10.7202/ 1013959ar. STEGEMANN, Corinna (2005): „Die coole Stimme aus dem Off.“ taz online 16.08.2005. www.taz.de/ index.php? id=archivseite&dig=2005/ 08/ 16/ a0117. STERNBERG, Meir (1981): „Polylingualism as Reality and Translation as Mimesis.“ Poetics Today 2.4. 221-239. Duke University Press. Stable URL: www.jstor.org/ stable/ 1772500. STONE, Christopher (2007): „Deaf Access for Deaf People: the Translation of the Television News from English Into British Sign Language.“ In: DÍAZ CINTAS / ORERO / REMAEL. 71-88. SWINBOURNE, Charlie (2008): „Charlie’s Subtitling Diary. 16 November 2008.“ www.bbc.co.uk/ ouch/ features/ charlies-subtitle-diary.shtml. BBC (Archive). SZARKOWSKA, Agnieszka (2011): „Text-to-speech audio description: towards wider availability of AD.“ JOSTRANS 15. 142-162. www.jostrans.org/ issue15/ art_szarkowska.pdf. SZARKOWSKA, Agnieszka / JANKOWSKA, Anna (2015): „Audio describing foreign films.“ JOS- TRANS 23. 243-269. www.jostrans.org/ issue23/ art_szarkowska.pdf. SZARKOWSKA, Agnieszka / KREJTZ, Krzysztof / DUTKA, Łukasz / PILIPCZUK, Olga (2016): “Cognitive Load in Intralingual and Interlingual Respeaking - A Preliminaty Study.” Poznań Studies in Contemporary Linguistics 52.2. 209-233. https: / / doi.org/ 10.1515/ psicl-2016-0008 SZARKOWSKA, Agnieszka / WASYLCZYK, Piotr (2018). „Five things you wanted to know about audiovisual translation research but were afraid to ask.“ Journal of Audiovisual Translation 1.1. 8-25. www.jatjournal.org/ index.php/ jat/ article/ view/ 41. TALAVÁN, Noa (2019): „Creative Audiovisual Translation Applied to Foreign Language Education.“ Journal of Audiovisual Translation 2.1. 53-74. www.jatjournal.org/ index.php/ jat/ article/ view/ 57. TAMAYO, Ana (2016): „Reading speed in subtitling for hearing impaired children: an analysis in Spanish television.“ JOSTRANS 26. 274-294. www.jostrans.org/ issue26/ art_tamayo.pdf. DOI TAMAYO, Ana (2017): „Signifying codes of audiovisual products: Implications in subtitling for the D/ deaf and the hard of hearing.“ inTRAlinea Special Issue: Buliding Bridges between Film Studies and Translation Studies. www.intralinea.org/ specials/ article/ signifying_codes_of_audiovisual_products. TARQUINI, Gianna (2014a): „Playing Cinematics: Traditional AVT Modes in an Audiovisual Landscape.“ inTralinea Special Issue: Across Screens, Across Boundaries. www.intralinea.org/ specials/ article/ playing_cinematics. TARQUINI, Gianna (2014b): „Translating the Onscreen Text Blindfolded: Possibilities and Impossibilities.“ In: MANGIRON / ORERO / O’HAGAN. 149-174. 18231_Juengst_SL4�indd 320 18231_Juengst_SL4�indd 320 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 321 TARQUINI, Gianna / McDORMAN, Richard E. (2019): „Video Tutorials: an expanding audiovisual genre.“ JOSTRANS 32. 146-170. www.jostrans.org/ issue32/ art_tarquini.pdf. TAYLOR, Christopher (2006): „I knew he’d say that! A consideration of the predictability of language use in film.“ MuTra Proceedings 2006 . www.euroconferences.info/ proceedings/ 2006_Proceedings/ 2006_Taylor_Christopher.pdf. TAYLOR, Christopher (2009): „Pedagogical Tools for the Training of Subtitlers.“ In: DÍAZ CINTAS / ANDERMAN. 214-228. THAWEBTE, Mohammad Ahmad (2010): „The Translatability of Interjections: A Case Study of Arabic-English Subtitling.“ Meta . 55.3. 499-515. https: / / doi.org/ 10.7202/ 045067ar. THIELE, Tina (2006): „Rainer Brandt: Auf die Ohren kommt es an! “ casting network 15.02.2006. www.casting-network.de/ Offener-Bereich/ cn-klappe/ lesen/ 8-Rainer-Brandt-Auf-die-Ohrenkommt-es-an-Ein-Interview-ueber-die-deutsche-Synchronschauspielerszene-anlaesslich-der- Verleihung-des-Deutschen-Preis-fuer-Synchron.html. THOMPSON, Peter (2000): „Notes on Subtitles and Superimposition.“ www.chicagomediaworks. com/ 2instructworks/ 3instruct_writings/ wrsubtit.doc. TIITULA, Liisa (2018): „Schriftdolmetschen. Gesprochenes in schriftlicher Form.“ Sprache im kommunikativen, interaktiven und kulturellen Kontext 193-217. FHWS Download. OpenAccess. ©2018LiisaTiittula,publiziertvonDeGruyter. DiesesWerk ist lizenziert unter der Creative Commons Attribution 4.0Lizenz. https: / / doi.org/ 10.1515/ 9783110538601-009 Bereitgestellt. 193-217. TOEPSER-ZIEGERT, Gabriele (1978): Theorie und Praxis der Synchronisation: dargestellt am Beispiel einer Fernsehserie . Regensberg. TOR-CARROGGIO, Irene / SEGURA, Daniel / SOLER-VILAGELIU, Olga (2019): „Usability as a Premise of Quality.“ Journal of Audiovisual Translation 2.2. 57-71. www.jatjournal.org/ index. php/ jat/ article/ view/ 77. TORRENTE, Javier / ÁNGELDEL, Blanco / MORENO-GER, Pablo / MARTÍNEZ-ORTIZ, Iván / FERNÁNDEZ-MANJÓN, Baltasar (2014): „Games and Education: Accessibility Experiences with e-Adventure.“ In: MANGIRON / ORERO / O’HAGAN. 67-90. TORTORIELLO, Adriana (2006): „Funny and Educational across Cultures: Subtitling Winnie The Pooh into Italian.“ JOSTRANS 6. Juli 53-67. www.jostrans.org/ issue06/ art_tortoriello.pdf. TSAI, Claire (2012): „Television News Translation in the Era of Market-driven Journalism.“ Meta 57.4: 1060-1080. https: / / doi.org/ 10.7202/ 1021233ar. TVEIT, Jan-Emil (2009): „Dubbing versus Subtitling: Old Battleground Revisited.“ In: DÍAZ CIN- TAS / ANDERMAN. 85-96. UHLIG, Anne C. (2012): Ethnographie der Gehörlosen . Bielefeld: Transcript. UTRAY, Francisco / PEREIRA, Ana María / ORERO, Pilar (2009): „The Present and Future of Audio Description and Subtitling for the Deaf and Hard of Hearing in Spain.“ Meta 54.2. 248-263. https: / / doi.org/ 10.7202/ 037679ar. VALENTINI, Cristina (2006): „A Multimedia Database for the Training of Audiovisual Translators.“ JOSTRANS 6. 68-84. www.jostrans.org/ issue06/ art_valentini.pdf. VAN OERST, Annelies (2014): „Translation Strategies and Video Game Translation. A Case Study of Beyond Good and Evil .“ In: MANGIRON / ORERO / O’HAGAN. 129-148. VANDERPLANK, Robert (1988): „The value of teletext subtitles in language learning.“ English Language Teaching Journal . 42.4. 272-81. VERCAUTEREN, Gert (2007): „Towards a European Guideline for Audio Description.“ In: DÍAZ CINTAS / ORERO / REMAEL. 139-150. Bibliographie 18231_Juengst_SL4�indd 321 18231_Juengst_SL4�indd 321 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 322 Bibliographie VIRKKUNEN, Riitta (2004): „The Source Text of Opera Surtitles.“ Meta 49.1. 89-97. http: / / id.erudit. org/ iderudit/ 009024ar. VOIGT, Katrin (2002): Aspects of Change in Film Dubbing: An Analysis of Sliding Doors and Sie liebt ihn - Sie liebt ihn nicht. TU Chemnitz (nicht mehr online). VORDERMAN, Carol et al. (2018): Programmieren mit Python - supereasy . München: Dorling Kindersley. VORDERMAN, Carol et al. (2019): Spiele mit Python supereasy programmieren . München: Dorling Kindersley. WADENSJÖ, Cecilia (2008): „In and Off the Show: Co-constructing ‚invisibility‘ in an Interpreter-Mediated Talk Show Interview.“ Meta 53.1. 184-203. https: / / doi.org/ 10.7202/ 017982ar. WAGNER, Susanne (2005): „Intralingual speech-to-text-conversion in real-time: Challenges and Opportunities.“ MuTra Conference Proceedings 2005 . www.euroconferences.info/ proceedings/ 2005_Proceedings/ 2005_Wagner_Susanne.pdf. WAHL, Chris (2005): Das Sprechen des Spielfilms: über die Auswirkungen von hörbaren Dialogen auf Produktion und Rezeption, Ästhetik und Internationalität der siebten Kunst. (Schriftenreihe: Filmgeschichte international; 16). Trier: Wiss. Verl. Trier. WAINEWRIGHT, Max (2016): Spielend programmieren lernen . Ravensburg: Ravensburger. WANG, Dingkun (2017): „Fansubbing in China -With Reference to the Fansubbing Group YYeTs.“ JOSTRANS 28. 165-190. www.jostrans.org/ issue28/ art_wang.pdf. WATTS, Harris (1984): On Camera . London: BBC. WEGNER, Marco (2006): Lippensynchronität und ihre Auswirkung auf die Translationsqualität von Spielfilmen am Beispiel von „Matrix“ und „Die Unglaublichen“ . Diplomarbeit IALT Universität Leipzig, unveröffentlicht. WEHN, Karin (1996): Die deutschen Synchronisation(en) von „Magnum, P.I.“ Rahmenbedingungen, serienspezifische Übersetzungs-probleme und Unterschiede zwischen Original- und Synchronfassungen . Hallesche Medienarbeiten Jg.1/ 2, Martin-Luther-Univ., Halle-Wittenberg, http: / / download.philfak2.uni-halle.de/ download/ medienkomm/ halma/ halma2.pdf. WEISSBACH, Marleen (2009): Audiodeskription und Hörfilme. Eine kontrastive Analyse der deutschen und englischen Audiodeskription des Films Brokeback Mountain. Diplomarbeit IALT Universität Leipzig, unveröffentlicht. WEISSBROD, Rachel (2006): „Inter-Semiotic Translation: Shakespeare on Screen.“ JOSTRANS 5. 42-56. www.jostrans.org/ issue05/ art_weissbrod.pdf. WEISSHAUPT, Nadja (2015): „Localisation of bird sounds in the German and English versions of Lars Svensson’s Swedish ornithological field guide Fågelguiden .“ JOSTRANS 24. 230-251. www. jostrans.org/ issue24/ art_weisshaupt.pdf. WEISSHAUPT, Nadja (2017): „The challenge of dubbing bird names: shifts of meaning and translation strategies used in the German version of The Big Year (2011).“ JOSTRANS 28. 189-209. www. jostrans.org/ issue28/ art_weisshaupt.pdf. WHITMAN-LINSEN, Candace (1992): Through the dubbing glass: The Synchronization of American Motion Pictures into German, French and Spanish . Frankfurt am Main: Peter Lang Verlag. WICHMANN, Kai (2012): „Warum Spieleübersetzung schwer ist - Das Stochern im Dunkeln.“ Game Star . www.gamestar.de/ artikel/ warum-spieleuebersetzung-schwer-ist-das-stochern-im-dunkeln,2569679.html. WIDLER, Brigitte (2004): „A Survey Among Audiences of Subtitled Films in Viennese Cinemas.“ Meta 49.1. 98-101. http: / / id.erudit.org/ iderudit/ 009025ar. 18231_Juengst_SL4�indd 322 18231_Juengst_SL4�indd 322 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 323 WIEGERS, Martin (1992): „Schampus, im Sinn. Wie ein Übersetzungsfehler die Beziehung zwischen Rick und Ilsa verklärte.“ Die ZEIT 15. 3. April 1992. 99. www.zeit.de/ 1992/ 15/ schampusim-sinn. WILCK, Frauke (2003): Eine Annäherung an die Anforderungen zur Medienuntertitelung für Gehörlose, Schwerhörige und Spätertaubte mit dem Schwerpunkt: Film-, Video- und DVD-Untertitelung . Universität Hamburg, Institut für Deutsche Gebärdensprache. http: / / sign-dialog.de/ wp-content/ hausarbeit_200309_wilk_medienuntertitelung.pdf. WILLBERG Hans Peter / FORSSMAN, Friedrich (1999): Erste Hilfe in Typografie. Mainz: Hermann Schmidt. WOZNIAK, Monika (2014): „Technobabble on Screen. Translating science fiction films.” inTRAlinea Special Issue: Across Screens, Across Boundaries. www.intralinea.org/ specials/ article/ technobabble_on_screen. WÜNSCHE, Maria (2016): „Das Spannungsfeld zwischen Barrierefreiheit und Inklusion am Beispiel der Theaterübertitelung.“ In: MÄLZER (2016a). 193-209. YAU, Wai-Ping (2012): „Power, Identity and Subtitling in a Diglossic Society.“ Meta 57.3. 564-573. https: / / doi.org/ 10.7202/ 1017080ar YORK, Greg (2007): „Verdi Made Visible: Audio Introduction for Opera and Ballet.“ In: DÍAZ CIN- TAS / ORERO / REMAEL. 215-230. YOS, Gabriele (2005): „Verknüpfung von Audiodeskription und Filmdialog.“ In: FIX. 99-116. YOUNG, Jessica (2007): „Audio Description in the Chinese World.“ In: DÍAZ CINTAS / ORERO / REMAEL. 231-244. YUPING, Chen / WEI, Wang (2019): „Semiotic analysis of viewers’ reception of Chinesesubtitles: Arelevance theory perspective.“ JOSTRANS 32. www.jostrans.org/ issue32/ art_chen.pdf. ZABROCKA, Monika (2018): „Rhymed and traditional audio description according to the blind and partially sighted audience: Results of a pilot study on creative audio description.“ JOSTRANS 29. www.jostrans.org/ issue29/ art_zabrocka.pdf. ZABALBEASCOA, Patrick (1994): „Factors in dubbing television comedy.“ Perspectives 2.1. 89-99. ZABALBEASCOA, Patrick (1996): „Translating Jokes for Dubbed Television Situation Comedies.“ The Translator 2.2. 235-257. ZABALBEASCOA, Patrick / SOKOLI, Stavroula (2018): The Trafilm Guide . Barcelona. ZABALBEASCO, Patrick / CORRIUS, Montse (2019): „Translating Code-Switching on the Screen. Spanglish and L3 as Theme.“ Journal of Audiovisual Translation 2.2. 72-91. www.jatjournal.org/ index.php/ jat/ article/ view/ 96. ZANOTTI, Serenella (2012): „Censorship or Profit? The Manipulation of Dialogue in Dubbed Youth Films.“ Meta 57.2. 351-368. https: / / doi.org/ 10.7202/ 1013950ar ZARATE, Soledad / ELIAHOO, Joseph (2014): „Word recognition and content comprehension of subtitles for television by deaf children.“ The Journal of Specialised Translation . 21. 133-152. ZE Sprachenzentrum (o. J.): Fremdsprachenlernen mit Filmen . Online-Handreichung. www.sprachenzentrum.fu-berlin.de/ slz/ media/ pdf/ Fremsprachenlernen_Filmen1.pdf ? 1205844207. ZHANG, Chunbai (2004). „The Translating of Screenplays in the Mainland of China.“ Meta 49.1. 182-192. http: / / id.erudit.org/ iderudit/ 009033ar. ZHANG, Xiaochun (2012): „Censorship and Digital Games Localisation in China.“ Meta 57.2. 338-350. https: / / doi.org/ 10.7202/ 1013949ar. ZHANG, Xiaochun (2014): „Terminology Management in Video Games Localisation.“ In: MANGI- RON / ORERO / O’HAGAN. 197-216. Bibliographie 18231_Juengst_SL4�indd 323 18231_Juengst_SL4�indd 323 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 324 Bibliographie ZHANG, Xiaochun (im Druck): „Localisation Training in Higher Education Institution: A Reflection on Curriculum Design and Teaching Methods.“ Vortrag auf der Languages and the Media 2018. Manuskript im Druck. ZINDEL, Udo / REIN, Wolfgang (Hg.) (2007): Das Radio-Feature . Konstanz: UVK. ZYBATOW, Lew (2006): „Multidimensionale Translation 7: Untertitelung und Mehrsprachigkeit.“ Vorlesungsskript. www.uibk.ac.at/ translation/ aktuelles/ multidim_vo1.doc . ZYBATOW, Lew (Hg.) (2009a): Translation - neue Entwicklungen in Theorie und Praxis . Bern etc.: Peter Lang. ZYBATOW, Lew (2009b): „Filmsynchronisation als Translation.“ In: ZYBATOW 2009a. 61-94. ZYBATOW, Lew et al. (2009): „Projekt MultiTransInn“. Enthält Unterpunkte zu Sozialen Sprachvarietäten und Wortspielen in Filmen (Magdalena Pöllmann). Sonstige Internetquellen http: / / gameaccessibilityguidelines.com/ http: / / ec.europa.eu/ avpolicy/ index_en.htm (EU-Startseite zu Themen im audiovisuellen Bereich). www.abkuerzungen.de/ emoticons.php? language=de. www.deinkino.de/ ( Barrierefreie Plattform für Kinofilme mit Untertiteln und Audiodeskription) www.ffa.de/ index.php? id= (Förderung auch von Barrierefreiheit beim Film). www.hoerspielbox.de. www.hoerfilm.de. (Homepage der Deutschen Hörfilm gGmbH) https: / / hoerfilm.info/ files/ bilder/ diverse/ Empfehlungen-AD-Kinderfilm.pdf. www.hoerfilmev.de. (Homepage der Vereinigung deutschsprachiger Filmbeschreiberinnen und Filmbeschreiber) https: / / dgs.mmsoftct.de/ ( DGS-Avatar zur Umsetzung von Text in DGS) www.mdr.de/ barrierefreiheit/ audiodeskription/ index.html. (enthält Schaltflächen innerhalb der Seite: „So entsteht der Hörfilm ‚In aller Freundschaft‘“, „So wird ein Film zum Hörfilm [Nussknacker und Mäusekönig]“, „Sichtbares hörbar machen - Hörfilme für Blinde“). (letzter Aufruf 18.01.2019) www.ncicap.org/ (National Captioning Institute). www.praxis-fuer-hoergeschaedigte.de/ absehpraxis.pdf www.spencer-hill.de/ synchronsprecher/ rainer-brandt/ www.spencer-hill.de/ filme/ gott-vergibt-django-nie-zwei-vom-affen-gebissen-gott-vergibt-wir-beide-nie/ www.youtube.com/ watch? v=dDfRrUJ7-SA. Hörfilme für Kinder. Download als mp4 möglich. 18231_Juengst_SL4�indd 324 18231_Juengst_SL4�indd 324 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 3sat 23, 73 4Real 157 100 Foot Journey 108 2001 - A Space Odyssey 122, 123 2001 - Odyssee im Weltraum 123 AAbsehen 217 Abspann 17, 282 Adaption 251 Addams Family 78 adventure games 264 Aida 75 Airline Versions 279 All About Eve 88 Alles über Eva 88 All Quiet on the Western Front 86 altersschwerhörig 216, 225 Amara 41 America’s Most Smartest Model 157, 161 Analphabet 86 Anime 66, 94, 102, 111, 198 Anne Will 215 Annie Hall 58, 64, 172 Arbeitskopie 34, 143, 166 ARD 198, 207, 215, 221, 238 ARTE 23, 65, 69, 73, 170, 178, 270 Artikulationsvariante 229 Asterix und der Arvernerschild 278 Atmo 96 Atmo-Band 144 Atmo-Spur 33, 93, 95, 163 Audiodatei 270, 271 Audiodeskription 14, 15, 20, 32, 64, 113, 125, 175, 215, 251 Live-Audiodeskription 14 Audiodeskriptionsstil 192, 194 Audiodeskriptionsteam 193, 197 Audioeinführung 205 Audiokommentar-Spur 116 audio localisation 253 Aufzeichnung 60, 170 ausgestopfte Tiere 206 Auslassung 57, 123, 226, 243 Ausrichtung 49, 51 Aussprachehilfe 153, 282 Ausstiegszeit 39 Avatar 240, 243 AVL 261 BBarrierefreiheit 15, 17, 21, 177, 198, 251, 262 Bauchbinde 53, 66, 143, 145, 214 Bearbeitungsebene 270 Bedeutungsäquivalenz 98 Beleuchtung 32, 205 belle infidèle 121, 243 Bernard und Bianca - die Mäusepolizei 131, 132 Berüchtigt 120 Beschreibungstiefe 200 Bibi Blocksberg 184, 197, 204 Bienvenue chez les Ch’tis 61, 72, 109 Bildkomposition 27, 32 Bildschnitt 32, 45, 46, 76, 205 Bildteil 94, 263, 272 Bitsy 269 Blackadder 276 Blindenreportage 195 Bouncinʼ Ball 235 Bowdlerisation 121 Box 49, 68 Box-and-Docs-Übersetzung 252 BR 178, 215 Brailleleiste 205 Brailleschrift 205 Broadway 86 Buddy, Buddy 110 Bud-Spencer-Filme 113 C Cabaret 133 cadavre exquis 268 Captions 37, 53, 214 Casablanca 24, 120 CGI 282 Chanson der Liebe 125 Chihiros Reise ins Zauberland 53 Child of Light 264 cinematics 262 Register 18231_Juengst_SL4�indd 325 18231_Juengst_SL4�indd 325 19�08�2020 12: 40: 17 19�08�2020 12: 40: 17 326 Register Cochlea-Implantat 217, 232 Columbo 128 commentary 138 adapted commentary 141 created commentary 141 free commentary 115 computer-generated image 282 Computerspiel 250 Condensation 57 Conferencier 117 Continuity 33 corporate videos 157 creative gaming 268 Credits 282 Crowdsourcing 41 cut scenes 262 Cybertext 256 D Daria 276 Das blaue Sofa 170 Das Dschungelbuch 131 Das Erste 215 Das Leben der anderen 193, 197 Das Leben des Brian 219 Das Schweigen 194 Das singende, klingende Bäumchen 118, 195 Das weiße Band 193 Decimation 57 Decision before Dawn 88 Deletion 57 Der rosarote Panther 117, 118 Der Stadtneurotiker 59, 171 Deutsche Gebärdensprache 215 Deutscher Hörfilmpreis 178 DGS 215, 220 Dialekt 60, 90, 106, 109, 161, 197 Dialogbuch 33, 39, 89, 111, 113, 169 Dialogbuchautor 89, 104, 105 Dialogliste 19, 33, 103, 158 Dialogregisseur 114, 142, 263 Dialogspur 33, 39, 83, 92, 116, 144, 198 Dialogtext 191, 202, 213 Dick und Doof 85 Dick und Doof sprechen deutsch - Spuk um Mitternacht 85 Die 2 113 Die Bettlektüre 69 Die Biene Maja - Die Honigspiele 91, 199 Die Eiskönigin 119 Die Glücksjäger 177 Die Hard 121 Die Klasse 61 Die Kühe sind los 119 Die Kunst des Spickens 47 Die letzte Versuchung Christi 127 Die Nordsee - unser Meer 160 Die Sendung mit der Maus 215, 239 Die Simpsons 91, 128, 129 digitale Spiele 250 Dinner for One 204 Dirty Dancing 64 Display 52, 65, 142 Django Unchained 110 Dokumentarfilm 33, 62, 139, 142, 143, 144, 157, 168, 172, 206 Doku-Soap 145 Don Giovanni 77 doublage voix off 137 Drehbuch 28, 33, 39, 57, 60, 98, 103, 169, 193, 263 Dreizeiler 237 Dr. Mabuse 112 Drop Shadow 51, 68 Dub 98 Dubbese 96, 261 Dubbing 26, 137 Dungeons and Dragons 264 Du sollst mein Glücksstern sein 125 E Edward mit den Scherenhänden 47 Eigenname 58, 145, 266 Einblendung 53, 65, 142, 143, 199 informative Einblendung 64 Einleger 205 Einsprechen 18, 53, 89, 90, 119, 137, 142, 151, 158, 161, 164, 170, 176, 192, 236, 263 Einstellung 101 Einstellungsgröße 28 Einstiegszeit 39 Einzelbild 34, 39 Elliott, das Schmunzelmonster 132 Emergency Room 106 Emoticon 229 emotionaler Sprechstil 203 Endgerät 253 Entre les murs 61 18231_Juengst_SL4�indd 326 18231_Juengst_SL4�indd 326 19�08�2020 12: 40: 18 19�08�2020 12: 40: 18 327 Register Entscheidung vor Morgengrauen 88 Erklärer 117 Erzähler 116, 195 Erzählung 138 Escape-Room 268 ESIST Code 48 Etoile sans lumière 125 Europudding 124 FFachsprache 42, 62, 105, 106, 135, 143 Fachtext 152, 155 Fachvortrag 158 Fachwortanteil 20 Fandub 66, 111 Fansub 66, 71, 235 Farbe 49, 71, 151, 222, 228, 235, 242, 270, 272 Farberinnerung 183 Farbvorstellung 178 Fernsehen 51 Fernsehsendung 39, 155, 213, 236, 242 Fettdruck 68, 235 Filmbeschreiber 177 Filmdialog 94, 122, 129, 188, 192, 198, 202, 221 Filmdolmetschen 15, 53, 83, 116, 137, 163, 175 Filmerzähler 138 Filmerzählung 195 Filmgestaltung 13, 46 Filmmusik 33, 231 filmorganisatorische Informationen 210 Final Fantasy 262 Firmenvideo 157 Frame 34, 45 Fremdsprachenkenntnisse 25 Fremdsprachenlernen 72, 213 Fremdwort 225, 226 Friends 21 Frozen 119 Frühertaubte 216 Fundub 111, 115, 122, 197 Fußballspiel 155, 195, 222, 236 Ggame audiovisual localisation 261 Game-Lokalisierung 13, 16, 136, 249 Games 250 Gaming-Kompetenz 254 gaming literacy 254 Gavrilov translation 25, 115 Gebärdensprachdolmetschen 165 Gebärdensprachdolmetscher 17, 20, 214, 239 Gebärdensprache 20, 215, 216, 217, 220, 225 Geburtsblinde 178 Gehörlose 213 Gehörlosenuntertitel 214 ge-ixte Takes 91 Geräusch 94, 118, 124, 180, 186, 188, 198, 210, 214, 230 Geräuschuntertitel 230 gereimt 117, 197, 207 gesellschaftliche Teilhabe 15, 177 Gestensynchronität 159 Gestuno 220 Glossar 152, 273 goblin translation 112, 115 Goldfinger 135 Good-bye Lenin 184 Gott vergibt - Django nie! 114 Gott vergibt - wir beide nie! 114 grammatische Segmentierung 44 graphic text 265 Greta 20, 178, 216 Hhalf-dubbing 137 Hart aber fair 215 Herr der Ringe 112 heute 239 Hintergrundgeräusch 33, 95 Hintergrundmusik 79, 134 Hochzeit mit einer Leiche 133 HoH subs 214 Home On the Range 119 Hörfilm 175 Hörgerät 217, 242 Hörspiel 188, 194 hr 215 I Im Westen nichts Neues 86 Indiana Jones 232 Industrievideo 15, 151, 157, 161 Informationsdichte 180, 191, 207, 237 In-Game-Dialog 262 In-Game-Text 252, 262, 270 Inglourious Basterds 63, 111 inhaltliche Veränderung 85 Insectsʼ kinky sex life 159 Integration von Migranten 25 International Tape 33 18231_Juengst_SL4�indd 327 18231_Juengst_SL4�indd 327 19�08�2020 12: 40: 18 19�08�2020 12: 40: 18 328 invisibility paradox 25 Is ʼ was, Doc? 285 IT 33 IT-Band 33, 92, 124 JJames Bond 134 Jenseits von Afrika 127 Judgement at Nuremberg 88 Juha 38 Kkalligraphische Schrift 69 Kamerabewegung 31, 45 Kameraeinstellung 28, 33, 35, 101 Käpt’n Blaubär 222, 241 Karaoke-Untertitel 71 Kill Bill 121 Kinder 16, 117, 154, 171, 177, 197, 218, 226, 240, 269 Kinderfilm 131, 198, 200 Kinem 219 King David 127 Klavierauszug 75 Kochshow 196, 206 Kommentar 118, 138, 141, 145, 146, 154, 159, 241 freier Kommentar 15 Nachrichtenkommentar 137 Regisseurkommentar 64 Kommentarspur 33 König David 127 König der Löwen 130 Krazy Kat 70, 191 Kulturspezifika 59, 64, 67, 153, 192 kulturspezifisch 38, 92, 97, 101, 109, 202, 231 kursiv 51 Kursivschrift 68 Kürzung 37, 44, 57, 74, 85, 121, 146, 188, 214, 221, 225, 235, 236, 241 radikale Kürzung 57 umschreibende Kürzung 57 LLabel 231 La Bohème 78 Laienübersetzung 16, 66 l’Amore molesto 119 Landessprache 24, 65, 96, 154 L’Auberge Espagnole - Barcelona für ein Jahr 109 laughing track 60 Laurel and Hardy 85 Lautschrift 153 Lautsprachbegleitende Gebärden 220 Lautsprache 220 Lautsprachausgabe 205 Lautsprachenrezeption 225 LBG 220 Le bouclier arverne 278 lecturer 138 Legally Blonde 131 Legend of Zelda 252 Leichte Sprache 15, 215, 251 Lesegeschwindigkeit 45, 241 Les Quatre Cents Coups 99 L’esquive 61 Libretto 44, 75, 80 Lied 44, 79, 117, 122, 130, 233 Liedtext 51, 79, 130, 234, 235, 240 Linearität potenzielle Linearität 257 linearity 265 Lippen 28 Lippenbewegung 142, 243 Lippenlesen 217 Lippensynchronität 95, 98, 115, 132, 219 lippensynchron 89, 138 lip-sychronized dubbing 83 qualitative Lippensynchronität 98, 101 quantitative Lippensynchronität 98 Literal Videos 112 Live-Audiodeskription 14 Live-Beitrag 60 Live-Einblendung 214 Live-Einsprechen 116, 164 Live-Musik 195 live on tape 170 Live-Untertitelung 46, 216, 236 localization 250 full localization 253, 255 no localization 255 packaging and manual localization 255 partial localization 252, 253, 255 Lokalisierung 250 Lokalisierungsindustrie 249 Lola rennt 269 Register 18231_Juengst_SL4�indd 328 18231_Juengst_SL4�indd 328 19�08�2020 12: 40: 18 19�08�2020 12: 40: 18 329 London Kills Me 121 Loop 88 Lord of the Weed 112 Loriots Dramatische Werke 193 M Madame Mallory und der Duft von Curry 108 Magnum 121 Make-your-own-choice 268 Malcom X 26 Manche mögen’s heiß 204 Märchenfilm 195, 202 massively multiplayer online 253 Masterlist 39 Master Subtitles 43 MDR 215 Mediendolmetschen 165, 169, 239 Medienübersetzung 14 mehrsprachig 63, 106, 154 Mehrsprachigkeit 108, 170 mehrstimmig 77 Metal Gear Solid 2 262 MMO 253 Monty Python’s Flying Circus 276 Monty Python’s The Holy Grail 64 Monty Pythonʼs The Life of Brian 219 Mr. Link - Ein fellig verrücktes Abenteuer 91 Mulan 130 multilinear 268 Multilinearität 257, 264 Mundbild 99, 218 Mundöffnung 99, 229 Musik 73, 94, 117, 124, 173, 180, 188, 204, 214, 230 Filmmusik 33, 231 Hintergrundmusik 79, 134 Live-Musik 195 Musik ohne Text 232 Musikvideo 111 My Fair Lady 110, 130 NNachbearbeitung 53, 193 Nachrichten 60, 156, 215, 235 Nachsynchronisation 129 Nachvertonung 129, 130 Namensänderung 85 narration 138, 262 Natürlich blond 131 Nekrotexte 256 Neusynchronisation 119, 124 Nicht ja, nicht nein 61 Night Watch 69, 116 Nochnoj Dozor 116 Notorious 120 Nulllösung 90 OOnomatopöien 231 Oper 73, 130, 194, 204 Opera buffa 75 Opera seria 75 Operette 75 Opernaufführung 23 Operneinführung 205 Opernverfilmung 76 ORF 207, 221 Originalstimme 126, 127, 139, 143, 158 Originalton 33, 71, 115, 139, 154, 163 O-Ton 139, 144 Out of Africa 127 P Pac-Man 252 Panorama 215 Pappa ante Portas 193 paralinguistische Elemente 97 Paraphrase 57, 243 Parasite 25 Parasprache 228 parasprachlich 97 Parodie 112, 152 Pete’s Dragon 132 Phönix 216 Pivot-Untertitelung 38 placeholders 266 plot stoppers 254 PONG 252 postlingual Ertaubte 216 post-production script 33 Postproduktion 19, 139, 154 Postproduktionsskript 19, 33, 145, 193 Postproduktionszustand 193 Präproduktion 33 Präproduktionsskript 19, 33 pre-production script 33 Pre-timing 39 Programmiersprache 269 Project Settings 43, 47 Propagandafilme 86 Register 18231_Juengst_SL4�indd 329 18231_Juengst_SL4�indd 329 19�08�2020 12: 40: 18 19�08�2020 12: 40: 18 330 Proportionalschrift 69 Prosodie 101 Public Enemies 79 Python 269 QQuébec 213 quer 243 Quest 257 RRadio 51, 75, 134, 141, 177, 232 Radio-Feature 96, 188, 194 Radiogenre 194 Radio-Reportage 194 Radiosendung 179, 239 Raubkopie 166 Raumklang 168 Raumschiff Enterprise 112 Raumvorstellung 178 Räuspertaste 167 RBB 215 Reality-Show 60, 156 recreation 281 Regieanweisung 193 Register 150 Reim 76, 130, 278 Relaisdolmetschen 38, 165 Remake 24, 85 Reportage 156 reported VO 139 Report Mainz 215 Re-Speaking 236 Resthörvermögen 218, 221, 226 Restsehvermögen 178 Revoicing 15, 32 Rezitator 117 rhetorische Segmentierung 44 Rhythmus 44, 76, 130, 229, 235 Rohübersetzung 88, 102 role-playing game 264 Rollenspiel 253, 269 RPG 264 Russian dubbing 115 SSammelfigur 206 Sanglichkeit 130 Scenes-and-Frames-Semantik 94, 184 Schemata 94, 184, 200 Schnitt 35, 45, 46, 76, 158, 205 Schnodder-Synchron 113 Schrift 68, 70 Brailleschrift 205 Fettdruck 68, 235 kalligraphische Schrift 69 Kursivschrift 51, 68 Proportionalschrift 69 serifenlose Schrift 68 Serifenschrift 68 Schriftart 49, 68, 71, 225, 235, 241 Schriftgröße 49, 225, 241 Scratch 269 Scrubs - Die Anfänger 111 SDH 214 See No Evil, Hear No Evil 177 Segmentierung 44 grammatische Segmentierung 44 rhetorische Segmentierung 44 visuelle Segmentierung 45 Sehen statt Hören 215 Sen to Chihiro no Kamikakushi 53 Shining 89 Show 169, 238 Shrek 2 119 Sie küssten und sie schlugen ihn 99 signing 252 Sim-Ship 256, 261 Singing in the Rain 84, 125 Singstimme 130 Skopos 20 Skopostheorie 105 Skriptdienst 34, 145, 154 Smellies 206 Smoke 58 Smoking/ No Smoking 269 Some Like It Hot 204 Song 44, 79, 119, 130, 204, 233, 264 Titelsong 132 Songtext 79, 130, 235, 240 Songübersetzung 132 Soziolekt 60, 109 Space Invaders 252 Späterblindete 178 Spätertaubte 216, 219 Spiegel 277 Spielebene 270, 272 Spielszene 145, 160 Register 18231_Juengst_SL4�indd 330 18231_Juengst_SL4�indd 330 19�08�2020 12: 40: 18 19�08�2020 12: 40: 18 331 Splitting 41, 46, 214 Sportübertragung 222, 238 Sportwettkampf 234 Spotting 41, 43, 45, 143, 179, 214 Sprache 94 Spracherkennung 220 Spracherkennungssoftware 236 Sprachtransfer 37 Sprachvariante 119 Sprecher 51, 53, 99, 115, 125, 139, 141, 158, 159, 192, 203, 214, 224, 236 Synchronsprecher 83, 90, 119, 125, 128, 263 Sprecheridentifikation 222, 242 Sprecherin 202, 236 Sprecherwechsel 223 Sprechgeschwindigkeit 47, 98, 102 Sprechstimme 203 springender Ball 235 SRF 207, 221 Standzeit 44, 45, 57, 214, 225, 241 Stimme 33, 77, 84, 101, 129, 143, 158, 169, 200, 203, 229 emotionale Stimme 202 Männerstimme 159 Nachrichtensprecher-Stimme 159, 203 Originalstimme 127, 139, 143, 158 Singstimme 125, 130, 133, 205 Sprechstimme 130 Synchronstimme 126, 128 Stimmqualität 98 story bible 256 Streaming 261 Streamingdienst 23, 41, 43, 61 String 263, 266 Stummfilm 38, 63, 117, 165, 195 Stummfilmerzählung 195 Stummfilmstar 84 subtitles for the deaf and hard-of-hearing 214 subtitles for the hard-of-hearing 214 Super Mario 252 supertitles 72 Supervisor 89, 114 surtitles 72 Sweeney Todd 131 SWF III 205 SWR 215 symmetry action symmetry 159 kinetic symmetry 159 Synchronbuch 58, 88, 89 Synchronbuchautor 89 Synchronesisch 96, 104 Synchronisation 14, 15, 32, 33, 38, 40, 53, 74, 83, 137, 142, 175, 253, 255 Nachsynchronisation 129 Neusynchronisation 119, 124 slawische Synchronisation 25, 115, 164 Synchronisationsindustrie 83, 86 Synchronisationsland 23, 84 Synchronisationsprozess 90 Synchronität 93, 120, 221 Augensynchronität 97 Gestensynchronität 93, 97, 159 lippensynchron 89, 138 Lippensynchronität 95, 98, 132, 219 Nukleussynchronität 93, 97 qualitative Lippensynchronität 98, 101 quantitative Lippensynchronität 98 Referenzsynchronität 97 Verhaltenssynchronität 93, 96 Synchronitäten 131 Synchronitätsform 93 Synchronnation 23 Synchronregisseur 89, 91, 104 Synchronsprecher 83, 90, 119, 125, 128, 263 Stamm-Synchronsprecher 128 Synchronspur 16 Synonym 57, 225, 226, 242 TTabuausdruck 225 Tagesschau 215, 239 Take 88, 91, 158 Talkshow 60, 238 Tastmodell 206 Taststück 206 Tatort 179, 182, 186, 191, 192, 195, 203, 221, 227, 234 Teaser 93 TED 41, 158 Teletext 214 Template 43 Terminologie 106, 143, 152, 258 Text-Adventures 272 Textbearbeitung 41 Register 18231_Juengst_SL4�indd 331 18231_Juengst_SL4�indd 331 19�08�2020 12: 40: 18 19�08�2020 12: 40: 18 332 Textformat 146 Textsorte 14, 44, 145, 158, 192, 195, 203, 205, 240, 264, 269 Textsortenkompetenz 56, 152 textual graphics 265 The Big Bang Theory 21 The Corpse Bride 133 The Favor, the Watch and the Very Big Fish 125 The Fifth Estate 278 The Jungle Book 131 The Last Temptation of Christ 127 The Lion King 130 The Munsters 276 The Persuaders 113 The Pillow Book 69 The Rescuers 131, 132 The Rocky Horror Picture Show 133 The Simpsons\Hit and Run 255 The Simpsons 255 The Singing Fool 39 The Sopranos 90 The Trueman Show 213 Tierfilm 151, 206 Tilsammans! 47 Timecode 34, 39, 97, 143, 180 Titanic 135 Titelsong 132, 134 Tom und Jerry 117 Tonspur 19, 154, 163, 164, 166, 213 touch tours 205, 206 Trafilm 107 Trailer 93 Trainspotting 119 Transkreation 250 transkribieren 53, 145 Transkript 60 Transkription 235 Traumschiff 96 Trickfilm 59, 66, 117, 188, 198, 206 Trivia Track 64 TV-Genres 196 Tystnaden 194 UÜbersetzung interlinguale Übersetzung 15, 59 intersemiotische Übersetzung 15, 175 intralinguale Übersetzung 15, 213 partielle Übersetzung 175 Übersetzungsäquivalenz 104 Übertitel 28, 52, 54, 67, 72 Übertitelung 14 Ü-Ei 206 Umschreibung 200, 220, 226, 235, 242 Umschrift 146 Unser Sandmännchen 215 Untertitel 110, 166, 171 digitale Untertitel 39 geschlossene Untertitel 38 interlinguale Untertitel 14, 23, 71, 133, 220, 225 intralinguale Untertitel 14, 38, 53, 133, 213 Karaoke-Untertitel 235 kreative Untertitel 64 linksbündige Untertitel 52 mehrfarbige Untertitel 39 offene Untertitel 38 zentrierte Untertitel 52 Untertitel für Hörgeschädigte 15, 213 Untertitelliste 35 Untertitelspur 16, 40 Untertitelung 19, 154, 189, 255 Game-Untertitelung 261 interlinguale Untertitelung 37 Live-Untertitelung 46, 216, 236 Opernuntertitelung 76 Semi-Live Untertitelung 237 Wort-für-Wort Untertitelung 224 Untertitelung für Hörgeschädigte 37 Untertitelungsland 24 Untertitelungsprogramm 16, 33, 37, 40, 47, 68 Urteil von Nürnberg 88 V Väter der Klamotte 117 Verdichtung 57 Vereinfachung 57, 226 Version 84, 129 versione semidoppiata 137 Video Narration 15, 151, 157 Videospiel 249, 250 Videotext 39, 68, 214, 222, 234 Virales Marketing auf dem Todesstern Stuttgart 113 Visem 99, 218, 219 visuelle Lautsprachperzeption 218 visuelle Segmentierung 45 Register 18231_Juengst_SL4�indd 332 18231_Juengst_SL4�indd 332 19�08�2020 12: 40: 18 19�08�2020 12: 40: 18 333 Voice-off 137, 138, 139, 141, 156, 159 voice-of-God narration 159 Voice-over 14, 32, 34, 74, 83, 115, 116, 137, 146, 164, 170, 175, 253 reported VO 139 Voicing 151 Volere volare 125 Von Luft und Liebe 125 Vulgarismus 225, 226 WWahlwerbespot 239 Waltz with Bashir 108 Warcraft: Orcs & Humans 262 WDR 215 Weißes Gift 120 Wetten, dass …? 169 What’s Up, Doc? 285 Willkommen bei den Sch’tis 61, 72, 91 Witz 21, 60 Wolfenstein 267 Wombles 117 World of Warcraft 253 Wortlänge 101 Wortspiel 21 Y Yes Minister 101 ZZDF 178, 207, 215, 221 Zeichen pro Sekunde 241 Zeichenzahl 47 Zeilenlänge 225 Zoom 31 Zusammen! 47 Zwei vom Affen gebissen 114 Zweizeiler 47, 65 Zwischentitel 38, 63, 165, 166, 195, 214 Register 18231_Juengst_SL4�indd 333 18231_Juengst_SL4�indd 333 19�08�2020 12: 40: 18 19�08�2020 12: 40: 18 18231_Juengst_SL4�indd 334 18231_Juengst_SL4�indd 334 19�08�2020 12: 40: 19 19�08�2020 12: 40: 19 Die zweite, überarbeitete Auflage dieses praxisorien� erten Lehr- und Arbeitsbuchs bietet einen Überblick über Verfahren, Arbeitsabläufe und technische Möglichkeiten der Filmübersetzung. Der bewährte Au� au mit den Themen Unter� telung, Synchronisa� on, Voice-over, Audiodeskrip� on für Blinde, Songübersetzung und Filmdolmetschen wurde beibehalten und um neue Arbeitsformen und -abläufe ergänzt. Neu hinzugekommen ist eine kurze Einführung in die Game-Lokalisierung. Deutlich erweitert wurden die Kapitel zu Unter� telung und Audiodeskrip� on, wo neue Techniken, So� wareprodukte und neue Aufgaben beim Übersetzen eine besonders wich� ge Rolle spielen. Der Fokus des Buches liegt auf prak� schen Übungen und Informa� onen zur Arbeitswelt, dabei bleibt die aktuelle Forschungssitua� on aber stets im Blick. Das Buch eignet sich sowohl zum Selbststudium als auch zum Einsatz im Unterricht. S� mmen zum Buch: „Ein umfassendes Hilfsmi� el, das nicht nur alle zentralen Themen der AVÜ thema� siert, sondern auch wertvolles Ver� efungspotenzial, sowohl für die prak� sche als auch die wissenscha� liche Arbeit, aufzeigt“ Lebende Sprachen 2/ 2000 „All jenen, die das Thema bis jetzt nicht als eigenständiges Aufgabengebiet kennen, kann ich dieses Lehr- und Arbeitsbuch wärmstens empfehlen“ UNIVERSITAS 2/ 11 ISBN 978-3-8233-8231-7