eJournals Vox Romanica 65/1

Vox Romanica
vox
0042-899X
2941-0916
Francke Verlag Tübingen
Es handelt sich um einen Open-Access-Artikel, der unter den Bedingungen der Lizenz CC by 4.0 veröffentlicht wurde.http://creativecommons.org/licenses/by/4.0/121
2006
651 Kristol De Stefani

Norbert Dittmar, Transkription. Ein Leitfaden mit Aufgaben für Studenten, Forscher und Laien, 2.Auflage,Wiesbaden (VS Verlag) 2004, 256 p. (Qualitative Sozialforschung 10)

121
2006
Nicolas  Pepin
vox6510153
tritt, zeitgemäße Themen literarisch zu verarbeiten und damit moderne Literatur vorzulegen, die bereit ist, auf jeglichen Dialektbonus zu verzichten und sich als eigenständige Literatur zu behaupten» (346). Der Beitrag von Herrn Berg vermittelt freilich nur ein fragmentarisches Bild der Literaturszene Luxemburgs, denn sie wird nicht nur von Werken in luxemburgischer Sprache, sondern mindestens in demselben Maße von Werken in französischer 3 , deutscher und inzwischen auch portugiesischer und italienischer Sprache 4 geprägt. Der vorliegende Sammelband illustriert am Beispiel des Luxemburgischen, welche Vorgänge bei der Herausbildung einer neuen Schriftsprache, die dem Anspruch, Nationalsprache zu sein, gerecht werden möchte, auftreten können. Das luxemburgische Beispiel verdient Beachtung durch alle, die mit ähnlichen Vorgängen in der Romania, von den Pyrenäen über die Alpen bis zum Grammos, zu tun haben. Das hier besprochene Buch sollte folglich in keiner romanistischen Bibliothek fehlen. Johannes Kramer ★ Norbert Dittmar, Transkription. Ein Leitfaden mit Aufgaben für Studenten, Forscher und Laien, 2. Auflage, Wiesbaden (VS Verlag) 2004, 256 p. (Qualitative Sozialforschung 10) Que tout un ouvrage soit consacré au thème de la transcription montre à quel point les approches de la réalité sociale à partir de données audio/ video authentiques transcrites occupent une place toujours plus importante dans les sciences sociales: pragmatique, analyse conversationnelle, linguistique interactionniste, sociolinguistique qualitative, par exemple. Or, la vitalité de ces champs d’études qui, tout en générant une grande diversité de résultats, a comme pendant une forte hétérogénéité des systèmes de transcription, hétérogénéité qui renvoie à la multiplicité des objectifs que se fixent les différentes approches et aux méthodes spécifiques des chercheurs. Le livre de N. Dittmar vient donc à point pour faire découvrir cette diversité à un public relativement large à qui il permet d’appréhender certains des enjeux méthodologiques et analytiques liés à la transcription. Le temps semble en effet venu de reconnaître que la transcription ne sert pas seulement de préalable à l’analyse ni de simple illustration des résultats, mais qu’elle est la partie centrale du processus de production scientifique des approches qui s’en servent. De la sorte, la transcription n’est pas un lieu neutre: les choix qui y sont faits ont des conséquences sur l’observabilité et le traitement des données. Le transfert de l’enregistrement vers sa représentation écrite ne va pas sans poser de nombreux problèmes, que les conventions de transcriptions, qui se trouvent en général en annexe des ouvrages, thématisent plus ou moins explicitement et règlent avec plus ou moins de bonheur. Dans le présent ouvrage, ces éléments alimentent l’entier de la réflexion de l’auteur, ce qui permet de les aborder et de les traiter, pour une fois, de manière centrale et unique. Comme le relevait déjà Harvey Sacks, la transcription offre un avantage considérable en termes de transparence des analyses, du fait que «the reader has as much information as the author and can reproduce the analysis . . . I’m showing my materials and others can analyze them as well» (H. Sacks, Lectures on Conversation 1992: 27). La transcription est ainsi conçue comme un outil permettant une conception renouvelée de la science quant à son rapport aux données et à l’analyse. Malheureusement, la transparence a un prix. Celui-ci ré- 153 Besprechungen - Comptes rendus 3 Vgl. Rosemarie Kiefer, Littérature luxembourgeoise de langue française, Sherbrooke 1980. 4 Vgl. dazu jetzt Jos Boggiani/ Maria Luisa Caldognetto/ Claudio Cicotti/ Antoinette Reuter (ed.), Paroles et images de l’immigration. Langue, Littérature et Cinéma: temoins de la présence italienne au Luxembourg et dans la Grande Région, Luxembourg 2006. side paradoxalement dans la relative opacité des signes et symboles employés à réaliser cette transparence. Ce qui oblige à rendre transparent ce qui justement contribue à opacifier la transparence et à expliciter les choix qui ont conduit à la transcription, d’où la nécessité des conventions. Celles-ci permettent non seulement au lecteur de savoir comment lire les extraits transcrits, mais donnent aussi les clés pour appréhender les phénomènes qui y sont mis en évidence: type de transcription (par exemple orthographique ou phonétique), chevauchements (= overlapping), phénomènes suprasegmentaux, silences, gestes, regards, etc. Pour autant, la place de l’explicitation des pratiques est généralement réservée aux marges des études qui font usage de la transcription. Même dans les travaux qui s’intéressent uniquement à l’interaction à partir de corpus, on s’étend peu sur les conséquences de la transcription sur le processus de scientifisation des données. Or, la transcription réalise et manifeste les choix analytiques du chercheur. Bien plus qu’un simple support pour l’analyse, la transcription est le lieu où s’incarne l’analyse, où celle-ci prend naissance et où elle s’épuise simultanément. Dès lors les choix qui y sont faits doivent faire l’objet d’une prise en charge publique et explicite de la part des chercheurs, la transcription condensant des enjeux qui vont bien au-delà d’une simple question technique pour engager la responsabilité des chercheurs dans ce qui fonde leurs démarches. Parmi ces enjeux, il y a les rapports de la science à ses sujets et plus précisément les différentes voix que la science fait entendre. En effet, dans les écrits scientifiques, c’est bien le chercheur qui parle à la place des acteurs. Même s’il peut arriver que la parole d’origine soit passée sous silence ou mutilée, la plupart du temps le chercheur se veut un porte-parole honnête; or, cela n’empêche pas qu’il reconfigure plus ou moins fortement ce qui a été dit sur le terrain en fonction des buts de sa recherche, de ses représentations normatives ou tout simplement de ses préférences stylistiques personnelles. Cet aspect est au coeur de la pratique scientifique et ne saurait être rangé dans les marges. Par l’usage de documents authentiques transcrits, on considère la parole des acteurs comme heuristiquement valable et comme socialement recevable, et on vise à montrer comment les interactions s’organisent effectivement. Ceci signifie que toute parole a droit à la scène médiatique qu’est le texte scientifique dans le respect de ses conditions d’émergence. Dans ce cadre, se pose la question du rapport de la transcription aux enregistrements et du rapport des lecteurs à la transcription. Certes, ce sont les enregistrements qui font foi si un point litigieux vient à être soulevé; ce sont eux encore que l’on invoque pour pallier aux limites descriptives de la transcription; ce sont eux, enfin et surtout, auxquels on a normalement recours pour l’analyse. Il n’en demeure pas moins que, pour les lecteurs, seule la transcription établit un lien, d’ailleurs indéfectible, avec le corps d’étude. Conçue comme un pont d’accès et d’échange entre les enregistrements et les analyses finalisées, de même qu’entre le chercheur et son lecteur, elle paraît en même temps source et aboutissement de l’objet qui se constitue et s’exprime par elle. Mais si la transcription est lien, elle est aussi césure. Césure entre la réalité (celle emprisonnée par l’appareil enregistreur qui fonctionne aussi comme lien et coupure d’avec l’événement interactif original) et l’objet d’analyse qu’elle contribue pourtant à constituer et à la description duquel elle participe activement. En effet, la transcription n’est qu’une version des données et par là même une interprétation de la réalité interactive qui tout à la fois exhibe et cache. Certes, elle est une interprétation parmi d’autres, révisable en tous temps, mais qui fige la réalité et l’enferme indubitablement dans une conception du monde qu’elle représente elle-même. Or, c’est ce miroir approximatif au caractère à la fois transparent et opaque qui trouve place en annexe des travaux et non pas les enregistrements eux-mêmes, créant ainsi sa propre illusion et tendant à imposer sa propre logique. Se pose alors la question de la fidélité de la transcription, qui peut s’exprimer par le biais de l’accumulation, potentiellement infinie, des détails. Comme le disent Psathas/ Anderson: «the conversation analyst . . . repeatedly listens to/ views the 154 Besprechungen - Comptes rendus recording and endeavors to produce a transcript which captures/ displays those features of the interaction that are of analytic interest» (Semiotica 78 (1990): 76). Mais où s’arrêter? Peut-on se contenter de représenter les seuls événements ou phénomènes dignes d’intérêt analytique ou ne faut-il pas aussi rendre accessible une certaine finesse de la conversation dont la pertinence ne relève pas directement de l’analyse à proprement parler, mais qui contribue à rendre compte de l’interaction enregistrée? Ce souci ne se laisse évidemment pas réduire à des règles toutes faites qu’il s’agirait d’appliquer mécaniquement. Pour autant, un certain nombre de principes participent à la réalisation et à l’utilisation scientifique d’un objet au statut complexe. Ces principes concourent à une approche réflexive de la transcription aux différents niveaux de l’analyse: en amont, en vue de l’analyse; au niveau de l’analyse même, en tant qu’elle en est la représentation; en aval, sous forme d’extraits illustrant tel ou tel phénomène et permettant la transparence chère à Sacks. Pour le reste, c’est à un travail de sensibilisation et de formation que doivent s’attacher les spécialistes, afin de permettre à un public toujours plus large de mieux saisir les enjeux de la transcription. C’est là, probablement, l’apport fondamental du livre de N. Dittmar, qui se présente comme une introduction visant un public d’étudiants, de chercheurs débutants et de profanes (pour reprendre en le modifiant légèrement le sous-titre de l’ouvrage). C’est d’ailleurs à ce souci que répond non seulement la construction de l’ouvrage, mais aussi la présence, à la fin de chaque chapitre, d’une liste de tâches à accomplir si l’on souhaite approfondir les thématiques traitées dans le chapitre, invitant à consulter des sites internet (dont la liste égrenée au long des chapitres est condensée en page 249) et des ouvrages scientifiques. Le premier chapitre du livre aborde ainsi la représentation de la langue orale dans et par l’écrit. L’auteur évoque diverses procédures employées pour saisir et représenter le discours oral dans la vie de tous les jours, entre autres la sténographie et la production de procèsverbaux. À cette entrée en matière succède et répond un chapitre consacré au champ de recherche de la communication orale («sprechsprachliche Kommunikation»), où l’oralité est abordée comme un phénomène avant tout social, situé et permettant d’exprimer des identités. L’auteur aborde en particulier le caractère fluide («flüssig») et fugitif («flüchtig») de l’oralité, inscrite dans la co-présence entre interlocuteurs (l’auteur parle de «Sprecher» et de «Hörer»). Le chapitre sert ainsi à conceptualiser l’oral et à le caractériser au niveau du système linguistique, des liens entre pensée et langue, du contexte social et enfin des phénomènes discursifs. De fait, la notion de transcription en tant que telle est abordée à partir du chapitre 3. L’auteur la définit comme une méthode de documentation scientifique des processus oraux de la communication («mündliche Kommunikationsprozesse»). Cette méthode est ensuite appréhendée, dans les deux chapitres qui forment le coeur de l’ouvrage, sous l’angle de l’authenticité phonétique de la transcription (ch. 4) et plus largement de son authenticité pragmatique (ch. 5). Le chapitre 4 présente ainsi différents systèmes scientifiques de transcription des sons, insistant longuement sur l’API (alphabet phonétique international), présentant brièvement le système PDL (Pidgin-Deutsch-Lautschrift) développé dans le cadre du projet Pidgin- Deutsch ausländischer Arbeiter auquel a participé l’auteur, et évoquant le système SAMPA (Speech Assesments Methods Phonetic Alphabet). Dans le cinquième chapitre sont présentés les principaux systèmes de transcription utilisés dans l’espace germanophone pour transcrire, coder et marquer le matériel oral pour son traitement analytique, cela dans une perspective qui dépasse le fait phonique et l’insère dans les dimensions sociales et pragmatiques du langage. Ce chapitre est sans doute le plus consistant et le plus intéressant du livre, car il permet aux lecteurs de faire connaissance 155 Besprechungen - Comptes rendus avec les spécificités de chaque système concernant le traitement du matériel verbal et prosodique, le design adopté, le fonctionnement des commentaires, le paradigme de recherche dans lequel le système s’intègre, les conventions. Ces systèmes, illustrés par des exemples, sont les suivants: - la tradition de l’analyse conversationnelle anglosaxonne à laquelle se réfèrent un certain nombre de chercheurs du domaine germanophone et qui précède chronologiquement les systèmes développés sur ce domaine à partir des années 1980 environ présentés dans l’ouvrage; - le système en partitions de l’approche HIAT (Halb-Interpretative ArbeitsTranskription) développé par Konrad Ehlich et Jochen Rehbein en réaction critique à l’analyse conversationnelle; - le système DIDA (DIskurs-DAten-bank) développé par l’IDS (Institut für Deutsche Sprache) de Mannnheim et utilisé pour décrire l’usage de l’allemand de différents points de vue (stylistique sociale, rhétorique du discours, intégration linguistique des étrangers par exemple) par des chercheurs tels que Reinhard Fiehler, Werner Kallmeyer ou Reinhold Schmitt; - le système de Du Bois, qui n’est que très peu utilisé sur le domaine germanophone. À ce titre, on peut se demander pourquoi ce système est présent dans l’ouvrage. La réponse tient à mon avis à deux aspects de l’approche de Du Bois: la lisibilité de son système de transcription et, surtout, la distinction faite entre transcription large et transcription étroite. En effet, cette distinction permet de décider quels types de phénomènes seront transcrits, le matériel verbal représentant le pôle le plus large, nécessairement présent, et les détails phonétiques, tels que les allongements syllabiques p. ex., à l’autre pôle, celui de la transcription la plus étroite. En ce sens, la présence du système de Du Bois dans cet ouvrage s’explique avant tout par le public auquel il s’adresse et par la volonté de N. Dittmar de fournir des repères simples pour commencer à transcrire (ce sur quoi se concentre l’ultime chapitre du livre, cf. infra); - le système GAT (Gesprächsanalytisches Transkriptionssystem) développé à la fin des années 1990 par une équipe de linguistes parmi lesquels on peut citer Peter Auer, Jörg Bergmann, Elizabeth Couper-Kuhlen, Susanne Günthner, Uta Quasthoff ou Margret Selting. - enfin, le système CHAT (Codes for Human Analysis of Transcripts) surtout utilisé dans le domaine de l’acquisition des langues du fait qu’il permet plusieurs niveaux d’analyses et un codage informatique des différents phénomènes qui peuvent intéresser l’analyste, en particulier les catégories grammaticales. À la suite de ces deux chapitres centraux, le chapitre 6 présente, de manière synthétique, les problèmes liés à la transcription du comportement non verbal. Le chapitre montre d’abord brièvement comment ces questions sont traitées par trois approches différentes (HIAT, analyse conversationnelle et GAT), puis prend à son compte une proposition de transcription intégrative qui s’appuie sur un article de S. Sager paru en 2001 et intitulé Probleme bei der Transkription nonverbalen Verhaltens. Le chapitre 7 focalise la question, importante pour la manipulation des transcriptions, du traitement informatique des données: fonctionnement des logiciels de transcription, caractère public et accessible des logiciels, mise à disposition de données sur internet, etc. Enfin, le chapitre 8 aborde, de manière compacte et convaincante, la pratique de la transcription en proposant un bref vademecum à celles et ceux qui souhaitent commencer à transcrire. Le chapitre thématise d’abord le choix du système de transcription, en fonction de la co-présence de différentes langues dans l’interaction à transcrire, de l’orientation qualitative de la transcription, du type d’interaction et des propriétés prosodiques qui doivent faire l’objet de l’analyse. Puis, l’auteur donne les conditions de validation scientifique du tra- 156 Besprechungen - Comptes rendus vail de transcription: protocole d’enquête décrivant la situation enregistrée, données biographiques sur les participants à l’interaction enregistrée, choix du matériel d’enregistrement, etc. Enfin, le chapitre se termine en listant les étapes de la transcription (depuis la segmentation du matériel verbal et l’identification des locuteurs jusqu’aux différents phénomènes de modulation de la voix par exemple) et en donnant quelques conseils utiles avant de se mettre à transcrire pour la première fois. On ajoutera qu’un glossaire ferme l’ouvrage, mais se révèle décevant, car il se concentre sur des phénomènes d’ordre acoustique, grammatical et lexical dont la définition peut être trouvée dans quantités d’introductions, manuels et ouvrages spécialisés sur ces questions. Ce glossaire contient en fait peu d’informations relatives aux phénomènes de l’interaction et à la pratique de la transcription: tours de parole, chevauchements, départs simultanés, par exemple. Et comme il n’y a pas d’index, il est impossible de retrouver les termes-clefs du texte. Peut-être ce glossaire est-il un symptôme de la conception générale du livre, qui focalise avant tout les phénomènes segmentaux et suprasegmentaux, en relégant tendanciellement les phénomènes interactifs, y compris kinésiques, au second plan. Néanmoins, une bibliographie sélective est proposée, dans laquelle on retrouve bon nombre de textes utiles aux lecteurs qui voudraient approfondir leur connaissance dans ce domaine. Au terme de ce parcours, on pourra éventuellement regretter que N. Dittmar ait décidé de présenter presque exclusivement des systèmes utilisés sur le domaine germanophone. Certes, c’est sur ce domaine que de nombreux développements ont eu lieu, en Europe, en matière de transcription de données interactives authentiques. De plus, l’ouvrage est destiné à un public germanophone et les choix faits par l’auteur sont cohérents puisque l’enjeu est de familiariser ce public avec les phénomènes de transcription. Néanmoins, il existe d’autres courants importants qu’on aurait aimé voir figurer dans une telle introduction. Pour s’en tenir au domaine francophone, on aurait par exemple pu évoquer les travaux de Lorenza Mondada (linguistique interactionniste), de Claire Blanche-Benveniste (description du français, en particulier au niveau syntaxique) et de Marie-Annick Morel (énonciation, prosodie, pathologie du langage). Quoi qu’il en soit, ce livre demeure une très bonne introduction à la transcription des données orales authentiques; à ce titre, on ne peut qu’en conseiller la lecture. Nicolas Pepin ★ Thomas Krefeld, Einführung in die Migrationslinguistik. Von der Germania italiana in die Romania multipla, Tübingen (Gunter Narr) 2004, 174 p. (Narr Studienbücher) La linguistica dell’emigrazione non è più così sulla cresta dell’onda come lo era stata negli anni Ottanta del Novecento. Ora questo lavoro di Thomas Krefeld, che si vuole una Einführung ed esce in una collana di Studienbücher ma che in effetti ha il taglio, il contenuto e le giuste ambizioni di un’originale monografia, viene a spiccare nel quadro della pubblicistica in tema anche (ma non solo) per il tentativo di fornire una modellizzazione teorica particolare al campo di studi, e di fondare anzi esplicitamente una «eigene Subdisziplin» (110). Già il sottotitolo lascia in effetti intendere che il quadro più ampio verso cui l’autore vuole flettere il campo d’analisi è quello della teoria di uno spazio plurimo di variazione tipico della situazione migratoria (ma non a questa limitato); da estendere, partendo dall’analisi e interpretazione di un caso specifico, quello della seconda generazione di emigrati italiani in Germania, a tutti i casi in cui si siano verificati fenomeni migratori (e quindi, tagliando trasversalmente le partizioni linguistiche acquisite, a quasi tutte le comunità linguistiche plurilingui di una qualche consistenza e storicamente complesse). 157 Besprechungen - Comptes rendus