Lade Inhalt...

Analyse einer audiovisuellen Übersetzung aus dem Spanischen ins Deutsche am Beispiel von "Todo sobre mi madre"

Magisterarbeit 2008 105 Seiten

Dolmetschen / Übersetzen

Leseprobe

Inhaltsverzeichnis

1. Einleitung
1.1. Präzisierung der Fragestellung
1.2. Vorgehensweise

2. Audiovisuelle Übersetzung – Präzisierung der Begriffe
2.1. Medien
2.1.1. Der kommunikationsorientierte Medienbegriff
2.1.2. Audiovisuelle Medien
2.2. Audiovisueller Text als Übersetzungsgegenstand
2.2.1. Komponente des audiovisuellen Textes
2.2.1.1. Akustische Codes
2.2.1.2. Visuelle Codes
2.2.2. Filmsprache und ihre Übertragung
2.2.3. Audiovisuelle Genres
2.3. Geschichte der audiovisuellen Übersetzung
2.3.1. Stummfilmperiode und die Zwischentitel
2.3.2. Übergang vom Stummfilm zum Tonfilm. Die Probleme der Tonnutzung
2.3.3. Die ersten Strategien der Überwindung von Sprachbarrieren
2.3.4. Geschichte der Synchronisation in Deutschland
2.3.5. Filmkontrolle in Deutschland

3. Methoden der audiovisuellen Übersetzung
3.1. Untertitelung
3.2. Voice-over Verfahren
3.3. Kommentar, Kooperationsfassungen und Hybridverfahren
3.4. Filmsynchronisation
3.4.1. Definition der Synchronisation
3.4.2. Bedeutung der Synchronisation
3.4.3. Ablauf einer Synchronisation
3.4.4. Kritik des Übersetzungsprozesses
3.4.5. Synchronität
3.4.5.1. Lippensynchronität (phonetische Synchronität)
3.4.5.1.1. Qualitative Synchronität
3.4.5.1.2. Quantitative Synchronität
3.4.5.1.3. Tempo, Lautstärke, Artikulationsdeutlichkeit, Intonation und weitere prosodische Elemente
3.4.5.2. Paralinguistische Synchronität
3.4.5.2.1. Gestensynchronität
3.4.5.2.2. Charakteräquivalenz
3.4.5.3. Auffälligkeit von Asynchronien
3.4.6. Vor- und Nachteile der Synchronisation
3.4.6.1. Illusion innerhalb der Illlusion
3.4.6.2. Der Faktor Stimme
3.4.6.3. Reproduktion von sprachlichen Variation
3.4.6.4. Weitere Vor- und Nachteile
3.4.7. Synchronisationsländer und Untertitelungsländer. Synchronisation als sprachpolitisches Instrument

4. Audiovisuelle Übersetzung als Translationsprozess - übersetzungstheoretische Ansätze
4.1. Äquivalenzforschung
4.2. Äquivalenz und Adäquatheit: Differenzierung und Präzisierung der Begriffe

5. Übersetzungsanalyse von Todo sobre mi madre
5.1. Kino Almodóvars
5.1.1. Pedro Almodóvar – Biographie und Filmographie
5.1.2. Merkmale des almodovarianischen Kinos
5.1.2.1. Genre und Thematik: Das Almodrama
5.1.2.2. Stil
5.1.3. Zu der Handlung von Todo sobre mi madre
5.2. Übersetzungsanalyse
5.2.1. Filmtitel
5.2.2. Das Katalanische und der katalanische Akzent
5.2.3. Diatopische Varietäten: Kanarischer Dialekt
5.2.4. Diastratische Varietäten
5.2.5. Diaphasische Varietäten: Oralität versus Literarität
5.2.5.1. „Written to be spoken“. Konzeptionell mündlicher Text
5.2.5.2. Literarischer Text
5.2.6. Lexikalische Konstruktionen
5.2.6.1. Idiomatische Wendungen
5.2.6.2. Metaphern
5.2.6.3. Wortspiele
5.2.7. Kulturspezifische Phänomene

6. Abschließende Betrachtung

7. Bibliographie

„Nicht, weil das Kino eine Sprache ist, kann es uns so schöne Geschichten erzählen, sondern weil es sie uns erzählt hat, ist es zu einer Sprache geworden.“

(Christian Metz)

1. Einleitung

Mit dem Aufkommen des Tonfilms Ende der zwanziger Jahre und seinem weltweiten Vertrieb wurden die Sprachbarrieren des Filmmediums deutlich. Der Tonfilm ersetzte den Stummfilm, der durch seine Sprache der Bilder jedem verständlich war. Der plötzliche Bedarf an der Filmübersetzung wurde zu einer neuen Herausforderung. Filmproduzenten und –Verleiher machten sich auf die Suche nach Lösungen, die Filme dem internationalen Publikum zugänglich zu machen.

Die dynamische Entwicklung der Filmindustrie im Laufe des zwanzigsten Jahrhunderts und insbesondere die andauernden technischen Fortschritte haben eine Massenproduktion im Bereich der audiovisuellen Medien zur Folge. Dementsprechend ist auch der Bedarf an Übersetzungen in der Medienbranche enorm gestiegen. Die bedeutende Rolle, die Translation in der Zugänglichkeit von audiovisuellem Material an die Massen spielt, wird in der Sprach- und Medienwissenschaft allerdings nur wenig wahrgenommen.

Synchronisation und Untertitelung sind heutzutage die geläufigen Formen der Filmübersetzung. Deren Gebrauch unterscheidet sich von Land zu Land. In Deutschland, sowie in Spanien, Italien und Frankreich, werden fremdsprachige Filme und Filmserien in der Regel synchronisiert. Untertitelungen werden insbesondere für weniger kommerzielle Filme, die in sogenannten Arthäuser vorgeführt werden, eingesetzt sowie für hörbeeinträchtigte Zuschauer. Neben diesen zwei Übersetzungstechniken werden auch Voice-over, Kommentar sowie hybride Formen dieser Verfahren für bestimmte audiovisuelle Genres verwendet. Alle diese Techniken stellen Formen der sogenannten audiovisuellen (oder auch [multi]medialen) Übersetzung dar.

Wie der Begriff audiovisuell besagt, handelt es sich hier um eine Sonderform der Translation, die mit der Übersetzung der schriftlichen Texte nicht gleichzusetzen ist.

Ähnlich wie ein literarischer Übersetzer,[1] muss sich der Filmübersetzer neben den sprachpaarspezifischen Probleme und dem Sprachstil mit zahlreichen außersprachlichen Elementen aus dem soziokulturellen Kontext der Ausgangskultur auseinandersetzen. Obwohl die akustische und visuelle Darstellung des Filmes den Wahrnehmungsprozess des Zuschauers um Einiges erleichtern kann, muss der Übersetzer eines Films jedenfalls über übersetzerische Kompetenz und Kreativität sowie über sehr gute Kenntnisse der Ausgangs- und Zielkultur verfügen. Dazu kommen noch einige sprach-technische, für die Filmsynchronisation bzw. die Untertitelung typische Probleme, wie z.B. die Synchronität, d.h. die Übereinstimmung der Ton- und Bildinformation in Bezug auf die Bewegungen der Sprecher (Lippensynchronität, Gestensynchronität u.a.), Timing etc., von denen der Übersetzer eines schriftlichen Textes verschont bleibt. Um eine adäquate Zielversion eines fremdsprachigen Films zu erzeugen, die in der Zielkultur die kommunikative und ästhetische Funktion des Originals erfüllen würde, muss der Filmübersetzer zahlreiche linguistische, soziokulturelle und technische Aspekte in Betracht ziehen und das Alles innerhalb einer, meistens sehr kurzen, Frist. Daher bezeichnete Mounin die Filmübersetzung als „totale Übersetzung“, die „die höchste Stufe in der Kunst des Übersetzens“ darstellt (1967: 144; zitiert bei Pisek 1994: 22).

Ausländisches Film- und Fernsehmaterial wird in verschiedenen Sprach- und Kulturgemeinschaften auf unterschiedliche Art und Weise rezipiert. Dazu tragen Faktoren wie Geschichte, Kultur, politisches System, oder Sprachpolitik der Zielsprachgemeinschaft, sowie die Beziehung zwischen der Ausgangs- und Zielkultur bei. Die Übertragung des fremdsprachigen Filmmaterials aus einer Sprache in eine andere sowie die Rezeption des Zielprodukts wird also von Interaktionen verschiedener Systeme im Sinne der Polysystemtheorie beeinflusst.[2]

Die Problematik der Überwindung von Sprachbarrieren in audiovisuellen Medien muss multidisziplinär betrachtet werden. Demgemäß wird die vorliegende Arbeit interdisziplinär angelegt und Ansätze aus der Übersetzungs-, Sprach- und Textwissenschaft sowie aus dem Kultur-, Film- und Medienwissenschaft berücksichtigen. Bei der Erforschung von Filmübersetzung muss immer im Bewusstsein behalten werden, dass diese Sonderform der Übersetzung Wissenschaft mit Populärkultur in Verbindung bringt. Aus diesem Grund wäre eine rein sprachwissenschaftliche Sicht auf die Problematik nicht ausreichend objektiv, da hier zu viele außersprachliche Elemente ins Spiel kommen.

Die audiovisuelle Übersetzung ist in Deutschland ein relativ wenig erforschtes Gebiet. Da Deutschland ein sogenanntes Synchronisationsland ist, fokussieren die meisten deutschen Forschungsarbeiten zu dieser Thematik die Synchronisation. Zum größten Teil (nicht nur in Deutschland) stehen englischsprachige Filme im Mittelpunkt solcher Untersuchungen. Englisch ist also die häufigste Ausgangssprache dieser Analysen, was auf die Dominanz der US-amerikanischen Produktionen auf dem internationalen Filmmarkt zurückzuführen ist.

Untersuchungen zur audiovisuellen Übersetzung aus dem Spanischen sind noch kaum bekannt. Die Abwesenheit des Übersetzungspaars Spanisch-Deutsch in diesem Forschungsgebiet hängt zweifelsohne mit der geringen Verbreitung des spanischsprachigen audiovisuellen Materials innerhalb der deutschen Unterhaltungsindustrie. Die vorliegende Arbeit nimmt dieses Defizit zum Anlass, die Pionierschritte zu machen und die Besonderheiten der audiovisuellen Übersetzung am Beispiel eines Films zu beleuchten, der aus dem Kastilischen[3] ins Deutsche mittels Synchronisation übertragen wurde.

1.1. Präzisierung der Fragestellung

Im Mittelpunkt der vorliegenden Arbeit steht eine kontrastive Übersetzungsanalyse eines audiovisuellen Textes.[4] Den Korpus der Analyse bildet der Film des spanischen Kultregisseurs Pedro Almodóvar Todo sobre mi madre aus dem Jahre 1999. Unter Verwendung der übersetzungswissenschaftlichen Terminologie[5] stellt die kastilischsprachige Originalversion des Films das Transferendum, d.h. den Ausgangstext und die deutschsprachige Synchronversion den Translat, d.h. den Zieltext dar.

Die Zielsetzung der Analyse ist die Erforschung des Verhältnisses zwischen dem Original und dem finalen Produkt der Übersetzung in Bezug auf die äquivalente Darstellung des sprachlichen Codes im Sinne des übersetzungstheoretischen Äquivalenzbegriffes. Dies ist allerdings ohne eine genauere Definition dieses in der Translatologie sehr umstrittenen Begriffes nicht möglich. Daher wird auf die Äquivalenzforschung im Kapitel 4. näher eingegangen. An dieser Stelle genügt Kollers allgemeine Definition der Äquivalenz als „Beziehung zwischen AS-Text (bzw. Textelementen) und ZS-Text (bzw. Textelementen)“ und seine Äquivalenzforderung:

„die Qualität(en) X des AS-Textes muß [sic!](müssen) gewahrt werden“ (zitiert bei Herbst 1994: 9 f). Ob die Synchronisation als translatorische Methode einen Film in der Zielsprache äquivalent wiedergeben kann, d.h. ob die Botschaft, Qualität und Wirkung des Originals in der Zielversion zum Ausdruck kommen kann, wird die zentrale Fragestellung dieser Untersuchung sein.[6]

Weiterhin sollte die vorliegende Analyse die Besonderheiten der angewendeten Übersetzungstechnik beleuchten. Die Varietät der Faktoren, die während der Filmsynchronisation ins Spiel kommen, die Beschränkungen, mit den der Übersetzer eines Drehbuchs konfrontiert wird sowie die Abweichungen vom Original, die durch den Synchronisationsprozess bedingt sind, sollten hier erörtert werden.

1.2. Vorgehensweise

Die vorliegende Arbeit besteht aus einem theoretischen und einem empirischen Teil. Die Abschnitte 2., 3. und 4. liefern die theoretische Grundlage zur audiovisuellen Übersetzung. In dem Abschnitt 5. wird die komparative Übersetzungsanalyse durchgeführt. Anhand der anschaulichen Beispiele aus dem Film, werden die Problemfelder der Filmübersetzung analysiert und deren Umsetzung in der deutschen Synchronfassung bewertet.

Zuerst wird im Kapitel 2. der Begriff der audiovisuellen Übersetzung expliziert und aus der medialen Perspektive betrachtet. Nach der Begriffbestimmung wird im Kapitel 2.2. die Eigenart des hier analysierten Texttyps, des audiovisuellen Texts, hervorgehoben. Es werden die einzelnen Komponenten des Textes beschrieben - die sog. auditiven und visuellen Codes - deren Zusammenspiel die Bedeutung des Textes produziert und die den audiovisuellen Text von den geläufigen schriftlich fixierten Texttypen unterscheiden. Im Kapitel 2.3. wird ein Blick auf die Geschichte der audiovisuellen Übersetzung und insbesondere auf die Etablierung der Filmsynchronisation in Deutschland geworfen. Einige politische und soziokulturelle Umstände, die sich auf die Praxis der Filmübersetzung im Laufe ihrer 80-jährigen Geschichte auswirkten (z.B. Zensur, Einfluss der Kirche und der Freiwilligen Selbstkontrolle), werden hier erwähnt.

Im Kapitel 3. wird ein Überblick der hierzulande verwendeten Techniken der audiovisuellen Übersetzung gegeben. Nach der kurzen Beschreibung der Untertitelung, Voice-over und den weiteren Verfahren wird im Kapitel 3.4. die Methode der Synchronisation ausführlich beschrieben und ihre Wirkungspotenzial auf die zielsprachigen Rezipienten erörtert. Obwohl die vorliegende Arbeit die linguistischen Aspekte der Filmübersetzung fokussiert, sind hier auch die wichtigen technischen Aspekte der Synchronisation anzusprechen, um die gängigen Defizite der Synchronfassungen nachzuvollziehen. Zu diesen technischen Aspekten gehört vor allem eine Reihe von Synchronitäten (Kapitel 3.4.5.), die eine Synchronisation erfordert, und die weit über die augenfällige Lippensynchronität hinausgehen. Nach der Erörterung der Vor- und Nachteile der Synchronisation gegenüber den anderen Übersetzungsverfahren (im Kapitel 3.4.6.) wird im Kapitel 3.4.7. erläutert, wie diese Übertragungsmethode zum Instrument der Sprachpolitik werden kann.

Kapitel 4. stellt den übersetzungstheoretischen Teil dieser Untersuchung dar. Im Kapitel 4.1. wird auf die Evolution des umstrittenen Äquivalenzbegriffes eingegangen, der die zentrale Rolle in der Translationstheorie spielt und die entscheidenden theoretischen Ansätze (von der ausgangstextorientierten linguistisch-deskriptiven Konzeption bis zu der zieltextorientierten funktionalen Skopostheorie) werden zusammengefasst dargestellt. Im Kapitel 4.2. wird der Begriff für die Zwecke der darauffolgenden Analyse in Anlehnung an Albrecht (1990) und Koller (2004) präzisiert und differenziert.

Das Kapitel 5 stellt den empirischen Teil der vorliegenden Untersuchung dar. Um sich der Form, dem Inhalt und dem Sprachstil des analysierten Korpus anzunähern, wird im Kapitel 5.1. der Autor des filmischen Textes vorgestellt. Neben dem kurzen Abriss Pedro Almodóvars Filmographie wird im Kapitel 5.1.2. der historische und soziokulturelle Kontext erörtert, in dem das Werk entstanden ist, sowie die Thematik und Stil dargestellt. Die in seinen Texten verwendeten sprachlichen Stilmittel machen die Herausforderungen an eine gelungene Synchronisation sehr deutlich. Daher ist Almodóvars Film für eine Synchronisationsanalyse besonders gut geeignet. Anschließend wird die Handlung des Films Todo sobre mi madre zusammengefasst.

Im Kapitel 5.2. wird die Übersetzungsanalyse erfolgen. Zuerst wird das Augenmerk auf die Übertragung von diatopischen, diastratischen und diaphasischen Sprachvarietäten[7] (Kapitel 5.2.3. – 5.2.5.) sowie von katalanischsprachigen Elementen (im Kapitel 5.2.2.) gerichtet. Von Interesse sind hier besonders der kanarische Dialekt, die Umgangssprache, die Vulgärsprache, Slangs und die Glaubwürdigkeit bzw.

Natürlichkeit der Synchrondialoge, die den spontanen mündlichen Diskurs authentisch wiedergeben sollen. In dem Kapitel 5.2.6. werden syntagmatische Gefüge wie idiomatische Wendungen, Metaphern und Wortspiele und ihre Umsetzung in der deutschen Fassung untersucht. Den letzten Punkt der Analyse stellen kulturspezifische Besonderheiten (wie Toponyme und Realien) und die Möglichkeiten ihrer Übertragung in die Zielsprache dar (Kapitel 5.2.7.).

Nach der Auswertung der Ergebnisse wird beurteilt, ob die deutschsprachige Synchronversion von Todo sobre mi madre eine äquivalente Übersetzung darstellt, d.h. ob sie dem Zielpublikum die Qualitäten des Original und seine künstlerische Wirkung vermitteln kann.

2. Audiovisuelle Übersetzung – Präzisierung der Begriffe

Der Begriff audiovisuelle Übersetzung umfasst verschiedene Übersetzungsverfahren wie zum Beispiel Synchronisation, Untertitelung, Voice-Over oder Simultandolmetschern, u.a., die beim Übertragen unterschiedlicher audiovisueller Genres wie Spiel- und Dokumentarfilme, Werbespotts, Live-Übertragungen, Fernsehshows etc. eingesetzt werden. Kürzlich wurde auch der Sammelbegriff Bildschirmübersetzung (screen translation) eingeführt, der die Übersetzung aller multimedialen Genres impliziert, die mittels Monitor rezipiert werden (z.B. Computerspiele, Internetseiten, Spielkonsolen wie Playstation, etc.).[8] Alternativ wird auch Begriff Medienübersetzung verwendet.

Was unter dem Begriff audiovisuelle Medien und Medium überhaupt genau zu verstehen ist, welche Eigenschaften ein audiovisueller Text aufweist und welche audiovisuelle Genres existieren, wird in diesem Kapitel expliziert.

2.1. Medien

2.1.1. Der kommunikationsorientierte Medienbegriff

Wir leben in einer von Medien stark geprägten Welt. Traditionelle Medien wie das Fernsehen und das Radio sowie die sogenannten neuen Medien (z.B. die elektronischen Textmedien und Internet etc.) bestimmen unseren Alltag, ohne dass wir darüber überhaupt nachdenken. Das Wort Medium setzte sich Ende der 60er Jahre als Sammelbegriff für die technisch apparativen Medien durch.[9] Zu jener Zeit war das Fernsehen bereits das dominante Medium der gesellschaftlichen Kommunikation geworden, das mit seiner Popularität das Radio und die Zeitung überholt hatte. Die moderne Medienwissenschaft definiert die Medien als Mittel, die der Individuierung von Gedanken, Gefühlen, Inhalten, sowie von Erfahrungen über die Welt dienen. Die Medienwissenschaft stellt eine Text- und Kulturwissenschaft dar, deren Ursprung in der Literaturwissenschaft, der Theaterwissenschaft, der Volkskunde und anderen Geisteswissenschaften liegt.[10]

Ohne Medien wäre keine Kommunikation möglich. Damit sie stattfinden kann, benutzen wir Zeichen, die eine Bedeutungen tragen und durch Medien übertragen werden. Diese werden folglich Medien der Kommunikation genannt.

Die technologischen Fortschritte der letzten Hundert Jahre wirkten sich auf die Medien nachhaltig aus. Sie führten zur Entwicklung neuer Formen der internationalen und interkulturellen Kommunikation, was auch die Entstehung neuer Formen der Übersetzung und Adaptation wie Synchronisation und Untertitelung mit sich brachte.

Dank der neuen Technologien veränderten sich auch die Abläufe und die Arbeitsmittel bei der Übersetzung. Gedruckte Ausgangtexte wurden durch digitale Texte ersetzt, VHS-Kassetten und Fernsehen durch die CD-ROMS und Computer, Papierwörterbücher durch digitale und online Nachschlagewerke etc. Neue

Synchronisations- und Untertitelungssoftwaretools haben die Abläufe in der audiovisuellen Branche wesentlich beschleunigt.[11]

2.1.2. Audiovisuelle Medien

Wie bereits erwähnt, wird die Gesellschaft, in der wir leben, zunehmend von Medien, und von audiovisuellen Medien insbesondere, stark beeinflusst. Als audiovisuelle Medien werden technische Kommunikationsmittel bezeichnet, die durch die visuellen und auditiven Sinne des Menschen wahrgenommen werden, das heißt, diejenigen, die durch Ton und Bild das Auge und das Ohr beanspruchen.

Ihre Anfänge liegen in den zwanziger Jahren des 20. Jahrhundert. In der frühen Phase des Films konnte man die Video- und Tonspur noch nicht synchron speichern und abspielen. Die ersten Stummfilme wurden von Live-Musik begleitet. Erst mit dem Aufkommen des Tonfilms Ende der zwanziger Jahre kann von audiovisuellen Medien die Rede sein.[12]

Film und Fernsehen sind klassische audiovisuelle Medien, die eine enorme Empfängerschaft registrieren und dadurch eine Massenkommunikation gewährleisten. Seit ihrer 80-jährigen Geschichte haben sich audiovisuelle Medien enorm entwickelt. Unser Alltag wäre heutzutage ohne sie kaum noch vorstellbar.

2.2. Audiovisueller Text als Übersetzungsgegenstand

Audiovisuelle Übersetzung ist eine Sonderform der Übersetzung. Ihr Übersetzungsgegenstand ist ein spezieller Texttyp,[13] dessen Besonderheit in seiner audiovisuellen Natur liegt. Reiß (1971: 34; zitiert bei Snell-Hornby 1999: 273) führt zuerst den Begriff „der audio-medialen Texte” ein und definiert sie als Texte „...die zwar schriftlich fixiert, aber mit Hilfe eines nicht-sprachlichen Mediums in gesprochener (oder gesungener) Form an das Ohr des Empfängers gelangen“. Audio- mediale Texte leben nicht vom Sprachgeschehen allein. Sie sind auf außersprachliche (technische) Medien und nicht sprachliche Ausdrucksformen graphischer, akustischer und optischer Art angewiesen. Reiß zufolge sind Bühnenwerke ein Beispiel eines audio- medialen Texts, denn erst durch das Zusammenwirken von Mimik und Gestik der Schauspieler sowie den Kostümen und den Kulissen, den akustischen Hilfsmitteln und der Musik kann eine Bühnenwirksamkeit entfaltet werden.

Infolge einer Diskussion, die diese Bezeichnung auslöste, änderte Reiß (1990) den Terminus „audio-medial“ in „multi-medial“. Dieser Begriff bezog auch die verschiedenen Medien der bildlichen Darstellung ein. Als multimediale Texte dienen laut der Definition zum Beispiel die Textvorlagen zu Filmen und Bühnenstücken, Liedertexte sowie Opernlibretti, aber auch Comics und Werbematerial.

In Zusammenhang mit den audiovisuellen Medien setzte sich in den letzten Jahren die Bezeichnung „audiovisueller Text“ durch. Kurz zufolge stellt der audiovisuelle Text einen eigenen Texttyp dar und kann nur analog zu dem Bild zum Ausdruck gebracht, interpretiert und übersetzt werden:

Diesen Typ macht aus, dass der Verbaltext seine volle Wirkung nur in Co-Existenz mit dem Bild entfalten kann. Ohne Bild wird der gesprochene oder geschrieben (und eigentlich zum sprechen gedachte) Filmdialog verzerrt, ist seines so wichtigen Präsentationsmediums beraubt und kann in solcher Situation nur bedingt bewertet oder bearbeitet werden (Kurz 2006: 9).

Auch Delabastita (1989) und Chaume (2003, 2004) wenden den audiovisuellen Texttyp als Ausgangsmodel für ihre Filmübersetzungsanalysen an. Ihnen zufolge findet die audiovisuelle Kommunikation über zwei unterschiedliche Kanäle statt: den akustischen und den visuellen. Durch diese beiden Kanäle erreicht die Filmsprache sein Publikum.

Chaumes Definition zufolge ist audiovisueller Text ein semiotisches Konstrukt, das aus eine Reihe von Zeichensystemen oder -codes besteht, die akustisch und visuell übertragen werden. Durch die Interaktion der verschiedenen Codes, wird die eigentliche Information bzw. die Bedeutung des Textes entschlüsselt. Jeder Code besteht aus einer Anzahl von Zeichen, die das Potential haben, die Übersetzung eines gegebenen Texts zu beeinflussen.[14]

2.2.1. Komponente des audiovisuellen Textes

Chaume unterscheidet neun (später zehn) Codes des audio-visuellen Texts. Für eine Filmübersetzung sind sechs von Relevanz: die akustisch übertragenen linguistic, paralinguistic, music and special effects und sound placement code, sowie die visuell übertragenen shooting code und mobility code. Schriftliche Texte, die gewöhnlich übersetzt werden (z.B. literarische Texte) haben vergleichsweise nur einen Kommunikationskanal und einen oder höchstens zwei Codes, den linguistischen und den paralinguistischen.[15]

2.2.1.1. Akustische Codes

Der in diesem Texttyp verwendete linguistic code unterscheidet sich wesentlich von dem sprachlichen Code anderer Texte, z.B. von Fachtexten oder literarischen Texten. Im Gegensatz zu den üblichen Textsorten, werden die meisten audio-visuellen Texte geschrieben, um gesprochen zu werden („written to be spoken as if it had not been written“, Chaume 2003: 272). Es handelt sich also um einen schriftlichen Text, der den mündlichen Diskurs imitiert. Daher ist die Oralität in einem audiovisuellen Text nicht spontan, sondern geplant, durchdacht oder, wie Chaume es formuliert, „vorfabriziert“.

Dieses Verhältnis zwischen dem schriftlichen Ursprung des audio-visuellen Textes und seiner Notwendigkeit, mündlich zu klingen, ist für eine Übersetzungsanalyse von höchster Bedeutung, wenn die Idiomatizität des Ausgangs- oder des Zieltexts untersucht wird. Während eines Dialogs machen die Sprecher Pausen, um Gedanken zu sammeln, sich zu räuspern, sie fangen den Satz noch mal an oder haben einen Gedankenwechsel. Ausgerechnet solche Anakoluths,[16] die in der geschriebenen Sprache als unakzeptabel gelten, machen den mündlichen Ausdruck lebendig, glaubwürdig und authentisch und müssen in dieser Form auch in einem Drehbuch festgehalten werden, sei es im Original oder in der Übersetzung.[17]

Als paralinguistic code bezeichnet Chaume Gesten, Lachen, Pausen und Eigenschaften der Stimme wie zum Beispiel Intonation. Zu dem music and special effects code zählen Soundtracks, Lieder und Spezialeffekte. Sound placement code impliziert das Platzieren des Tons. Der Ton kann entweder diegetisch sein, d.h., direkt von den Darstellern oder Objekten in der Filmszene produziert oder nondiegetisch, d.h., dass er außerhalb der Aufnahmesituation entstanden ist (z.B. Stimmungsmusik, Off- Stimme des Erzählers, der keinen Charakter in dem Film darstellt.). Diegetischer Ton kann wiederum aus dem On oder Off stammen. Es hängt davon ab, ob die sprechende Person auf dem Bildschirm sichtbar ist oder nicht.

2.2.1.2. Visuelle Codes

S hooting code betrifft die verschiedenen Kameraeinstellungen wie Totale, Halbtotale, Nahaufnahme etc. Bei einer Filmsynchronisation muss in den Nah- bzw. Detailaufnahmen des Gesichts des Sprechers eine gewisse Lippensynchronität aufrechterhalten werden. Besondere Aufmerksamkeit wird den bilabialen Konsonanten und offenen Vokalen gewidmet, deren Artikulation ausgeprägte Lippenbewegungen erfordert.

Mobility code erfasst proxemische und kinetische Zeichen sowie die Mundbewegungen der Schauspieler. Proxemik betrifft sowohl die Distanz zwischen den Akteuren als auch die Entfernung der Akteure zu der Kamera. Kinetik bezieht sich auf die Bewegungen der Darsteller und erfordert Synchronisation mit dem linguistic code. Zum Beispiel, wenn ein Deutscher jemandem Glück wünscht, drückt er ihm die Daumen. Ein Spanier, im Vergleich dazu, kreuzt die Finger (cruzar los dedos). Bei der Synchronisation muss der Übersetzer solche parasprachlichen Unterschiede im Auge behalten, damit Wort mit dem Bild im Film übereinstimmen. Die Mundbewegungen sind für die sogenannte Isochronie von Bedeutung, d.h. der simultane Ablauf der Ausgang- und der Zielaussage des sprechenden Charakters, der auf dem Bildschirm zu sehen ist.

2.2.2. Filmsprache und ihre Übertragung

Chaumes Herangehensweise an die audiovisuelle Übersetzung sowohl aus der übersetzungswissenschaftlichen als auch aus der kinematographischen Perspektive weicht von der traditionellen Auffassung der Filmübersetzung ab. Er hebt die Eigenart des Übersetzungsgegenstandes, des audiovisuellen Textes hervor, die darin liegt, dass seine Bedeutung mittels der einzelnen Codes und zusätzlich durch die Interaktion dieser Codes bestimmt wird.

Eine äquivalente Übersetzung solchen Texttyps trägt Chaume zufolge eine Untersuchung der einzelnen audiovisuellen Codes des Ausgangtexts mit sich. Das Zusammenspiel der sprachlichen Komponente mit dem System von Symbolen, Bewegungen, Töne und Spezialeffekten ist das, was die Sprache des Films und seine Wirkung auf den Zuschauer ausmacht und sollte daher als Ganzes analysiert und in die Zielversion übertragen werden.

Die vorliegende Arbeit wird sich dem Terminus „audio-visueller Text“ bedienen, da der Ausgangtext der hier beabsichtigten Übersetzungsanalyse – der Film Todo sobre mi madre – der Natur des audiovisuellen Texttyps entspricht.

2.2.3. Audiovisuelle Genres

Audiovisueller Text existiert in vielen Formen. Das Spektrum reicht von Zeichentricksfilm, über Fernsehserien (z.B. Seifenoper, Krimiserien), diverse Genres des Dokumentarfilms, bis zum Spielfilm. Jede dieser Sendeformen weist ein gewisser Grad an Komplexität auf und stellt unterschiedliche Anforderungen an die Übersetzung. In der Hierarchie der audiovisuellen Genres stellt Kinofilm die komplexeste Form des audiovisuellen Texts dar.[18] Übertragung eines Films in eine andere Sprache erfordert Auseinandersetzung mit allen Besonderheiten audiovisueller Übersetzung.[19]

2.3. Geschichte der audiovisuellen Übersetzung

In der Stummfilmära war der Film ein universelles Medium, da er durch die Sprache der Bilder jedem Zuschauer verständlich war, eine Art Esperanto. Erst nach dem Übergang zum Tonfilm machten sich die Sprachbarrieren bemerkbar. Seit dem Beginn des Tonfilms haben Produktionsfirmen nach Möglichkeiten gesucht, ihre Filme dem fremdsprachlichen Publikum zugänglich zu machen. Diverse Techniken wurden zu unterschiedlichen Zeiten in verschiedenen Ländern eingesetzt. Einige dieser Methoden haben bis heute überlebt. Das folgende Kapitel ist ein kurzer Einblick in die Geschichte der audiovisuellen Übersetzung und die Entwicklung der Übertragungstechniken.

2.3.1. Stummfilmperiode und die Zwischentitel

Die Zwischentitel wurden parallel mit dem Film geboren. Als Zwischentitel werden die Textfragmente bezeichnetet, die zwischen den einzelnen Filmszenen auf der Leinwand erschienen. Sie sollten hauptsächlich den Zuschauer über die Filmgeschehnisse informieren, Ort und Zeit der Handlung ankündigen, Inhalte aus Büchern, Briefen oder Zeitungsausschnitten wiedergeben etc. Manchmal wurden sie auch als Stilmittel in die Szenen eingesetzt.[20] Meistens handelte es sich um weiße Buchstaben auf einem schwarzem Hintergrund, die auf Kartons geschrieben oder gedruckt wurden, dann abgefilmt und auf die passende Stelle in den Film eingesetzt wurden.

Die Zwischentitel konnten ohne großen technischen und finanziellen Aufwand schnell übersetzt werden. In der Regel wurden sie aus dem Originalfilm herausgenommen, in der Zielsprache neu geschrieben bzw. gedruckt, abgefilmt und wieder eingesetzt oder live vorgelesen.

2.3.2. Übergang vom Stummfilm zum Tonfilm. Die Probleme der Tonnutzung

Mit der Aufführung des US-amerikanischen Films The Jazz Singer 1927 begann die Tonfilmära.[21] Der Übergang zum Tonfilm geschah allerdings nicht ohne Probleme. Er verbreitete Skepsis bei den Filmemachern und den Schauspielern sowie bei dem Publikum. Für die Produzenten bedeutete der Übergang einen großen technischen und finanziellen Aufwand, für die Schauspieler eine neue künstlerische Herausforderung.

Die Schauspieler mussten nun eine neue Darstellungsweise erlernen. Im Stummfilm brachten sie durch eine ausgeprägte Mimik und Gestik ihre Emotionen zum Ausdruck. Durch diese theatralische Ausdrucksart wurde die Absenz des gesprochenen Wortes kompensiert.

Manche Schauspieler, wie zum Beispiel Greta Garbo, bestanden weiterhin auf den Stummproduktionen, weil sie sich in ihren mündlichen Ausdruck nicht sicher waren. Obwohl sie ein sehr korrektes Englisch sprach, hätte ihr schwedischer Akzent ihren Ruhm in Gefahr bringen können. Nach dem Untergang des Stummfilms nahm sie nur noch Rollen ausländischen Frauen an, wie z.B. in Anna Christie (1930), Sapho (1931), Mata Hari (1932).[22]

Für den Tonfilm musste man nicht nur seinen Text vorführen können, sondern man musste auch eine Mikrofon-geeignete Stimme haben. Manche der Schauspieler hatten keine phonogene Stimme und so beendete die Einführung des Tons die Karriere vieler Schauspieler. Andererseits haben sich neue Horizonte für Theaterschauspieler geöffnet, die daran gewöhnt waren, gesprochene Texte wiederzugeben.[23]

Neben den tontechnischen Problemen, die mit der Projektion der Tonproduktionen verbunden waren und die relativ prompt behoben wurden, brachte der Ton Probleme linguistischer Natur mit sich. Mit der Einführung des Tons wurden zum ersten Mal die sprachlichen und die territorialen Grenzen des Films deutlich. Für Chaves (2000: 24) hat der Tonfilm das getrennt, was durch die Universalität des Stummfilms eins vereinigt gewesen war: [...] „eso también significaba separar lo que la universalidad del silencio había unido.”

Die amerikanische Produktion beschränkte sich plötzlich auf den englischsprachigen Markt, was große Umsatzverluste für die Produktionsfirmen zur Folge hatte. In Europa, dank der sprachlichen und kulturellen Vielfalt, wurde Film zu einem abgrenzenden Nationalzeichen. Mit Hilfe der Sprache könnte man nun das Herkunftsland des Films schnell identifizieren und einiges über die Kultur und die Menschen des Landes erfahren.

2.3.3. Die ersten Strategien der Überwindung von Sprachbarrieren

Die ersten Tonfilme stießen in Europa und Lateinamerika auf Unzufriedenheit seitens des Publikums, weil dies die fremdsprachigen Dialoge nicht verfolgen konnte. Während der Filmvorführung der US-amerikanischen Produktion Lights of New York (1928) in einem Pariser Kino haben die Zuschauer nach Angaben der damaligen Presse laut gefordert, dass die Schauspieler auf Französisch sprechen sollten. Auch in der Tschechoslowakei protestierte das Publikum 1930 als in den Kinos Tonfilme in deutscher Sprache liefen. In Lateinamerika lehnten die Kubaner die Filme in englischer Sprache ab und kritisierten die Amerikanisierung des lateinamerikanischen Publikums. In manchen Ländern wie Italien, Mexiko und Ungarn wurden die fremdsprachigen Filme sogar gesetzlich verboten.[24] Nicht einmal in Großbritannien waren die amerikanischen Tonfilme einfach abzusetzen, da die amerikanische Variante des Englischen bei der britischen Zuschauerschaft nicht sehr beliebt war.[25] Durch diese Begebenheiten wurden der Aufschwung des Tonfilms und seine Vermarktung weltweit deutlich gebremst.

Um den Filmvertrieb in Schwung zu bringen, wurden verschiedene Übersetzungsverfahren entwickelt, die die Sprachbarrieren überwinden sollten. Eine der ersten und lange Zeit gebräuchlichen Technik war die Aufführung der Originalfassung mit Zwischentiteln in der jeweiligen Landessprache. Die mehrfachen Unterbrechungen der Ton- und Bildspur durch die Zwischentitel beeinträchtigte allerdings die Ästhetik des Films.[26]

Anfang der dreißiger Jahre gründeten die großen Produktionsfirmen Niederlassungen im Ausland, wo die Originalfilme mit landessprachlichen Schauspielern Szene für Szene neu gedreht wurden. Diese Methode bot zwar landessprachliche Tonversionen, dessen Ästhetik und Rezeption ungestört blieb, sie war aber sehr zeit- und kostenaufwendig und wurde bald wieder aufgegeben.

Sobald es die Technologie ermöglichte, die Dialoge in anderen Sprachen zu synchronisieren und zu untertiteln, wurde auf das kostspielige „double shooting“ verzichtet. Je nach Land wurde das mühsame Verfahren entweder durch Synchronisation oder Untertitelung abgelöst. Diese zwei von Anfang an umstrittenen Übersetzungsverfahren setzten sich gegenüber den Mehrsprachenversionen durch, vor allem, weil sie kosten- und zeitsparend waren.[27]

Die Anfangseuphorie mündete in einem weitverbreiteten Skeptizismus, weil die beiden Verfahren mit Rezeptionsstörungen bei den Zuschauern verbunden waren. Nichtsdestotrotz überlebten sie, zwar in einer technisch verbesserten Form, allerdings ohne große konzeptionelle Veränderungen, als geläufige Methoden der audiovisuellen Übersetzung bis heute.

Die damaligen Unzufriedenheiten gegenüber Synchronisation und Untertiteln unterscheiden sich kaum von den heutigen. Der Synchronisation wurde vorgeworfen, sie verletze das künstlerische Vorhaben, degeneriere das Originalwerk und beeinträchtige seine Qualität.[28] Besonders kritisiert wurde die mangelnde Lippensynchronität und der Sprachstil. Weiterhin wurde argumentiert, dass die Stimme eines Schauspielers nicht durch eine beliebige Stimme ersetzt werden könnte, da sie eine untrennbare Charakteristik eines Menschen sei.[29]

Die Untertitelung war einerseits eine kostengünstigere Variante, die keine Veränderung des Originals erforderte und die Originalstimmen der Darsteller nicht verfälschte. Andererseits wurden die Dialoge nur in einer gröberen verkürzten Form wiedergegeben und der Zuschauer musste seine Aufmerksamkeit zwischen dem Filmgeschehen und dem Lesen der Untertitel teilen. Die Untertitel fanden bei dem deutschen Publikum keine große Resonanz. Anfang der dreißiger Jahre setzte sich die lippensynchrone Bearbeitung der fremdsprachigen Dialoge in Deutschland durch.[30]

2.3.4. Geschichte der Synchronisation in Deutschland

Die Präferenz der einen oder der anderen Methode der audiovisuellen Übersetzung hängt nicht nur mit den wirtschaftlichen Faktoren, sondern auch mit der politisch- historischen Entwicklung des Landes zusammen. Schon während der Weimarer Republik wurde sich die Regierung der Macht des Filmmediums bewusst und führte eine Filmzensur ein, die während der Nazi-Diktatur noch verschärft wurde. Aufgrund der nationalsozialistischen Filmpolitik konnte sich die Synchronisation in Deutschland Anfang der dreißiger Jahre schnell durchsetzen.[31] Der größte Vorteil der Filmsynchronisation bestand darin, dass man ideologisch unpassende Filminhalte in der Zielsprache verändern konnte.[32] Auch in den ideologisch verwandten Staaten wie Italien und Spanien wurde Synchronisation als Propaganda- und Zensurmittel benutzt.[33]

Nach dem Zweiten Weltkrieg geriet der Filmmarkt unter den Einfluss des Ost-West- Konflikts. Die politischen Umstände wirkten sich ebenfalls auf die synchronisierten Filme aus. Die Besatzungsmächte nutzten die Filme als Mittel der Entnazifizierung und Umerziehung des Volkes.[34] In der DDR mussten die Zielversionen der Filme der sozialistischen Doktrin entsprechen. Antikommunistische Tendenzen oder sonstige kapitalistische „ideologisch verwaschene“ Inhalte wurden beseitigt. Untertitelte und Voice-over Fassungen wurden grundsätzlich abgelehnt, da sie angeblich mit großen Verlusten der Information und des emotionalen Erlebnis einhergingen.[35]

In den fünfzigen Jahren boomte das Kino und somit auch die Synchronisationsindustrie. Berlin wurde zu dem Zentrum der Branche, aber auch in Hamburg und München ließen sich einige Synchronstudios nieder. Diese wichtige Phase der deutschen Synchronisation zeichnete sich durch eine sehr interessante Praktik aus. Die ausländischen Filme wurden damals hinsichtlich der Namen und Kulturspezifika eingedeutscht. „Alemannitis“ wurden diese Synchronversionen benannt, die die Illusion erwecken sollten, dass man ein Original sieht. Fremde Namen wurden deutsch ausgesprochen oder sogar übersetzt. „Mr. Smith“ hieß in der deutschen Fassung Herr Schmidt, aus einem „Hamburger“ wurde eine Frikadelle, ein „Sergeant“ wurde zu einem Wachmeister etc.[36]

In den fünfziger und sechziger Jahren nahm dann allerdings die Begeisterung für die angloamerikanische Kultur und die Aufgeschlossenheit ihr gegenüber zu (besonders unter den Jugendlichen). Anfang der siebziger Jahre endete die Ära der Alemannitis. Zu dieser Zeit wurden auch einige bereits vorgeführte Filme neu bearbeitet. Als Beispiele können Panzerkreuzer Potemkin (1925), Im Westen nichts Neues (1930) oder Casablanca (1942) genannt werden. Aus diesen Filmen wurden unter dem Einfluss der Zensur einige Szenen ausgeschnitten oder „wegsynchronisiert“. Es handelte sich meistens um Kriegsinhalte und deutschfeindlichen Szenen.[37]

Nach dem Siegeszug des Fernsehens in den siebziger Jahren und des Videos in den achtziger Jahren änderte sich die Rolle der Synchronisation. Der Markt wurde mit Fernsehserien und Low-Budget-Filmen überflutet, die ohne den Umweg über das Kino direkt für den Massenkonsum schnell und günstig bearbeitet werden mussten. Dies wirkte sich negativ auf die Qualität der Synchronisation aus.[38]

Anfang des neuen Jahrtausends eroberte die Digital Versatile Disc (DVD) den Markt und ersetzte die VHS-Kassette. Die Besonderheit dieser Disk ist, dass dort mehrere vorhandene Tonspuren existieren, d.h. mehreren Sprachversionen, die dem Zuschauer zur Auswahl stehen. Nach Belieben können auch Untertiteln gezeigt werden.

2.3.5. Die Filmkontrolle in Deutschland

Das Phänomen der Filmzensur ist so alt wie der Film selbst. Schon während der Stummfilmära wurden in Deutschland Filme verändert oder ganz verboten. Damals entschied die Berliner Oberprüfstelle, die im Namen des 1920 verabschiedeten „Reichslichtspielgesetztes“ Kontrolle ausübte, welche Filminhalte gezeigt werden durften.[39]

Nach dem Krieg wurden die Filme weiterhin geprüft und verändert. Bis heute begutachtet die 1949 gegründete Freiwillige Selbstkontrolle (FSK) Filme, die in der Bundesrepublik für die öffentliche Vorführung und Verbreitung vorgesehen sind. Dieses von dem Staat unabhängige Kontrollorgan ist heute vor allem für den Jugendschutz zuständig und trifft die Entscheidung über die Altersfreigabe der Filme.

FSK wird von der Filmbewertungsstelle Wiesbaden (FBW) und von der katholischen Kirche in moralischen Fragen der Filme unterstützt.[40]

Besonders in den Nachkriegsjahren war der Einfluss der FSK auf den deutschen Filmmarkt nicht zu übersehen. Zu jener Zeit war das Publikum laut FSK für eine Auseinandersetzung mit der nationalsozialistischen Geschichte Deutschlands noch nicht vorbereitet. Aus diesem Grund wurden im Auftrag des Verleihers alle Anspielungen auf den Nationalsozialismus und die Kriegsverbrechen aus den Filmen eliminiert, wie man es am Beispiel von Casablanca (1942) und Hitchcocks Notorious (1946) sehen kann. In Notorious wurden aus den Nazis Drogenhändler, in Casablanca wurde aus dem tschechischen Widerstandskämpfer Laszlo der skandinavische Naturwissenschaftler Larsen und die Figur des NS-Offizier Strasser wurde komplett gestrichen. In der neuen Synchronversion aus dem Jahre 1975, die 23 Minuten länger ist, tauchen Victor Laszlo und Major Strasser wieder auf.[41]

Die Einflussnahme der Kirche in den fünfziger und sechziger Jahren machte sich besonders in Louis Malles Les Amants („Die Liebenden“) von 1958 und Luis Buñuels Viridiana (1961) bemerkbar. Szenen, die der kirchlichen Moralvorstellung nicht entsprachen, wie vor allem die erotischen Szenen, wurden gekürzt oder ausgeschnitten.[42]

Im Zuge der sexuellen Revolution der siebziger Jahre wurde das Thema Moral und Sexualität toleranter behandelt und der Einfluss der Kirche wurde eingeschränkt. Auch mit dem Thema der NS-Geschichte wird nun offener umgegangen. Nur noch an vereinzelten Beispielen lässt sich demonstrieren, dass das Publikum hierzulande von antideutschen Nuancen in Filmen verschont wurde.[43]

Auch die seit den achtziger Jahren steigende Tendenz zu Gewalt im Film weckte die Aufmerksamkeit der FSK. Durch die zunehmend moderneren Technologien und vor allem durch den Computereinsatz wird eine immer drastischere Darstellung von Brutalität möglich.[44]

Ende der neunziger Jahre und zu Beginn des einundzwanzigsten Jahrhunderts wird mit Sexualität deutlich offener in den audiovisuellen Medien umgegangen. Nackte Haut im Fernsehen in den Hauptsendezeiten ist heutzutage eine Normalität. Auch die Vulgärsprache fand ihren Eingang auf die Leinwände. Dass Fluchen auf unterstem Niveau auch kein großes Problem mehr für die FSK darstellt, wird auch in der angehenden Übersetzungsanalyse von Almodóvars Todo sobre mi madre (1999) offensichtlich.

Die äußeren Grenzen der Filmfreiheit in Deutschland sind in dem Strafgesetzbuch festgesetzt. Für die Bearbeitung von ausländischen Filmen ist das Verbot von nazistischen Tendenzen (§ 80 StGB), exzessiven Gewaltdarstellungen (§ 131 StGB), und Pornographie (§ 184 StGB) sowie der in § 166 StGB festgelegte Schutz religiöser Bekenntnisse von Relevanz.[45]

3. Methoden der audiovisuellen Übersetzung

Im Folgenden werden geläufigen Methoden der audiovisuellen Übersetzung beschrieben, die heutzutage in Deutschland verwendet werden. Der hierzulande am häufigsten verwendeten Technik, der Filmsynchronisation, wird besonders große Aufmerksamkeit gewidmet.

Pruys unterscheidet fünf Formen der Bearbeitung von audiovisuellem Material:[46]

1. Lippensynchrone Fassungen
2. Untertitelfassungen
3. Voice-over Fassungen
4. Kommentar
5. Kooperationsfassungen

3.1. Untertitelung

Hurt und Widler definieren Untertitel als „die gekürzte Übersetzung eines Filmdialoges, die synchron mit dem entsprechenden Teil des Originals auf dem Bildschirm bzw. auf der Leinwand zu sehen ist.“ (Cedeño 2007: 88; zitiert nach Hurt und Widler 1998: 261). Es handelt sich um die älteste Form der audiovisuellen Übersetzung. Bereits in der Stummfilmperiode wurden Untertitel in Form von Zwischentiteln eingesetzt. Reine Untertitelfassungen sind in Deutschland selten, eher werden sie mit synchronisierten Passagen kombiniert (zum Beispiel bei Liedern oder bei zweisprachigen Originalen).

In Deutschland werden Untertitel vorwiegend im Sinne der intralingualen Übersetzung eingesetzt.[47] Manche Fernsehprogramme stellen für die gehörlosen Zuschauer Videotext-Untertitel zur Verfügung, die parallel zu dem Original oder Synchronfassung gesendet werden. Ebenso DVD Programme werden häufig mit Untertiteln für das hörbeeinträchtigte Publikum ausgestattet.

Aufgrund des begrenzten Platzes und Zeitraums für die Untertitel, müssen bei der Übersetzung gewisse linguistische Beschränkungen beachtet werden. Es sollte eine klare Ausdruckweise, kurze Sätze, einfache Syntax sowie sorgfältige Interpunktion gewählt werden, damit der Zuschauer den Inhalt des Untertitels schnell auffassen kann. Jeder Untertitel bildet eine logische syntaktische Einheit und dies ist bei den Zeilenumbrüchen zu beachten. Um die knappe Zeit und den Raum möglichst effektiv zu nutzen, können solche Dialogteile ausgelassen oder umformuliert werden, die aus dem filmischen Kontext auch ohne Übersetzung verständlich sind bzw. aus dem Bild ersichtlich sind. Außerdem kann auf Ausdrücke verzichtet werden, die bereits das Gesagte nur betonen wie beispielsweise Füllwörter und Frageanhängsel isn't it?, you know? ¿verdad?, pues etc.[48]

Neben der semantischen und stilistischen Sorgfältigkeit ist bei der Untertitelung auch technische Genauigkeit gefragt, da die Untertitel an einer passende Stelle ein- und ausgeblendet werden müssen. Der Zeitpunkt des Ein- und Ausblendens wird Fade-In und Fade-Out genannt. Das Festlegen des Fade-Ins und Fade-Outs wird als Spotting oder Timing bezeichnet und wird heutzutage mit Hilfe von Computerprogrammen betrieben.

Der größte Vorteil der Untertitelung liegt in der Tatsache, dass man die Ursprungsfassung mit den Originalstimmen hören kann. Somit bleibt die Originalität und Authentizität des Films erhalten. Gegen die Untertitel wird eingewandt, dass die gesprochenen Dialoge in einer gekürzten Form in der geschriebenen Sprache wiedergegeben werden und dass das Lesen von Untertiteln eine Ablenkung von dem Bild und von dem schauspielerischen Ausdruck sei. Ähnlich wie bei der Synchronisation, geht hier ein Teil der künstlerischen Wirkung des Originals verloren.

Nicht zuletzt, setzen untertitelte Fassungen ein alphabetisiertes Publikum voraus – eine Bedingung, die nicht immer erfüllt werden kann.[49] Auch bei älteren Zuschauern stoßen Untertitel auf weniger Beliebtheit, da deren Leseleistung tendenziell abnimmt.[50]

3.2. Voice-over Verfahren

Eine weitere Möglichkeit, dem deutschen Zuschauer ein fremdsprachiges audiovisuelles Material verständlich zu machen, stellt das sogenannte „Voice-over“ Verfahren dar. Bei diesem Verfahren wird der Originalton von einem deutschsprachigen Kommentar übersprochen. Der Kommentar beginnt erst wenige Sekunden später und endet oftmals bevor der Originalsprecher zu Ende gesprochen hat, damit der Zuschauer die Originalstimmen zu hören bekommt. Die Lautstärke des Originals wird reduziert, damit die deutsche Übersetzung im Vordergrund zu hören ist. Die Originalfassung kann man weiterhin im Hintergrund hören. Somit sollte die Authentizität des Originals beibehalten bleiben.[51] Da es sich um keine Synchronisation handelt, wird dabei keine Form von Synchronität angestrebt.[52]

[...]


[1] Aufgrund der besseren Lesbarkeit wird in der vorliegenden Arbeit bei den verallgemeinernden Personenbezeichnungen die verkürzende maskuline Form verwendet.

[2] Vgl. dazu Hermans 1999: 99

[3] Das Kastilische wird hier als synonyme Bezeichnung der spanischen Sprache (español oder castellano) verwendet.

[4] Unter einem audiovisuellen Text wird ein Text verstanden, der nicht mittels eines schriftlichen Mediums, sonder mittels eines audiovisuellen Mediums (z.B. Fernsehen), also akustisch und visuell wahrgenommen wird. Die charakteristischen Merkmale dieses Texttyps werden in dem Kap. 2.2. genauer beschrieben.

[5] Das Original, also das Übersetzte wird als Ausgangstext oder Transferendum bezeichnet. Das Produkt des translatorischen Handelns (d.h. der Übersetzungsprozesses) wird als Zieltext bzw. Translat bezeichnet.

[6] Die Äquivalenz ist keineswegs mit der in der Filmsynchronisation angestrebten Synchronität zu verwechseln. In der vorliegenden Arbeit bezieht sich die Äquivalenz auf die formal-ästhetischen und inhaltlichen Qualitäten sowie die kommunikative Funktion des Textes, während die Synchronität den Zusammenklang zwischen den akustischen und visuellen Elementen impliziert.

[7] Hier wird auf Coserius (1967) Typologie angelehnt, die diatopische (d.h.dialektale), diastratische (d.h. auf einer soziale Gruppe bezogene) und diaphasische (d.h. situationsbedingte) Sprachvarietäten unterscheidet.

[8] Vgl. Mayoral Asensio 2003: 20

[9] Unter technisch apparativen Medien sind diejenige Medien zu verstehen, die für ihre Produktion und Empfang der Information technische Geräte benötigen. Je nach dem Einsatz apparativer Technik unterscheidet Cedeño zwischen primären, sekundären und tertiären Medien. Primäre Medien kommen ohne technische Hilfsmittel aus (z.B. Körperbewegungen, Handbewegungen, Lachen, Weinen und andere Geräusche, die nicht sprachlich kodiert sind). Bei der Produktion sekundärer Medien (aber nicht bei ihrer Rezeption) werden technische Hilfsmittel vorausgesetzt (z.B. Bild, Schrift, Fotographie). Bei der Produktion und Rezeption tertiärer Medien ist technisch apparativ Einsatz unverzichtbar (z. B. Film, Schallplatte, Radio, Fernsehen und Computer). Vgl. Cedeño 2007: 26 f.

[10] Vgl. Cedeño 2007: 18 f.

[11] Vgl. Cedeño 2007: 8; 13

[12] Vgl. Cedeño 2007: 29

[13] Reiß unterscheidet drei grundlegenden Texttypen: inhaltsbetont (z.B. Bedienungsanleitung), formbetont (z.B. Gedicht) und appellbetont (z.B. Werbetext).

[14]

[15] Vgl. Chaume 2003: 273

[16] Anakoluth (der, das, -s, -e) [vom griech. anakólouthon oder lat. anacoluthon ] bezeichnet den „Satzbruch“, also das Fortfahren in einer anderen als der begonnenen Satzkonstruktion (Vgl. DUDEN – Deutsches Universalwörterbuch 1996).

[17] Vgl. Whitman-Linsen 1992: 31

[18] In dieser Hierarchie steht der Kinofilm über dem Fernsehfilm bzw. der Fernsehserie. Diese unterscheiden sich in dem Sendemedium und folglich in der Rezeption, denn eine Kinoleinwand ist wesentlich größer als ein Fernsehbildschirm. Der Unterschied ist minimal und betrifft vornehmlich die technischen Anforderungen (z.B. die Größe und Länge der Untertitel oder die Lippensynchronität). Vgl. Cedeño 2007: 91, 94

[19] Vgl. Chaume 2003: 297 f.

[20] Vgl. Cedeño 2007: 78 ff.

[21] Vgl. Cedeño 2007: 30; Kurz 2006: 24

[22] Vgl. Chaves 2000: 23 und Izard 2001: 193

[23] Vgl. Chaves 2000: 24

[24] Vgl. Cedeño 2007:47

[25] Vgl. Kurz 2006: 24

[26] Vgl. Cedeño 2007: 31

[27] Vgl. Cedeño 2007: 32

[28] Vgl. Whitman-Linsen 1992: 13

[29] Vgl. Cedeño 2007: 32 f.

[30] Vgl. Kurz 2006: 25

[31] Vgl. Cedeño 2007: 33

[32] Während der Synchronisation wird die Originaltonspur durch eine neue Tonspur ersetzt. Da der Zuschauer die Originalversion nicht hört, bietet sich hier für den Übersetzer und die Synchronisateure ein größerer Spielraum, was die Veränderungen des Textes betrifft.

[33] Vgl. Kurz 2006: 27; Ballester 2001: 112 f.

[34] Vgl. Kurz 2006: 27; Pruys 1997: 67 ff.

[35] Bei den beiden Übersetzungsmethoden – Untertitelung und Voice-over – bleibt die Originaltonspur beibehalten. Man kann das Original direkt oder im Hintergrund hören. Vgl. Pruys 1997: 33; zitiert nach Wanschurra-Nawroth 1976: 5

[36] Vgl. Kurz 2006: 30 f., Whitman-Linsen 1992: 17

[37] Vgl. Kurz 2006: 32 f., 35 ff.

[38] Vgl. Kurz 2006: 33

[39] Vgl. Kurz 2006: 35

[40] Vgl. Kurz 2006: 35

[41] Vgl. Kurz 2006: 36

[42] Vgl. Kurz 2006: 38

[43] Als Beispiele nennt Kurz den Film Die Hard („Stirb langsam“) von 1987, in dem die deutschen Anhänger der „radikalen westdeutschen volksfreien Bewegung“ zu amerikanischen Anhänger der „Internationalen Volksfrontbewegung“ umgewandelt wurden sowie Jack the Ripper (1988), in dem aus einem „dummen Deutschen“ ein „dummer Franzose“ gemacht wurde. Der Guy Richies Film Snatch (2000), in dessen deutschen Synchronfassung der negativ konnotierte Ausdruck „the Germans“ mehrfach durch „böser Mann“ ersetzt wird, stellt einen weiteren Beispiel dafür dar. Vgl. Kurz 2006: 39 f., 43.

[44] Vgl. Kurz 2006: 42

[45] Vgl. Pruys: 197 f.

[46] Vgl. Pruys 1997: 198

[47] Vgl. dazu Kapitel 4.

[48] Vgl. Cedeño 2007: 88

[49] Aus diesem Grund werden z.B. Kindersendungen auch in Ländern, die gewöhnlich Programme untertiteln, synchronisiert, da kleine Kinder noch nicht lesen können. Vgl. Cedeño 2007: 82 f.

[50] Vgl. Kurz 2006: 51

[51] Vgl. Cedeño 2007: 100 und Maier 1997: 35

[52] Mehr zu dem Begriff siehe Kap. 3.4.5.

Details

Seiten
105
Jahr
2008
ISBN (eBook)
9783640293063
ISBN (Buch)
9783640293186
Dateigröße
1.1 MB
Sprache
Deutsch
Katalognummer
v124451
Institution / Hochschule
Johann Wolfgang Goethe-Universität Frankfurt am Main – Institut für Romanische Sprachen und Literaturen
Note
1,3
Schlagworte
Audiovisuelle Übersetzung Filmübersetzung Filmsynchronisation Pedro Almodóvar

Autor

Zurück

Titel: Analyse einer audiovisuellen Übersetzung aus dem Spanischen ins Deutsche am Beispiel von "Todo sobre mi madre"