Detailseite
Projekt Druckansicht

MeTRapher: Maschinelle Übersetzung von Metaphern lernen

Fachliche Zuordnung Angewandte Sprachwissenschaften, Computerlinguistik
Förderung Förderung seit 2023
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 530853546
 
Die Interpretation und Übersetzung von Metaphern stellt eine große Herausforderung dar, die in der Kognitionswissenschaft, der Linguistik und in den Übersetzungswissenschaften viel Aufmerksamkeit erhalten hat. In der automatischen Sprachverarbeitung hingegen existieren zwar exzellente Werkzeuge für die monolinguale Erkennung und Interpretation von Metaphern, und es gibt hervorragende maschinelle Übersetzungssysteme, aber automatische Ansätze für Metaphern-Übersetzung sind rar. Metaphern sind nicht nur in ihren Strukturen und Bedeutungen sehr flexibel; sie hängen stark von den beteiligten Sprachen und Kulturen ab. Unser langfristiges Ziel ist, ein modulares maschinelles Lernsystem für die Übersetzung und Evaluation von Metaphern zu schaffen, das Wissen und Bedingungen für die Metaphernübersetzung induziert und integriert. Ausgehend von einer für den metaphorischen Sprachgebrauch frequenten Konstruktion (Verb-Objekt-Paare) und drei Sprachen (Englisch, Deutsch, Tschechisch) erstellen wir zunächst eine umfangreich annotierte sprachübergreifende Datenbank für die Sprachpaare, um monolinguale Metaphern-Bedingungen und Übersetzungsmodi zu spezifizieren sowie Seed-Trainingsdaten über Domänen und Register hinweg zu erstellen. Wir werden einen nachhaltigen Beitrag zur Metaphernforschung in der Verarbeitung natürlicher Sprache leisten, indem wir unsere Werkzeuge und Daten sowie Annotationsrichtlinien zur Verfügung stellen. Ein zweiter Teil befasst sich parallel mit dem lokalen „Mikro-Kontext“, d.h. kontextuellen Merkmalen wie syntaxbasierten Abhängigkeiten und Selektionspräferenzen, und dem globalen „Makro-Kontext“, d.h. Diskursbedingungen wie lexikalische und thematische Kohärenz in Metaphernkontexten. Für den Mikro-Kontext werden wir die Standard-Pipeline für Tagging anpassen, indem wir vortrainierte Sprachmodelle in einem Multitasking-Setup fine-tunen, bevor wir durch eine weitere Ebene dem Multitasking linearisierte Dependency-Parse-Tags zufügen, um die Rolle des lokalen syntaktischen Wissens im Modell weiter zu stärken, sowie linguistisches Wissen wie z.B. Selektionspräferenz-Verletzungen. Für den Makro-Kontext werden wir modernste Satz-basierte Metaphern-Erkennungssysteme auf die Diskursebene erweitern und dabei Diskurskohärenz in Bezug auf lexikalisch Diskursstrukturen, Themenkohärenz, Abstraktheit und Affekt integrieren, in Interaktion mit Graden von Konventionalisierung. Das System wird schließlich durch Integration von kontextuellen Embedding-Repräsentationen, die wir an Diskurse anpassen, optimiert. Ein finaler Teil befasst sich mit dem Problem der Kombination von mikro-kontextueller und makro-kontextueller Modellierung von Metaphern sowie der Integration in neuronale maschinelle Übersetzungssysteme, um ein erstes umfassendes Metaphernübersetzungssystem zusammen mit einem Evaluierungsprotokoll zu erstellen und Einblicke in sprachübergreifende Metaphern-Verarbeitung und Übersetzungsmodi zu erlangen.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung