Detailseite
Projekt Druckansicht

Notentext-Informierte Audioparametrisierung von Musiksignalen

Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung von 2013 bis 2017
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 250692544
 
Erstellungsjahr 2017

Zusammenfassung der Projektergebnisse

Musiksignale sind typischerweise komplexe Klanggemische, die sich aus der Überlagerung von einzelnen, miteinander interagierenden Instrumentalstimmen ergeben. Sogar der Klang eines einzelnen Instruments kann sich bereits aus vielen unterschiedlichen Klangkomponenten zusammensetzen, zum Beispiel aus harmonischen, perkussiven, rauschartigen und transienten Anteilen. Diese Komplexität macht die automatisierte Verarbeitung von Musiksignalen, etwa fur Aufgabenstellungen wie Time-Stretching (Stauchung oder Streckung der Lange einer Musikaufnahme) oder Quellentrennung (Zerlegung einer Musikaufnahme in Anteile die zu den einzelnen Instrumentalstimmen korrespondieren), zu einem äußerst schwierigen Problem. Im SIAMUS-Projekt sollte die Verarbeitung, Zerlegung und Parameterisierung von komplexen Musikaufnahmen dadurch erleichtert werden, dass strukturelle, akustische, oder musikalische Zusatzinformationen (z. B. spezifiziert über eine Notentextdarstellung) hinzugezogen werden sollten. Eine Kernidee, die sich systematisch durch das SIAMUS-Projekts zieht, bestand darin, die Aufnahme zunächst in mehrere mid-level Klangkomponenten zu zerlegen und diese Teilsignale anschließend separat weiterzuverarbeiten. Da die extrahierten Komponenten gewisse, von der Zerlegungstechnik vorgegebene Eigenschaften haben, lassen sich für deren Verarbeitung oft spezialisierte Techniken verwenden. Im SIAMUS-Projekt wurden verschiedene neuartige Zerlegungstechniken für Audiodaten entwickelt. Eines dieser Verfahren zerlegt beispielsweise eine Musikaufnahme in drei mid-level Komponenten, die zu den harmonischen, den perkussiven und den rauschartigen Klanganteilen der Aufnahme korrespondieren. Diese und weitere Zerlegungstechniken wurden dann verwendet, um neuartige Verfahren für Aufgabenstellungen aus den Bereichen der digitalen Audiosignalverarbeitung und des Music Information Retrievals zu entwickeln, beispielsweise zum Time-Stretching, zur Abtrennung der Singstimme aus polyphonen Musikaufnahmen, zur Analyse von Vibrato und für das Audio-Mosaicing. Weiterhin wurden erste, auf Deep Learning basierende Ansätze zur Hervorhebung von Melodie- und anderen Instrumentalstimmen erforscht. Als ein weiterer wichtiger Beitrag von praktischer Relevanz wurden mehrere prototypische Benutzerschnittstellen und Werkzeuge zur Analyse, Modifikation, Editierung und Synthese von Musikaufnahmen entwickelt und für unterschiedliche Anwendungen eingesetzt.

Projektbezogene Publikationen (Auswahl)

 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung