Project Details
Projekt Print View

Score-Informed Audio Parameterization of Music Signals

Subject Area Image and Language Processing, Computer Graphics and Visualisation, Human Computer Interaction, Ubiquitous and Wearable Computing
Term from 2013 to 2017
Project identifier Deutsche Forschungsgemeinschaft (DFG) - Project number 250692544
 
Final Report Year 2017

Final Report Abstract

Musiksignale sind typischerweise komplexe Klanggemische, die sich aus der Überlagerung von einzelnen, miteinander interagierenden Instrumentalstimmen ergeben. Sogar der Klang eines einzelnen Instruments kann sich bereits aus vielen unterschiedlichen Klangkomponenten zusammensetzen, zum Beispiel aus harmonischen, perkussiven, rauschartigen und transienten Anteilen. Diese Komplexität macht die automatisierte Verarbeitung von Musiksignalen, etwa fur Aufgabenstellungen wie Time-Stretching (Stauchung oder Streckung der Lange einer Musikaufnahme) oder Quellentrennung (Zerlegung einer Musikaufnahme in Anteile die zu den einzelnen Instrumentalstimmen korrespondieren), zu einem äußerst schwierigen Problem. Im SIAMUS-Projekt sollte die Verarbeitung, Zerlegung und Parameterisierung von komplexen Musikaufnahmen dadurch erleichtert werden, dass strukturelle, akustische, oder musikalische Zusatzinformationen (z. B. spezifiziert über eine Notentextdarstellung) hinzugezogen werden sollten. Eine Kernidee, die sich systematisch durch das SIAMUS-Projekts zieht, bestand darin, die Aufnahme zunächst in mehrere mid-level Klangkomponenten zu zerlegen und diese Teilsignale anschließend separat weiterzuverarbeiten. Da die extrahierten Komponenten gewisse, von der Zerlegungstechnik vorgegebene Eigenschaften haben, lassen sich für deren Verarbeitung oft spezialisierte Techniken verwenden. Im SIAMUS-Projekt wurden verschiedene neuartige Zerlegungstechniken für Audiodaten entwickelt. Eines dieser Verfahren zerlegt beispielsweise eine Musikaufnahme in drei mid-level Komponenten, die zu den harmonischen, den perkussiven und den rauschartigen Klanganteilen der Aufnahme korrespondieren. Diese und weitere Zerlegungstechniken wurden dann verwendet, um neuartige Verfahren für Aufgabenstellungen aus den Bereichen der digitalen Audiosignalverarbeitung und des Music Information Retrievals zu entwickeln, beispielsweise zum Time-Stretching, zur Abtrennung der Singstimme aus polyphonen Musikaufnahmen, zur Analyse von Vibrato und für das Audio-Mosaicing. Weiterhin wurden erste, auf Deep Learning basierende Ansätze zur Hervorhebung von Melodie- und anderen Instrumentalstimmen erforscht. Als ein weiterer wichtiger Beitrag von praktischer Relevanz wurden mehrere prototypische Benutzerschnittstellen und Werkzeuge zur Analyse, Modifikation, Editierung und Synthese von Musikaufnahmen entwickelt und für unterschiedliche Anwendungen eingesetzt.

Publications

 
 

Additional Information

Textvergrößerung und Kontrastanpassung