Detailseite
Beiträge zur rechnergestützten Musikwissenschaft durch semi- und unüberwachtes Lernen zur Annotation und Segmentierung großer Musikarchive (ACMus)
Antragsteller
Professor Dr.-Ing. Karlheinz Brandenburg, seit 12/2018
Fachliche Zuordnung
Elektronische Halbleiter, Bauelemente und Schaltungen, Integrierte Systeme, Sensorik, Theoretische Elektrotechnik
Musikwissenschaften
Musikwissenschaften
Förderung
Förderung von 2018 bis 2023
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 403542342
Enorme Fortschritte in den Informations- und Kommunikationstechnologien im Laufe der letzten Jahrzehnte haben viele Forschungs- und Entwicklungsprojekte zur Digitalisierung und zum Erhalt des kulturellen Erbes angeregt und begünstigt. Hierdurch wurde die Verfügbarkeit kultureller Inhalte einerseits stark verbessert, gleichzeitig müssen jedoch neue Herausforderungen wie Langzeitzugriff auf Informationen, Nachhaltigkeit sowie der rasant ansteigende Umfang an Daten adressiert und bewältigt werden. Insbesondere für die Verwaltung des musikalischen Erbes werden automatische Verfahren zur semantischen Informationsgewinnung benötigt, welche musikalische Elemente wie Rhythmus, Harmonie, Melodie, musikalische Texture und Klangfarbe berücksichtigen. Diese Verfahren erlauben die Untersuchung sehr großer Datenbestände und haben dadurch das Potential, musikwissenschaftliche Forschung zu unterstützen und effizienter zu gestalten, z.B. durch großformatige Datenverarbeitung und –visualisierungen, welche bis heute so nicht möglich sind.Das Ziel dieses Projektes ist die Entwicklung von semi- und unüberwachten Verfahren zur Musikinformationsgewinnung (Music Information Retrieval) zur automatischen Annotation von Musikarchiven. Hierbei liegt der Fokus insbesondere auf der Unterscheidung von Musik, Sprache und Gesangsstimme sowie der Erkennung der Musikinstrumentenbesetzungen des musikalischen Metrums und der Tonsystem.Das Arbeitsprogram verbindet und adaptiert semi- und unüberwachte Verfahren aus den Bereichen Musikstrukturanalyse, akustische Umweltszenenklassifikation sowie bisherige Arbeiten zur Analyse von Stimmung und Intonation; Musikinstrumentenklassifikation und –parametrisierung; Sprach-Musik-Unterscheidung und Gesangsstimmenerkennung.Die folgenden Forschungsergebnisse werden in diesem Projekt erwartet:- Entwicklung effizienter und zuverlässiger maschineller Lernverfahren zur automatischen Segmentierung und Klassifikation von Musikdaten bezüglich Instrumentenbesetzungen, Metrum, Tonalität, Sprach-Musik-Charakteristik, welche eine automatisierte Analyse von großen Musiksammlungen mit nur geringen manuellen Korrekturen erlaubt- Anwendung dieser Verfahren zur Verbesserung der Arbeitsabläufe musikwissenschaftlicher Analysen sowie abschließende Validierung durch interdisziplinäre Kooperation mit musikwissenschaftlichen InstitutionenDurch die stark interdisziplinäre Natur des Forschungsvorhabens setzt sich das Projektteam aus Forschern der Bereiche Digitale Signalverarbeitung, Maschinelles Lernen, Music Information Retrieval sowie Musik und Musikwissenschaft zusammen. Das Projekt wird bilateral als Kooperation zweier deutscher Forschungseinrichtungen (Fraunhofer Institut für Digitale Medientechnologie IDMT und Technische Universität Ilmenau) sowie zweier kolumbianischen Universitäten (Universidad de Antioquia und Universidad Pontificia Bolivariana) durchgeführt.
DFG-Verfahren
Sachbeihilfen
Ehemalige Antragstellerin
Dr.-Ing. Estefanía Cano Cerón, bis 12/2018