Detailseite
Feinabgestufte Bewertung und Modellierung der visuellen Qualität hochqualitativ komprimierter Bilder
Antragsteller
Dr. Mohsen Jenadeleh
Fachliche Zuordnung
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung
Förderung seit 2022
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 496858717
Jüngste Fortschritte in der Bildkompression, -speicherung und -wiedergabe ermöglichen den Einsatz hochqualitativer visueller Inhalte in professionellen und alltäglichen Anwendungen. Moderne Codecs wie JPEG XL, AVIF und Machinelearningansätze wie JPEG AI zielen auf eine hohe visuelle Qualität ab, wobei feine Bilddetails essenziell ist. Daraus ergibt sich ein Bedarf an präziser Quantifizierung feingranularer Qualitätsunterschiede, insbesondere im Bereich der „gerade noch wahrnehmbaren Unterschiede” (Just Noticeable Difference, JND). Dies ist insbesondere für Modelle relevant, die Qualitätsmetriken als Zielfunktionen während des Trainings nutzen. Die zuverlässige Erfassung subtiler Qualitätsunterschiede stellt eine große Herausforderung dar. Gängige Modelle zur Bildqualitätsbewertung (Image Quality Assessment, IQA) werden überwiegend anhand subjektiver Daten, die etwa mittels Absolute Category Rating (ACR) auf ordinalen Skalen bewertet wurden, entwickelt und validiert. Diese Methoden erkennen auffällige Artefakte zuverlässig, bieten jedoch nicht die notwendige Auflösung zur Bewertung feiner Unterschiede. Zudem erzeugen machinelearningbasierte Kompressionsverfahren neuartige Artefakte, die sich grundlegend von denen klassischer Codecs unterscheiden. Diese sind in bestehenden IQA-Datensätzen meist unterrepräsentiert und werden von aktuellen Methoden nicht zuverlässig erkannt. Einzelne Datensätze auf Basis von Paar- oder Tripelvergleichen adressieren diese Lücke, sind jedoch begrenzt in ihrem Umfang und der Codecdiversität. Bestehende Methoden scheitern häufig an einer realistischen Modellierung der Bewertungsverteilung. In diesem Projekt werden wir ein zuverlässigeres subjektives Modell für Tripelvergleichsdaten entwickeln, indem wir Beobachter-, Stimulus- und Codec-Variabilität hierarchisch modellieren und Unentschieden sowie Fehlreaktionen einbeziehen. Wir werden Stichprobenstrategien evaluieren, um Annotierungskosten zu senken und dennoch präzise Schätzungen feinkörniger Beeinträchtigungen auf der JND-Skala zu ermöglichen. Wir werden einen großen, vielfältigen, per Crowdsourcing erhobenen IQA-Datensatz mit Bildern aus konventioneller und lernbasierter Kompression erstellen, um Benchmarking und die Entwicklung objektiver Verfahren, insbesondere eigener Deep-Learning- Modelle, für feinkörnige IQA zu unterstützen. Wir werden die Reproduzierbarkeit von HDR-IQA-Ergebnissen aus vollständig kontrollierten Laborumgebungen mit kalibrierten HDR-Displays untersuchen, indem wir sie mit Ergebnissen aus teilweise kontrollierten Umgebungen mit HDR-fähigen Displays und aus Crowdsourcing- Experimenten mit tonegemappten Inhalten vergleichen. Wir werden ferner prüfen, ob mehrdimensionale Repräsentationen der Bildqualität die beobachteten Tripelantworten besser erklären als eindimensionale Modelle. Die Ergebnisse dieses Projekts werden internationale Standardisierungsaktivitäten, insbesondere JPEG AIC-4, unterstützen, um objektive IQA-Metriken für feinkörnige Qualität.
DFG-Verfahren
Sachbeihilfen
Internationaler Bezug
Großbritannien, Japan, Portugal, Schweiz
