Detailseite
Projekt Druckansicht

Generative Transformer-Modelle für die kartografische Generalisierung von Vektordaten unter Einbeziehung räumlich-semantischer Kontextinformationen (Cart2Former)

Fachliche Zuordnung Geodäsie, Photogrammetrie, Fernerkundung, Geoinformatik, Kartographie
Förderung Förderung seit 2026
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 577232574
 
Die kartografische Generalisierung zielt darauf ab, Karteninhalte unter Berücksichtigung kognitiver Aspekte sowohl räumlich als auch semantisch zu optimieren. Ihre Prozesse und Operatoren lassen sich jedoch nur schwer formalisieren und algorithmisch umsetzen. Gleichzeitig eröffnet die Verfügbarkeit großer Datenmengen neue Möglichkeiten, Generalisierungsvorgänge mithilfe künstlicher Intelligenz, insbesondere durch tiefe neuronale Netze, zu erlernen. Im Projekt werden generative Transformer-Modelle entwickelt und darauf trainiert, kartografische Generalisierungsvorgänge für die Vektorrepräsentation von Kartendaten zu bewältigen. Dafür werden spezifische Operatoren zur Merkmalsextraktion, Positions-, Struktur- und Kontextkodierungen sowie adaptive Pooling-Mechanismen untersucht und weiterentwickelt. Auf dieser Basis entstehen Transformer-Blöcke, die eine hierarchische Merkmalsextraktion unmittelbar aus den Geometriekoordinaten erlauben und dadurch eine effiziente Einbettung der Eingaben ermöglichen. Diese Blöcke bilden die Grundlage für den Entwurf von Transformer-Architekturen, die generative Modelle für zentrale Generalisierungsvorgänge wie Formsimplifizierung, Objektaggregation und Verdrängung bei räumlichen Konflikten für polygon- und polylinienhafte Geometrien sowie für die Ausdünnung von Netzdaten ermöglichen. Besonderes Augenmerk liegt auf autoregressiven Ansätzen, die Geometrien sequenziell erzeugen und dadurch auf vorherigen Schritten aufbauen. Dies erleichtert die Wahrung von Formcharakteristika und Symmetrien. Räumliche und semantische Kontextinformationen werden dabei explizit einbezogen. Darüber hinaus wird untersucht, wie sich die Transformer-Modelle selbstüberwacht auf großen Mengen vektorbasierter Kartendaten vortrainieren lassen, um ihre Übertragbarkeit zu erhöhen. Auf diese Weise entstehen Modelle, die für verschiedene nachgelagerte Aufgaben einsetzbar sind, ohne auf umfangreiche, annotierte Datensätze angewiesen zu sein.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung