Detailseite
Projekt Druckansicht

Daily HUME: Daily Homogenization, Uncertainty Measures and Extremes (Homogenisierung täglicher Daten, Fehlermaße und Extreme)

Antragsteller Dr. Victor Venema
Fachliche Zuordnung Physik und Chemie der Atmosphäre
Förderung Förderung von 2014 bis 2017
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 259061279
 
Der Klimawandel hat nicht nur Einfluss auf die langjährige Durchschnittstemperatur, sondern kann auch zu Änderungen in der statistischen Verteilung und somit in der Häufigkeit von Wetterextremen führen. Die Kenntnis der vollständigen äufigkeitsverteilungen ist notwendig, da z.B. Hitze- und Kältewellen für einen beträchtlichen Anteil wetterbedingter Krankheits- und Todesfälle verantwortlich sind. Zur Untersuchung von Wetter- und Klimaextremen werden Daten mit täglicher Auflösung benötigt. Meteorologische Messreihen enthalten jedoch zahlreiche Effekte, die nicht klimabedingt sind, z.B. Inhomogenitäten durch Umzüge der Messstationen und den Einsatz neuartiger Wetterhütten oder Messinstrumente. Auch solche Veränderungen beeinflussen nicht nur den Mittelwert, sondern die gesamte statistische Verteilung. Um die Aussagekraft der global verfügbaren Messreihen zu erhöhen, soll eine automatische Homogenisierungsmethode entwickelt werden, die die gesamte statistische Verteilung täglicher Temperaturmessungen korrigiert. Die technische Durchführung der Homogenisierung wird hierbei als allgemeines Optimierungsproblem betrachtet zu dessen Lösung ein genetisches Suchverfahren verwendet wird. Hiermit wird es möglich, ganze Netzwerke von Temperaturstationen gleichzeitig zu homogenisieren, sodass mehr Inhomogenitäten mit höherer Sicherheit detektiert werden können. Die Homogenisierung der Tageswerte wird nicht direkt, sondern auf der Basis monatlicher Indices durchgeführt. Auf diese Weise kann man auf die bereits ausgereiften Techniken der monatlichen Verfahren zurückgreifen und für die tägliche Homogenisierung nutzen. Mithilfe des Optimierungsverfahrens lässt sich darüber hinaus die optimale Zeitskala der Korrektur objektiv und direkt bestimmen; ob also am besten jährlich (alle zwölf Kalendermonate erhalten dieselbe Korrektur), halbjährlich, saisonal oder monatlich korrigiert wird. Mit dem entwickelten Verfahren sollen die Daten der International Surface Temperature Initiative homogenisiert werden. Aufgrund des Umfangs dieses globalen Datensatzes ist es unabdingbar, dass ein automatisches Verfahren zur Verfügung steht. Zur Validierung des Verfahrens wird ein Datensatz mit künstlichen Inhomogenitäten erzeugt. Damit diese realistisch sind, ist ein besseres Verständnis der Natur der Inhomogenitäten täglicher Daten erforderlich. Aus diesem Grund sollen Parallelmessungen, die am selben Ort unter verschiedenen experimentellen Bedingungen durchgeführt wurden, gesammelt und ausgewertet werden, um mit ihrer Hilfe den Effekt geänderter Messanordnungen auf die Häufigkeitsverteilung zu analysieren. Schließlich sollen die Fehler bestimmt und untersucht werden, die aufgrund verbleibender Inhomogenitäten auch nach der Korrektur in den Daten vorhanden sein werden. Sie können zum einen benutzt werden, die Genauigkeit des Homogenisierungsverfahrens weiter zu verbessern. Zum anderen sind Fehlermaße aber auch als solche für die Nutzer der homogenisierten Daten unverzichtbar.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung