Detailseite
Resampling-basierte Inferenz für kausale Effektschätzer in Ereigniszeitanalysen
Antragstellerinnen / Antragsteller
Professor Dr. Jan Beyersmann; Professorin Dr. Sarah Friedrich-Welz
Fachliche Zuordnung
Epidemiologie und Medizinische Biometrie/Statistik
Förderung
Förderung seit 2020
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 439942859
Kausale Schlussfolgerungen aus Daten zu ziehen, wird immer wichtiger, nicht nur im Zusammenhang mit wachsenden Datenbanken und daher zunehmender Verwendung von Beobachtungsdaten, sondern auch bei randomisierten kontrollierten Studien, bei denen die Analysen häufig für (trotz Randomisierung) unausgewogene Kovariaten oder zeitlich veränderliche Exposition adjustiert werden müssen. Letztere ergeben sich z. B. aufgrund mangelnder Einhaltung des Studienprotokolls. Noch komplexer ist die Situation, wenn die Zielgröße eine Ereigniszeit ist, die möglicherweise konkurrierenden Risiken unterliegt. In der ersten Phase des Projekts haben wir verschiedene Resampling-Schemata für die Schätzung von Konfidenzintervallen und Konfidenzbändern des durchschnittlichen Behandlungseffekts in einem Szenario mit konkurrierenden Risiken und rechtszensierten Beobachtungen untersucht. Ziel dieses Fortsetzungsantrags ist es, die Ergebnisse in mehrere Richtungen zu erweitern: Erstens hat die Frage der Links-Trunkierung in der Literatur zur kausalen Inferenz bisher wenig Beachtung gefunden. Links-trunkierte Daten spielen jedoch in verschiedenen Szenarien eine Rolle, z.B. im Kontext von Schwangerschaftsstudien oder beim Wechsel der Zeitskala zu Alter oder Kalenderzeit. Zweitens ist ein gängiger Ansatz in der kausalen Inferenz das Matching, z.B. auf Grundlage von Propensity Scores. Da dies zu abhängigen Daten führt, ist der nichtparametrische Bootstrap nicht mehr gültig, aber Wild-Bootstrap-Ansätze können immer noch funktionieren, wie bereits in Situationen mit kontinuierlicher oder binärer Zielgröße gezeigt wurde. Drittens ergibt sich eine kompliziertere Situation, wenn zeitabhängiges Confounding vorliegt. Wir werden auch in diesem Zusammenhang Methoden entwickeln und dabei landmark-Ansätze untersuchen sowie frühere Arbeiten zu exposure density sampling und nested exposure case-control sampling erweitern. Alle Methoden werden durch die Bereitstellung von R-Code für ein breites wissenschaftliches Publikum zugänglich sein. Dies erhöht sowohl die Transparenz als auch die Replizierbarkeit der veröffentlichten Simulationsergebnisse. Um darüber hinaus die Aussagekraft der Ergebnisse zu erhöhen, werden wir simulierte Daten durch empirische Studien basierend auf realen Daten ergänzen.
DFG-Verfahren
Sachbeihilfen