Detailseite
Community-Basiertes Fakten-Checking zur Stärkung von Vertrauen und Transparenz
Antragsteller
Professor Dr. Nicolas Pröllochs
Fachliche Zuordnung
Datenmanagement, datenintensive Systeme, Informatik-Methoden in der Wirtschaftsinformatik
Förderung
Förderung seit 2026
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 570600893
Community-basiertes Fakten-Checking in sozialen Medien ist ein innovativer Ansatz, der darauf abzielt, weniger auf externe Faktencheck-Organisationen angewiesen zu sein. Stattdessen wird die kollektive Intelligenz der Nutzer genutzt: Sie tragen Fakten-Checks in Form von "Community Notes“ bei und stimmen über die Richtigkeit anderer Einschätzungen ab. Die hilfreichsten Beiträge werden direkt zusammen mit dem ursprünglichen Post angezeigt und liefern den Lesern zusätzlichen Kontext zur Meinungsbildung. Bislang wurde dieses Modell nur auf einer großen Social-Media-Plattform vollständig realisiert – Community Notes auf X. Andere Unternehmen wie Meta und YouTube arbeiten jedoch aktiv an der Entwicklung ähnlicher Funktionen für ihre Plattformen. Erste Studien belegen, dass Community Notes zur Eindämmung von Falschinformation beitragen können und bei Nutzern auf relativ großes Vertrauen stoßen. Dennoch sind zentrale Fragen unbeantwortet. So ist beispielsweise die Langzeitstabilität des Systems bisher nicht ausreichend erforscht. Zudem gibt es Bedenken, ob es gegenüber gezielter Manipulation – etwa durch koordinierte Falschbewertungen – ausreichend robust ist. Auch das Thema Transparenz ist entscheidend: Wie lässt sich der Faktencheck-Prozess so darstellen, dass Nutzer ihn verstehen, ihm vertrauen und gleichzeitig zu kritischer Reflexion angeregt werden? Das CLARITY-Projekt widmet sich diesen offenen Herausforderungen aus algorithmischer und nutzerzentrierter Perspektive. Ziel ist es, wirksame Strategien für die Umsetzung von community-basiertem Fakten-Checking zu erforschen, transparente Verfahren zu entwickeln und Best Practices für die Darstellung von Faktenchecks zu identifizieren, die Vertrauen fördern und zur aktiven Auseinandersetzung mit Inhalten anregen. Darüber hinaus wird das Potenzial dieses Ansatzes in weiteren Anwendungsfeldern untersucht – etwa bei der Erkennung von Hassrede und anderen Formen schädlicher Inhalte im Internet.
DFG-Verfahren
Sachbeihilfen
Internationaler Bezug
Luxemburg
Kooperationspartner
Professor Gabriele Lenzini, Ph.D.
