Detailseite
ANtiDOTE: Echtzeitanalyse von Informationsausbreitung zur Bestimmung von Vertrauenswürdigkeit und Relevanz
Antragsteller
Professor Dr. Peter M. Fischer
Fachliche Zuordnung
Datenmanagement, datenintensive Systeme, Informatik-Methoden in der Wirtschaftsinformatik
Förderung
Förderung seit 2017
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 325007547
Moderne soziale Medien wie Twitter oder Facebook umfassen einen signifikanten, immer größeren Anteil der Bevölkerung, welches diese Medien nutzt, um Nachrichten auszutauschen. Durch ihre weitreichende Abdeckung der Welt und die schnellen Reaktionszeiten fungieren die sozialen Medien als "sozialer Sensor" und haben darüber hinaus noch einen messbaren Einfluss auf die reale Welt. Während zur Erkennung von Ereignissen und Trends bereits skalierbare Verfahren entwickelt wurden, müssen die Relevanz und die Vertrauenswürdigkeit von Nachrichten aufwändig durch manuelle Überprüfung festgestellt werden. Ein wichtiger Aspekt einer solchen Überprüfung ist das Verständnis der Ausbreitungswege. Solche Informationen sind z.B. im Onlinejournalismus relevant, um a) zu verstehen, woher Information stammt und wie diese den Journalisten erreicht hat b) wen Information, die der Journalist publiziert in welcher Form erreicht und c) in welcher Form sich die Information ausbreitet. Bestehende Arbeiten zur Analyse der Ausbreitungswege beruhen auf komplexen Modellen mit aufwändigen Berechnungen, wodurch sie zur Analyse großer Datenmengen in Echtzeit ungeeignet sind. Ziel dieses Antrags ist es, Algorithmen und Systeme zu entwickeln, um die massive Ausbreitung von Informationen in hoher Geschwindigkeit in sozialen Medien nachzuvollziehen. Der Ergebnisse dieser Analysen werden dann zur Bestimmung der Vertrauenswürdigkeit eingesetzt und mit bestehenden, aufwändigen Verfahren verglichen. Wir haben drei wichtige Bausteine identifiziert, die wir für ein solches System erforschen: 1) Das Design, die Umsetzung und die Bewertung von Algorithmen und System, welche die Ausbreitung von Information und die Bestimmung von Einfluss im großen Maßstab durchführen können. Mit Hilfe dieser Ausbreitungs-"provenance", können die Benutzer die Vertrauenswürdigkeit und Relevanz von Information bestimmen. 2) Vorhersagen über die verbleibende Dauer der Informationsausbreitung. Damit können Einschätzungen getroffen werden, welche Nachrichten weiter beobachtet werden sollten, wie vollständig die Ausbreitung ist und - mit Hilfe der zeitlichen Verteilung (die andernfalls nur unvollständig vorliegt) - wie vertrauenswürdig die Nachricht ist. 3) Eine Berechnung der Glaubwürdigkeit von Benutzern, die aufgrund der Datenmenge und Datenraten inkrementell erfolgt. Dabei werden Scores sowohl für Vertrauen als auch Misstrauen bestimmten und diese dann so gruppiert, dass eine möglichst stabile Zuordnung möglich ist. Zahlreiche technische Herausforderungen müssen gelöst werden, um mit geringer Wartezeit Antworten von den dazu notwendigen iterativen Algorithmen zu erhalten. Datenströme mit hohen Datenraten und Volumina müssen mit massiven Graphen korreliert werden, wobei Zugriffe mit geringer Latenz notwendig sind. Als Lösungsansatz für diese Herausforderungen untersuchen wir sowohl eine neuartige Architektur als auch Strategien zur Graphpartitionierung.
DFG-Verfahren
Sachbeihilfen