Verarbeitung großer Datenmengen in Ontologien mittels Abstraktion und Verfeinerung
Zusammenfassung der Projektergebnisse
Ontologie-basierter Datenbankzugriff (OBDZ) ist ein zunehmend populäres Paradigma im Bereich der logik-basierten Wissensrepräsentation und in Informationssystemen. Unter einer Ontologie versteht man dabei eine Kombination aus einer TBox mit anwendungsspezifischem Hintergrundwissen und einer ABox mit Fakten über Elemente der Anwendungsdomäne. Das Hintergrundwissen dient der Anreicherung und Integration der meist großen, unvollständigen und heterogenen Datenbestände mittels maschinellem Schlussfolgern. Zahlreiche Daten aus Wikipedia liegen z.B. in maschinenlesbarer Form vor und stellen, angereichert durch das Hintergrundwissen aus einer TBox, eine wichtige Informationsquelle für viele Anwendungen dar. Ein typischer Ansatz zum maschinellen Schlussfolgern in diesem Kontext ist die Materialisierung, d.h. alle ableitbaren Konsequenzen werden explizit zu den Daten hinzugefügt, bevor Anfragen an das System gestellt werden können. Für große ABoxen kann die Materialisierung allerdings mehrere Stunden dauern. In dem nun beendeten Projekt wurde ein neuer Ansatz für die Materialisierung entwickelt, in dem die Materialisierung nicht direkt auf den (meist großen) Eingabedaten berechnet wird, sondern auf einer kleineren "Abstraktion" der Daten. Für die Abstraktion wurden Kriterien definiert unter denen Individuen der ABox als äquivalent betrachtet werden. Solche äquivalenten Individuen werden dann durch ein repräsentatives Individuum in der Abstraktion dargestellt. Wenn die TBox im Vergleich zur ABox klein ist (was im OBDZ Szenario typischerweise der Fall ist), kann die Materialisierung der kleinen Abstraktion effizient im Hauptspeicher berechnet werden. Je nach Ausdrucksstärke der in der TBox verwendeten Logik, können durch das Ableiten neuer Konsequenzen bisher nicht unterscheidbare Individuen unterscheidbar werden. Um dies zu berücksichtigen, wird die initiale Abstraktion in einem iterativen Prozess bis zu einem Fixpunkt verfeinert. Die erarbeiteten Ergebnisse sind integriert in das Produkt ‘GraphScale’ eines externen Anbieters. Weiterhin sind die Projektideen in Form eines repräsentativen Caches in das Schlussfolgerungssystem Konclude integriert. Zusammenfassend lässt sich sagen, dass das nun beendete Projekt die effektive und effiziente Nutzung der immer größer werdenden Datenmengen unterstützt, indem bestehende Technologien aus dem Bereich der Datenbanken mit neuen ontologie-basierten Verfahren kombiniert wurden.
Projektbezogene Publikationen (Auswahl)
-
EP2966600. Abstraction refinement for scalable type reasoning in ontology-based data repositories
Birte Glimm, Yevgeny Kazakov, Trung Kien Tran, Thorsten Liebig, and Vincent Vialard
-
Ontology materialization by abstraction refinement in Horn SHOIF. In Proceedings of the 29th International Workshop on Description Logics (DL 2016), volume 1577 of CEUR Workshop Proceedings. CEUR-WS.org, April 2016
Birte Glimm, Yevgeny Kazakov, and Trung-Kien Tran
-
Scalable reasoning by abstraction beyond DL-Lite. In Magdalena Ortiz and Stefan Schlobach, editors, Proceedings of the 10th International Conference on Web Reasoning and Rule Systems (RR 2016), volume 9898 of Lecture Notes in Computer Science, pages 77–93. Springer-Verlag, 2016
Birte Glimm, Yevgeny Kazakov, and Trung-Kien Tran
-
Incremental materialization update via abstraction refinement. In Proceedings of the 30th International Workshop on Description Logics (DL 2017), volume 1879 of CEUR Workshop Proceedings. CEUR-WS.org, 2017
Markus Brenner and Birte Glimm
-
Ontology materialization by abstraction refinement in Horn SHOIF. In Proceedings of the 31st AAAI Conference on Artificial Intelligence (AAAI 2017), pages 1114–1120. AAAI Press, February 2017
Birte Glimm, Yevgeny Kazakov, and Trung-Kien Tran
-
Embracing change by abstraction materialization maintenance for large aboxes. In Proceedings of the 27th International Joint Conference on Artificial Intelligence and the 23rd European Conference on Artificial Intelligence (IJCAI-ECAI 2018). AAAI Press, 2018
Markus Brenner and Birte Glimm