Contents

Dieser Text: Short Paper (4 Seiten A4) mit Vorstellung als Poster, Track: Vorstellung und Diskussion einer aktuellen offenen Forschungsfrage.

Übergreifender Forschungskontext: Verhältnis von menschlichem vernunftbasierten Denken und formalen Modellen: Welches Denken wollen und können wir formalisieren, und welches Denken wollen wir Menschen überlassen – auch wenn man ein formales Begriffmodel finden könnte. Im Kontext der Wirtschaftsinformatik verstehen wir im Diskursbereich Linked Open Government Data (LOGD) unter einem Logik-System inbesondere auch ein auf Semantic Web Technologien basierende formales Begriffssystem (Ontologie). Die Metadatenbank GovData.de basiert auf dem W3C Standard https://www.dcat-ap.de/, der Teile der Spec als Ontologie ausdrückt. Hevner (2007, SEITE) beschreibt die Entwicklung eines Begriffssystems als eine genuine Gestaltungsaufgabe im Rahmen der Design Science Research. Die Bewertung von formal notierten Begrifssystemen lässt sich auch als abduktives Schließen im Sinne der Suche nach einer besten Erklärung interpretieren.

Unser Erkenntnisinteresse lautet: Wie können uns Logiksysteme unterstützen, handhabbare, verstehbare, erklärbare Logiksysteme zu gestalten? Wir stellen eine Idee in einem frühen Stadium des Forschungsprozesses vor, wie man mit Hilfe von Semantic Web Inferencing Technologien abduktives Schließen unterstützen kann.

Anwendungsbeispiel. Das auf den functional requirements for bibliographic records (FRBR) \cite{ifla2009-frbr-de} basierende bibliographische Metadatenmodell IFLA LRM (\cite{riva2017-IFLA-LRM-EN}), das auch der in der BRD normativ verwendeten Norm RDA \cite{possemato2018-RDA} zugrundeliegt, definiert in seinem Modell für die systematische Dokumentation u.A. auch von Linked Open Data vier Hauptklassen (in Fachkreisen bekannt unter WEMI): “LRM-E2 Work: The intellectual or artistic content of a distinct creation” “LRM-E3 Expression: A distinct combination of signs conveying intellectual or artistic content”; “LRM-E4 Manifestation: A set of all carriers that are assumed to share the same characteristics […]”; “LRM-E5 Item: An object or objects carrying signs intended to convey intellectual or artistic content” \cite[21ff]{riva2017-IFLA-LRM-EN}. Diese Definitionen sind in der Spec jeweils explizit annotiert: “Constraints: The entities work, expression, manifestation, item are disjoint” (ebd, Herv. JB). Diese Disjointness ist in der zugehörigen LRM-Ontologie mit owl:disjointWith formal ausgedrückt.

Hier Diskussion von Disjointness, ist aber verallgemeinerbar auf erklärungsbedürftigere OWL Konstrukte wie domain, range und restrictions … Disjointness ist auch ontologisch am interessantesten: Analytische Unterscheidungen sind der Kern von Wissenschaft … Grundlegend Aristoteles: Dinge werden klassifiziert durch einen gemeinsamen Oberbegriff (genus proximum) und einen spezifischen Unterschied (differentia specifica) … eine Ontologie lässt sich verstehen als eine Systematik von Unterschieden, die einen Unterschied machen.

Unsere Kernfrage lautet im Anwendungsbeispiel: Wollen wir die paarweise Disjointness der Klassen LRM-E2, E3, E4 und E5 tatsächlich in das formale Begriffsmodell ausdrücken, um es einem wohldefinierten und effizienten Inferencing-System übergeben zu können? Oder wäre es besser, die Disjointness in einer anderen, ggf. weniger formalen Modellierungssprachen oder sogar in normaler Sprache auszudrücken, und mit der Disjointness verbundene Prozesse durch heuristisch programmierte Algorithmen oder „nur“ durch menschliches Denken abzuarbeiten – und dabei durchaus wieder auf das jetzt disjointness-freie formale Begriffsmodell zurückgreifen zu können?

Wir wollen diese Frage anhand einer didaktischen Minimalontologie in einem ipynb-Notebook operationalisierbar machen. Dazu axiomatisieren zwei Mengen :X und :Y als disjoint, asserten aber eine Instanz :xy aber als Element beider Mengen:

@prefix : <http://example.org/#> .
@prefix owl: <http://www.w3.org/2002/07/owl#> .
:X a owl:Class .
:Y a owl:Class .
:X owl:disjointWith :Y .
:xy a :X, :Y . 

OWL ist als Entailment-Sprache nur bedingt für die Überprüfung von Constraints geeignet; genau eine solche ist aber in der zitierten IFLA-LRM Spec explizit gefordert. Die formale OWL-Semantik unseres Minimal-Beispiels wäre einfach nur ein wenig hilfreiches “unerfüllbar”. Fehlermeldungen, die über ein blankes “unerfüllbar” hinausgehen, sind in der formalen Semantik von OWL nicht vorgesehen. Weil sie aber wichtige Information enthalten werden sie üblicherweise von der Software wenigstens in natürlicher Sprache ausgegeben, Ziel: Kommunikation mit Menschen. Wie geht der von uns genutzte OWL-Reasoner OWLR \cite{herman2014-OwlRl} mit dieser Ontologie um? Inferencing mit owlrl 7.1.2 ergibt:

[] a err:ErrorMessage ;
    err:error "Disjoint classes http://example.org/#Y
    and http://example.org/#X
    have a common individual http://example.org/#xy" .

Eine solche Fehlermeldung ist leidlich informativ, macht aber keine Aussage über den Grund des Fehlers: Ist die Disjoint-Regel tatsächlich korrekt, und wir haben mit :xy ein empirisch fehlerhaftes Exemplar vor uns? Oder haben wir mit :xy ein tatsächlich korrektes Exemplar vor uns, das unsere Disjoint-Hypothese empirisch widerlegt? Entsprechend können wir (a) die Disjointness als formale Regel der Verantwortung des Inferencing-Systems übergeben und entsprechende Fehlermeldungen auswerten. Alternativ können wir (b) das Modell formal ohne Disjointness formulieren und die vermutete Regel mit anderen Mitteln pragmatisch untersuchen, z.B. das Inferencing-System systematisch nach Instanzen abfragen, die unsere Disjointness-Regel verletzen würden.

Im ersten Fall (a) behandeln wir die Disjointness mit formaler Logik, also dem, was überhaupt (effektiv) mit anerkanntem Wissen der formalen Logik aus einer Wissensbasis in einer inner inferencing loop formal ableitbar ist … heute DL als Teilmenge der FOL; unterschiedliche DL-Teilmengen mit unterschiedliche Ausdrucksmächtigkeit (http://www.cs.man.ac.uk/~ezolin/dl/) … keine Vollständigkeit mehr higher order logic, Modallogiken, nicht monotone Logiken, heuristische Beweissysteme; OWL full … Grenzen der formalen Ausdrucksfähigkeit … das ist Human on the inner loop … Def inferencing: deduktive, berechenbare Logik, vom Menschen gemacht und überwacht;

Im zweiten Fall (b) behandeln wir Disjointness mit vernunftbasierter Logik: Der Mensch denkt (vermeintlich) “logisch”, und interagiert dazu auch mit einem inner inferencing loop … das ist human in the outer loop: Der Mensch ist selbst in Entscheidungsprozesse involviert, insbesondere solche Aufgaben der logischen Modellierung, die durch FOL nicht effizient oder nicht effektiv abdeckbar sind … menschliche Logik geht über die Möglichkeiten formaler Logik weit hinaus, ist nicht berechenbar, nicht einmal voll verstanden – kann aber formale Logik oder andere, semiformale Notationen als Denk-Hilfsmittel nutzen.

Im Kontext der Trias Deduktion, Induktion und Abduktion \cite{douven2021-Abduction} stellt die inner inferencing loop eine Teilmenge deduktiver Logik dar: Wenn Regeln und eine Prämisse gegeben sind, kann ein Inferncingsystem daraus Schlussfolgerungen ableiten (Deduktion). Wenn dagegen Prämissen und Folgerungen gegeben sind und Regeln gesucht werden, die einen Zusammenhang herstellen (Induktion), agieren wir schon auf der Ebene der vernuftbasierten Logik. Meist gibt es sehr viele Regel-Kandidaten; geeignete Regeln zu finden und zu Gruppen von Regeln sinnvoll zusammenzustellen ist eine vernunftbasierte Aufgabe. Hier fallen typischerweise viele weitere Vernunft erfordernde Aufgaben an, die sich nicht an berechenbare Logik delegieren lassen, wie z.B. die Auswahl des Modelltyps, der Sprache und der Ausdrucksmächtigkeit des Modells – u.a. auch die Frage, wie man intuitive Vorstellung wie Disjointness handhabt. Im Ergebnis entstehen verschiedene Regelkandidaten, verschiedene mögliche Regelmengen, verschiedene Theorieentwürfe. Aus diesen für eine gebene Faktenmenge die beste Erklärung, in weiterem Sinn das beste Modell auszuwählen: Das ist dann Abduktion. Unsere Frage im Anwendungsbeispiel, ob wir Disjointness in die T-box mit aufnehmen wollen, stellt sich so dar: Disjointness zwischen einigen Klassen des Modells ist eine durch induktive Logik gewonnene mögliche Regel. Wie gewinnbringend sie sich tatsächlich in einem Gesamtmodell zusammen mit anderen Regeln erweist ist im Einzelfall unklar; darüber zu entscheiden ist eine typische abduktive Aufgabe.

Unsere einleitende erkenntnisleitende Frage “Wie können uns Logiksysteme unterstützen, handhabbare, verstehbare, erklärbare Logiksysteme zu gestalten?” wirft an unserem Disjointness Beispiel Fragen auf wie: Wie können wir inner inferencing loop und vernunftbasierte Loop so aufeinander abstimmen, dass sich Disjointness “adäquat” handhaben lässt? Was heißt “adäquat”? Konkret: Welche Rückmeldungen benötigen wir aus der inner loop, um sie im Betrieb nicht nur überwachen zu können, sondern bei Bedarf auch konstruktiv weiterentwickeln zu können?

Idee: Wir verstehen (z.B.) Disjointness nicht als eine deklarative logische Aussage, die wir im inner loop eines komplexeren Logiksystems abbilden und die zu Inkonsistenzen und Fehlermeldungen führen kann. Sondern wir verstehen Disjointness als eine Aussage über eine Regel in einem weniger komplexen Logiksystem. Die inner loop überwachen wir, indem wir die als disjoint angenommenen Klassen vor und nach dem Inferencing per SPARQL-Query auf “interessante” Instanzen entsprechender nichtleeree Schnittmengen untersuchen. Die Menge solcher interessanten Instanzen definiert aus der ursprünglichen Ontologie eine Teilmenge, die wir den Rand (en: edge) der ursprünglichen Ontologie nennen wollen. Falls die TBox der inner loop perfekt zur ABox passt, ist dieser Rand leer. Diesen Rand zu erkennen ist eine wichtige Basis für die Beurteilung einzelner Knoten unserer Taxonomie wie auch der gesamten Taxonomie. Ein leerer Rand scheint ein Idelfall zu sein; aber nur ein nichtleerer Rand bietet die Chance dazuzulernen und im vernunftbasierten Loop unsere Ontologie weiter zu entwickeln.