Abstract
In diesem Artikel stellen wir eine Methodik zur Modellierung von Vagheit in Graphen vor. Neben der Modellierung behandeln wir auch die automatisierte Generierung von implizit gespeichertem Wissen unter Berücksichtigung von Vagheit. Diese wendet Verfahren aus dem Gebiet der Beschreibungslogik auf graphbasierte Daten an. Ebenfalls präsentieren wir in diesem Artikel unsere Softwareentwicklungen, welche die beschriebene Methodik umsetzen und zeigen deren Nutzen anhand von drei Fallbeispielen in den Geistes- und Kulturwissenschaften auf.
In this article, we introduce a methodological proposal for modelling vagueness in graphs. In addition to the modelling, we also deal with the automatic generation of implicitly stored knowledge when considering vagueness. We use the ideas of algorithms designed for description logics and apply them on graph data. We also present our software development that implements the proposed methodology. We will demonstrate the use of our applications based on three use cases in humanities and cultural studies.
- 1. Einleitung
- 2. Verwandte Arbeiten
- 3. Vagheit in Graphen
- 4. Implementierung ›Academic Meta Tool‹
- 4.1 Meta-Ontologie
- 4.2 JavaScript Bibliothek
- 5. Anwendungsbeispiele
- 5.1 mainzed Expert*innen-Netzwerk
- 5.2 Töpfer-Netzwerk Südgallischer Terra Sigillata
- 5.3 Darstellungen auf archäologischen Kleinfunden
- 6. Ausblick
- 7. Danksagung
- Bibliographische Angaben
- Online-Quellen
- Abbildungslegenden und -nachweise
1. Einleitung
Graphdatenbanken und Triplestores stellen bei der Modellierung von Forschungsdaten eine Alternative zu relationalen Datenbanken dar. In den letzten Jahren entwickelten sich in den digitalen Geistes- und Kulturwissenschaften umfangreiche Communities wie Pelagios Commons, welche graphbasierte Netzwerke in Graphdatenbanken und Triplestores modellieren und Forschungsdaten zur Verfügung stellen. Im Vergleich zu einer Tabellenstruktur eignet sich eine Modellierung der Daten in einem Graphen besser um hochvernetzte Forschungsdaten interoperabel zur Verfügung zu stellen, indem man zwei Knoten aus verschiedenen Ressourcen miteinander über eine Kante verbindet. Dieser Technik bedienen sich viele Forschungsprojekte durch die Verwendung von Linked Open Data (LOD).
Dabei ist in den meisten Fällen jedoch keine Modellierung von Vagheit oder Unsicherheit möglich. Speziell in der Archäologie und hier insbesondere bei der Zuweisung von Darstellungen zu übergeordneten Konzepten tritt das Problem der Modellierung des Zweifels in hohem Maße auf. Werden zum Beispiel Motive auf Münzen oder Darstellungen auf südgallischer Terra Sigillata detektiert und gespeichert, so trifft die Übereinstimmung häufig nur zu einem gewissen Grad zu. Diese Zweifel werden traditionell und aus historischen Gründen, wie bei der Samian Research-Datenbank des Römisch-Germanischen Zentralmuseums (RGZM), in einer relationalen Tabellenstruktur gespeichert und beinhalten das Zeichen ›?‹ oder andere Kombinationen, wie beispielsweise ›15/17R or 18/31R‹. Abgesehen davon gibt es auch Bestrebungen, diese Datenbanken mittels LOD zur Verfügung zu stellen und somit auch die grundlegenden Daten transparent und nachvollziehbar bereitzustellen.
In den Digital Humanities werden zur Verschlagwortung häufig Fachthesauri und Taxonomien verwendet, die zumeist als LOD via ›Simple Knowledge Organisation System‹, kurz SKOS, im Web zur Verfügung stehen oder gestellt werden. Hierbei werden jedoch bewusst nur vage Aussagen über den Grad der Verbindung zweier Knoten zugelassen (A skos:related B) und die Transitivität eingeschränkt, da sonst ungewollte Schlussfolgerungen auftreten.
Neben der Herausforderung der Verschlagwortung spielen in den Geistes- und Kulturwissenschaften auch Personennetzwerke eine Rolle. Hier bestehen Verbindungen zwischen den jeweiligen Personen-Instanzen oft nur zu einem gewissen Grad, welche sich spezifisch semantisch modellieren lassen – zum Beispiel Verwandtheitsgrad vs. lockere Bekanntschaft. Hier bietet das Semantic Web die Friend of a Friend (FOAF) Ontologie an, in welcher der Grad der Verbindung mittels foaf:knows jedoch nur mit null- oder hundertprozentiger Intensität angegeben werden kann. Es gibt also mit FOAF keine Möglichkeit etwas über die Intensität der Beziehung aussagen zu können. Diese Modellierungen, welche zum Beispiel in Social-Media-Netzwerken (Twitter, Facebook, Instagram, etc.) genutzt werden, bieten keine adäquaten Verfahren für die Anwendung in wissenschaftlichen Personennetzwerke an.
In allen Modellierungen von Graphen, ob nun in einer Graphdatenbank oder in einem Triplestore, tritt ein wie zuvor beschrieben häufiges Problem auf: die Vagheit von Kanten bzw. Aussagen. Das bedeutet, dass eine Verbindung zwischen zwei Knoten bzw. Ressourcen nur zu einem gewissen Grad besteht. Dies ist nicht zu verwechseln mit Unsicherheit, bei der unbekannt ist, ob die Verbindung überhaupt besteht. Bei Personen-Netzwerken wäre ein Beispiel, wenn die Beziehung nicht besonders intensiv ist, es sich also subjektiv eher um eine Bekanntschaft als eine Freundschaft handelt. Sind in einem Datensatz viele Freundschaftsbeziehungen vorhanden, die aber eine unterschiedliche Intensität bedeuten, müsste man entweder alle auf gleiche Weise verknüpfen oder sehr viele verschiedene Verknüpfungen erfinden, die aber im Wesentlichen das Gleiche bedeuten.
Sowohl gängige Graphdatenbanken als auch gebräuchliche Triplestores bieten jedoch keine Möglichkeit, Unsicherheiten oder Vagheiten zu modellieren. Das ›Academic Meta Tool‹ (AMT) greift dieses Problem auf und bietet dem oder der Nutzer*in an, Kantengewichte einzufügen und darauf Inferenz unter Berücksichtigung von Vagheit vorzunehmen. AMT bietet also die Chance, sämtlichen Kanten eine Gewichtung hinzuzufügen, um dadurch die Vagheit dieser Kante auszudrücken. Eine Beziehung zwischen zwei Knoten besteht also nur zu einem gewissen Grad. Dieser Grad, d.h. das Kantengewicht, wird üblicherweise in Prozent angegeben. AMT beinhaltet zusätzlich ein Verfahren, mit dem – unter Zuhilfenahme einer vordefinierten Ontologie – aus vorhandenen graphbasierten Daten automatisch Schlussfolgerungen gezogen werden können (Reasoning).
Dieser Artikel ist wie folgt gegliedert: Zunächst stellen wir Arbeiten vor, die mit unserer Studie verwandt sind. Wir gehen ebenfalls auf ähnliche Softwarelösungen ein und grenzen diese gegenüber unserer Entwicklungen ab. Danach folgt ein einleitendes Kapitel zum Thema Vagheit in Graphen. Es fasst kurz die wichtigsten theoretischen Informationen rund um das Thema Vagheit zusammen. Im vierten Kapitel beschreiben wir die von uns entwickelte Methodik und gehen auch bereits auf mögliche Implementierungen in Form von Programmcode ein. Im fünften Kapitel präsentieren wir konkrete Web-Anwendungen und deren Einsatz in Projekten der Digital Humanities. Zum Schluss fassen wir die wichtigsten Punkte des Artikels zusammen und ziehen ein Fazit.
2. Verwandte Arbeiten
Karsten Tolle und David Wigg-Wolf[1] beschreiben in ihrer Arbeit ›Uncertainty Handling for Ancient Coinage‹ einen Vorschlag zur semantischen Modellierung von Linked Data – genauer geht es um die Beschreibung von Unsicherheiten bei der Bestimmung von Münzdarstellungen. Hier wird insbesondere die W3C Uncertainty Ontology[2] genutzt.
Die W3C Uncertainty Ontology (un) basiert darauf, dass eine Aussage (un:Sentence) mit einer Unsicherheit behaftet ist (un:Uncertainty), welche unterschiedliche Ausprägungen besitzt: un:UncertaintyType (Klassifikation der Unsicherheit, wie Ambiguity, Empirical, Vagueness, Inconsistency, Incompleteness), un:UncertaintyNature (Aleatory oder Epistemic), un:UncertaintyDerivation (Angaben, wie die Unsicherheit entstanden ist, z.B. objektiv oder subjektiv) und un:UncertaintyModel (mathematische Theorien für Uncertainty Types wie Probability oder RandomSets).
Die in den Editionswissenschaften weit verbreitete Auszeichnungssprache Text Encoding Initiative (TEI) nutzt das Element ›certainty‹ und ›precision‹ zur Beschreibung einer Unsicherheit.[3]
Aussagen oder Annotationen ohne genaue Angabe eines Grades können im Semantic Web mit der ›Open Annotation Ontologie‹ verarbeitet werden. Hier werden zwei Ressourcen über eine Annotation und Body- und Target Attributen miteinander verknüpft.[4] Die ›Pelagios Commons Initiative‹ nutzt z.B. diese Ontologie zur Verknüpfung von Datensätzen und Ressourcen des Gazetteers Pleiades.[5]
Das ›Simple Knowledge Organisation System‹, kurz SKOS, ist eine formale Sprache zur Kodierung von Schlagworten in Thesauri und Klassifikationen oder anderen kontrollierten Vokabularen mit Hilfe des Resource Description Framework (RDF) und RDFS-Schemas.[6] SKOS bietet die Möglichkeit über semantische Relationen und mapping properties vage Beziehungen zwischen skos:Concepts auszudrücken. Hierbei stellt sich jedoch das Problem der (nicht ermöglichten) Transitivität sowie die generelle Problematik ungenauer Aussagen der Relationen, die nicht quantitativ messbar und auswertbar sind:
»The property skos:related is used to assert an associative link between two SKOS concepts.«[7]
»A skos:closeMatch link indicates that two concepts are sufficiently similar that they can be used interchangeably in some information retrieval applications. A skos:exactMatch link indicates a high degree of confidence that two concepts can be used interchangeably across a wide range of information retrieval applications.«[8]
»Note that skos:related is not a transitive property.«[9]
»<A>skos:exactMatch<B>. <B> skos:exactMatch <C>. entails <A> skos:exactMatch <C> . All other SKOS mapping properties are not transitive.«[10]
Aus der SKOS Ontologie haben sich bereits einige SKOS-Editoren wie ›‹ oder ›‹ im Web etabliert. Darüber hinaus arbeitet das Mainzer Zentrum für Digitaltität in den Geistes- und Kulturwissenschaften (mainzed) an einer eigenen, für geisteswissenschaftliche Belange angepassten, Web-App: dem Labeling System[11].
Ein Beispiel für eine Erweiterung des CIDOC Conceptual Reference Model (CRM) um Attribute der Unsicherheit haben bereits Bruhn et al.[12] in ihren Arbeiten mit dem Arches Project System vorgestellt. Dabei werden die Unsicherheiten mit dem Typ E55 in den Zeitangaben, sowie die in den Fundzuweisungen modelliert.[13]
Die Behandlung von Vagheit in formal aufbereiteten Wissensbeständen, insbesondere für Beschreibungslogiken, ist bereits in einer Vielzahl an Programmen umgesetzt.[14] Eine Implementierung, die unserer sehr nahe kommt, ist die Web-Anwendung THRILL on SWISH.[15] Allerdings verwendet sie Unsicherheit statt Vagheit. Wir werden im nächsten Kapitel noch näher auf die Unterschiede zwischen diesen beiden eng verwandten Theorien eingehen.
3. Vagheit in Graphen
In diesem Kapitel stellen wir grundlegende Begriffe und Ideen zur Behandlung von Vagheit in Graphen vor. Zunächst grenzen wir den Begriff der Vagheit gegenüber dem Begriff der Unsicherheit ab. Anschließend befassen wir uns mit der Modellierung von Vagheit in graphbasierten Daten, sowie deren Verarbeitung. Dabei legen wir ein besonderes Augenmerk auf die automatisierte Generierung von implizit gespeichertem Wissen mit Hilfe von Regelwerken.
Vagheit ist ein Maß für die Präzision einer Aussage. Eine vage Aussage trifft also nur zu einem gewissen Grad zu. Trifft beispielsweise der Wetterbericht die Aussage »Morgen wird es Niederschlag geben«, so könnte morgen ein leichtes Nieseln, ein mäßiger Regen oder ein schweres Gewitter stattfinden. Abhilfe könnte hier beispielsweise die Angabe der Niederschlagsmenge leisten. Doch nicht zu verwechseln ist eine solche vage Aussage mit einer unsicheren Aussage. Bei Unsicherheit ist gänzlich unbekannt, ob die getroffene Aussage überhaupt wahr ist. Trifft der Wetterbericht beispielsweise die Aussage »Morgen regnet es mit 75 %-iger Wahrscheinlichkeit«, dann handelt es sich um eine unsichere Aussage. Sie sagt aus, dass in drei von vier Fällen die Kernaussage wahr ist, es also morgen regnet und in einem von vier Fällen falsch ist, es also morgen nicht regnet. Dubois und Prade beschreiben eine ausführlichere Klarstellung der Unterschiede zwischen Vagheit und Unsicherheit.[16] In diesem Artikel behandeln wir nur vage (und keine unsicheren) Aussagen und wir gehen davon aus, dass alle vagen Aussagen mit Werten zwischen 0 und 1 ausgedrückt werden können. Beispielsweise könnte ein schwacher Regen mit dem Wert 0.25 (25 %) zur Aussage »Morgen wird es Niederschlag geben« angegeben werden.
Vagheit kann theoretisch an verschiedenen Stellen in einem Graphen auftreten, entsprechend komplex kann auch die Speicherung von Vagheit in Graphdatenbanken werden. Der am häufigsten auftretende Fall ist die Zuordnung eines Gewichts zu einer vagen Kante, das ausdrückt, zu welchem Grad oder mit welcher Intensität die Verbindung zwischen den zwei Knoten, besteht. Man könnte analog auch andere Informationen in einem Graphen mit einem Vagheitswert versehen, zum Beispiel die Typisierung der Knoten. Wir beschränken uns hier allerdings auf die Verwendung von Vagheit als Kantengewicht, genau genommen erlauben wir sogar nur Werte zwischen 0 und 1 für die Gewichtung. Ein solches Kantengewicht kann relativ einfach in Graphdatenbanken gespeichert werden, da diese Werte nicht besonders außergewöhnlich sind. Interessanter ist allerdings die Verarbeitung der Kantengewichte, wenn regelbasiert Schlussfolgerungen getroffen werden sollen, das heißt, wenn automatisiert neue Kanten entstehen, die ebenfalls Vagheitswerte tragen.
Dazu bedienen wir uns den Techniken, die üblicherweise für Beschreibungslogiken Anwendung finden und wenden diese auf graphbasierte Daten an. Das hat den Vorteil, dass die dadurch entstehenden Graphen unmittelbar anschlussfähig an andere Ontologien und Linked Open Data sind. Eine in Aussagenlogik interpretierte Transformation einer vagen Beschreibungslogik erfolgt durch die Verwendung einer mehrwertigen Logik.[17] Der Nachteil mehrwertiger Logiken ist, dass innerhalb dieser nicht alle Gesetze der klassischen Aussagenlogik gelten können, wie zum Beispiel das Gesetz von De Morgan oder das der doppelten Negation. Da dieser Nachteil ohnehin besteht, haben wir uns entschieden, dem Benutzer unserer Software verschiedene mehrwertige Logiken anzubieten, die er beliebig kombinieren kann. Dadurch ist es möglich, jeder Regel eine individuelle Interpretation zuzuweisen. Die folgende Grafik veranschaulicht die Verknüpfung zweier vager Aussagen durch Konjunktion und Disjunktion.
Für weitere Ausführungen zum Thema Vagheit in Beschreibungslogiken verweisen wir auf das Literaturverzeichnis. Für die Verarbeitung von Vagheit in graphbasierten Datenbanken empfehlen wir insbesondere die Werke von Borzooei et al., Akram et al. und Castelltort et al..[18] Im folgenden Kapitel erläutern wir unsere Implementierungen näher.
4. Implementierung ›Academic Meta Tool‹
Nachdem wir im vorangegangenen Kapitel die theoretischen Grundlagen dargelegt haben, beschäftigen wir uns nun mit der Umsetzung unserer Überlegungen. Dabei beschreiben wir in diesem Kapitel vor allem die konzeptuellen Lösungsideen. Zunächst stellen wir die für das Academic Meta Tool entwickelte Meta-Ontologie vor. Diese Meta-Ontologie beschreibt eine Sprache zur Erstellung konkreter Ontologien für Anwendungsszenarien, stellt aber selbst kein Anwendungsszenario dar. Im Anschluss präsentieren wir die Umsetzung des Reasoning-Programms als JavaScript-Bibliothek. Auch diese Bibliothek ist kein vollständiges Programm, sondern lediglich ein Framework, das bei der Implementierung von konkreten Anwendungen für das Academic Meta Tool sehr nützlich sein kann. Die Implementierung einer Software, die direkt in Fallbeispielen eingesetzt werden kann, ist also erst Bestandteil des nächsten Kapitels.
4.1 Meta-Ontologie
Um das Academic Meta Tool zu nutzen, ist es zunächst erforderlich, eine Ontologie[19] zu entwickeln, welche das Schema und die Axiome für ein gewisses Anwendungsszenario beschreibt. Um eine solche Ontologie für das Academic Meta Tool zu erstellen, stehen bisher vier Typen von Aussagen zur Verfügung, die wir im Folgenden genauer erläutern werden. Wir demonstrieren die einzelnen Typen von Aussagen anhand einer Beispiel-Ontologie zur Modellierung von Orten, die in verschiedenen Himmelsrichtungen zueinander liegen. Außerdem ziehen wir jeweils einen Vergleich zu entsprechenden Ausdrücken in der Web Ontology Language (OWL).
Zunächst einmal ist es möglich, Kategorien für Knoten vorzugeben. Wir nennen solche Kategorien auch Konzepte. In OWL entspricht dies dem Prädikat owl:Class. Jedem Konzept kann ein Name und eine Kurzbeschreibung zugeordnet werden. In unserer Beispiel-Ontologie gibt es nur das Konzept ›Place‹. Analog können auch Kategorien für Kanten vorgegeben werden, die wir als ›Rollen‹ bezeichnen. In OWL entspricht dies dem Prädikat owl:ObjectProperty. Jeder Rolle kann ein Name zugeordnet werden sowie ein Konzept für Quellknoten (entspricht rdfs:domain) und Zielknoten (entspricht rdfs:range). In unserer Beispiel-Ontologie gibt es die Rollen northOf, eastOf, southOf und westOf. Sie haben alle jeweils Place sowohl als Quell- als auch als Zielknoten. Die folgende Grafik illustriert die Konzepte und Rollen.
Zusätzlich können zwei Typen von Axiomen formuliert werden. Der eine Typ ist die Rollen-Kettenregel. Sie entspricht ungefähr owl:ObjectPropertyChain in OWL 2. Allerdings ist im Academic Meta Tool neben der Angabe der Rollen in der Kette direkt die daraus resultierende Rolle anzugeben. Zusätzlich muss ebenfalls festgelegt werden, nach welcher mehrwertigen Logik (Lukasiewicz, Produkt oder Goedel) das Reasoning erfolgen soll. In unserem Beispiel formulieren wir das Axiom, dass sämtliche Rollen transitiv sind, unter Verwendung der optimistisch agierenden Goedel-Logik. In Abbildung 3 ist dies illustriert.
Der andere Typ von Axiomen ist die Inverse (vgl. Abbildung 4). Sie entspricht dem Prädikat owl:inverseOf in OWL. Hier sind eine Rolle und ihre Inverse anzugeben. In unserem Beispiel wären dies die Axiome, dass northOf die Inverse von southOf ist und dass eastOf die Inverse von westOf ist.
4.2 JavaScript Bibliothek
Zur Implementierung von Web-Editoren für konkrete Anwendungsfälle haben wir eine JavaScript-Bibliothek entwickelt. Diese bietet Funktionalitäten zur Datenverwaltung, zur Kommunikation mit einem Datenbank-Server (hier: RDF4J Triplestore), sowie ein Reasoning-Programm. An dieser Stelle möchten wir die Funktionalitäten nicht im Detail ausführen und verweisen auf die Veröffentlichung der Bibliothek.[20]
Die genannte JavaScript-Bibliothek dient dazu, eigene Ontologien, die sich des Academic Meta Tools bedienen, im Web zu veröffentlichen und Benutzern für die Dateneingabe zur Verfügung zu stellen. Jede Beispielontologie benötigt die Implementierung eines individuellen Webviewers zur Anzeige und zum Editieren der Daten. Ein generischer Ansatz wäre zwar auch denkbar, es hat sich allerdings herausgestellt, dass die Benutzerführung mit angepassten Oberflächen besser funktioniert.
5. Anwendungsbeispiele
Anhand von drei Anwendungsbeispielen werden wir in den folgenden Unterkapiteln die konkrete Implementierung der AMT-Ontologie in geisteswissenschaftliche Fragestellungen erörtern. Kapitel 5.1 befasst sich mit einer Ontologie zu einem Expert*innen-Netzwerk des mainzed.[21] In Kapitel 5.2 wird ein Töpfer-Netzwerk südgallischer Terra Sigillata-Punzen mittels einer AMT-Ontologie beschrieben.[22] Im dritten Anwendungsbeispiel beschäftigen wir uns mit der Beschreibung von Darstellungen auf archäologischen Kleinfunden mit Hilfe des Academic Meta Tools.[23]
5.1 mainzed Expert*innen-Netzwerk
Das mainzed ist eine Verbundinitiative und ein offenes Netzwerk zur Sammlung von digitalen Kompetenzen in Mainz.[24]
Mainzed bietet Wissenschaftlerinnen und Wissenschaftlern am Standort Mainz eine gemeinsame Plattform zum Austausch von Wissen, der Entwicklung von Projekten und dem Ausbau von eigenen mainz(ed)-spezifischen Forschungsschwerpunkten. Alle Mitglieder des mainzed-Netzwerks stehen in fachlichen und auch hierarchischen Beziehungen zueinander. Zudem haben die Mitglieder des sehr heterogenen Netzwerks viele unterschiedliche Interessen, die in einer SKOS-ähnlichen Taxonomie (z.B. skos:broader, skos:narrower, skos:related) modellierbar sind. An einem Community Day haben die Mitglieder des Interessennetzwerks jeweils ihre Sicht auf das Netzwerk dargestellt, das heißt ihre Beziehungen und Interessen, sowie deren Vagheitsgrad angegeben. AMT eignet sich nun dazu, dieses Netz zu visualisieren und weitere Schlussfolgerungen zu ziehen – das heißt neue Beziehungen zwischen mainzed-Mitgliedern und mögliche neue Interessensgebiete aufzeigen, welche bei der Eingabe nicht erkennbar waren. Dieses Verfahren kann zu einem intelligenten Personen-Interessen-Netzwerk des mainzed führen, was einen Mehrwert für jedes Individuum des Netzwerks darstellt.
Zur Implementierung dieses mainzed Personen-Interessen-Netzwerks muss eine eigene mainzed-Ontologie nach der bereits in Kapitel 4 vorgestellten Academic Meta Tool-Ontologie entwickelt werden. Diese Ontologie besteht aus zwei Konzepten, fünf Rollen und zwölf Axiomen.[25]
Die mainzed-Ontologie beinhaltet das Konzept Person (P) und das Konzept Interest (I). Zur Verknüpfung dieser Konzepte sind Rollen implementiert, welche sowohl assoziative Beziehungen wie auch inverse Beziehungen zwischen den Personen und Interessen beinhalten: P connectedWith P, P interestedIn I, I interestOf P, I2 subInterestOf I1, P1 superInterestOf P2, vgl. Abbildung 5.
Zur Bildung neuen Wissens im Netzwerk werden fünf Rollen-Kettenregeln (vgl. Abbildung 6) eingeführt, welche durch Wahl einer geeigneten mehrwertigen Logik Schlussfolgerungen ziehen lassen. Diese sind:
- Axiom 01: connectedWith connectedWith connectedWith(ProductLogic)
- Axiom 02: subInterestOf subInterestOf subInterestOf(GoedelLogic)
- Axiom 03: superInterestOf superInterestOf superInterestOf(GoedelLogic)
- Axiom 04: interestedIn interestOf connectedWith(LukasiewiczLogic)
- Axiom 05: interestedIn subInterestOf interestedIn(GoedelLogic).
Zudem werden fünf inverse Axiome und zwei disjunkte Axiome hinzugefügt:
- Axiom 06: interestOf interestedIn
- Axiom 07: interestedIn interestOf
- Axiom 08: subInterestOf superInterestOf
- Axiom 09: superInterestOf subInterestOf
- Axiom 10: connectedWith connectedWith
- Axiom 11: selfdisjoint(subInterestOf)
- Axiom 12: selfdisjoint(superInterestOf).
Aus der Ontologie und den Rollen-Kettenregeln entstehen folgende Schlussfolgerungen: Beziehungen zwischen Personen sind invers und transitiv. Somit ergeben sich hier Beziehungsketten, vgl. Axiom 01. Hierarchische Beziehungen zwischen Interessen sind ebenfalls invers und transitiv aufgebaut, vgl. Axiom 02 / 03. Interessieren sich zwei Personen für das Gleiche, so stehen sie miteinander in Verbindung, vgl. Axiom 04. Interessiert sich eine Person für etwas, so interessiert sie sich auch für das ›Super-Interesse‹, vgl. Axiom 05.
Führen wir dies nun an einem konkreten Beispiel aus: Im mainzed-Netzwerk existieren die virtuellen Personen Emma, Ben und Fynn. Aus einer Vielzahl von Interessen im Netzwerk und der genannten Personen entnehmen wir Informatik, Programmieren und Java. Auf dem zuvor erwähnten Community Day wurden die persönlichen Beziehungen wie folgt angegeben: (Person:Ben)-[connectedWith:0.8]->(Person:Fynn) und (Person:Fynn)-[connectedWith:0.6]->(Person:Emma). Die Interessen stehen in einer Kette wie folgt in Verbindung:
(Interest:Informatik)-[superInterestOf:0.6]->(Interest:Programmieren)
und
(Interest:Programmieren)-[superInterestOf:0.5]->(Interest:JAVA).
Zum Interesse JAVA stehen Ben und Fynn mit einem gewissen Grad in Verbindung:
(Person:Ben)-[interestedIn:0.7]->(Interest:JAVA)
und
(Person:Fynn)-[interestedIn:0.9]->(Interest:JAVA).
Die mainzed-Ontologie erlaubt es nun, Schlussfolgerungen aus diesen Eingaben zu ziehen: Axiom 01 ermöglicht durch die Produkt-Logik die Verknüpfung zwischen Ben und Emma via Fynn zu 48 %, Axiom 03 die Verknüpfung durch die Goedel-Logik zwischen Informatik zu JAVA via Programmieren zu 50 %, Axiom 04 die Verknüpfung durch die Lukasiewicz Logik zwischen Ben und Fynn via JAVA zu 60 % und Axiom 05 die Verknüpfung durch die Goedel Logik zwischen Fynn und Programmieren via JAVA zu 50 %.
Nach einer Eingabe der zuvor beschrieben Daten in den prototypischen Academic Meta Tool Playground (vgl. Abbildung 7) bietet dieser ein Reasoning der Daten, einen Download als RDF, cypher, Knoten und Kanten als CSV, sowie als JSON-Objekt.
5.2 Töpfer-Netzwerk Südgallischer Terra Sigillata
Betrachten wir eine konkrete archäologische Problematik, die es zu modellieren gilt: In den römischen Sigillata-Manufakturen wurde vom 1. Jahrhundert v. Chr. bis zum 3. Jahrhundert n. Chr. sehr hochwertiges, reliefverziertes Tafelgeschirr hergestellt, das flächendeckend im Römischen Reich vermarktet wurde. Darüber hinaus wurden die einzelnen Gefäße mit dem Namen des Töpfers gestempelt, was die namentliche Zuweisung der Zierzonen ermöglicht. Die Online-Datenbank Samian Research des Römisch-Germanischen Zentralmuseums beinhaltet zurzeit mehr als 245.000 Töpferstempel aus ganz Europa und auch ein Katalog der Reliefverzierungen befindet sich momentan im Aufbau. Das Ziel dieser Katalogerstellung ist es, einzelne Figurenpatrizen (z.B. Bogenschützen), womit die Gefäße innerhalb einer Sigillata-Zierzone dekoriert wurden, einem Töpfer zuordnen zu können. Da diese Figurenpunzen von den Töpfern nicht nur miteinander geteilt, sondern die Figurenstempel auch voneinander abgeformt wurden, spielt in diesem Bestimmungsprozess eine genaue Identifikation eine sehr große Rolle.
So müssen z.B. im Zuge des Forschungsprojektes dutzende Bogenschützen-Punzen (vgl. Abbildung 8) miteinander abgeglichen werden um die einzelnen Patrizen zu benennen. Jedoch gibt es zwischen der originalen Punze aus Ton und einer möglichen Abformung einen transitiven Schwund, der durch Trocknung entsteht. Dieser Schwund beträgt ca. 10 % pro Abformungsschritt.[26]
Analog zur mainzed-Ontologie muss hierzu eine eigene samian ontology implementiert werden. Diese folgt ebenfalls der Academic Meta Tool-Ontologie. Die samian ontology besteht aus zwei Konzepten, sechs Rollen und ebenfalls zwölf Axiomen.[28]
Die samian ontology beinhaltet hier das Konzept Töpfer (T) und das Konzept Punze (P). Zur Verknüpfung dieser Konzepte sind Rollen implementiert, welche sowohl assoziative Beziehungen, wie auch inverse Beziehungen zwischen den Töpfern und den Punzenabformungen beinhaltet. Dabei ist zu beachten, dass aus archäologischer Perspektive die Rollen ›isCreatorOf‹ und ›wasCreatedBy‹ mit einem Grad von 1.0 zu versehen sind und die Abformungen ›istMutterpunzeVon‹ und ›istTochterpunzeVon‹ mit einem Grad von 0.9 notiert werden. Die Rollen sind: T isConnectedWith T, T isCreatorOf P, P wasCreatedBy P, P1 istMutterpunzeVon P2, P2 istTochterpunzeVon P1, T arbeitetInWerkstattMit P.
Zur Verdeutlichung von Beziehungen zwischen Töpfern und Punzen werden nun sechs Rollen-Kettenregeln mit geeigneten Logiken eingeführt (vgl. Abbildung 9), welche Schlussfolgerungen zulassen. Diese sind:
- Axiom 01: isConnectedWith isConnectedWith isConnectedWith(ProductLogic)
- Axiom 02: istTochterpunzeVon istTochterpunzeVon istTochterpunzeVon(GoedelLogic)
- Axiom 03: istMutterpunzeVon istMutterpunzeVon istMutterpunzeVon(GoedelLogic)
- Axiom 04: isCreatorOf wasCreatedBy isConnectedWith(LukasiewiczLogic)
- Axiom 05: isCreatorOf istTochterpunzeVon arbeitetInWerkstattMit(GoedelLogic).
Zudem werden fünf inverse Axiome und zwei disjunkte Axiome hinzugefügt:
- Axiom 06: istTochterpunzeVon istMutterpunzeVon
- Axiom 07: istMutterpunzeVon istTochterpunzeVon
- Axiom 08: isCreatorOf wasCreatedBy
- Axiom 09: wasCreatedBy isCreatorOf
- Axiom 10: isConnectedWith isConnectedWith
- Axiom 11: selfdisjoint(istTochterpunzeVon)
- Axiom 12: selfdisjoint(istMutterpunzeVon).
Die samian ontology zeigt durch die Rollen-Kettenregeln (vgl. Abbildung 10) auf: Beziehungen zwischen Töpfern sind, wie bei den Personen in der mainzed-Ontologie, invers und transitiv. Somit ergeben sich hier Beziehungsketten, vgl. Axiom 01. Hierarchische Beziehungen zwischen Punzen aufgrund der Abformungen sind ebenfalls invers und transitiv aufgebaut, vgl. Axiom 02 / 03. Haben zwei Töpfer eine Beziehung zu einer Punze, so stehen sie miteinander in Verbindung, vgl. Axiom 04. Hat ein Töpfer eine Punze erstellt, so kann aus einer Tochterpunze geschlossen werden, dass der Töpfer wahrscheinlich in der gleichen Werkstatt gearbeitet hat, vgl. Axiom 05. Somit ergibt sich ein Töpfer-Personen-Netzwerk, welches zum Beispiel eine Grundlage für die wissenschaftliche Untersuchung von Pachtverhältnissen in den antiken Töpfereien bildet.
Ein ebenfalls für diesen Fall prototypisch entwickelter Academic Meta Tool Punzen-Viewer zeigt nun neue Verknüpfungen durch ein Reasoning auf und ermöglicht den Export in gängige Formate zur Weiterbearbeitung in externer Software (vgl. Abbildung 11).
5.3. Darstellungen auf archäologischen Kleinfunden
Bereits in den Ausführungen von Karsten Tolle und David Wigg-Wolf auf der CAA 2014 in Paris zum ›Uncertainty Handling for Ancient Coinage‹ wurde versucht, eine Lösung zur semantischen Modellierung mittels Linked Data für das folgende Problem zu finden: Auf einem archäologischen Kleinfund, hier einer Münze, ist ein Portrait abgebildet. Wichtig ist hier die eindeutige Identifizierung der Person zur weiteren Bearbeitung. Bei einer Befragung von Expert*innen konnte eine einhundertprozentige Sicherheit nicht gegeben werden: »Ich bin mir zu 80 % sicher, dass es sich bei der portraitierten Person um Titus handelt, aber es könnte auch 60 % Titus und 40 % Nero sein.«[28]
Eine ähnliche Problematik ergibt sich bei den NAVIS Schiffsdatenbanken des Römisch- Germanischen Zentralmuseums. In NAVIS II werden Darstellungen von Schiffen auf Mosaiken, Monumenten etc. im Web zur Verfügung gestellt, in NAVIS III sind Schiffsdarstellungen auf Münzen für die Scientific Community verfügbar. In beiden Datenbanken werden analog zum Fall von Tolle und Wigg-Wolf die Darstellungen einem Attribut zugeordnet, z.B. Titus und Nero, aber auch Handel und Krieg oder Paddeln und Rudern. Bislang werden diese Verknüpfungen 1:1 mit einer im Datenmodell 100 % möglichen Sicherheit modelliert. Um dieser sehr subjektiven Wahrnehmung eine Objektivität zu geben, wäre eine vage Verknüpfung, die nur zu einem gewissen Grad existiert, transparent und nachvollziehbar. Darüber hinaus wird heutzutage zur Standardisierung der Verschlagwortung (Keywords) von Objekt-Darstellungen zu Thesauri-Konzepten der Linked Data Cloud gelinkt (z.B. Getty AAT, English Heritage, etc.). In diesen Thesauri bestehen jedoch wiederum Abhängigkeiten zu einem gewissen Grad, welche zumeist mittels der benutzte SKOS Ontologie nicht exakt abgebildet werden kann. Zur inhaltlichen Erschließung ist dies jedoch nötig. Das Academic Meta Tool ist hervorragend dazu geeignet, den Prozess von der Darstellung auf dem Objekt zur Verschlagwortung in einem Keyword bis hin zur Verlinkung in ein Thesaurus-Konzept semantisch zu modellieren.
Für diesen Fall muss eine eigene navis ontology implementiert werden. Sie besteht aus drei Konzepten, sechs Rollen und ebenfalls 18 Axiomen.[29]
Die navis ontology enthält die Konzepte Object (O), Keyword (K) und Concept (C). Zur Verknüpfung zwischen Objekt und Keyword werden die Rollen ›O hasDepiction K‹ und ›K isDepictionOf O‹ genutzt. Zur Verknüpfung zwischen Keyword und Thesaurus-Konzept gibt es die die Rollen ›K matchesWith C‹ und ›C matchedBy K‹, sowie zur hierarchischen Ordnung im Thesaurus die Rollen ›C broaderThan C‹ und ›C narrowerThan C‹. Wir gehen hier davon aus, dass der Grad der Verknüpfung zunimmt, je weiter es in Richtung des Top-Level-Konzepts geht – der Grad der anderen Verbindungen ist von dem oder der Wissenschaftler*in selbst zu bestimmen. Abbildung 12 zeigt die Konzepte und Rollen auf.
Hier werden nun drei Rollen-Kettenregeln (einschließlich der jeweiligen Inverse) mit geeigneten Logiken eingeführt (vgl. Abbildung 13): Diese sind:
- Axiom 01: hasDepiction matchesWith matchesWith(ProductLogic)
- Axiom 02: matchesWith broaderThan broaderThan(ProductLogic)
- Axiom 03: broaderThan broaderThan broaderThan(ProductLogic).
Zudem werden sechs inverse Axiome und sechs disjunkte Axiome hinzugefügt.
Durch die Rollen-Kettenregeln in der navis ontology ergeben sich folgende Schlussfolgerungen: Wird ein Objekt mit einem Keyword verschlagwortet und dieses mit einem Konzept in einem Thesaurus verknüpft, besteht zu einem gewissen Grad auch eine Verknüpfung zwischen Objekt und dem Thesaurus-Konzept, vgl. Axiom 01. Ist dieses Thesaurus-Konzept ein broader-Konzept, wird auch das Keyword mit einem gewissen Grad damit verknüpft, vgl. Axiom 02. Zudem besitzen alle hierarchisch organisierten Keywords in den Thesauri Beziehungen in einem bestimmteren Grad zueinander, vgl. Axiom 03.
Wir zeigen hier zwei konkrete Beispiele aus den NAVIS Schiffsdatenbanken (vgl. Abbildung 14). Eine Darstellung zeigt ein Schiff – es stellt sich die Frage: Ist es ein Ruder- oder ein Segelschiff? Hier kann der Wissenschaftler oder die Wissenschaftlerin sich für ≥ 50 % Segelschiff bzw. ≥ 50 % Ruderschiff entscheiden. Eine weitere Darstellung zeigt ein Relief. Das darauf abgebildete Schiff könnte ein Transport- oder Militärschiff darstellen, da sowohl Weinfässer, als auch Soldaten abgebildet sind. Auch hier kann sich der Wissenschaftler oder die Wissenschaftlerin nun entscheiden, wohl ≥ 40 % Transportschiff bzw. ≥ 60 % Millitärschiff.
Ein kleiner Einblick kann auch hier über einen prototypischen Viewer angesehen werden.
6. Ausblick
In diesem Artikel haben wir das von uns entwickelte Academic Meta Tool (AMT) vorgestellt, mit dem man Vagheit in Graphen modellieren kann. Es bietet die Möglichkeit, eine Ontologie mit vagen Inferenzregeln zu erstellen. Diese Regeln sind auf die in Kapitel 4 beschriebenen limitiert – wir planen jedoch weitere Regeln in neueren Versionen von AMT hinzuzufügen. Allerdings können die AMT-Regeln nicht bis zur Ausdrucksstärke von OWL erweitert werden, da hier Beschränkungen in der Berechenbarkeit vorliegen. Dennoch wird insbesondere die Kettenregel, eine speziell bei Graphen sehr wichtige Regel, von vielen OWL-Reasonern nicht unterstützt – weder mit noch ohne Berücksichtigung von Vagheit.
Durch die Verwendung von Web-Standards wie RDF und OWL ist eine unmittelbare Anbindung an andere Linked Open Data (LOD) problemlos möglich. Somit können die mit AMT erstellten Informationen mit anderen Ressourcen verknüpft werden und zur Anreicherung des Giant Global Graphs beitragen. Leider ist die Modellierung von Vagheit im Semantic Web noch nicht vom W3C standardisiert, daher nutzen wir zur Repräsentation von Vagheit eine Eigenentwicklung, da das W3C bisher nicht geplant hat Vagheit in das RDF-Format aufzunehmen.
Wie in Kapitel 3 bereits erläutert, möchten wir noch einmal darauf hinweisen, dass das Academic Meta Tool lediglich Vagheit unterstützt und keine Unsicherheit. Die Software ist also zur Modellierung solcher geisteswissenschaftlichen Fragestellungen geeignet, in denen viel Wissen vorhanden ist, aber eine klassische Modellierung (ohne Vagheit) an zu feinteiliger Kategorisierung scheitert – Beispiele hierfür haben wir in Kapitel 5 behandelt. Durch die Verwendung von AMT ist die Datenmodellierung nicht auf eine binäre Entscheidung (ja oder nein) beschränkt und es ist möglich, eine Information so abspeichern, dass sie nur zu einem gewissen Grad zutrifft.
Mehr Informationen sind auch über die GitHub Repositorien des mainzed verfügbar.
7. Danksagung
Wir möchten an dieser Stelle bei allen bedanken, die uns bei der Erstellung der Idee und der Use-Cases unterstützt haben. Für den Bereich der Informatik geht der Dank an Christophe Cruz (Université Bourgogne Franche-Comté) und für den Bereich der Digitalen Geisteswissenschaften an Prof. Dr. Kai-Christian Bruhn (Hochschule Mainz). Wir bedanken uns ebenfalls bei Katharina Kiefer (Studentin des Studiengangs Digitale Methodik in den Geistes- und Kulturwissenschaften an der Universität Mainz und der Hochschule Mainz) für das Korrekturlesen dieses Artikels.
Fußnoten
-
[1]vgl. Tolle / Wigg-Wolf 2015.
-
[2]vgl. Laskey et al. 2008.
-
[3]
-
[4]vgl. Sanderson et al. 2017.
-
[5]vgl. Muccigrosso 2018.
-
[6]vgl. Miles / Bechhofer 2009.
-
[7]vgl. Miles / Bechhofer 2009, Kapitel 8.1.
-
[8]vgl. Miles / Bechhofer 2009, Kapitel 10.6.8.
-
[9]vgl. Miles / Bechhofer 2009, Kapitel 8.6.4.
-
[10]vgl. Miles / Bechhofer 2009, Kapitel 10.6.3.
-
[11]vgl. Thiery / Engel 2016 und Piotrowski et al. 2014.
-
[12]vgl. Bruhn et al. 2015, S. 345–346.
-
[13]vgl. Kohr 2014a, Kohr 2014b.
-
[14]
-
[15]vgl. Bellodi et al. 2017.
-
[16]vgl. Dubois et al. 2001.
-
[17]
-
[18]
-
[19]Ontologie vgl. Unold / Thiery 2018c und Unold / Thiery 2018f, Vokabular vgl. Unold / Thiery 2018d und Unold / Thiery 2018e.
-
[20]vgl. Unold / Thiery 2018a.
-
[21]vgl. Unold / Thiery 2018g.
-
[22]vgl. Thiery / Mees 2018c.
-
[23]vgl. Thiery / Mees 2018d.
-
[24]vgl. Klammt 2018.
-
[25]vgl. Unold / Thiery 2018b.
-
[26]vgl. Hoffmann 1983.
-
[27]vgl. Thiery / Mees 2018a.
-
[28]vgl. Tolle / Wigg-Wolf 2015, S.173.
-
[29]vgl. Thiery / Mees 2018b.
Bibliographische Angaben
- Elena Bellodi / Evelina Lamma / Fabrizio Riguzzi / Riccardo Zese / Giuseppe Cota: A web system for reasoning with probabilistic OWL. In: Software: Practice and Experience 47 (2017), H. 1, S. 125–142. [Nachweis im GVK]
- Fernando Bobillo / Umberto Straccia: fuzzyDL: An expressive fuzzy description logic reasoner. In: IEEE International Conference on Fuzzy Systems. 5 Bde. (FUZZ-IEEE 2008, Hong Kong, 01.-06.06.2008) Piscataway, NJ 2008. Bd. 2, S. 923–930. [Nachweis im GVK]
- Fernando Bobillo / Miguel Delgado / Juan Gómez-Romero: Reasoning in fuzzy OWL 2 with DeLorean. In: Uncertainty reasoning for the semantic Web II. Hg. von Fernando Bobillo / Paulo C. G. Costa / Claudia d’Amato / Nicola Fanizzi / Kathryn B. Laskey / Kenneth J. Laskey / Thomas Lukasiewicz / Matthias Nickles / Michael Pool. Berlin u.a. 2013, S. 119–138. [Nachweis im GVK]
- Rajab Ali Borzooei / Hossein Rashmanlou: New concepts of vague graphs. In: International Journal of Machine Learning and Cybernetics 8 (2017), H. 4, S. 1081–1092. [Nachweis im GVK]
- Kai-Christian Bruhn / Thomas Engel / Tobias Kohr / Detlef Gronenborn: Integrating Complex Archaeological Datasets from the Neolithic in a Web-Based GIS. In: CAA2014. 21st Century Archaeology. Concepts, methods and tools. Proceedings of the 42nd Annual Conference on Computer Applications and Quantitative Methods in Archaeology. Hg. von François Giligny / François Djindjian / Laurent Costa / Paola Moscati / Sandrine Robert. (CAA: 42, Paris, 22.–25.04.2014) Oxford 2015, S. 341–348. [Nachweis im GVK]
- Arnaud Castelltort / Anne Laurent: Fuzzy queries over NoSQL graph databases: perspectives for extending the cypher language. In: International Conference on Information Processing and Management of Uncertainty in Knowledge-Based Systems. Hg. von Anne Laurent / Oliver Strauss / Bernadette Bouchon-Meunier / Ronald R. Yager. 3 Bde. (IPMU: 15, Montpellier, 15.–19.07.2014) Cham 2014. Bd. 3, S. 384–395. [Nachweis im GVK]
- Didier Dubois / Henri Prade: Possibility theory, probability theory and multiple-valued logics: A clarification. In: Annals of mathematics and Artificial Intelligence 32 (2001), H. 1–4, S. 35–66. [Nachweis im GVK]
- Bettina Hoffmann: Die Rolle handwerklicher Verfahren bei der Formgebung reliefverzierter Terra Sigillata. München 1983. [Nachweis im GVK]
- Thomas Lukasiewicz / Umberto Straccia: Managing uncertainty and vagueness in description logics for the semantic web. In: Web Semantics: Science, Services and Agents on the World Wide Web 6 (2008), H. 4, S. 291–308. [Nachweis im GVK]
- Michael Piotrowski / Giovanni Colavizza / Florian Thiery / Kai-Christian Bruhn: The Labeling System: A new approach to overcome the vocabulary bottleneck. In: DH-CASE II: Collaborative Annotations on Shared Environments: Metadata, Tools and Techniques in the Digital Humanities. Hg. von Patrick Schmitz / Laurie Pearce / Quinn Dombrowski. (DH-CASE: 2, Fort Collins, CO, 16.09.2014) New York, NY 2014. [Nachweis im GVK]
- Giorgos Stoilos / Giorgos B. Stamou / Vassilis Tzouvaras / Jeff Z. Pan / Ian Horrocks: Fuzzy OWL: Uncertainty and the Semantic Web. In: Proceedings of the OWLED*05 Worshop on OWL: Experiences and Directions. Hg. von Bernardo Cuenca Grau / Ian Horrocks / Bijan Parsia / Peter Patel-Schneider. (OWLED: 5, Galway, 11.–12.11.2005) Aachen 2005. (= CEUR workshop proceedings, 188) [online]
- Florian Thiery / Thomas Engel: The Labeling System: The Labelling System: A Bottom-up Approach for Enriched Vocabularies in the Humanities. In: CAA2015. Keep the Revolution Going. Proceedings of the 43rd Annual Conference on Computer Applications and Quantitative Methods in Archaeology. Hg. von Stefano Campana / Roberto Scopigno / Gabriella Carpentiero / Marianna Cirillo. (CAA: 43, Siena, 30.03.–03.04.2015) 2. Bde. Oxford 2016. Bd. 1, S. 259–268. [Nachweis im GVK]
- Karsten Tolle / David Wigg-Wolf: Uncertainty Handling for Ancient Coinage. In: CAA2014. 21st Century Archaeology. Concepts, methods and tools. Proceedings of the 42nd Annual Conference on Computer Applications and Quantitative Methods in Archaeology. Hg. von François Giligny / François Djindjian / Laurent Costa / Paola Moscati / Sandrine Robert. (CAA: 42, Paris, 22.–25.04.2014) Oxford 2015, S. 171–178. [Nachweis im GVK]
- Dorothea Tsatsou / Stamatia Dasiopoulou / Ioannis Kompatsiaris / Vasileios Mezaris: LiFR: a lightweight fuzzy DL reasoner. In: The semantic web: ESWC 2014 satellite events. Hg. von Valentina Presutti / Eva Blomqvist / Raphael Troncy / Harald Sack / Ioannis Papadakis / Anna Tordai. (ESWC: 11, Anissaras, 25.–29.05.2014) Cham u.a. 2014, S. 263–267. (= Lecture notes in computer science, 8798) [Nachweis im GVK]
Online-Quellen
- Muhammad Akram / Feng Feng / Shahzad Sarwar / Youne Bae Jun: Certain types of vague graphs. In: Scientific Bulletin / Series A / University Politehnica of Bucharest 76 (2014), H. 1, S. 141–154. PDF. [online] [Nachweis im GVK]
- Anne Klammt: FAQ Flyer des Mainzer Zentrums für Digitalität in den Geistes- und Kulturwissenschaften (mainzed) in deutscher Sprache. In: zenodo.org. Version 4 vom 18.09.2018. DOI: 10.5281/zenodo.1324187
- Kenneth J. Laskey / Kathryn B. Laskey / Paulo C. G. Costa / Mieczyslaw M. Kokar / Trevor Martin / Thomas Lukasiewicz: Uncertainty Reasoning for the World Wide Web. In: w3.org. W3C Incubator Group Report vom 31.03.2008. [online]
- Tobias Kohr (2014a): Component Certainty Type Authority Document. In: github.com/i3mainz. Arches Import Best Practices, Revision f001e53. 06.05.2014. [online]
- Tobias Kohr (2014b): Phase Type Assignment Certainty Type Authority Document. In: github.com/i3mainz. Arches Import Best Practices, Revision f001e53. 06.05.2014. [online]
- Alistair Miles / Sean Bechhofer: Simple Knowledge Organization System Reference. In: w3.org. W3C Recommendation vom 18.08.2009. [online]
- John Muccigrosso: Joining Pelagios. In: github.com/pelagios. Pelagios Cookbook, Revision 2ee585f. 22.06.2018. [online]
- Robert Sanderson / J. Paul Getty Trust / Paolo Ciccarese / Benjamin Young: Introduction. Web Annotation Data Model. In: w3.org. W3C Recommendation vom 23.02.2017. [online]
- TEI Guidelines. Certainty, Precision, and Responsibility. Hg. von Text Encoding Initiative Consortium. Version 3.4.0. 23.07.2018. [online]
- Florian Thiery / Allard Mees (2018a): Academic Meta Tool - samian ontology. In: zenodo.org. Version 1 vom 19.01.2018. DOI: 10.5281/zenodo.1341109
- Florian Thiery / Allard Mees (2018c): Putting Samian pots together – modelling ceramic service family roots – connecting figure types. Wie Graphen bei der Modellierung des Zweifels helfen können. (Graphentechnologien 2018, Mainz, 19.–20.01.2018) In: zenodo.org. Präsentation vom 19.01.2018. DOI: 10.5281/zenodo.1155747
- Florian Thiery / Allard Mees (2018d): Taming Ambiguity - Dealing with doubts in archaeological datasets using LOD. (Computer Applications and Quantitative Methods in Archaeology, Tübingen, 30.04.–03.04.2015) In: zenodo.org. Präsentation vom 22.03.2018. DOI: https://doi.org/10.5281/zenodo.1200111
- Martin Unold / Florian Thiery (2018a): Academic Meta Tool – amt.js. In: zenodo.org. Version 1.0 vom 19.01.2018. DOI: 10.5281/zenodo.1342311
- Martin Unold / Florian Thiery (2018b): Academic Meta Tool - mainzed ontology. In: zenodo.org. Version 1 vom 19.01.2018. DOI: 10.5281/zenodo.1341107
- Martin Unold / Florian Thiery (2018c): Academic Meta Tool – Ontology. Leonard Edition vom 19.01.2018. [online]
- Martin Unold / Florian Thiery (2018d): Academic Meta Tool – Vocabulary. Penny Edition vom 19.01.2018. [online]
- Martin Unold / Florian Thiery (2018e): Academic Meta Tool – Vocabulary. In: zenodo.org. Penny Edition vom 19.01.2018. DOI: 10.5281/zenodo.1342530
- Martin Unold / Florian Thiery (2018f): Academic Meta Tool – Ontology. In: zenodo.org. Leonard Edition vom 19.01.2018. DOI: 10.5281/zenodo.1342536
- Martin Unold / Florian Thiery (2018g): Academic Meta Tool – Ein Web-Tool zur Modellierung des Zweifels. (Graphentechnologien 2018, Mainz, 19.–20.01.2018) In: zenodo.org. Präsentation vom 19.01.2018. DOI: 10.5281/zenodo.1155726
Abbildungslegenden und -nachweise
- Abb. 1: Verknüpfung zweier vager Aussagen durch Konjunktion und Disjunktion. [Eigene Darstellung, CC BY 4.0].
- Abb. 2: Das Konzept Place und die Rolen northOf, eastOf, southOf, westOf. [Eigene Darstellung, CC BY 4.0].
- Abb. 3: Schematische Darstellung des Role-Chain-Axioms (Rollen-Kettenregel). [Eigene Darstellung, CC BY 4.0].
- Abb. 4: Schematische Darstellung des Inverse-Axioms. [Eigene Darstellung, CC BY 4.0].
- Abb. 5: Konzepte und Rollen der mainzed ontology. [Eigene Darstellung, Figuren und Geräte: © mainzed, CC BY 4.0].
- Abb. 6: Rollen-Kettenregeln der mainzed ontology. [Eigene Darstellung, Figuren und Geräte: © mainzed, CC BY 4.0].
- Abb. 7: Schlussfolgerungen der mainzed ontology im Web-Viewer. [Eigene Darstellung, CC BY 4.0].
- Abb. 8: Darstellung von Bogenschützen-Punzen. [Eigene Darstellung, © RGZM / Mees, CC BY 4.0].
- Abb. 9: Konzepte und Rollen der samian ontology. [Eigene Darstellung, Figuren und Geräte: ©mainzed, CC BY 4.0].
- Abb. 10: Rollen-Kettenregeln der samian ontology. [Eigene Darstellung, Figuren und Geräte: © mainzed, CC BY 4.0].
- Abb. 11: Schlussfolgerungen der samian ontology im Web-Viewer. [Eigene Darstellung, CC BY 4.0].
- Abb. 12: Konzepte und Rollen der navis ontology. [Eigene Darstellung, CC BY 4.0].
- Abb. 13: Rollen-Kettenregeln der navis ontology. [Eigene Darstellung, CC BY 4.0].
- Abb. 14: links: Darstellung einer römischen Münze mit Schiffsdarstellung (O41650 aus NAVIS III) und eines Monuments (NeumagenMonument1 aus NAVIS II). [Eigene Darstellung, © RGZM, CC BY 4.0].