Available at http://www.zfdg.de
Sofern nicht anders angegeben
Available at http://www.zfdg.de"> (c) Forschungsverbund MWW
Ausgewählte Beiträge der Tagung »Die Modellierung des Zweifels« – Schlüsselideen und -konzepte zur graphbasierten Modellierung von Unsicherheiten, 19.-20.01.2018 an der Akademie der Wissenschaften und der Literatur, Mainz
Transformation der WORD-Vorlage nach XML/TEI-P5 durch Apache TIKA 1.7 und XSLT
Lektorat des Textes durch die Akademie der Wissenschaften und der Literatur, Mainz und die ZfdG.
Medienrechte liegen bei den Autoren
All links checked
Graphdatenbanken werden seit einigen Jahren auch zunehmend in geisteswissenschaftlichen Forschungsvorhaben zur Modellierung von Forschungsdaten und erschließendem Wissen genutzt. Sie ergänzen zunehmend relationale oder auch auf XML beruhende Datenbanksysteme und stellen einen zentralen Punkt der Tagungsreihe »Graphentechnologien« dar, die seit 2017 jährlich an der Akademie der Wissenschaften und der Literatur in Mainz stattfindet. 2018 stand die am 19. und 20. Januar durchgeführte Veranstaltung unter dem Titel:
»Die Modellierung des Zweifels« – Schlüsselideen und -konzepte zur
graphbasierten Modellierung von Unsicherheiten
Die Modellierung, das transparente, möglichst objektive Annotieren von Zweifeln ist eine große Herausforderung in den digitalen Geisteswissenschaften. Wenn in vor-digitalen Zeiten sprachliche Mittel für die Abwägung und Beschreibung von Zweifel zur Verfügung standen, die immer auch mit einer gewissen Vagheit verbunden sein konnten, sind digitale Ansätze meist expliziter strukturiert. Darüber hinaus können in verschiedenen Anwendungszusammenhängen heterogene Modellierungsansätze verfolgt werden. Eine große Herausforderung ist dabei die eindeutige und vereinbare Handhabung unsicherer Informationen. Neben der Frage, ob eine Information selbst unsicher ist, kann auch der Grad der Unsicherheit zwischen verschiedenen Beteiligten umstritten sein. Bei dieser Problematik bieten Graphentechnologien mit ihrer Flexibilität interessante Ansätze für eine »Modellierung des Zweifels«, vor allem auch vor dem Hintergrund der stetigen Zunahme und des Wandels wissenschaftlicher Informationen im Laufe der Zeit. In den aus Erhebungen, externen Quellen oder Forschungsprojekten gewonnenen Daten werden Entitäten identifiziert und anschließend Verknüpfungen zwischen ihnen gesucht. Technisch gesehen ergibt sich hier die Herausforderung, die dabei auftretenden Unsicherheiten im Datenmodell im Hinblick auf Transparenz und Interoperabilität zu berücksichtigen, um eine Auswertung der Daten in anderen Vorhaben nicht zu behindern.
Auf der Tagung näherten sich insgesamt 15 Vorträge aus den unterschiedlichsten fachlichen Perspektiven dem Thema an (Tagungsprogramm). Hieraus entwickelten sich sehr interessante, interdisziplinäre Diskussionen, so dass bei den Herausgebern – die zuvor als Programmkomitee für die Auswahl der Beiträge auf der Tagung verantwortlich zeichneten – die Entscheidung reifte, die Tagungsbeiträge inkl. der Diskussionserträge in einem Sammelband zusammenzufassen. So werden nun zwölf Vorträge als vierter Sonderband der Zeitschrift für digitale Geisteswissenschaften erscheinen.
Die erste Session der Graphtagung 2018 stand unter dem Leitthema Text und der hiermit verbundene Artikel »Referenzielle Vagheit und
Varianz in Texten über Musik« von Torsten Roeder unternimmt
einen Brückenschlag zwischen XML und Graphentechnologien zur Untersuchung von
Referenzen in einem historischen Textkorpus am Beispiel von musikkritischen Texten
des 19. Jahrhunderts. Hierbei wird insbesondere die Frage verfolgt, inwieweit
Graphenabfragen die Analyse von Referenzialität erleichtern können, insbesondere
im Hinblick auf unscharfe Angaben. In ihrem Beitrag »Modellierung von
Entzifferungshypothesen in einem digitalen Zeichenkatalog für die Maya-Schrift«
schildern Franziska Diehr et al. die Entwicklung eines
digitalen Zeichenkatalogs für die Maya-Schrift, unter besonderer Berücksichtigung
der Modellierung von Entzifferungshypothesen und deren qualitativer Bewertung. Dominik Kasper und Andreas Kuczera
stellen in ihrem Artikel »Modellierung von Zweifel – Vorbild TEI im Graphen«
die Auszeichnung von unsicheren Lesarten und editorischer Ergänzungen in
Handschriften in den Mittelpunkt, welche sie anhand von TEI-Dokumenten aus dem
Deutschen Textarchiv (DTA) untersucht haben, welche eigens dafür in eine
Graphdatenbank importiert wurden. Sie verdeutlichen, wie Graphtechnologien hier
u.a. die Möglichkeit zur Analyse von Unsicherheit bieten und sich bei einer
ausreichend großen Datenmenge persönliche Auszeichnungsprofile der jeweiligen
Bearbeiter*innen erstellen lassen.
Die zweite Session trug den Titel Unsicherheit und in ihrem
Text »Academic Meta Tool – Ein Web-Tool zur Modellierung von Vagheit« stellen Martin Unold und Florian Thiery eine
Methodik zur Modellierung von Vagheit in Graphen vor. Darüber hinaus behandeln sie
auch die automatisierte Generierung von implizit gespeichertem Wissen unter
Berücksichtigung von Vagheit. Aus musikwissenschaftlicher Perspektive nähert sich
Stefan Münnich der Problematik der Quellenverluste und der
damit verbundenen Unsicherheit an. In seinem Artikel »Quellenverluste (deperdita)
als methodologischer Unsicherheitsbereich für Editorik und Datenmodellierung am
Beispiel von Anton Weberns George-Lied op. 4 Nr. 5« beleuchtet er die Folgen
solcher Fehlstellen für das kulturelle Gedächtnis am Beispiel der editorischen
Praxis der Anton Webern Gesamtausgabe.
In der mit Theorie betitelten Session Drei findet sich der
Beitrag »Accepting and Modeling Uncertainty« von Michael
Piotrowski wieder. Der Autor zielt hier auf auf die Herausforderung ab,
welche Unsicherheit für die Modellierung in den Geisteswissenschaften bedeutet. In
den Naturwissenschaften wird eine entsprechende Grundlagenforschung betrieben,
aber laut Autor fehlt hier noch eine »Brücke« zu den Geisteswissenschaften, die
helfen könnte, die Unsicherheit mit solchen formalen Modellierungsrahmen zu
überwinden. Andreas Wagner stellte in »Ambiguität und
Unsicherheit: Drei Ebenen eines Datenmodells« anhand eines Forschungsprojekts aus
dem rechtshistorischen Kontext einen Ansatz vor, wie Unsicherheit abzubilden sein
könnte. Er schlägt dazu eine Modellierung des Forschungszusammenhangs auf drei
Ebenen vor, welche (a) die historischen Phänomene, (b) die überkommenen Zeugnisse
dieser Phänomene und (c) die aktuelle historische Forschung selbst
beschreiben.
Technik lautete das Thema der vierten Session und der Beitrag
von Iian Neill und Andreas Kuczera
stellte mit SPEEDy einen neuen Ansatz zur Annotation von Texten vor. Grundlage
sind Standoff Properties, die indexbasiert mehrdimensionale Annotationen mit
Zuordnung zu den jeweiligen Nutzenden ermöglichen. Die Modellierung von Zweifel
wird damit über die Möglichkeit konkurrierender Annotationen erleichtert. In
»Blockchain – die etwas andere Datenbank« strebt Katarina
Adam eine Versachlichung der in den Massenmedien stattfindenden Diskussion
zur Blockchain-Technologie und den damit verbundenen Themen wie Bitcoin, Risiko
und Spekulation an. Die Autorin erläutert, in welchem Umfeld diese Technologie
implementiert wurde, wie der aktuelle Entwicklungsstand ist und wie die
Blockchain-Technologie von anderen Ansätzen der Datenspeicherung und -bearbeitung
lernen kann.
Der fünfte Block der Tagung stand unter der Frage nach der Erschließung und im zugehörigen Beitrag »A Graph Database of Aegean Seals
with Uncertain Attributes« von Martina Trognitz werden von
der Autorin die verschiedenen Quellen der Unsicherheiten im Kontext von
mehrseitigen ägäischen Siegeln untersucht und dargestellt, wie diese in einer
Graphdatenbank modelliert werden können. In »Genau, wahrscheinlich, eher nicht:
Beziehungsprobleme in einem kunsthistorischen Wissensgraph« erörtern Martin Raspe und Georg Schelbert die
»doppelte“ Herausforderung, geisteswissenschaftliche Forschungsdaten in einem
digitalen Wissensgraph abzubilden: Wie werden ungewisse Informationen gespeichert
und welche Folgen entstehen daraus für Abfrage und Visualisierung? Was drückt
Unsicherheit aus und wie beeinflusst sie unser Konzept von Wissen? Thomas Efers Beitrag zum Thema »Graphbasierte Modellierung von
Faktenprovenienz als Grundlage für die Dokumentation von Zweifel und die Auflösung
von Widersprüchen« stellt die Wichtigkeit einer nachvollziehbaren
Herkunftsannotation für Wissensbasen in den Digitalen Geisteswissenschaften
heraus. Neben der Vorstellung genereller Aspekte bei der Modellierung von Aussagen
auf abstrakter und beispielgeleiteter Ebene wird das Konzept einer
»Faktenprovenienz« entwickelt und in Aussagemodelle integriert.
Zu danken haben wir dem Verband Digital Humanities im deutschsprachigen Raum (DHd) für die finanzielle Unterstützung dieser Publikation, neo4j für die Finanzierung von Reisestipendien für die Vortragenden, der Akademie der Wissenschaften und der Literatur, Mainz, für die Bereitstellung von Räumen und die Versorgung vor Ort und schließlich den Herausgebern der Zeitschrift für digitale Geisteswissenschaften für die Aufnahme dieses Sammelbandes als Sonderband sowie Lisa Klaffki, Henrike Fricke-Steyer und nicht zuletzt Timo Steyer für das Lektorat und die gute Zusammenarbeit bei der Erstellung dieses Sonderbands.
Andreas Kuczera, Thorsten Wübbena, Thomas Kollatz
Mainz und Paris im Januar 2019