Abstract
Um digitale Bilder standardisiert und sammlungsunabhängig zur Verfügung zu stellen, entwickelt die Community um das International Image Interoperability Framework (IIIF) verschiedene Programmierschnittstellen (Application Programming Interfaces, kurz APIs) und setzt diese in Open-Source-Software um. Bei der Arbeit mit digitalen Bildern ist ein Wandel zu beobachten, durch den ein Digitalisat zunehmend nicht mehr nur als Repräsentation des ›Originals‹, sondern auch als Reihung von kodierten Informationen begriffen wird. Auf die verschiedenen Ansätze zum Verständnis von digitaler Bildlichkeit einzugehen ist ebenso wichtig, wie die APIs, die Software und ihre Funktionsweisen zu erklären. Eine Reflexion über die Technik soll die Basis für Diskussionen schaffen, die über die IT-Gemeinschaft hinausweisen. Ergänzend wird gezeigt, wie kulturbewahrende Institutionen aus Bereitstellungssicht auf diese Prozesse reagieren. Die Leitfrage ist, ob sich durch das Zusammenspiel zwischen Nutzung und Bereitstellung die Arbeit mit Bildern verändern kann.- 1. Einleitung
- 2. Kunsthistorische Arbeit mit Reproduktionen
- 2.1 Das Werk – ein Bild
- 2.2 Die Reproduktion und ihre Daten
- 3. IIIF als richtiger Ansatz für einen ›klugen‹ Bildzugang?
- 3.1 Theorie
- 3.2 Technik
- 3.3 Praxis
- 4. Die Fragen des Zugangs
- 4.1 Digital präsentiert
- 4.2 Zugang? Möglichst offen, bitte!
- Bibliographische Angaben
- Abbildungs- und Tabellenverzeichnis
1. Einleitung
[1]What have the humanities and computers to say to each other? Are they not strangers, perhaps enemies at heart? By definition, the humanities should be concerned with quality and with individual man, computers with things in quantity or men in the mass. Where the humanist seeks to understand man’s feelings and beliefs, his art and moral values, the analytical engine would seem able to digest only secular facts, or information which has been atomized, probably quantified, in any case neutralized of any value change, desensitized of artistic feeling, and thoroughly depersonalized. What can such automatic calculators have to add to the old calculus of human worth?
[2]Professor Pierson then considers the other side of the coin.
[3]Yet the humanities are concerned with the facts as well as with feelings; they depend upon the accumulation of knowledge and its systematic arrangement; their lifeblood is communication. And if since World War II man has acquired a clicking electronic facility to make possible the recording, storage, comparison, and repossession of information with an accuracy and at speeds undreamed of in human experience, might not the humanities be able to benefit?[1]
[4]
Die ›zwei Seiten der Medaille‹, die der Yale-Professor George W. Pierson dem Einsatz von Computern in den Geisteswissenschaften zuschreibt, sind mit dem trügerischen Gefühl, dass etwas nicht zusammenpasst, bis heute relevant. Allerdings hat sich das gesamte akademische und alltägliche Leben geändert. Eine Seminararbeit wird nicht mehr auf der Schreibmaschine getippt und viele Alltagsgeräte haben heute eine höhere Rechenleistung als die Computer, die Pierson zaghaft als Erleichterung erachtete. Trotzdem wird die Debatte zum Einsatz von IT-Technik in den Geisteswissenschaften immer noch mit scharfen Klingen geführt. Geht es um Quantifizierbarkeit? Geht es um Reichweite und Verfügbarkeit? Oder darum, mehr zu digitalisieren? Und wer leistet eigentlich Digitalisierung im Schatten des surrenden Scannerlichts?
[5]In diese Fragen hinein positionierte sich IIIF, das International Image Interoperability Framework, das bei der ›Zerfaserung‹ digitaler Bibliotheken Abhilfe schaffen will. Mit der Standardisierung von Austausch- und Interaktionsmöglichkeiten bei Bildmaterial soll eine »world-class user experience in viewing, comparing, manipulating and annotating images«[2] erreicht werden. Da die einzelnen Komponenten als Open-Source-Software zur Verfügung stehen, kann IIIF für Sammlungspräsentationen unabhängig von Lizenzverträgen und vorgefertigten Lösungen verwendet werden.
[6]Die Ansprüche, die heute an bildbasierte Ressourcen gestellt werden, divergieren je nach Publikum. Während die reproduktionsgestützte Arbeit mit Bildern bereits auf eine lange Geschichte zurückblickt, von der schon einige Kapitel im Digitalen spielen, ist ein Verständnis vom Digitalisat als »Reihung von kodierten Informationen« jüngeren Datums.[3] Die Überzeugung, dass sich mit IIIF die ›Arbeit am Bild‹ vereinfachen und um verschiedene Arbeitsweisen erweitern kann, ist für mich Anstoß, die Technik von IIIF ausführlich vorzustellen. Dabei soll es nicht nur um ›Leuchtturmprojekte‹ gehen, die sich häufig innerhalb des Gebiets der mittelalterlichen Handschriftenkunde verorten lassen. Ein genauerer Blick lohnt sich auch schon aus der Perspektive der alltäglichen Benutzung und der unvermittelten Begegnung mit IIIF. Auch wenn die IIIF-Spezifizierung eine systematische Nachnutzung von Bildressourcen ermöglicht, wird schon das rein betrachtende Arbeiten und die visuelle Analyse durch die gute Bild- und Zoomqualität leichter. Zudem ist es mit IIIF möglich, Beobachtungen zu teilen und zu einer vernetzten Form des Wissens zu kommen. Das heißt nicht, dass Institutionen ihre Sammlungen durch die Implementierung von IIIF ›hergeben‹. Vielmehr erweitern sich bisherige Präsentationsmechanismen und Nutzungsarten.
[7]Um den Gewinn zu erkennen, ist es nötig, die Technik auch außerhalb der IT-Community nachvollziehbar zu machen und vor dem Hintergrund des Wandels von Digital-Asset-Management-Systemen zu interoperabler Technik zu reflektieren. IIIF ist nicht perfekt, aber es ist immerhin so gut, dass sich ein Nachdenken darüber lohnt.
2. Kunsthistorische Arbeit mit Reproduktionen
2.1 Das Werk – ein Bild
[8]Bei meinen Vorlesungen über Neuere Kunstgeschichte an der
Berliner Universität hatte ich früher über Werke zu sprechen, die ich den
Zuhörern nicht vorführen konnte. [...] Die Studierenden mußten in den
Vorlesungen gleichsam nur auf den späteren Anblick vorbereitet werden und sich
in eigener Arbeit in den Museen [...] mit dem bekannt machen, was eben da
war.[4]
[9]Das Zitat des Kunsthistorikers Hermann Grimm von 1892 stammt zweifellos aus einer anderen Ära. Er nahm sein Unvermögen, Objekte zu zeigen, zum Anlass, um einen Projektionsapparat (das Skioptikon) in seinen Vorlesungen als Lehrmittel einzusetzen. Die Vorteile legt er begeistert dar: die Vergrößerung der Objekte – »wenn man will, ins Kolossale«[5] –, zusätzliche Erkenntnisgewinne durch vergleichendes Sehen, sowie eine Zeitersparnis in der Lehre. Grimm muss das absente Objekt nicht mehr mühsam erklären. Er kann das Bildmaterial so wählen, dass seine Argumentationslinien schnell illustriert werden können. Ein Vorteil, den er sogar gegenüber dem Unterricht am Original lobt. Man versteht mit diesem Blick zurück fast nicht, warum Hubertus Kohle von »Original-Fetischismus«[6] spricht, um das zögerliche Eintreten der Kunstgeschichte in die Sphäre der Digital Humanities zu beschreiben.
[10]Und doch ist etwas an diesem Befund dran: Linguistische Studiengänge prägen diesen Bereich im deutschsprachigen Raum.[7] Dabei wurde das Verhältnis der Kunstgeschichte zu computergestützten Verfahren schon seit den 1960er-Jahren diskutiert.[8] Zudem wurden Erkenntnisbeziehungen aus vermehrt digital-elektronischen Beziehungsgeflechten in den Schriften zum Pictorial Turn theoretisiert.[9]
[11]Umso überraschender hebt IIIF oftmals ähnliche Vorteile der Technik hervor, die schon Grimm überzeugten. Die gute Qualität des stufenlosen Zooms, die systemunabhängige Vergleichbarkeit der Bilder und die Zeitersparnis für die Arbeit am Bild werden genannt.[10] Sind die Anforderungen an kunsthistorisches Handwerkszeug (Vergrößerungsmöglichkeit, Auswahl der Perspektive, ortsunabhängige Vergleichbarkeit, Zeiteffizienz) etwa seit 1892 gleich geblieben?[11]
[12]Der augenscheinliche Unterschied liegt in der aktiveren Rolle der Nutzenden: Die flexiblen Suchmöglichkeiten geben die Deutungshoheit in viele Hände. Nicht mehr allein die dozierende Person entscheidet über die Rezeption. Forschungszugänge sollen direkt am Digitalisat eingefangen werden.
[13]In seinem Aufsatz zur ›Transkriptivität‹ macht der Medientheoretiker Ludwig Jäger darauf aufmerksam, dass Digitalität die verschiedenen medialen Ebenen vielschichtiger macht – es wird schwieriger, Bedeutungen zu erschließen. Während manche vor ihm durch die Virtualisierung der Information einen kompletten »Referenzverlust«, sozusagen die »Auflösung des Realen im Imaginären«[12], fürchteten, zeigt Jäger allerdings, inwiefern die vermittelte Weltrepräsentation als »Kennzeichen der medialen Anthropologie des Menschen«[13] fest zu unseren Subjektkonstruktionen gehört. Diese Fähigkeit bringt auch im Digitalen neue Bedeutungsebenen hervor und ist damit autonomes Mittel zur Bedeutungserschließung. Das Spezielle bei Jäger ist, dass er die Interaktionen mit dem Forschungsgegenstand mitdenkt. Nicht nur die Transkriptionen und Kommentare auf das Dokument sind neu und produktiv. Auch das ursprüngliche Dokument wandelt sich, weil ihm immer wieder eine neue Schicht, eine neue Bedeutung, beigefügt wird. Wenn man Jägers Überlegungen in heutige Forschungsinfrastrukturen und digitale Umgebungen übersetzt, hat er sich mit der Transkriptivitätstheorie eigentlich schon um Fragen der Nachnutzbarkeit und der Nachvollziehbarkeit von Forschungsdaten gekümmert.[14]
[14]Ein weiterer Unterschied liegt in der guten Qualität der Reproduktion. Während Grimm noch den Übertragungsverlust der Projektion schätzt, da »[d]er Anblick eines Originalwerkes [...] über seinen inneren Wert täuschen [kann]«[15], folgen Digitalisate diesen Regeln nicht mehr. Hochauflösende Reproduktionen ermöglichen, genauso wie Infrarot- oder Röntgenaufnahmen von Kunstwerken, weiterführende Einsichten.[16]
[15]Ein Beispiel der verbesserten Rezeption durch die digitale Reproduktion bot die Ausstellung zu Pieter Bruegel d. Ä. im Kunsthistorischen Museum in Wien 2018/19. Eine Mischung aus hohem Besuchsaufkommen, den Bemühungen des Museums, die hauseigenen Werke zu digitalisieren, sowie die tatsächlich sehr kleinteilige Malerei und Druckgrafik Bruegels führten dazu, dass anhand der Reproduktionen teils genauere Beobachtungen als am Original gemacht werden konnten. Das bedeutet aber nicht, dass Originale an Anziehungskraft verlieren. Denn obwohl die Wiener Werke digital zugänglich sind, war die Ausstellung permanent zum Bersten gefüllt. Als Surplus wird das Digitalisat jedoch sehr geschätzt. Die Projektion kommt zum Original, beide existieren in einem zugewandten Nebeneinander. Museen können virtuelle Räume öffnen, ohne dass die physischen Räume an Beachtung verlieren. Damit geht jedoch eine stetig wachsende Menge an Daten einher, und zwangsläufig schließt sich die Frage an, wie mit dieser neuen ›Schicht‹ des Bildes zu verfahren ist. Wie sieht die Arbeit mit Bildern aus, wenn man über die hochauflösende Kopie und damit über die Anschauung hinausgeht, wenn man das Digitalisat nicht länger als zusätzliches Element zur Rezeption, sondern als Kumulation von Daten begreift?
2.2 Die Reproduktion und ihre Daten
[16]An dieser Scheidegrenze öffnet sich in der heutigen Theoriebildung ein Graben, auf dessen einer Seite das Digitalisat liegt, das noch mit visueller Analyse ergründet werden kann; auf der anderen Seite befindet sich das Datengeflecht, das mit maschinellen Mitteln ›gelesen‹ wird. Seit Johanna Drucker diese Differenz in jüngster Zeit wieder aufgebracht hat, geht der Frage nach der Verortung der Disziplin oftmals eine klare Unterscheidung zwischen ›digitalisierter‹ und ›digitaler‹ Kunstgeschichte voraus.[17] Während Digitalisierungsbemühungen begrüßt werden, da sie schlicht die Auffindbarkeit von Objekten erhöhen, ist die Positionierung bezüglich einer ›digitalen‹ Kunstgeschichte ambivalenter. Zum Teil werden relevante Ergebnisse vermisst, die der ›traditionellen‹ Rezeption überlegen wären. So zeigt Claire Bishop in ihrem Artikel Against Digital Art History, wie angewandte quantitative Verfahren bei irrelevanten Forschungsfragen auch nur zu irrelevanten Erkenntnissen führen.[18]
[17]Es besteht das Desiderat einer Methodenrevision, um über eine Aufzählung der Nutzungsszenarien von IT-Tools und deren Anwendung hinauszukommen. Margarete Pratschke zeigt auf, dass man ohne eine grundsätzliche Diskussion »zum Verhältnis von Bild, Schrift und Zahl schnell bei einer längst überholten, formanalytischen «digitalen Faltenzählerei«[19] angelangt sei. Eine Annahme, die auch in Zusammenhang mit Bishops Kritik nicht von der Hand zu weisen ist.
[18]Eine quantitative Methode, auf deren Nutzen sich viele Theoretiker*innen einigen können, ist das von Franco Moretti, einem Literaturwissenschaftler, geprägte ›Distant Reading‹.[20] Der ›distanzierte Blick‹ auf einen sehr großen Korpus soll Beziehungen zwischen Objekten offenbaren, die zu einer spezifischen entkanonisierenden Form des Wissens beitragen.[21] Allerdings haben hier geeignete Verfahren für andere Medien als für Texte lange gefehlt.[22]
[19]Wenn Projekte bildtragende Digitalisate als Daten begreifen, die weiterverarbeitet werden können und darüber hinaus ein tatsächliches Anliegen an das Material haben – also nicht einfach Bestände in bestimmten Weisen über Gesichtserkennungssoftware oder Farbabgleiche analysieren – kommen sie meist zu interessantesten Ergebnissen.
[20]So ist es vorgesehen, dass Restaurator*innen des Getty Conservation Institutes im Rahmen des Projekts DISCO die Funktionen von IIIF-kompatibler Software nutzen, um bei ihrer Arbeit die einzelnen restaurierten Bereiche auf dem Digitalisat des Kunstwerks zu markieren und zu annotieren. Statt Zustandsprotokolle auf Papier weiterzureichen, die in mehrfacher Ausführung kopiert und abgelegt werden, arbeitet das gesamte Team (bei bestehendem Leihverkehr sogar mehrere Teams) am gleichen Digitalisat.[23] Die Losung des Gettys lautet dabei seit längerem, ›sinnvollen Zugang‹ zu ihren Ressourcen zu gewährleisten.[24] In jüngster Zeit wurde diese Vorgabe ausgeweitet: Nun sollen die Projekte ›sinnvolle Teilhabe‹ ermöglichen.[25] Es geht nicht mehr nur um Bestandspräsentation und den Zugang zu Sammlungen, sondern vermehrt um Kooperationen und gemeinsame Lösungen im Forschungskontext.
3. IIIF als richtiger Ansatz für einen ›klugen‹ Bildzugang?
3.1 Theorie
[21]In einer ziemlich pointierten Kritik von Michael Müller zu IIIF heißt es, dass es »zu den wirklichen Erfolgsgeschichten in der Welt der Linked Open Data [zählt]«.[26] Wenn sogar in der Kritik die Anerkennung mitschwingt: Ist an dem Hype um IIIF etwas dran?
[22]Wie viele andere Tech-Erfindungen wurde die Idee zunächst auf einer Serviette skizziert.[27] Es waren Vertreter*innen der Stanford University, der British Library und der Bodleian Libraries anwesend. Sie waren über die erste große Digitalisierungswelle bei Kulturgütern unzufrieden. Das institutionelle Feld sei zersplittert, der Abruf von Bildern in einzelnen Onlinesammlungen deshalb nur isoliert und langsam möglich. Die Hoffnung, dass Digitalisate ein breites Publikum ansprechen, wurde so nicht erfüllt.[28] Wenn man die Bilder auf den Websites überhaupt fand, musste man sie downloaden, so dass bald viele kleine Datensammlungen zum individuellen Gebrauch existierten. Die Verwaltung und Pflege der Webplattformen forderte darüber hinaus kleinere Organisationen heraus. Häufig verpflichteten sie sich proprietären Systemen, die weder die institutionellen Bedürfnisse noch die ihrer Nutzer*innen abdeckten und dabei trotzdem teuer in Anschaffung und Erhalt waren. IIIF ist als Gegenmodell zu diesen ›Insel-Lösungen‹ konzipiert.
[23]Es bietet institutionsübergreifend gemeinsame APIs an, um zu vereinfachten infrastrukturellen Lösungen zu kommen.
[24]Möglichst viele institutionelle Repositorien sollen die gleichen APIs für den Zugang zu Bildern, Metadaten und Annotationen unterstützen, um ein miteinander kompatibles ›Ökosystem‹, sozusagen eine ›babylonische Bibliothek‹ der Bilder aufzubauen und dabei verschiedene Verwendungsszenarien zu ermöglichen.[29]
[25]Dass Betreiber- und Nutzungssicht in die Gründungsgedanken einflossen, ist bis heute maßgeblich für IIIF. Es handelt sich um eine offene Community. Auch wenn viele kulturelle Einrichtungen eine institutionelle Mitgliedschaft haben, sind Interessierte aus allen Bereichen willkommen, sich zu beteiligen. Es ist personell nachvollziehbar, wer bei IIIF verantwortlich ist.
[26]Zu Beginn, 2011, verhalf ein Andrew W. Mellon Foundation Grant zu schnellem Wachstum. Zu den sieben an der Gründung beteiligten Institutionen[30] kamen rasch mehr hinzu, und Fragen der Interoperabilität konnten global verhandelt werden. Die erste Plattform, die IIIF-Technologie 2014 einband, war e-codices, die ›Virtuelle Handschriftenbibliothek der Schweiz‹, die ebenfalls durch die Mellon Foundation gefördert wurde.[31]
[27]2015 hat IIIF ein Konsortium gegründet (IIIF-C), in dem Institutionen vertreten sind, die das Projekt nachhaltig unterstützen wollen. Zu Beginn dieses Prozesses stand ein ›Memorandum of Understanding‹,[32] worauf sich die damals elf ›Core Founding Members‹ einigten.[33] Mittlerweile sind über 50 Einrichtungen im Konsortium vertreten,[34] und insgesamt sind 120 Institutionen als Beteiligte gelistet, die gemeinsam über eine Milliarde IIIF-konforme Bilder bereitstellen.[35] Davon befinden sich die allermeisten in Nordamerika und Europa, mit einigen rege beteiligten Häusern in Südamerika, Australien und Japan. Nur vereinzelt findet man Institutionen auf dem afrikanischen Kontinent, die Teil des Netzwerks sind.[36] Um tatsächlich entkanonisierend im Bilddiskurs zu wirken, wäre es notwendig, das Netzwerk um nicht-westlich geprägte Institutionen zu erweitern.
[28]Ein Vorhaben wie IIIF, dessen Grundidee darin liegt, Interoperabilität möglich zu machen, ist auf Kooperationen angewiesen. Um sich den Fragen des Austauschs zu stellen, wurden 2015, als IIIF dynamisch anwuchs, in einem ›Code of Conduct‹ gewisse Grundsätze festgelegt, die Offenheit und Hilfsbereitschaft innerhalb der Gemeinschaft bestärken.[37]
[29]Im April 2018 überprüfte man die bisherige Entwicklung und dachte mit dem Text »Next Steps for the International Image Interoperability Framework« in die Zukunft.[38] Neben der Absicht, weitere Partnerschaften einzugehen, bleiben inhaltliche Vorgaben und der Gemeinschaftsgeist als tragende Säulen bestehen. Als technisches Ziel wird prioritär die Verbesserung der Auffindbarkeit von IIIF-Ressourcen genannt. IIIF entspricht den Datenrichtlinien nach den FAIR-Prinzipien[39] bislang insofern, als die Daten frei zugänglich, kompatibel und wiederverwendbar sind. Bei der Auffindbarkeit spezifischer IIIF-Daten besteht Verbesserungsbedarf, den eine Discovery-API, die als Beta-Version entwickelt und beispielsweise von der Bodleian Library auch schon implementiert ist, beheben soll.[40]
3.2 Technik
[30]Dass viele wirkungsmächtige Institutionen wie Europeana, Biblissima oder die British Library sich entschieden haben, IIIF einzusetzen, stärkt der Technik den Rücken. Schlüsselinstitutionen – wie das Getty Research Institute – nennen IIIF, neben Linked Data und Machine Learning, als eines der drei großen Forschungsfelder für die Zukunft.[41]
[31]Wie aber ist es technisch aufgebaut, so dass es diese Anziehungskraft ausüben kann? Das Verfahren ist außerhalb der IT-Community bislang immer noch recht unbekannt. Dabei sind einzelne Aspekte bereits beschrieben worden[42] und eine sehr gute praktische Einführung hat Jason Ronallo in einem Online-Workshop zusammengestellt.[43]
[32]Das Herzstück von IIIF sind die beiden zuerst entwickelten APIs – die Image-API und die Presentation-API.
[33]Während die Image-API formuliert, wie die Pixel eines Digitalisats (Image) unter einer URI darstellbar gemacht werden, hilft die Presentation-API, deskriptive, strukturelle, rechtliche und technische Metadaten zu transportieren. Die Content-Search-API ermöglicht darüber hinaus Suchen innerhalb einer Ressource, was gerade für OCR-gescannte Bücher sinnvoll sein kann. Wenn in einem ›geschlossenen‹ Projekt nur bestimmten Usern Zugang gewährt werden soll, kann außerdem die Authentication-API implementiert werden.[44]In Entwicklung befinden sich APIs zur Darstellung von audiovisuellen Inhalten[45] sowie zur Visualisierung von 3-D-Daten.[46] Beide Schnittstellen werden gemeinschaftlich erarbeitet und in Google Groups transparent besprochen.
[34]Um IIIF-Ressourcen bereitzustellen, braucht man zunächst einen Image-Server, der die Image-API unterstützt.[47] Hier liegt jeweils ein Digitalisat pro Ansicht des Objekts in sehr guter Auflösung und kann ›on the fly‹ aufgerufen werden.[48] Die Metadaten müssen der Presentation-API gemäß publiziert werden, folgen aber keinem Metadatenstandard.[49] Falls die Digitalisate bereits auf der Website IIIF-basiert abgerufen werden sollen, muss eine kompatible Viewer-Software eingebunden werden.
[35]Bei den ineinandergreifenden Image- und Presentation-APIs zur Präsentation von Bild und Metadaten handelt es sich um die Kernfunktion von IIIF und um den häufigsten Anwendungsfall. Das Ziel ist es, mit Hilfe dieser APIs digitale Bilder nach Linked-Open-Data-Prinzipien auszugeben, und die verschiedenen Darstellungsmöglichkeiten eines Images anhand nur eines qualitativ wirklich guten Digitalisats zu ermöglichen.[50] Sowohl die Arbeit am Bild, wie auch die Aufbewahrung der Dateien wird so erheblich erleichtert. Die Zusammenstellung der URI für die Image-API mit IIIF-Parametern folgt dabei der Syntax:
[36]
{scheme}://{server}{/prefix}/{identifier}/{region}/{size}/{rotation}/{quality}.{format}
[37]So hat die Wilhelm-Tell-Geschichte im Weissen Buch von Sarnen auf e-codices folgende URI:
[38]https://www.e-codices.unifr.ch/loris/staow/staow-A02CHR0003/staow-A02CHR0003_447.jp2/full/full/0/default.jpg
[39] Die IIIF-Parameter stehen für folgende Segmente:
IIIF-Parameter | Segment | Segmente bei dem Beispiel auf e-codices |
{scheme} |
Protokoll: https oder http | https |
{server} |
DNS-Eintrag oder IP-Adresse des Image-Servers | www.e-codices.unifr.ch/loris |
{prefix} |
String, der auf ein Unterprojekt verweist | staow [Staatsarchiv Obwalden] |
{identifier} |
Unikale ID (Nummer, Signatur, IRI), die mit dem Prefix gemeinsam das Digitalisat benennt | staow-A02CHR0003 |
{region} |
Bestimmt den rechteckigen Ausschnitt, der angezeigt werden soll: full, square, in Koordinaten oder Prozent (Abbildung 4) | full |
{size} |
Größe in Pixeln: full, max, in Pixeln oder Prozent (Abbildung 5) | full |
{rotation} |
Rotationswerte: 0, 10, 90, 180, etc. oder Spiegelung: !0, !10, !90, etc. (Abbildung 6) | 0 |
{quality} |
Farbgebung: bitonal, gray, color, default (Abbildung 7) | default |
{format} |
Dateiformat: JPEG (.jpg), TIFF (.tif), PNG (.png), PDF (.pdf) etc. | .jpg |
Tab. 1: Schema der URI für die Image-API mit IIIF-Parametern. [Mertens 2021]
[50]Wenn man die URI in den Browser kopiert, wird das hinterlegte Bild angezeigt.
Man kann an diese URI nach dem jeweiligen
{identifier}
das Kürzel
info.json
anhängen und erhält die in JSON-LD[51]
hinterlegten Informationen zum Bild.
[51]
{scheme}://{server}{/prefix}/{identifier}/info.json
[52]Ohne zusätzliche Software kann man die Parameter der URI direkt im Browser
variieren und so mit der API ›spielen‹. Es ist möglich, sich nur ein Detail des
Bildes anzeigen zu lassen, man kann es aber ebenso vergrößern, drehen, spiegeln
(mit
!0
) oder es bitonal oder in Graustufen (statt
default
) ausgeben. Die Image-API legt die Struktur der
Darstellung fest.
[53]Da aber allein die Image-API weder zusammenhängende Bildsequenzen darstellt noch deskriptive Information zum Bild oder Verlinkungen mitbringt, braucht es die Presentation-API für die außergewöhnlich gute Viewing-Experience durch IIIF. Die Presentation-API regelt, wie das Bild ausgegeben werden soll, und stellt eine Verbindungsstelle zu Software bereit, die das Objekt rendern kann. Begriffe und Konzepte, die häufig mit IIIF assoziiert werden, wie das Manifest oder das SharedCanvas-Modell, kommen hier zum Tragen.
[54]Ursprünglich als Unterstützung für Handschriftenforschung gedacht, sollten verstreut aufbewahrte Handschriftenfragmente, auf einem sogenannten SharedCanvas zusammenkommen.[52] Virtuell können Digitalisate so zusammen gebracht werden.[53]
[55]Es wird ein digitalisiertes Image (Content) auf einen (fast) leeren Koordinatenraum (Canvas) ›annotiert‹, der mit einem eindeutigen Identifier versehen ist.[54]
[56]Die Bezeichnung des Images / Contents als ›Annotation‹ mag vor allem in Verbindung mit der Möglichkeit, Nutzungskommentare auf dem Canvas zu hinterlassen, verwirrend wirken. Es handelt sich aber tatsächlich um eine konsequente Art auszudrücken, dass ein Image ein ebenfalls zum Canvas hinzugefügtes (›annotiertes‹) Element ist. Das heißt, eine JPEG-Datei und / oder ein TIFF-Dokument etc. (das Image) muss ebenso wie alle anderen Informationen zunächst auf das Canvas appliziert werden, um sichtbar zu sein. Das Canvas hat wiederum die Kapazität, mehrere Images und Annotationen, spätere Kommentare, Transkriptionen oder Übersetzungen aufzunehmen. Sollte es sich bei dem Image um ein mehrseitiges Digitalisat handeln, werden die verschiedenen Images auf jeweils ein Canvas aufgesetzt und dann zu einer Sequenz (beispielsweise zu einem Buch) zusammengefügt, so dass der ursprüngliche, mehrseitige Charakter auch in der IIIF-Darstellungsweise erhalten bleibt.
[57]Innerhalb eines größeren Konvoluts hat man wiederum die Möglichkeit, diese in eigenen Collections zusammenzufassen. So lassen sich die Collections von e-codices unter dieser URI abrufen:[55]
[58]https://www.e-codices.unifr.ch/metadata/iiif/collection.json
[59]Alle Informationen zu einzelnen Werken oder mehransichtigen Objekten werden in einem IIIF-Manifest zusammengefasst. Ein Manifest strukturiert die Informationen, um das oder die Image(s), den Content mit allen Metadaten zu präsentieren. Als ein in JSON-LD verfasster ›Behälter‹ für alle kontextuellen Informationen, legt es fest, wie Bilder miteinander verbunden sind, wie sie gezeigt werden und welche deskriptiven Informationen mitgeliefert werden.[56]
[60]Das Manifest des Weissen Buchs von Sarnen sieht folgendermaßen aus:
[61]https://www.e-codices.unifr.ch/metadata/iiif/staow-A02CHR0003/manifest.json
[62] Um angenehm mit IIIF zu arbeiten, braucht es allerdings eine weitere Komponente: einen Viewer, der als Client die Inhalte des JSON-Files rendert. Ausgehend vom Link zum Manifest lädt der Viewer Bilder und Metadaten und bietet verschiedene Bearbeitungsfunktionen. Ein User ist nicht auf eine bestimmte Software angewiesen, sondern kann, je nach Bedürfnis, aus einer vielfältigen Palette von Viewern wählen.
[63]Die einheitlichen Schnittstellen von IIIF ermöglichen es verschiedenen Anwendungen, auf die offengelegten Daten zuzugreifen. Das sowohl aus Bereitstellungs- wie auch aus Nutzungssicht, denn beide Seiten können – sofern die Daten einmal verfügbar sind – unabhängig voneinander agieren. Eine Institution kann entscheiden, ob sie einen bestimmten Viewer direkt auf der Homepage unterstützt (Embedded-Viewer) oder es den Nutzenden überlässt, sich für eine Software (Standalone-Viewer) zu entscheiden. Selbst wenn die Sammlung aber einen bestimmten Viewer in die Website eingebunden hat, lassen sich die IIIF-basierten Ressourcen auch in anderen Viewern ausgeben.
[64]Angesichts unterschiedlicher Nutzungsszenarien haben die Viewer verschiedene Vor- und Nachteile.[57] Die Viewer-Clients OpenSeadragon und Leaflet-IIIF (beide Embedded Viewer) haben keine Vergleichsfunktion, dafür einen besonders guten Deep-Zoom.[58] Es ist möglich, eine über 3,5 x 5 m große Karte auf das kleinste Pixel genau sehr schnell abzubilden.[59]
[65]Die Viewer-Eigenentwicklung der Universitätsbibliothek Göttingen – Tify – wurde in rund 200 Arbeitsstunden konzipiert, um sehr große Textdokumente anzuzeigen.[60]
[66]Am häufigsten genutzt sind jedoch der Universal Viewer[61] und der Viewer des Project Mirador.[62] Beide sind Standalone-Viewer, besonders vielseitig und gut, um sich an die Flexibilität im Umgang mit IIIF-fähigen Dokumenten zu gewöhnen. Der Universal Viewer wurde 2012 als Wellcome Player für die Wellcome Digital Library entwickelt.[63] Ursprünglich hatte er damit eine Silo-Funktion, erst in Zusammenarbeit mit der British Library wurde er zu einem IIIF-konformen Client.[64] Der aus einem gemeinsamen Projekt der Universitätsbibliothek Stanford und den Entwicklern des Harvard Arts & Humanities Research Computing hervorgegangene Mirador-Viewer bietet die Möglichkeit, innerhalb der Arbeitsoberfläche nahezu beliebig viele IIIF-Digitalisate aus unterschiedlichen Sammlungen miteinander zu vergleichen. Mit Mirador ist es darüber hinaus möglich, in den einzelnen Digitalisaten persönliche Notizen zu machen. Damit die Notizen allerdings erhalten und für alle Nutzenden sichtbar werden, braucht es auch einen Annotationen-Server.[65] Johannes Baiter erkennt das Potential dieses Viewers, wenn er schreibt: »Statt als reinen Viewer kann man ihn auch als eine digitale Arbeitsumgebung für die Arbeit mit historischem Bildmaterial verwenden«.[66]
3.3 Praxis
[67]Abgesehen von spezifischen Forschungsprojekten, trifft man am häufigsten auf IIIF, wenn man in einer digitalen Sammlung browst. Da es bei der Ausgabe der IIIF-kompatiblen Dokumente kein vorgegebenes Szenario gibt, kann diese Begegnung – je nach Präsentationsweise – auch unbewusst passieren. Ist der flexible Umgang mit IIIF allerdings bekannt und der User bemerkt, dass es sich um IIIF-kompatible Objekte handelt, können die Dokumente immer auch ›anders‹, in einem anderen Viewer, in der Form des Manifests, im Detail, vergleichend etc. angezeigt werden.
[68]Um die Differenzen herauszuarbeiten, hilft es einige Präsentations- und Nutzungsszenarien in den Blick zu nehmen: Häufig, so zum Beispiel bei der Bayerischen Staatsbibliothek, aber auch bei der Plattform e-codices, öffnet sich das Bild direkt in einem IIIF-Viewer. Eine Person, die nur das Digitalisat sehen will, braucht alle übrigen Funktionen nicht, kann aber von den Vorteilen des guten Zooms, der Beweglichkeit der Anzeige und den integrierten Metadaten profitieren. Während die Bayerische Staatsbibliothek Mirador durch eine direkte Verknüpfung unterstützt, ist das Bild bei e-codices in OpenSeadragon angezeigt. Man kann sich aber direkt im Web-Interface zu einer Darstellungsversion im Mirador-Viewer weiterleiten lassen, die den Vergleich mit anderen Digitalisaten ermöglicht. Ganz ähnlich geht die Digital Bodleian Library vor: Bereits in der früheren Version ihrer Sammlungspräsentation offerierte sie vier verschiedene IIIF-Ansichten – seit einem Relaunch im Oktober 2020 kommen noch eine verbesserte Suchfunktion, ein Feature zur Objektbetrachtung sowie Downloadmöglichkeiten hinzu. Das Digitalisat wird sehr schnell und in hoher Qualität in einem IIIF-Viewer angezeigt, der sogar tastaturgesteuert verschiedene Ansichten ermöglicht (beispielsweise rotiert das Image, beim Drücken von ›R‹). Durch jeweils einen Klick steht entweder das Manifest des Objekts als JSON-LD, oder eine Ansicht im Universal Viewer sowie in Mirador zur Verfügung. Der Relaunch erfolgte zunächst in einer Beta-Version, wobei die Nutzenden aktiv dazu aufgefordert waren, die Neupräsentation zu kommentieren. Auch in Oxford scheint man überzeugt, dass es wichtig ist, Partizipation zu ermöglichen statt ›nur‹ Zugang zu gewähren.
[69]Die Bayerische Staatsbibliothek stellte bis vor kurzem bei ihrem IIIF-Bookshelf die optionale Anzeige eines Lineals sowie ein Cropping-Tool als zusätzliche Features zur Verfügung. Mit dem Cropping-Tool konnten Teilbereiche des Bildes ausgeschnitten und mit eigener URI versehen werden, die geteilt werden können. Diese beiden nützlichen Helfer überlebten die Überarbeitung der Seite leider nicht. Wer nun croppen will, muss sich mit der URI zum IIIF-Image an die North Carolina State University wenden.
[70]Wenn man von einem Forschungsszenario ausgeht, das zumeist mit einer Web-Application interagiert, und sich nicht hauptsächlich mit den Daten beschäftigt, ist IIIF bei den Plattformen der Bodleian Libraries oder der BSB sehr direkt, aber trotzdem diskret eingebunden. Andererseits besteht natürlich die Möglichkeit weiterzugehen und auch die Manifeste selbst für die Forschung zu nutzen. Weniger benutzungsfreundlich ist eine einfache Verlinkung zum Manifest auf der Webansicht, wie es beispielsweise die Schweizer Portale e-manuscripta und e-rara anbieten. Da kein Viewer verknüpft ist, wird ein unerfahrener User kaum wissen, was zu tun ist.[67]
[71]Zwischen der Flexibilität von IIIF und dem anleitenden Heranführen an die verschiedenen Funktionen liegt nur ein schmaler Grat. Die Frage nach der ›richtigen‹ Herangehensweise ist insbesondere durch die Einbettung von IIIF-Manifesten auf Wikidata seit November 2018 virulent.[68] Da Wikidata und Wikipedia von sehr vielen Menschen genutzt werden, scheinen dies die richtigen Orte zu sein, um IIIF-Manifeste zu veröffentlichen. So kann das Wissen der Vielen abgeholt werden.[69] Es stellt sich allerdings die Frage, ob man hier einen Viewer verknüpfen müsste, um aufmerksam zu machen. Tom Crane, der Entwickler des Universal Viewer, äußert sich in einem Google Groups-Austausch aber eher abwägend, denn »IIIF isn't one particular user experience; it's the raw material for constructing UX.«[70] So ist auch die Einbindung, die Vorwissen und eine eigene Entscheidung in der Nutzung erfordert, konform mit den Intentionen von IIIF.
[72]Ein anders gelagertes Problem bei einer dezentralen Bereitstellung zeigt sich, wenn man sich Ergebnisse von Metadatenmappings – zum Beispiel auf e-manuscripta – anschaut: Im Bibliothekskatalog ist bei einem Bild aus der Zentralbibliothek Zürich noch klar, dass es sich um die fotografische Reproduktion einer von Erich Correns angefertigten Zeichnung von Johanna Kapp handelt. Beim Mapping geht diese Information allerdings verloren und auf e-manuscripta scheint es, als sei Erich Correns selbst der Urheber der Fotografie.[71] IIIF-fähige Quellen sind geradezu dafür gemacht, auch außerhalb der Ursprungs-Plattform und in anderen Sammlungskontexten benutzt zu werden. Ginge man nun diesem Bild weiter nach, würde man sehr bald auf ein weiteres Porträt Kapps stoßen, bei dem sie im Katalogeintrag als ›Freundin L. Feuerbachs‹ geführt wird.[72] Nun hätte man die Möglichkeit, einen Briefwechsel zwischen Johannas Vater, Christian Kapp, und Ludwig Feuerbach in der Sammlung der Bayerischen Staatsbibliothek zu finden[73] und diesen in einem vergleichenden Viewer wie Mirador zu öffnen.
[73]Die Verbindungen zu den ›Heimat-Plattformen‹ sind nicht mehr gegeben und eigentlich auch nicht relevant – es sei denn, die mitgelieferten Metadaten sind nicht vollständig oder gar falsch. Es zeigt sich ein Problem, das sich aus der Aggregation und ›Harmonisierung‹ von Metadaten ergibt, um auf einer gemeinsamen Plattform möglichst schlank präsent zu sein.
[74]Eigentlich sollen IIIF-Schnittstellen zeitraubende Suchen auf unterschiedlichen Webplattformen ersparen und einen dezentralen Weg zum Bild ermöglichen.[74] Wenn die User den Weg zum Material und den Metadaten in einem individuellen Viewer einmal abgelegt haben, sollten sie sich nicht ›zurückbewegen‹ müssen. Bei Digitalisierungsinitiativen gilt es im Kopf zu behalten, dass es nicht mehr zwingend notwendig ist, einzelne Digitalisate »an die bestehenden Kataloge bzw. Bibliothekssysteme an[zu]docken«.[75]
[75]Bei Projekten, die sich explizit auf die Vorteile von IIIF berufen, funktioniert die Technologie oftmals passgenau. Das schweizerische Fragmentarium-Projekt, macht sich beispielsweise die SharedCanvas-Idee als Herzstück des Forschungsanliegens zu Nutze.[76] Von den gleichen Personen, die bereits das Handschriftenportal e-codices verantworteten, wurde Fragmentarium spezifisch für verstreut aufbewahrte Handschriftenfragmente konzipiert. Durch die interoperable Technologie wurde eine »echte Renaissance der Fragment-Forschung« möglich, argumentiert William Duba und illustriert dies an Fragmenten, die durch ihre Online-Veröffentlichung erstmalig zugeordnet werden konnten.[77] Lisa Fagin Davis beschreibt außerdem anschaulich, wie sie in einem Seminar ein Stundenbuch rekonstruieren konnte, von dem 28 Einzelblätter in 28 verschiedenen Sammlungen aufbewahrt werden.[78] Eines der oft im Zusammenhang mit IIIF zitierten Beispiele hat Régis Robineau für Biblissima montiert. Er hat eine beschädigte Handschrift aus der Bibliothèque municipale in Châteauroux (MS 5), mit den heute in der Bibliothèque Nationale de France aufbewahrten ausgeschnittenen Miniaturen digital rekonstruiert.[79]
[76]Man sieht die präzise ausgeschnittenen Stellen der Handschrift und kann sie durch einen Klick auf den zweiten Reiter ›Miniatures‹ mit den Ausschnitten überblenden. Im Manifest kann man nachvollziehen, dass die Handschrift (aus Châteauroux) und die Miniaturen (von der Plattform Gallica) auf ein SharedCanvas montiert wurden.[80] Mehrere Voraussetzungen für die Rekonstruktion stimmten: Es war bekannt, wo die Handschrift und die Ausschnitte sich befinden, und die Digitalisate waren bereits vorhanden. Zudem handelt es sich um akribische, klar rechteckige Ausschnitte, die in Pixeln ausgedrückt leichter an die richtige Stelle des Canvas annotiert werden können, als es bei anderen Schadensfällen möglich wäre.
[77]Es ist unbestreitbar, dass die Handschriftenforschung besonders gut im Bereich der Digital Humanities aufgestellt ist. Es existiert nicht nur eine Plattform, die digitalisierte Manuskripte weltweit verzeichnet,[81] auch der Kollaborationswille scheint im überschaubaren Forschungsfeld groß. Zudem ist keine Urheberrechtsverletzung mehr zu befürchten, was die Aufgeschlossenheit im World Wide Web befeuert. Als wohl wichtigster Grund ist aber zu nennen, dass im Digitalen das möglich wird, was die Beschäftigung mit dem fragilen Material nicht (mehr) leisten könnte: ein tiefgehendes ›Abarbeiten‹.[82] Von Seiten der Handschriftenforschenden wird so die Öffnung der Bestände sehr begrüßt. Jeffrey C. Witt, ein häufig mit IIIF assoziierter Forscher für mittelalterliche Philosophie, stellt klar, dass auch die Institutionen profitieren können: »[W]enn wir die richtige Technologie haben, d. h. wenn wir Daten nach allgemeinen Standards öffentlich machen, bekommen die Kulturerbe-Institutionen gleich viel oder sogar mehr zurück als sie investiert haben.«[83] Was er damit meint, macht die Webseite ›Scholastic Commentaries and Texts Archive‹ (SCTA) deutlich. Hier wurden im vorkonfigurierten Mirador-Viewer Handschriften aus verschiedenen Institutionen versammelt, zu denen das SCTA Kommentare verfasst, Inhaltsverzeichnisse geschrieben und zusätzliche Informationen annotiert hat.[84] Die Forschenden stellen hier ein Derivat des IIIF-Manifests her, um die Anmerkungen zu machen. So kommt es, dass ein Digitalisat des Fragments 167 der UB Leipzig, ein Ausschnitt aus Petrus Lombardus’ Sentenzen, drei leicht verschiedene IIIF-Manifeste hat und sowohl auf der Seite des SCTA wie auf Fragmentarium und bei der Heiminstitution in Leipzig vertreten ist.[85]
[78]Da aber alle Manifeste mit der Canvas-ID der besitzenden UB Leipzig (und mit diesem Digitalisat) arbeiten, ist jede Anmerkung unverwechselbar auf diese Ressource bezogen. Um selbst informiert zu werden, wenn Bearbeitungen vorliegen, hat Witt eine Linked-Data-Notification in seinen modifizierten Mirador-Viewer eingebaut, der wie eine Inbox für Änderungen funktioniert.[86] Auch wenn Witts Gebrauch einer eigenen ›Kopie‹ der Digitalia zunächst Unverständnis bei Institutionen auslöst, so ist seine Art zu forschen, nämlich selbstbestimmt, dezentral und trotzdem offen, auch ein Zeichen dafür, dass die IIIF-Technologie unterschiedliche Bedürfnisse zulässt.
4. Die Fragen des Zugangs
4.1 Digital präsentiert
[79]Das angebrochene »Zeitalter des Zugangs«[87] hat Veränderungsprozesse zur Benutzung von Kulturgut befeuert. Digitale Sammlungen stellen dabei einen wichtigen Schritt dar, da sie im – urheber- und lizenzrechtlichen – Idealfall von überall her abrufbar sind.[88] Viele Einrichtungen haben sich bereits für eine Politik der Offenheit entschieden, dabei gelten Bibliotheken – vielmehr als andere Kultureinrichtungen – bei der Zurverfügungstellung von Content nicht zu Unrecht als Motor der Digitalisierung.[89] Ihre jahrelange Erfahrung in der standardisierten Erfassung ist wichtig, um Sammlungsgut strukturiert zu präsentieren. Allerdings muss zugleich festgestellt werden, dass dieser universelle Zugang im virtuellen Raum bis jetzt nicht immer abhebt. Bei vielen Tools scheint es, als kämen die Angebote nicht bei den Menschen an – als wünschten sie keinen Zugang und schon gar kein partizipatives Angebot.
[80]Wenn Verantwortliche für künftige digitale Projekte bereits im Vorfeld reflektieren, inwiefern sie als Schnittstelle zwischen Technik, Nutzung und Sammlung agieren wollen, käme dies verschiedenen Nutzungsszenarien zu Gute. Es gilt, sich der eigenen Handlungen und der institutionellen Rolle bewusst zu werden. Was ist der Zweck der Aktivitäten? Worin liegt der Antrieb bei der Bereitstellung? Welche Schritte könnten zukünftig sinnvoll sein?
[81]Das ist nicht neu. David M. Levy hat schon im Jahr 2000 gefordert, digitale Vorhaben genauer auszudifferenzieren. Die Bereitstellung von Dokumenten »[f]or the sake of democracy, education, the advancement of science and technology«[90] hätte bisher zu keiner ›besseren‹, inklusiveren Gesellschaft geführt. Auch gegenwärtig wird von Elisabeth Jones bei Digitalisierungsinitiativen noch ein Top-down-Herangehensweise bemängelt, »lacking a great deal of meaningful direct public input«.[91] Nutzende sollten nicht als Zielgruppe verstanden werden, sondern als aktive Mitgestalter*innen.[92] Das heißt, dass Institutionen gewillt sein müssen, sich einer kritischen Befragung zu stellen, die häufig mehr abverlangt als die Bereitstellung einer ›Klick-Anleitung‹.
[82]In einzelnen Museen sind solch transformative Prozesse gerade im Bereich der Vermittlungsarbeit schon zu beobachten. Wenn Vermittlung nicht als Dienst einer Abteilung begriffen wird, die mit autorisierter Stimme über Objekte spricht, sondern die ganze Institution betrifft, können vielfältige Austauschprozesse entstehen – innerhalb der Organisation und mit dem Publikum. Die Dissertation Digital Mediation of Art and Culture. A Database Approach von Florian Wiencek zeigt, dass digitale Onlinepräsentationen eine Brücke zwischen dem häufig interpersonellen Verständnis von Vermittlung und digitalen Angeboten schlagen können. Im Jägerschen Sinn wird die Vermittlungsleistung hier in Form des ›Lesbarmachens‹ angesiedelt und trägt das so entstandene Wissen auch wieder zurück in die Institution.[93]
[83]Allerdings sind es nicht eben Museen, sondern Bibliotheken, die bereitwilliger ihre Sammlungen online stellen und so nicht nur Offenheit demonstrieren, sondern tatsächlich offene Daten liefern. Während es Museen leicht(er) fällt, die Ebene der Repräsentation zur Diskussion zu stellen, sich ›nach Innen zu wenden‹ und hier einen öffentlichen Ort der Debatte zu gestalten,[94] vollziehen Bibliotheken die Repräsentation ›nach Außen‹, in den virtuellen Raum, seit Längerem, allerdings ohne die Auswirkungen ›in ihrem Inneren‹ – und im Gespräch mit den Nutzenden – zu hinterfragen.[95]
[84]Der von Kohle genannte »Original-Fetischismus«, den er mit der Frage konfrontiert, ob man »die Weihestätte des Originals tatsächlich mit dem Digitalen (...) in Zusammenhang bringen [sollte]«[96] liefert an dieser Stelle vielleicht den entscheidenden Unterschied zwischen den beiden Institutionstypen.
[85]Ganz praktisch bedeuten gute, hochauflösende Surrogate für den Bestand, dass er konservatorisch geschützt und weniger gefährdet ist.
[86]Dass digitale Bestände aber auch neue Denkweisen für das Material eröffnen können, zeigt sich vor allem durch die Bereitstellung von Daten für Hackathons. Bei diesen Veranstaltungen wird spielerisch mit Kulturdaten im Bereich der Softwareentwicklung experimentiert, zum Teil mit erstaunlichen neuen Nutzungsarten.[97]
[87]Im Alltag beschränken Institutionen den Datenzugang aber auch heute noch. Bei der Bayerischen Staatsbibliothek werden zum Beispiel IP-Adressen gesperrt, sofern ein Massendownload vermutet wird, bestätigt Caroline Schreiber: »[D]ie Kontrolle über die Daten« soll nicht verloren gehen.[98]
[88]Noch rigoroser positionieren sich die Mannheimer Reiss-Engelhorn-Museen. Sie ließen gerichtlich durchsetzen, dass Bilder ihrer Objekte von Wikipedia gelöscht werden.[99] Laut eines Wikipedians wurden diese im Jahr 2018 auf der deutschen Wikipedia-Seite 8.000 Mal aufgerufen, auf der englischen gar 45.000 Mal.[100] Warum diese Aufmerksamkeit für einen öffentlichen Museumsverbund nicht erwünscht ist, bleibt im Rechtsstreit offen.
[89]Andere Fragen wirft der ›Leitfaden zum Umgang mit Sammlungsgut in kolonialen Kontexten‹ des Deutschen Museumsbundes auf.[101] Obwohl hier durchgehend betont wird, dass für die Provenienzforschung und zur Rechteklärung die Digitalisierung von Sammlungsgut aus der Kolonialzeit unerlässlich ist, lassen gewisse Formulierungen aufhorchen: »[Es] sollte [...] darauf geachtet werden, dass Abbildungen kulturell sensibler Objekte und Daten nicht für alle frei zugänglich gemacht werden, sondern von dem Museum erarbeiteten Zugangsbeschränkungen unterliegen«.[102] An vielen Stellen des Leitfadens wird eine zweischneidige Politik vertreten, die paternalistisch vor Konfrontationen mit rassistischen Abbildungen schützen soll, und damit aber die freie Forschung an diesen Objekten behindert.[103] Gleichzeitig werden so eventuelle Rückgabeforderungen erschwert, denn mitunter sind Objekte, auf deren Restitution es in manchen Fällen Anspruch gäbe, nicht bekannt.[104]
[90]Dabei ist gerade die Praxis, die Sammlungen durch sehr gute Digitalia zu ›verdoppeln‹, als enormer Fortschritt des offenen Zugangs zu Kulturgut zu werten.
[91]Eine mehrstimmige Erzählung zur Geschichte der Objekte und ihrer Beziehungen, die »Hybridität und Migrationen in den Mittelpunkt unserer Idee von Kultur [rückt]«[105] wird so immer greifbarer. Dass der Zugang genau da nicht gewährt wird, wo er eine gesellschaftliche Veränderung hervorrufen könnte – im Sinn einer tatsächlichen ›Umschreibung‹ von historisch begründeten Besitzverhältnissen –, zeigt, dass es sich um ein machtvolles Instrument handelt.[106] Hier muss eine Lösung gesucht werden, die jenseits der institutionellen Ebene ansetzt.
4.2 Zugang? Möglichst offen, bitte!
[92]Angesichts des sich immer weiter öffnenden Forschungsprozesses ist davon auszugehen, dass – von Fördergebern bestärkt[107] Offenheit sich in allen Bereichen des akademischen Lebens weiter durchsetzen wird.
[93]Vermeintlich festgeschriebene Diskurse können durch die Bandbreite der zur Verfügung stehenden Informationen umgeordnet, neu arrangiert und direkt kommentiert werden. Es besteht die Perspektive auf eine neue Wissensordnung. Dass neue Interaktion mit den Beständen sich nicht immer ohne Widersprüche vollzieht, müsste von Institutionen eher als Chance denn als Schrecken verstanden werden. Gerade aus Mehrdeutigkeiten entwickeln sich häufig produktive Gedankengänge.
[94]Die Herausforderung stellt dabei die Loslösung von der Deutungshoheit über institutionelle Sammlungen dar. Nur so können Daten nicht nur an der Nutzungsoberfläche, sondern auch durch offene Schnittstellen bereitgestellt werden.
[95]Dass dieses ›Loslassen‹ auch bei Open-Source-Unterfangen wie IIIF eine Rolle spielt, zeigt ein Gedankenspiel von Tom Crane zur Frage »How do we know what people are doing with our stuff?«.[108] Der Kern des Gedankens von Interoperabilität ist, dass Systeme nahtlos und ohne weitere Absprachen treffen zu müssen möglichst effizient zusammenarbeiten. Oder anders gesagt, die Herausforderung »with interoperability is resisting creating a new database, user interface (UX) or infrastructure that does not allow for ease of interconnection and sharing between diverse and distant heritage institutions«.[109] Es ist das Rezept, um Silo-Infrastrukturen zu vermeiden und möglichst nachhaltig mit Daten umzugehen. Es gilt den Kontrollverlust, den das Loslassen bedingt, auszuhalten. Dies fällt leichter, wenn man bedenkt, dass nicht nur Forschende von offenen Daten profitieren – auch Institutionen ziehen einen Nutzen. Wenn eine nachhaltige Research Data Strategie verfolgt wird, stehen die Ergebnisse eines Forschungsprojekts auch wieder nach dem Open-Science-Prinzip zur Verfügung. Institutionen können sich über ihre offenen Bestände mit der Wissenschaft vernetzen und in die Diskussion zu den Ergebnissen eintreten. Die vielmals nach Rufus Pollock zitierte Aussage »The best thing to do with your data will be thought of by somebody else.« deutet an, welcher Möglichkeitsraum sich öffnet, wenn das Loslassen gelingt. Dabei ist die Nachhaltigkeit von Daten nicht selbstverständlich, muss gewährleistet werden und ist bei Interaktionen mit Daten mitzudenken.
[96]Bei IIIF sind die von Michael Müller sogenannten »Fehlstellen im Annotation Space«[110] noch ein ungelöstes Problem. Durch die Abstrahierungsebene, die IIIF einzieht, indem ein (nicht persistentes) Digitalisat auf ein (mit persistenter ID ausgestattetes) Canvas annotiert wird, kann es passieren, dass weitere, pixelgenau gemachte User-Kommentare ins Leere verlaufen, sobald ein Digitalisat durch ein besseres ausgetauscht oder ganz entfernt wird.
[97]Solange die besitzende Institution in der Verantwortung für die Bereitstellung der Digitalisate steht, ist die Gefahr, dass Informationen auf diesem Weg verloren gehen, gering. Der Schadensfall ergibt sich erst in einer breit verankerten – interoperablen – und offenen Forschungswelt, in der alle am Objekt arbeiten können. Also eigentlich genau dort, wo die offene Wissenschaft hinwill. Durch die erhöhte Präsenz bei Wikimedia und auch durch den Umstand, dass Häuser IIIF implementieren, die beispielsweise mit Google Arts & Culture kooperieren und selbst gar nicht über die besten Digitalisate verfügen, muss über eine Lösung für dieses Problem nachgedacht werden.[111] Die Antwort wird im Zusammenhang mit der Verantwortung für Digitalisat und Canvas zu finden sein.
[98]Die Frage nach der (De-)Zentralisierung der Daten stellt sich in einer Forschungswelt, in der Informationen, Literatur und Forschungsdaten von überallher bezogen und bearbeitet werden können, mit größer werdender Vehemenz und Häufigkeit.[112] Dezentrales und freies Arbeit ist nur möglich, solange gewisse Regeln und Standards befolgt werden. Die vermeintlich ›kleinen‹ Regeln stehen dabei unter einem größeren, zentralen Einfluss.
[99]Der vollkommen freie und offene Raum ist daher widersprüchlich – auch im Web. Es scheint umso wichtiger, die Nachvollziehbarkeit und die Möglichkeit zur Wiederaufnahme von Inhalten zu ermöglichen. Je weiter sich die Wissenschaft in einem globalen Ausmaß vernetzt, je mehr Kooperationen durch technische Infrastrukturen möglich werden, um so wichtiger ist es, Verknüpfungen zu machen und die Möglichkeit zu geben, Beziehungen herzustellen.
[100]Was von bislang erfolgreichen Forschungskooperationen und Projekten zu lernen ist, war im Kern schon in den Diskursen des Pictorial Turn enthalten: das Geheimnis liegt in der Zuwendung zum Material.[113] Was Mitchell für das digitale Bild ausformulierte, dass es nämlich abseits von Symbolismus und Illusionismus ein eigenständiges Ausdrucksmittel ist,[114] könnte heute auch für das Digitale schlechthin gelten. Das würde heißen, das Digitalisat als Material in ›its own right‹ ernst zu nehmen. Es ist nicht abgeschlossen, sondern zur Weiterverarbeitung verwendbar. Diese Haltung, die um das Material kreist, ist implizit auch dem IIIF-Universum zu Eigen, das für jedes Digitalisat die bestmögliche Präsentationsweise anstrebt. Lassen wir uns davon doch zum materiellen Handeln – zur Arbeit – anregen.