1. Was sind digitale wissenschaftliche Publikationen und welche
Möglichkeiten bieten sie?
[4]Digitale wissenschaftliche Publikationen zeichnen sich durch die
Möglichkeiten des Mediums, wie Maschinenlesbarkeit, Multimedialität,
Veränderbarkeit, leichte Kopierbarkeit, Vernetzbarkeit etc. aus und
erweitern methodisch die Verfahren wissenschaftlicher Ergebnissicherung. Die
neuen digitalen Möglichkeiten haben den Begriff der Publikation erweitert,
der die ehemals etablierten Publikationswege über das klassische
Verlagsmodell nur als eine von mehreren Optionen der Veröffentlichung
versteht. Der folgende Abriss geht daher von einem weiten
Publikationsbegriff aus. Dazu zählen ohne Anspruch auf Vollständigkeit:
- Digitale Texte in traditionellen Formen (Monografien, Sammelbände,
Aufsätze, Rezensionen, Editionen, Kommentare)
- Visualisierungen, Bilder, multimediale Inhalte
- Forschungsdaten
- Tools, Software und Algorithmen
- Wissenschaftskommunikation in sozialen Medien (Blogposts, Tweets
u. ä.)
[5]Der wissenschaftliche Qualitätsanspruch der digitalen Publikation ist
derselbe wie bei gedruckten Publikationen. Nachprüfbarkeit, logischer
Aufbau, klar formulierte Fragestellungen, kritische Auseinandersetzung mit
den bisherigen Forschungsergebnissen, Reflexion von Methoden, sprachliche
und strukturelle Exaktheit und schließlich die Erwähnung von den eigenen
Schlüssen zuwiderlaufenden Fakten sind selbstverständlich auch Basis
digitalen wissenschaftlichen Publizierens.
[6]Bei der Publikation digitaler Ressourcen spielt die Möglichkeit zur
maschinellen Verarbeitung beziehungsweise Prozessierbarkeit die entscheidende Rolle und kann als konstitutiv
auch für den Begriff einer idealtypischen digitalen Publikation angesehen
werden. Dabei müssen allerdings das Ziel, auf das hin die digitale
Aufbereitung erfolgen soll, sowie die Form der Prozessierung mitbedacht
werden. Digitale Ressourcen, wenn sie unter dem Gesichtspunkt ihrer
Maschinenlesbarkeit betrachtet werden, lassen sich auch als Forschungsdaten bezeichnen und sind insofern auch nach Maßgabe der
bekannten FAIR-Prinzipien[7] zu beurteilen. Zu
Forschungsdaten zählen dementsprechend alle strukturierten oder
semistrukturierten Datenobjekte, wie z. B. Datenbanken, RDF-Triples oder mit Markup ausgezeichnete Volltexte, aber auch
Images und andere multimediale Objekte, sofern sie Gegenstand eines
Algorithmus werden können. Zu den Forschungsdaten gehören auch Daten, die
die Hypertextualität des Objektes ermöglichen.
[7]In diesem Sinne digital re-kodierte oder direkt erzeugte Ressourcen bieten
einen Mehrwert, weil sie vermittels geeigneter Algorithmen Gegenstand von
Forschungsfragen werden können, die sich digitaler Methoden bedienen. So
kann z. B. die zum Zweck der digitalen Verarbeitbarkeit modellierte
Textstruktur mit einem variablen Layout ausgestattet, dynamisch modifiziert,
in verschiedene Forschungskontexte eingebettet, im Hypertext referenziert
oder mit einem Interface versehen werden, das für die jeweiligen
Anforderungen passende spezifische Abfragen und Ansichten ermöglicht. Mit
Textmining-Techniken sind z. B. Aussagen über den
Urheber (Stilometrie) oder automatische
Identifikation von Themen (Topic Modeling) möglich.
Digitale Publikationen können auch selbst Gegenstand von Forschungsfragen
sein, funktional also zu Forschungsdaten werden. Ein solches
Publikationsdesign bzw. -modell erfordert konzeptionelle Arbeit, es ist
integraler Bestandteil und Ergebnis geisteswissenschaftlicher Forschung und
keine technisch-abstrakte Routine.
[8]Bislang gibt es in den Geisteswissenschaften keine etablierten Verfahren, die
wie in der Printkultur, wo die Form des Titels, des Inhaltsverzeichnisses,
der Textgliederung, der Register, des Zitationssystems usw. weitgehend
festgelegt sind, verbindlich vorschreiben, wie eine Publikation von in
diesem Sinne verstandenen digitalen Dokumenten beziehungsweise
Forschungsdaten aussieht. Immerhin zeichnet sich ab, dass in technischer
Hinsicht mittlerweile gut eingeführte offene Standards für
Daten und Metadaten insbesondere auf Grundlage der XML-Familie verwendet werden, um das digitale
Potenzial auszunutzen. Konkret kommen dabei die Schemata der TEI, MEI, JATS sowie BIBS für die Strukturierung
von Volltexten zur Anwendung. Typische deskriptive Metadatenformate sind
u. a. DC, MODS, EAD und LIDO. Für die
Beschreibung von Strukturen und Dateien ist METS
populär, im Bereich der Bestandserhaltung PREMIS.
Für Schnittstellen kann je nach Anwendungskontext auf REST, SPARQL o. ä. für
Abfragemöglichkeiten zurückgegriffen werden. Nicht-strukturierte
Dateiformate für Texte wie z. B. PDF sind
demgegenüber möglichst als Masterfile zu vermeiden und allenfalls als
Derivate für Lesefassungen oder Simulacra für den Druck nützlich.
[9]Auch wenn Kommunikationsmedien wie Blogs und soziale Netzwerke eine zunehmend
wichtigere Rolle spielen, ist der nach wie vor häufigste Fall digitalen
Publizierens im geisteswissenschaftlichen Feld die Publikationen eines
längeren Textes (Monografie, Artikel). Da die Transformation der jeweiligen
Ressource in eine maschinenlesbare und damit prozessierbare Form, d. h. die
Umwandlung einer Ressource zu Forschungsdaten, Voraussetzung für deren
Nutzung im Kontext der Digital Humanities ist, müssen auch Monografien oder
Artikel nach Maßgabe der jeweiligen Forschungsfrage so aufbereitet werden,
dass sie diesen neuen Nutzungszusammenhängen genügen. Texte werden nicht
mehr nur gelesen, sondern auch »gerechnet«, wie Gerhard Lauer
einmal pointiert formulierte.[8]
Hier muss es also darum gehen, die Struktur und Bedeutung des Textes so zu
modellieren, dass er Gegenstand algorithmischer Auswertungs- und
Visualisierungsprozesse werden kann. Typischerweise erfolgt dies mit
deskriptivem Markup (im Unterschied zu prozeduralem Markup)[9] in XML,
auch wenn letzteres mit Blick auf überlappendes Markup in die Kritik geraten
ist. Allerdings liegt dem eine problematische Gleichsetzung des in vielen
Fällen tatsächlich inadäquaten OHCO-Modells und
XML zugrunde. XML ist
als Syntax durchaus offen, auch nicht-hierarchische und vom OHCO-Modell abweichende Textmodelle darzustellen, wie
u. a. auch die Guidelines der TEI[10] verdeutlichen. Oft wird
bei der Kritik an XML übersehen, dass die XML-Datei nur eine Komponente der digitalen
Publikation bildet, die erst durch eine Schemabeschreibung (XSD, RelaxNG, schematron) und entsprechende Skripte vollständig in
ihrer Funktionalität beziehungsweise in ihrem Potential bestimmt wird. So
können Elemente per Schema als alternativ oder optional charakterisiert
werden, Skripte steuern die Anzeige oder den Output, der auf der Oberfläche
auch in ganz anderer Sequentialität auftreten kann, als er im XML-Dokument steht.[11] Die XML-Datei ist
insofern zwar menschenlesbar, allein ist sie jedoch erst einmal nur ein
Code, der vermittels eines Programmes beziehungsweise Skriptes zur Ansicht
gebracht werden muss. Typisch sind hier XSLT und
XQuery, abgeleitet aber auch CSS oder Javascript, die für das Layout
sorgen und die Semantik der Elemente über ästhetische Funktionen anreichern
beziehungsweise mit einer eigenen Bedeutungsdimension ergänzen. Für den
XML-Code ist wichtig, dass er nicht nur auf der
Grundlage von Wörtern und Sätzen analysiert werden kann, sondern dass seine
Bedeutung durch die Einbringung von inhaltlichem
(deskriptivem beziehungsweise semantischem) Markup explizit und damit
prozessierbar gemacht wird.
[10]Wenn der kodierte Text sich je nach Kontext oder nach Wunsch des Nutzenden in
unterschiedlichen Viewport- oder Layoutformen präsentieren lässt, verwandelt
sich die sichtbare Oberfläche und ist nur noch ein dynamisches und volatiles
Produkt unsichtbarer, aber werkkonstitutiver Grundstrukturen, auf die
Algorithmen angewendet werden. Der Text ist damit prinzipiell anders zu
bewerten als die starre und unveränderbare Oberfläche zweidimensionaler
gedruckter Publikationen, die bedeutungstragendes Markup im Layout kodieren
(etwa: kleine Zahl unten ist eine Fußnote, kleine Zahl über dem Textblock
ist eine Seitenzahl etc.).
[11]Einen Text unter solchen Bedingungen zu ›schreiben‹ heißt daher, seine
Nutzung in einem digitalen Kontext zu antizipieren und analytische
Auswertungs- sowie Darstellungsmöglichkeiten mit zu bedenken. Von besonderer
Wichtigkeit ist die Kodierung der Bedeutung des
Textes durch sachgerechtes und standardkonformes Markup. Bedeutung heißt
hier nicht, dass der Text hermeneutisch vollständig durch Markup zu
beschreiben wäre, sondern dass vor allem generische Textstrukturen
(Einleitung, Haupttext, Fußnoten, Inhaltsverzeichnis, Register,
Bibliographie u. ä.) und typische Entitäten (Personen, Orte, Körperschaften,
Zeitbegriffe, Zitate etc.) kodiert werden. Disziplinen- und
gattungsspezifische Anpassungen sind durchaus sinnvoll (z. B. nach dem in
den Naturwissenschaften typischen IMRAD-Modell)[12] und
müssen sich – ebenso wie früher im gedruckten Werk – als Standard
etablieren. Mit deskriptivem Markup versehene Texte müssen, um in vollem
Sinne für DH-Anwendungen nachnutzbar zu sein, nicht nur mit einem Schema
Auskunft über ihren Dokumenteninhalt und die Kodierungspraxis geben, sie
müssen auch maschinenlesbare bibliographische, strukturelle, administrative
und technische Metadaten enthalten. Dabei sollte es Ziel sein, diese
Metadaten nicht mehr getrennt vom Dokument vorzuhalten, wie dies in
Bibliothekskatalogen der Fall war, deren Datenbankeintrag – oder früher eine
Karte des Zettelkatalogs – einen Proxy des Originals bildete. Vielmehr sind
Metadaten möglichst in das Dokument zu integrieren oder vom Dokument aus auf
sie zu verweisen, um daraus jederzeit einen vollständigen Suchindex erzeugen
zu können.
[12]Grundsätzlich ist es am besten, wenn die Wissenschaftlerin oder der
Wissenschaftler den von ihm oder ihr geschriebenen oder sonst erzeugten Text
selbst auszeichnet, weil er oder sie den Text sowie die zugrundeliegende
Fragestellung am besten kennt. Dafür stehen den Wissenschaftler*innen heute
technisch ausgereifte Werkzeuge zur Verfügung, die gleichwohl abhängig von
der technischen Affinität der Geisteswissenschaftler*innen als
unterschiedlich anspruchsvoll wahrgenommen und benutzt oder eben auch
ignoriert werden. Die Auszeichnung (Markup) durch
externe Dienstleister wie beispielsweise das jeweilige Publikationsorgan
wäre immer nur die zweitbeste Lösung. In jedem Fall ist es unverzichtbar,
dass die in den Text hineinkodierten Strukturen allen an der Textherstellung
beteiligten Personen bekannt sind, weil sie einen wesentlichen Teil des
digitalen Textes bilden und ihn ebenso charakterisieren wie die in ihm
enthaltenen Worte und Formulierungen. Die Auszeichnung (Descriptive Markup) beschränkt sich nicht nur auf Text (als
schriftlichen Ausdruck), sondern erstreckt sich auch auf nicht-textliche
Daten wie Abbildungen, Videos oder Programmcode.
[13]Ein markantes Kennzeichen digitaler Texte ist ihre Veränderbarkeit und
prinzipielle Offenheit. Sie können nach der (Erst-)Publikation
fortgeschrieben werden. Vor diesem Hintergrund zeichnet sich ein Trend von
der Ergebnis- zur Prozesspublikation ab. Ob dies in allen Fällen klug und
geraten ist, kann hier nicht entschieden werden, wenn aber von dieser
Möglichkeit Gebrauch gemacht wird, sollte eine digitale Publikation Auskunft
über ihren Status geben, indem für sie entweder technisch Versionierungsverfahren angeboten werden oder sie mit einer
Erklärung über ihren jeweiligen Zustand sowie mit einer Erläuterung zur
Nachvollziehbarkeit der Entwicklungsschritte ausgestattet wird. Gerade in
diesem Moment unterscheidet sich eine digitale Publikation deutlich von
ihrem gedruckten Pendant, das solche Prozesse nur in verschiedenen Auflagen
zu realisieren vermag.
[14]Darüber hinaus sind digitale Texte vor allem auch Knoten in Netzwerken. Ein
Buch öffnet das andere, wie ein altes Sprichwort sagt. Die Vernetzungsfähigkeit, also die medienintegrale Verknüpfung von
Dokumenten und Gegenständen, ist eines der wichtigsten Eigenschaften des
digitalen Textes (Hypertextualität). Genutzt wird
heute vor allem die Möglichkeit, Quellen beziehungsweise die Aussagen
belegende Dokumente und Literatur einzubinden, so dass implizit ein Netz
entsteht, das seinerseits Gegenstand der Analyse werden kann (Netzwerkforschung, Bibliometrie,
Relevanzanalyse, Citation
Index etc.). Über den klassischen Link hinaus gewinnt zunehmend
auch das Semantic Web an Bedeutung (siehe oben zur Dokumentstruktur von
Publikationen). Hier werden Verknüpfungsinformationen in Gestalt von Linked Open Data (LOD) angeboten. Darin mitgedacht ist,
dass digitale Texte soziale Produkte sind, die als Anknüpfungs- und
Zielpunkt nicht nur der engeren wissenschaftlichen Interaktion und des
Diskurses, sondern auch der breiteren Öffentlichkeit sind. Deren Diskurs
schlägt sich wiederum in Texten nieder (Annotationen, Blogs, Büchern etc.)
und bringt neue Formen der Transparenz und Rückwirkung auf die
wissenschaftliche Praxis und des wissenschaftlichen Erkenntnisprozesses mit
sich. Es geht also nicht nur um einen engeren, vernetzten Dokumentenraum,
sondern ein offenes Netz, in dem sich kommunikative mit
literarisch-wissenschaftlichen Publikationsformen mischen.
[15]Zur Nutzung im Netz gehört auch die weltweit eindeutige und verlässliche Referenzierbarkeit und Langzeitverfügbarkeit von Dokumenten. Während Zitierformen für
elektronische Texte unterhalb der Dokumentebene noch ungenügend
standardisiert sind (der Wegfall der physikalischen Seitenreferenz erzwingt
neue Zitierformen), haben sich für die Dokumentebene eine Reihe von Services
etabliert, die ein persistentes Zitieren erlauben (DOI, URN, Handle und PURL sind die häufigsten).
Die Frage der dauerhaften Verfügbarkeit und Archivierung der Dokumente ist
auf der Bitstream-Ebene weitgehend gelöst, die komplexe Ebene der
Information Representation (nach der
OAIS-Formulierung [ISO 14721:2012])[13] harrt jedoch weiterhin geeigneter Sicherungsverfahren und
sollte Gegenstand intensivierter Forschung der dokumentenverwahrenden und
-sichernden Einrichtungen (Bibliotheken, Archive, Museen) werden. Die
Nutzung von bewährten und gut verstandenen XML-Technologien kann dazu beitragen, indem Dokumente mit
deskriptivem Markup in XML kodiert werden. Zudem
sollten Schemadateien zur Beschreibung des Funktionsumfanges des Dokumentes
genutzt und XSLT- beziehungsweise XQuery-Skripte in Verbindung mit standardisierten Skriptsprachen
wie CSS und JavaScript
verwendet werden, um alle Bedeutungsdimensionen transparent abzubilden. Dies
gelingt derzeit vor allem mit Textdokumenten gut. Audiovisuelle- oder
Objekt-Komponenten bedürfen einer gesonderten Betrachtung, jedoch gibt es
auch hier schon eine Reihe von gut etablierten Standards und
Metadatenformaten, die im Falle einer Langzeitarchivierung zu
berücksichtigen wären.
5. Zitationsprozesse: Identifikation und Auffinden von digitalen
Publikationen
5.1 Zitationsprozesse
[58]Das Rückgrat jeder digitalen Publikation im wissenschaftlichen Kontext
bilden die Zitierfähigkeit und die Stabilität des Textes. Ohne die Möglichkeit von zuverlässigen
und beständigen Identifizierungen sind wissenschaftliche Texte in
digitaler Form nur eingeschränkt nutzbar und Potentiale des digitalen
Publizierens bleiben ungenutzt. Während im modernen Druck der Buchtitel
in Verbindung mit Seitenzahlen oder Zeilenzählungen die Grundlage für
wissenschaftliches Arbeiten dadurch schuf, dass Aussagen durch Zitate
verlässlich überprüft werden konnten, müssen für elektronische Medien
Mechanismen geschaffen werden, die Ähnliches leisten. Anders als im
Druck können aber nicht mehr physische, materialgebundene Einheiten wie
Seitenzahlen verwendet werden, sondern es bedarf spezieller Identifier,
die idealerweise weltweit eindeutig sind und die so verlässliche
Zugriffsmöglichkeiten auf die Dokumente bieten. Die URL als das bekannteste Adressierungsverfahren im WWW ist
zwar weltweit eindeutig, bietet aber weder eine Garantie für die
dauerhafte Bereitstellung des Dokumentes noch für dessen
Unveränderlichkeit. Des Weiteren identifiziert die URL nur den auf dem Ausgabegerät beim Aufruf dargestellten
Inhalt, möchte man aber eine vom Verlauf der Browsersession abhängige
Ansicht oder nur einen Teil des gezeigten Inhalts, wie z. B. den vierten
Eintrag in einer Trefferliste oder eine Einheit eines längeren Textes
zitieren, so ist die URL dafür nicht ohne
Weiteres geeignet. Aus dem Wechsel eines Servers, der Neustrukturierung
von Internetangeboten oder durch das Ändern der Inhalte können verwaiste
Links resultieren.[45] Hierdurch wird
der für das wissenschaftliche Arbeiten obligatorische Faktor der
Nachvollziehbarkeit der belegten beziehungsweise zitierten Quellen
erschwert und das grundsätzliche Vertrauen der Wissenschaftler*innen in
das Format digitaler Publikationen beschädigt. Die Lösung des
skizzierten Problems besteht in der Referenzierung von Dokumenten
mittels Persistent Identifier, die durch institutionell-organisatorische
Gewährleistungen die Eindeutigkeit, Stabilität und Persistenz der
Dokumente absichern, und sie zugleich mit einer technischen
Infrastruktur verkoppeln, die es durch Internet-Techniken erlaubt, die
referenzierten Dokumente auch aufzufinden.[46]
[59]Auch besteht bei digitalen Publikationen die Möglichkeit, eine feinere
Granularität bei den Referenzierungen zu erreichen. In digitalen
Volltexten ist theoretisch jeder Buchstabe gesondert zitierbar und neben
den technischen Möglichkeiten, die sogenannte Fragment
Identifier oder Web Annotations zu
verwenden, können durch die Einschaltung einer solchen institutionellen
Ebene Policies definiert und kontrolliert werden. Dadurch können, je
nach Identifier-Bestandteilen oder sonstigen Parametern, Anfragen
differenziert weiter aufgelöst, parallele Sichten (Text / Digitalisat)
oder alternative Repräsentationen desselben Textes (XML / PDF / HTML) angeboten und zugleich auf der Governance-Ebene die
Permanenz dieser weiteren Differenzierungen gewährleistet werden.
Während bei Digitalisaten nach Vorgabe der DFG-Praxisregeln
üblicherweise eine Identifizierung auf der Seitenebene (Image)
stattfindet, hat sich für digitale Volltexte noch kein Standard wirklich
durchgesetzt. Aktuelle Bemühungen und technische wie organisatorische
Entwicklungen deuten allerdings darauf hin, dass auch hier die
Möglichkeiten präziserer und transparenterer Adressierungen zunehmend in
Anspruch genommen werden.[47]
[60]Ein weiteres Motiv, das in der Entwicklung digitaler Zitationen eine
Rolle spielt, ist die Möglichkeit, die Zitationen selbst als Daten zu
behandeln. Durch die Verwendung eindeutiger Identifier lassen sich über
verschiedene Zitierstile hinweg Referenzen identifizieren und es gibt
Repositorien solcher Zitationsdaten, die zu verschiedensten Zwecken
ausgewertet werden.[48] Um die
soeben skizzierten Potenziale auszubauen beziehungsweise Ziele zu
erreichen, sollten die Vorteile und die Notwendigkeit einer persistenten
Adressierung stärker in den Fokus der digitalen Infrastrukturmaßnahmen
rücken und auch als Best Practice beim wissenschaftlichen Arbeiten
angesehen werden.
5.2 Persistente Identifikation und Adressierung
[61]Persistente Identifikatoren liefern folgende Vorteile, mit denen sie die
Qualität des wissenschaftlichen Diskurses steigern und das Vertrauen der
Wissenschaft in digitale Publikation fördern:
- Dauerhafte Identifikation der publizierten
Ressourcen
- gewährleistete Nachhaltigkeit der
Texte
- Das Verlinken der Texte wird gefördert, was sich positiv auf die
wissenschaftliche Reputation auswirkt, indem es die Reichweite
erhöht
- Verfügbarkeit, Sichtbarkeit und Nachnutzbarkeit der Texte werden
erhöht
- einfache Zitation, bessere Nachvollziehbarkeit für die
Forschung
- Nachweismöglichkeit von Zitationsraten
- erhöhte semantische Interoperabilität der
Publikation durch die Metadaten, die bei der Erhebung von
persistenten Adressierungen anfallen. Informationen über miteinander
in Beziehung stehende Texte können so festgehalten werden.
Entscheidend ist dabei die Qualität der Metadaten, die sich nicht
zuletzt auch in der Verwendung von Normdaten (z. B. GND, ORCID)
manifestiert
[62]Das Verfahren der persistenten Identifikation wird über sogenannte Persistent Identifier
realisiert. Persistent Identifier trennen anders als die URL die Identifikation der Objekte von
ihrem Standort.[49] Für die Referenzierung wird dabei eine eindeutige Zeichenkette verwendet,
die allein der Identifikation dient. Anders als die Identifikation und Referenzierung
eines Dokuments,
ist dessen Auffinden und Herunterladen damit noch nicht gewährleistet, insofern diese
Zeichenkette
(z. B. ein DOI wie 10.5281/ZENODO.31780
) nicht durch das HTTP-Protokoll aufgelöst werden kann,
sondern eines dazwischenliegenden Mechanismus bedarf, um auf die zum Objekt gehörende
Adresse
beziehungsweise URL aufgelöst zu werden. Der als Resolving bezeichnete Mechanismus benötigt somit
eine digitale Infrastruktur (z. B. den unter https://doi.org/…
erreichbaren Dienst), sodass für die
Verwendung von Persistent Identifiern auch aufgrund ihrer Langfristigkeit eine institutionelle
Unterstützung
notwendig ist. Da diese Infrastruktur in vielen Fällen nicht die Ressource selbst
speichert, sondern nur
eine stabile und zuverlässig aktualisierte Assoziation eines eindeutigen und langfristig
reservierten
Identifiers mit einer ›beweglichen‹, anderweitig gespeicherten Ressource darstellt,
ist die Gefahr, die
Ressource möglicherweise nicht mehr auffinden und herunterladen zu können, noch nicht
gebannt.[50]
Anders als im Falle der URL-Adresse bei verschwundenen Webseiten erhält man aber in
so einem
Fall mindestens noch Metadaten über die ursprünglich erreichbare Ressource und nicht
bloß einen
Fehlercode, der auf vielfältige Ursachen zurückgehen könnte. Es existieren unterschiedliche
Konsortien,
die als Registrierungs-, Kontroll- und Infrastrukturinstanz-PI-Systeme anbieten, u.
a. das Handle-System
oder Persistent URL (PURL).[51] Im Kontext der wissenschaftlichen Veröffentlichungen werden aktuell die
Systeme Digital Object Identifier (DOI) und Uniform Ressource Name (URN) am meisten verwendet.
Jeder DOI-Name muss mit einem Metadatensatz verknüpft sein, der bibliographische und
inhaltliche
Informationen zu dem registrierten Datensatz beinhaltet.[52] Somit dient der DOI-Name auch dem
Datenaustausch und dem Nachweis des Datensatzes. URNs werden vor allem im bibliothekarischen
Bereich verwendet und bilden einen Bestandteil für die Katalogaufnahmen. Sie setzen
sich aus mehreren
hierarchischen Teilbereichen zusammen. Die Deutsche Nationalbibliothek stellt ein
zentrales
URN-Schema für den Namensraum ›urn:nbn.de‹ zur Verfügung und stellt einen Resolving-Dienst
zur
Verfügung.[53]
[63]Besonderes Augenmerk sollte aber auf das Zusammenspiel von PI-Mechanismus
und dem Repositorium gelegt werden, wo die
publizierte Ressource langfristig archiviert werden soll: Oft übernehmen
mit langfristiger Datenhaltung betraute Institutionen wie Bibliotheken
sowohl die Speicherung als auch die Vergabe von Identifiern und betreuen
›ihre‹ Identifier bei den Resolving-Diensten, d. h. sie aktualisieren
die entsprechenden Verweise, wenn die Adresse des Archivals sich doch
einmal ändern sollte.[54]
[64]Welche Technik das jeweilige (trusted) Repository für die persistente Identifikation verwendet, ist zwar grundsätzlich
abhängig vom vorliegenden Material und dem Verwendungszweck. Daher – und
weil verschiedene Disziplinen und Publikationsformen je anderen
Gepflogenheiten unterliegen und verschiedene Autor*innen auf je andere
institutionelle Angebote zurückgreifen können – kann in diesem Rahmen
keine eindeutige Empfehlung ausgesprochen werden. Als ein wesentlicher
Vorteil von Digital Objekt Identifier (DOI) sei
aber die Vergabe und Kontrolle durch eine Registrierungsagentur sowie
die zusätzlich stattfindende Qualitätsprüfung vergebener DOIs durch die DOI-Foundation genannt. Zwar
werden auch Uniform Resource Names (URN)
qualitätsgeprüft, allerdings können sie im Gegensatz zu DOIs nur auf
Seiten der Vergabeeinrichtung aufgelöst werden. Handles sind dagegen
eher für große Datenmengen (Big Data) geeignet,
da sie aber durch keine übergeordnete Einrichtung geprüft werden, sind
sie für wissenschaftliches Zitieren von Texten weniger geeignet. Zudem
haben sich in den Entwicklungen des Forschungsdatenmanagements und der
Empfehlungen zur Zitation wissenschaftlicher Software in der Praxis
Dienste etabliert, die DOIs verwenden und
diesen auch in wissenschaftlichen Feldern zu einiger Verbreitung
verhelfen.[55]
[65]Für die Durchsetzung einer persistenten Identifikation sollte der Vorgang
der Registrierung einer digitalen Publikation entweder für den*die
Autor*in intuitiv und mit wenig Aufwand möglich sein und / oder als
Dienstleistung von Forschungseinrichtungen angeboten werden. Die
Verpflichtung einer dauerhaften verbindlichen DOI-Registrierung sollte von den Anbieter*innen durch
Absichts- und Garantieerklärungen deutlich gemacht werden, zu denen
ergänzend auch eine Exit-Strategie gehört (beispielsweise Bodleian Libraries digital policies: DOI
assignment[56]
oder die Institutionelle Muster-Policy für die Registrierung von Digital
Object Identifier (DOI)[57]).
5.3 Versionierung
[66]Da eine der wesentlichen Eigenschaften digitaler Texte ihre Veränderbarkeit ist,
ist eine persistente Identifikation alleine jedoch nicht ausreichend, um eine
wissenschaftliche Zitierfähigkeit zu gewährleisten. Zusätzlich bedarf es einer
Versionierung des Textes mit der Angabe der Versionsunterschiede. Denn es
soll ja in der Regel möglich sein, eine Ressource im Zuge weiterer wissenschaftlicher
Arbeiten und Erkenntnisse zu aktualisieren, oder umgekehrt, zu erkennen, ob für ein
gegebenes – etwa über einen Persistent Identifier aufgefundenes – Dokument die
aktuellste oder eine veraltete / historische Fassung vorliegt. Die verschiedenen
Fassungen des Dokuments müssen dabei jederzeit wiederherstellbar sein, was eine
verlässliche Archivierung erfordert. Durch ein Versionierungssystem werden die
Faktoren der Textstabilität und der Modifizierbarkeit von Texten verein- und abbildbar.
Ähnlich wie bei Wikipedia ließen sich so frühere Zustände leicht rekonstruieren. Um
Möglichkeiten zu schaffen, Texte auch nach deren verbindlicher Veröffentlichung zu
bearbeiten, sollten Anbieter*innen von Publikationsumgebungen daher ein
Versionierungssystem (z. B. git[58]) anbieten. Grundvoraussetzung für die Wahl eines
geeigneten Versionssystems ist wiederum die öffentliche Zugänglichkeit der Texte
und die Vergabe von freien Lizenzen.
[67]Vor dem Hintergrund erprobter Web-Technologien und aus technischer Sicht
erscheint Memento bedenkenswert, eine erweiterte Variante dieser Praxis: Ein
Repositorium hält überholte Versionen von Dokumenten vor und beim Aufruf des
Dokuments kann über ein standardisiertes Protokoll auf die Verfügbarkeit einer
aktualisierten Version hingewiesen beziehungsweise eine historische Version des
Dokuments ausgeliefert werden. Diese Technologie liegt dem Portal archive.org[59]
und vielen anderen Web-Archiven zugrunde und wird für Wiki und Spezifikationen
des W3C[60]
eingesetzt. Da dieses Verfahren einigen Aufwand mit sich bringt, wird es
sich wohl nur schwer in der Wissenschaft etablieren lassen.[61] Jedoch ist diese Methode
sehr flexibel und kann gerade im Bereich des Zitierens von komplexen Webansichten
oder von Forschungsergebnissen, die über Tools generiert worden sind, eine
bedenkenswerte Alternative darstellen, z. B. über sogenannte Robust Links.[62]
[68]Das Verhältnis solcher Strategien zu Persistent Identifiern ist im Übrigen noch
klärungsbedürftig, sind doch die im Memento-Protokoll verhandelten Dokument-Adressen
in der Regel keine persistenten Adressen, und umgekehrt stellen das DOI-System und
andere PI-Mechanismen den einzelnen Registrierungsagenturen frei, wie sie mit Versionierung
verfahren.[63]
5.4 Textkombinationen und Textoberflächen
[69]In den hier vorliegenden Diskussionen liegt der Schwerpunkt auf dem
Zitieren der Texte ›an sich‹, ihrer Passagen und Fragmente sowie ihrer
Überarbeitungsstadien. Im digitalen wissenschaftlichen Arbeiten werden
Einsichten allerdings zunehmend auch aus gleichsam ›ephemeren‹
Konstellationen gewonnen, die auf der Grundlage von solchen Texten oder
Datenbanken und von Benutzer*innen-Interaktionen dynamisch erzeugt
werden: Textfragmente werden durch Filter neu zusammengestellt,[64] Ansichten werden je nach Spezifika
der Anzeigegeräte oder eingegebener Suchbegriffe angepasst und durch
visuelle Hervorhebungen verändert usw. Die wissenschaftlich
aufschlussreichen – und deshalb wünschenswerterweise zu zitierenden –
Textphänomene sind weder in den Ursprungstexten ›an sich‹ noch in den
Tools eingeschrieben, noch sind sie je annähernd erschöpfend von
Autor*innen und Publizist*innen antizipierbar. Zwar betreffen sie
vorrangig die ›Oberfläche‹ der Texte, aber auch Oberflächenphänomene
sollten wohl zitierbar sein. Im Grunde bedarf es einer Zitation nicht
nur der Texte, sondern auch der Regeln, nach denen diese (zum Zeitpunkt
der Zitation) zusammengestellt werden sowie der nur zur Laufzeit
bekannten Variablen, die in diesen Regeln auf die Texte angewandt
werden.[65]
Hierfür gibt es jedoch noch kaum Erfahrungen und Empfehlungen. Am
ehesten lässt sich an das vergleichsweise junge TEI-Processing-Modell und das ODD-Datenformat (One Document Does it all) denken, mit denen
Datenschema und Aufbereitungsregeln gekapselt und neben dem Text selbst
zitiert werden können (wobei hier die Parameter für die konkret zu
zitierende Konstellation nicht erfasst werden), oder an Workflows und
Formate der Webarchivierung denken (die aber nur
die Oberfläche und nicht ohne Weiteres die zugrundeliegenden Daten
erfassen). Diese Fragen werden sicherlich in der zukünftigen AG-Arbeit
eine wichtige Rolle einnehmen.
5.5 Zitierstile
[70]Bei der Verwendung von Persistent Identifiern sind zwei Anwendungsszenarien zu
unterscheiden: Während für die maschinelle Weiterverarbeitung die Angabe des Persistent
Identifiers
vollkommen ausreichend ist, benötigen Forscher*innen zusätzlich weiterhin die gewohnten
bibliographischen Angaben. In diesem Bereich existieren eine Reihe von etablierten
Zitierrichtlinien,
die sich bei den einzelnen Fachdisziplinen unterschiedlicher Beliebtheit erfreuen.
Eine Festlegung
auf einen Standard erscheint aufgrund der diversen Zitiertraditionen als nicht aussichtsreich.
Als
gemeinsamer Standard würde jedoch die ISO-Norm 690:2010[66] am ehesten in Frage kommen. Die
Arbeit mit den unterschiedlichen Zitierstilen kann im Bereich des digitalen Publizierens
durch die
automatische Generierung und Formatierung von Zitationen und Bibliographien sowohl
auf Seiten
der Autor*innen wie auch redaktioneller Seite erleichtert werden. Zur Beschreibung
von Formaten
für bibliografische Angaben und Zitierstile steht mit der Citation Style Language[67]
(CSL) eine XML-Sprache
zur Verfügung, die sich zunehmender Beliebtheit erfreut und u. a. auch von Literaturverwaltungsprogrammen
wie Zotero und Publikationsplattformen wie OJS, Islandora oder Drupal unterstützt
wird.[68]
[71]Unabhängig von der gewählten Zitierrichtlinie sollte beachtet werden,
dass die verwendete Zitierweise obligatorische Angaben für digitale
Ressourcen standardisiert berücksichtigt:
- Persistent Identifier
- Versionsnummer oder ID
- Medien- / Objekttyp verbunden mit einem kontrollierten Vokabular
(z. B. text / html, XML / TEI-P5 usw.)
- Moderne Publikationsformate (z. B. Tweets, Blogs,
Forschungsdaten)
[72]Ein Beispiel dafür wäre folgende Zitation:
[73]Katja Kwastek: Vom Bild zum Bild – Digital Humanities
jenseits des Textes. In: Grenzen und Möglichkeiten der Digital
Humanities. Hg. von Constanze Baum / Thomas Stäcker. 2015 (=
Zeitschrift für digitale Geisteswissenschaften / Sonderbände, 1).
text / html Format. DOI: 10.17175/sb001_002
[74]Durch diese Angabe würden die bisher üblichen Angaben der URL und des
Zugriffszeitpunktes obsolet werden. Denn diese Praxis ist derart
unsicher, dass sie nur als temporär befristetes Phänomen gelten
kann.
5.6 Empfehlungen
5.6.1 Empfehlungen an Forscher*innen
[75]Forscher*innen sollten bei der Zitierung von wissenschaftlichen
Texten auf die Angabe der PID achten und
bei eigenen Publikationsvorhaben Umgebungen bevorzugen, welche die
Vergabe von PID anbieten. Bei der
Publikation von Texten sind Formate und Aufbereitungsmethoden
vorzuziehen, die sich in nachvollziehbarer, möglichst von
Ausführungsumgebung und -zeitpunkt unabhängiger Weise beschreiben
lassen, denn wenn möglich sollte so eine Beschreibung der Prozesse
in den Nachweis der Texte beziehungsweise in die Zitation mit
eingehen. Im Falle von in XML/TEI kodierten
Texten bedeutet dies, dass Validierungsschema und
Prozessierungsmodell anhand der Zitation leicht aufgefunden werden
können, entweder weil sie bereits mit genannt werden, oder weil sie
in der zitierten XML/TEI-Ressource
prominent, persistent und – was die verschiedenen Überarbeitungs-
und Entwicklungsstadien der Prozesse angeht – präzise verlinkt
sind.
[76]Für das Zitieren von anderen Datensichten oder für die besonders auf
die Oberflächen (HTML-Ansichten) von Texten
und von textbasierten Arbeitsergebnissen abhebende Zitation, die je
nach Thema und Fachkultur wichtig sein kann, bietet sich Folgendes
an: Die Wayback Machine des Internet Archive
sichert kontinuierlich Webseiten; einzelne Seiten zur sofortigen
Sicherung anzumelden, ist auf der
archive.org
-Seite[69]
unter
›Save Page Now‹
möglich, was nach erfolgreicher Archivierung
eine persistente URL nach dem Schema
https://web.archive.org/web/20200814074420/https://dig-hum.de/
(mit Datum und Original-URL) zur Verfügung stellt. Diese Adresse
sollte – natürlich mit weiteren Angaben zur zitierten Ressource
sowie mit der Original-Web-Adresse – in Zitationen angegeben werden.
Bei der Publikation von Web-Ressourcen sollte darauf geachtet
werden, dass alle relevanten Informationen zum Erzeugen einer jeden
Ansicht als Parameter in der Adresse enthalten sind, so dass die
Kopie des Webarchivs unter der angegebenen Adresse auch tatsächlich
die gewünschte Ansicht speichert.[70]
5.6.2 Empfehlungen an Anbieter*innen von
Publikationsplattformen
[77]Wie am Beispiel des Internet Archive deutlich wird, ist die
Voraussetzung für eine solche nachhaltige Publikations- und
Zitationspraxis, dass die Anbieter*innen von Publikationsplattformen
neben der Vergabe von PID auch die
langfristige Sicherung und die Versionierung der Texte unterstützen.
Des Weiteren sollten sie über die Nutzungsbedingungen der
Publikationsumgebung ausreichend informieren. Darüber hinaus sollten
die Betreiber*innen der Publikationsplattformen auf eine schnelle
und nutzer*innenfreundliche Auffindbarkeit der Texte und ihrer
Versionen achten. Die Mechanismen der Versionierung und
Identifikation von digitalen Publikationen können nur dann ihre
Wirkung entfalten, wenn die entsprechenden Veröffentlichungen im
Nachweissystem recherchierbar und somit leicht auffindbar sind.
Anstatt Texte also in geschlossenen Systemen zu publizieren, sollten
wissenschaftliche Arbeiten in Open-Access-Repositorien und
-Publikationsdiensten, die standardisierte Publikationsformate
unterstützen, veröffentlicht werden.
5.6.3 Empfehlungen an Förderorganisationen
[78]Diese Punkte sollten bei Projektanträgen auch von den Förderorganisationen als fester Bestandteil
gefordert werden.[71] Gleichzeitig sollte in Rechnung gestellt werden,
dass in einigen der oben diskutierten Bereichen noch keine
etablierten Standards existieren. Zusätzlich sollten
Fördereinrichtungen Publikationsinfrastrukturen honorieren, wenn sie
hier innovative Lösungsmöglichkeiten entwickeln, etwa eine
Verschränkung von Versionierung, langfristiger Archivierung,
persistenter Identifikation und transparenter Adressierung
bewerkstelligen. Die Qualität von Publikationsinfrastrukturen sollte
durch die Vergabe von Zertifikaten und durch das Werben für
Open-Access-Repositorien und -Publikationsdienste gefördert werden.
Pflege und Wartung der Publikationssysteme verbunden mit der Vergabe
von PID erzeugen erhöhte Betriebskosten, so
dass die Publikationsumgebungen auf eine beständige Mittelzuweisung
angewiesen sind. Die Fördereinrichtungen sollten daher schließlich
bedenken, dass eine zuverlässige wissenschaftliche Publikation auch
im Open-Access-Bereich Kosten verursacht.
6. Open-Access-Publizieren
6.1 Das Prinzip der Offenheit
[79]Open Access, »der freie Zugang zu wissenschaftlicher
Information«,[72] verfolgt
das Ziel, dass »allen Menschen Wissen ohne finanzielle, technische
und rechtliche Barrieren im Internet zur Verfügung«
steht.[73] In den letzten Jahren hat im Zuge
der Open-Access-Transformation der Anteil dieser Veröffentlichungen
immer weiter zugenommen. Bedeutendster Meilenstein war die Berliner Erklärung über offenen Zugang zu
wissenschaftlichem Wissen[74], zu der
sich seit der Erstunterzeichnung 2003 immer mehr Vertreter*innen und
Institutionen der internationalen Wissenschaft zu Open Access bekennen.
Die Anzahl der Unterzeichner*innen ist inzwischen auf 658 angestiegen,
laufend kommen neue Institutionen hinzu.[75]
[80]
In der Satzung des DHd heißt es, dass der Verband danach strebt,
»den freien Zugang und die freie Nutzung von Wissensbeständen und
Verfahren (Open Access, Open Source) zu fördern.«[76] Mit diesem Bekenntnis zum
Open-Access-Gedanken wird das Prinzip der Offenheit in einem weiten Sinne verstanden,
wie es die wissenschaftspolitische Forderung nach einer Offenen Wissenschaft
(Open Science beziehungsweise Open Scholarship)
ausdrückt.[77] Dies meint nicht nur
den freien Zugang, sondern auch das Recht auf Vervielfältigung, Nachnutzung und
Weiterverarbeitung von Inhalten. Dabei sollen diese Rechte nicht auf publizierte
Forschungsergebnisse beschränkt bleiben, sondern prinzipiell auch für die zugrundeliegenden
Forschungsdaten (Open Research Data), Zusatzmaterialien (Open Supplementary Material),
Softwareanwendungen (Open Source) sowie für in der Lehre eingesetzte Bildungsressourcen
(Open Educational Resources) gelten. Darüber hinaus sollen Offenheit und Transparenz auch
für Begutachtungsverfahren (Open Peer Review) sowie Indikatoren, die ihre Anwendung im
Zusammenhang mit Evaluations- und Kreditierungsverfahren finden (Open Metrics), gefördert werden.
[81]Das Prinzip der Offenheit dient vor allem zwei Hauptanliegen der
Wissenschaft und damit auch der Digital Humanities.[78] Einerseits soll die
Nachvollziehbarkeit von Forschungsergebnissen gewährleistet werden,
weshalb nicht nur die entstandenen Resultate, sondern auch die im Zuge
ihrer Entstehung durchlaufenen Prozesse transparent sein sollten,
einschließlich der Forschungsdaten (z. B. Textkorpora) und
Softwareanwendungen (z. B. Algorithmen für Textmining) sowie
entsprechender Qualitätssicherungsverfahren. Andererseits soll eine
möglichst umfassende (Nach-)Nutzung von Wissensbeständen und Verfahren
sowohl innerhalb als auch außerhalb der Wissenschaft ermöglicht werden.
Mit Open Access wird nicht zuletzt auch die Auffindbarkeit von
Forschungsergebnissen wesentlich verbessert.[79]
6.2 Open-Access-Wege
[82]Man unterscheidet für Open-Access-Veröffentlichungen zwei grundlegende Publikationsstrategien:
[80]
Erstens den goldenen Weg im Sinne einer Erstveröffentlichung beispielsweise als Artikel in einer
Open-Access-Zeitschrift, als Open-Access-Monografie oder als Beitrag in einem Open-Access-Sammelwerk
und zweitens den grünen Weg im Sinne einer Zweit- beziehungsweise Parallelveröffentlichung
(Preprint, Author Accepted Manuscript / Postprint). Diese kann vor, zeitgleich mit
oder nach der final
publizierten Fassung (Version of Record / Publisher Version) erfolgen, oftmals jedoch
erst nach Ablauf
einer Embargofrist.[81]
Diese Form der Selbstarchivierung findet zumeist auf einem institutionellen oder
disziplinären Open-Access-Repositorium statt, mitunter werden wissenschaftliche Werke
jedoch auch
auf der eigenen Homepage, der Projektwebsite oder in sozialen Wissenschaftsnetzwerken
zugänglich
gemacht. Vielfach wird zudem von einem sogenannten grauen Weg gesprochen, bei dem
verlagsunabhängig und in der Regel ohne ein Qualitätssicherungsverfahren auf einem
Open-Access-Repositorium erstveröffentlicht wird, wobei der Status als Veröffentlichung
analog zu dem
der so genannten grauen Literatur umstritten bleibt. Außerdem verfolgen einige Initiativen
die Strategie,
den goldenen Weg unabhängig von kommerziellen Verlagen gewissermaßen in Eigenregie
(z. B. durch
Verlagsgründung) beziehungsweise mittels Dienstleistungen von Drittanbietern (z. B.
alternative
Publikationsplattformen) umzusetzen, wie zum Beispiel die Open Library of Humanities.[82]
Während beim goldenen Weg die Nutzungs- beziehungsweise Verwertungsrechte zumeist
durch einen
Verlagsvertrag geregelt sind und gegebenenfalls durch die Autor*innen mit Hilfe expliziter
Lizenzierungsformen (z. B. Creative Commons, Open Data Commons) spezifiziert werden
können, bleibt beim grünen Weg eine Zweitveröffentlichung vom Einverständnis des Verlages
abhängig, sofern nicht vorab ein entsprechender Vertragszusatz vereinbart wurde.[83]
Bei Forschungsdaten und Zusatzmaterialien, die auch unabhängig von der eigentlichen
Ergebnis-
oder Schlusspublikationen veröffentlicht werden können, bieten sich vor allem spezielle
Open-Access-Forschungsdatenrepositorien an, die eigenständige persistente Identifikatoren
(z. B. DOI, URN, Handle) vergeben sowie die Möglichkeit bieten, entsprechende Lizenzierungen
zu spezifizieren.[84]
6.3 Haltung der Förderorganisationen zu Open Access
[83]Zu den Unterzeichner*innen der Berliner Erklärung über den offenen Zugang zu
wissenschaftlichem Wissen von 2003 gehören u. a. die Deutsche Forschungsgemeinschaft
(DFG), der Fonds zur Förderung der wissenschaftlichen Forschung in
Österreich (FWF) und der Schweizerische Nationalfonds (SNF).[85]
[84]Die DFG verpflichtet ihre Bewilligungsempfänger*innen nicht zur Veröffentlichung der
Projektergebnisse in Open Access, spricht aber eine Empfehlung dazu aus. Als
Wege der Publikation werden sowohl der grüne als auch der goldene Weg genannt
und für Zweitveröffentlichungen besonders auf Repositorien
verwiesen.[86] Weiter geht
das Bundesministerium für Bildung und Forschung (BMBF), das die Publikation von
Zeitschriftenaufsätzen für geförderte Projekte in Open Access als verpflichtend erklärt
und für Monografien als begrüßenswert.[87]
[85]Die Fördernehmer*innen des FWF sind zur Open-Access-Publikation verpflichtet.[88]
Als Wege der Publikation werden auch hier sowohl der grüne als auch der goldene
Weg angesprochen. Die Embargofrist darf dabei nicht mehr als 12 Monate betragen.
Zusätzlich werden die Autor*innen zur Archivierung ihrer Publikationen auf einem fachlichen
und / oder institutionellen Repositorium verpflichtet. Und auch »[f]ür Forschungsdaten, die den
wissenschaftlichen Publikationen des Projekts zugrunde liegen, ist der offene Zugang
verpflichtend.«[89]
[86]Der SNF verpflichtet seine Beitragsempfänger*innen ebenfalls grundsätzlich dazu ihre
Forschungsergebnisse in Open Access zu veröffentlichen. Dabei gilt die Open-Access-Verpflichtung
sowohl bei einer Publikation über den goldenen als auch über den grünen Weg als erfüllt,
wenn die Bücher oder Aufsätze spätestens 12 Monate nach der Verlagspublikation frei
zugänglich sind.[90]
6.4 Finanzierungs- beziehungsweise Geschäftsmodelle
[87]Da Open-Access-Publikationen zwar nicht auf der Rezeptionsseite, aber
sehr wohl auf der Produktions- und Angebotsseite mit Kosten verbunden
sind, werden verschiedene Finanzierungs- beziehungsweise
Geschäftsmodelle unterschieden. Beispielsweise werden beim Author-Pays-Modell die Kosten von den Autor*innen
beziehungsweise mittelbar von ihren jeweiligen Institutionen oder
Forschungsförderungsorganisationen durch die Bezahlung einer
Publikationsgebühr (Article Processing Charges
(APCs) oder Book Processing Charges (BPCs))
getragen, analog zu den traditionellen Druckkostenzuschüssen. Über
Open-Access-Publikationsfonds, bei denen die Autor*innen die Beteiligung
an Publikationskosten beantragen können, sowie über
Open-Access-Verlagsabkommen werden APCs / BPCs zunehmend von
Forschungsinstitutionen oder Konsortien übernommen. Ein umstrittenes
Finanzierungsmodell stellt das so genannte Hybrid-Open-Access dar, bei dem ein einzelner Artikel einer
Closed-Access-Zeitschrift durch Entrichtung einer Gebühr ›freigekauft‹
wird. Kritiker*innen weisen darauf hin, dass in diesem Fall unter
Umständen eine Mehrfachfinanzierung (Double
Dipping) durch die öffentliche Hand droht, da einerseits die
Open-Access-Gebühr anfällt und andererseits die ohnehin zumeist von
Bibliotheken getragene Subskription der Zeitschrift, die in der Regel in
sogenannten Paketen erfolgt, so dass eine selektive Abbestellung
entsprechender Titel nicht möglich ist. ›Transformative‹ Open-Access-Abkommen sollen sicherstellen,
dass Zeitschriften vom Subskriptionsmodell dauerhaft auf Open Access
umgestellt werden. Weitere Varianten sind etwa das sogenannte Freemium-Modell, bei dem die Grundversion einer
Publikation Open Access erscheint und bei Bedarf eine kostenpflichtige
Version mit Zusatzfunktionen beziehungsweise -material zur Verfügung
steht, sowie Crowdfunding-Modelle und Open-Access-Konsortien.[91]
6.5 Rechtliche Rahmenbedingungen
[88]Open-Access-Publikationen sind an rechtliche Rahmenbedingungen gebunden,
die im deutschsprachigen Raum vor allem durch das jeweils geltende Urheberrechtsgesetz
vorgegeben werden.[92] Während das Urheberrecht selbst – im kontinentaleuropäischen Raum
– unveräußerlich ist, können einfache oder ausschließliche Nutzungsrechte übertragen
werden.
Üblicherweise werden bei Verlagsverträgen Rechte exklusiv übertragen, was die Möglichkeiten
für eine zusätzliche Open-Access-Publikation im Sinne des grünen Weges wesentlich
einschränkt.[93]
Daher empfiehlt es sich, bei Verlagsverhandlungen einen entsprechenden Zusatz auszuhandeln,
der weitere Verwertungsoptionen sowie etwaige Sperr- beziehungsweise
Embargofristen regelt.[94]
Weitere Optionen für Urheber*innen ergeben sich unter Umständen durch das Zitatrecht,
das
Zweitveröffentlichungsrecht (in Österreich: Zweitverwertungsrecht) sowie die im Zusammenhang
mit der deutschen Urheberrechtsreform diskutierte Bildungs- und Wissenschaftsschranke.
Allerdings gelten diese Regelungen eher als restriktiv. So ist zum Beispiel das Zitatrecht
bei
Texten auf einen geringen prozentualen Anteil limitiert und bei Bildern (Lichtbilder
beziehungsweise Lichtbildwerke) ebenfalls stark eingeschränkt, insbesondere für eine
mögliche
Weiterverarbeitung, Vervielfältigung und (Online-)Zurverfügungstellung im Sinne von
Open-Access-Publikationen. Das mittlerweile gesetzlich verankerte Zweitveröffentlichungsrecht,
das als ein Instrument zur Förderung des grünen Weges von Open-Access-Publikationen
angesehen werden kann, wird durch mehrere Vorbedingungen eingeschränkt und ist somit
für zahlreiche Publikationen nicht anwendbar.
6.6 Lizenzierungsformen
[89]Für Open-Access-Publikationen kann eine Spezifizierung der Nutzungs-
beziehungsweise Verwertungsrechte mit Hilfe von Open-Content-Lizenzen vorgenommen werden, wie beispielsweise
der Creative-Commons-Lizenzen (CC), der Free-Documentation-Lizenz der GNU-Initiative (GFDL), den Digital-Peer-Publishing-Lizenzen oder der Open-Data-Commons-Lizenz.[95] Die Rechteinhaber*innen sind damit in der Lage, die
komplizierten und international nicht einheitlichen Regelungen des
Urheberrechtes beziehungsweise Copyright Laws durch eine leicht
handhabbare, transparente und allgemein verständliche Vergabe von
Rechten und Pflichten zu ersetzen. Ein Beispiel für
Open-Content-Lizenzierungsformen bieten die weit verbreiteten
Creative-Commons-Lizenzen[96]:
- BY: Namensnennung
- BY-SA: Namensnennung-Weitergabe unter gleichen Bedingungen
- BY-NC: Namensnennung-Nicht Kommerziell
- BY-NC-SA: Namensnennung-Nicht Kommerziell-Weitergabe unter
gleichen Bedingungen
- BY-ND: Namensnennung-Keine Bearbeitung
- BY-NC-ND: Namensnennung-Nicht Kommerziell-Keine Bearbeitung
6.7 Publikationsplattformen
[90]Für die Open-Access-Veröffentlichung ihrer Forschungsergebnisse
können Autor*innen mittlerweile aus einer großen Anzahl von
Publikationsplattformen und Infrastrukturen wählen.[97] Dabei kann
grundsätzlich zwischen gewinnorientierten und nicht gewinnorientierten
Anbietern unterschieden werden. Zu ersteren werden insbesondere
traditionelle kommerzielle Verlage gezählt, während institutionell getragene
oder von Wissenschaftler*innen geführte (academic-led) Verlage,
Zeitschriften und Publikationsplattformen (darunter auch Repositorien)
zumeist nicht gewinnorientiert operieren. Im Folgenden werden die
wichtigsten einschlägigen Verzeichnisse kurz vorgestellt.
[91]Einen Überblick darüber, welche Verlage Open-Access-Publikationsmöglichkeiten
bieten, gibt das Mitgliederverzeichnis der Open Access Scholarly Publishers Association
(OASPA), wobei Open-Access-Monografien und
-Sammelwerken beispielsweise im Directory of Open Access Books und
Open-Access-Editionen im Catalogue of Digital Editions recherchiert
werden kann.[98]
Reine Open-Access-Journals (d. h. keine Hybrid- Open-Access-Zeitschriften)
finden sich im Directory of Open Access Journals, Forschungsdatenrepositorien im re3data
– Registry of Research Data Repositories verzeichnet.[99]
6.8 Empfehlungen
6.8.1 Autor*innen / DH-Community
[92]Autor*innen sollten sich der Bandbreite der möglichen
Publikationsstrategien sowie ihrer Spielräume bei der Aushandlung
von Verlagsverträgen (z. B. Vertragszusätze) bewusst sein und
Verlagen die Verwertungsrechte an ihren
Publikationen nicht exklusiv übertragen.
[93]Wenn Autor*innen die entsprechenden Verwertungsrechte an den Verlag
übertragen haben, sollten sie jedenfalls von ihrem
Zweitveröffentlichungsrecht / Zweitverwertungsrecht Gebrauch machen
und die jeweils erlaubte Fassung ihrer Verlagspublikationen als
Open-Access-Publikation zur Verfügung stellen.
[94]Es wird ein aktives Open-Access-Publizieren einschließlich offener
Forschungsdaten etc. empfohlen. Die Entscheidung für / gegen den
grünen oder goldenen Weg sowie Open-(Research-)Data etc. sollten
die Autor*innen allerdings immer abhängig von den jeweiligen
ethischen, rechtlichen und finanziellen Rahmenbedingungen in jedem
Einzelfall treffen.
[95]Die Möglichkeiten der (Nach-)Nutzung von Publikationen,
Forschungsdaten etc. sollten über urheberrechtliche Regelungen
hinaus durch Open-Content-Lizenzen explizit
gemacht werden. Die Spezifizierung von Open-Content-Lizenzen sollten
möglichst wenig restriktiv sein, sondern so frei und offen wie
möglich (z. B. CC BY).
[96]Wissenschaftler*innen sollten ihrerseits Open-Content-Angebote (z. B. Open Research Data, Open
Supplementary Material, Open Source) nachnutzen.
[97]Autor*innen sollten insbesondere bei Open-Access-Veröffentlichungen
prüfen, ob der in Frage stehende Verlag als
vertrauenswürdig angesehen werden kann, da einige betrügerische
Anbieter Open-Access-Geschäftsmodelle (aus-)nutzen.[100]
6.8.2 Politik
[98]Der Standardfall bei der Rechteübertragung an
Verlage sollte nicht mehr in einer automatischen Übertragung von
ausschließlichen, sondern lediglich in einer von einfachen
Nutzungsrechten bestehen.
[99]Mit der Einführung einer Bildungs- und
Wissenschaftsschranke (in Deutschland), beziehungsweise freien Werknutzung (in Österreich) im Rahmen
des Urheberrechts sollten auch Möglichkeiten für einen freien Zugang
zu möglichst allen unterschiedlichen Publikationsformen und zu deren
Nachnutzung – vergleichbar der Fair-Use-Regelung des US Copyright
Law – entwickelt werden.
[100]Das bestehende Zitatrecht insbesondere für
Lichtbilder beziehungsweise Lichtbildwerke sowie Ton-
beziehungsweise Filmaufnahmen sollte wissenschaftsfreundlich
erweitert werden.
[101]Das bestehende Zweitveröffentlichungsrecht / Zweitverwertungsrecht sollte im Sinne der
Autor*innen weiter liberalisiert werden, sodass zukünftig
beispielsweise auch Buchkapitel und Beiträge in Sammelbänden oder
ganze Bücher im Zuge einer Zweitveröffentlichung rechtssicher Open
Access verfügbar gemacht werden können.
[102]Die Grundausrichtung einer offenen Wissenschaft (Open Science /
Open Scholarship) sollte über den Beschluss entsprechender
Positionspapiere und Absichtserklärungen hinaus nachhaltig gefördert werden.
6.8.3 Förderorganisationen und Forschungseinrichtungen
[103]Die wissenschaftspolitischen Vorgaben und Empfehlungen hinsichtlich
einer offenen Wissenschaft (Open Science / Open Scholarship) sollten
konsequenter gefördert und umgesetzt werden.
[104]Open-Access-Publikationen (einschließlich offener Forschungsdaten
etc.) von Autor*innen sollten in der Forschungsbewertung besonders honoriert werden.
[105]Für Bibliotheken sollte eine sukzessive anteilige Umwidmung von
Erwerbungsmitteln zur Finanzierung offener
digitaler Publikationen, Infrastrukturen und Services vorgesehen
sein.[101]
[106]Institutionelle Publikationsfonds zur Finanzierung der Gebühren von
Open-Access-Publikationen sollten langfristig abgesichert
werden.
[107]Die Förderung von Geschäftsmodellen, die auf Mehrfachfinanzierungen
(Double Dipping) durch die öffentliche
Hand abzielen, sollte zukünftig zunehmend unterbunden werden.
[108]Es sollten fachspezifische Kriterien und Anreizsysteme für den Aufbau
und die Förderung von Open-Science-Infrastrukturen
und -Services entwickelt werden, insbesondere Prozesse zur
Standardisierung beziehungsweise Interoperabilität.
[109]Infrastrukturleistungen (z. B. Aufbau, Betrieb
und Weiterentwicklung von Open-Science-Infrastrukturen,
Programmieren von Softwareanwendungen) sollten mehr Anerkennung
finden und bei der Kreditierung entsprechend berücksichtigt
werden.
6.8.4 Verlage
[110]Verlage sollten zeitgemäße und möglichst modularisierte
Dienstleistungen für digitale Publikationen entwickeln und
anbieten.
[111]Open-Access-Angebote von Verlagen sollten nicht nur auf den Zugang
(Leserecht) beschränkt bleiben, sondern möglichst offene Lizenzen
bieten, die auch das Recht auf Vervielfältigung, Weiterbearbeitung
und Langzeitarchivierung einschließen.